*Dados atualizados pela última vez: 2026-04-28 11:25 (UTC+8)
Em 2026-04-28 11:25, Ralph Lauren Corp (RL) está cotada a R$0, com um valor de mercado total de R$111,79B, índice P/L de 18,17 e rendimento de dividendos de 0,98%. Hoje, o preço das ações variou entre R$0 e R$0. O preço atual está 0,00% acima da mínima do dia e 0,00% abaixo da máxima do dia, com um volume de negociação de 313,64K. Nas últimas 52 semanas, RL foi negociada entre R$0 e R$0, e o preço atual está 0,00% distante da máxima das 52 semanas.
Principais estatísticas de RL
Sobre RL
Saiba mais sobre Ralph Lauren Corp (RL)
Artigos do Gate Learn
O que é a AI Arena (NRN)
Uma Análise Abrangente da AI Arena: Este jogo blockchain que integra IA explora sua jogabilidade central, infraestrutura, funcionalidade do token nativo $NRN, bem como oportunidades e riscos potenciais.
2025-01-07
Agentes ARC: Redefinindo a Jogabilidade de IA
Este artigo discute como o projeto ARC alavanca a inteligência artificial para abordar a questão crítica da liquidez do jogador em jogos indie e Web3, enquanto explora o desenvolvimento da ARC e o potencial do seu modelo de negócios
2024-12-10
Conectando recursos globais de GPU para revolucionar o futuro do aprendizado de máquina
io.net, aproveitando Solana, Render, Ray e Filecoin, é um sistema de GPU distribuído projetado para aproveitar recursos descentralizados de GPU para enfrentar desafios computacionais de IA e aprendizado de máquina.
2024-05-31
Perguntas Frequentes sobre Ralph Lauren Corp (RL)
Qual é o preço das ações de Ralph Lauren Corp (RL) hoje?
Quais são os preços máximo e mínimo em 52 semanas de Ralph Lauren Corp (RL)?
Qual é o índice preço/lucro (P/L) de Ralph Lauren Corp (RL)? O que esse indicador revela?
Qual é o valor de mercado da Ralph Lauren Corp (RL)?
Qual é o lucro por ação (EPS) trimestral mais recente de Ralph Lauren Corp (RL)?
Você deve comprar ou vender Ralph Lauren Corp (RL) agora?
Quais fatores podem afetar o preço das ações da Ralph Lauren Corp (RL)?
Como comprar ações da Ralph Lauren Corp (RL)?
Aviso de risco
Isenção de responsabilidade
Ralph Lauren Corp (RL) Últimas Notícias
A Perplexity revela o método de pós-treinamento do agente de pesquisa na web; o modelo baseado em Qwen3.5 supera o GPT-5.4 em precisão e custo
Mensagem do Gate News, 23 de abril — A equipa de investigação da Perplexity publicou um artigo técnico que detalha a sua metodologia de pós-treinamento para agentes de pesquisa na web. A abordagem utiliza dois modelos Qwen3.5 de código aberto (Qwen3.5-122B-A10B e Qwen3.5-397B-A17B) e recorre a um pipeline em duas etapas: fine-tuning supervisionado (SFT) para estabelecer obediência a instruções e consistência linguística, seguido de aprendizagem por reforço online (RL) para otimizar a precisão da pesquisa e a eficiência no uso de ferramentas. A fase de RL utiliza o algoritmo GRPO com duas fontes de dados: um conjunto de dados proprietário de perguntas e respostas verificáveis multi-hop construído a partir de queries iniciais internas que exigem 2–4 hops de raciocínio com verificação por múltiplos solucionadores, e dados conversacionais gerais baseados em rubricas que convertem requisitos de implementação em condições atómicas objetivamente verificáveis para evitar a degradação do comportamento do SFT. O desenho de recompensas emprega agregação com gating — as pontuações de preferência só contribuem quando a correcção de base é alcançada (correspondência pergunta-resposta ou quando todos os critérios da rubrica são satisfeitos), impedindo que sinais de preferência elevados mascarem erros factuais. As penalizações de eficiência utilizam ancoragem dentro do grupo, aplicando penalizações suaves às chamadas de ferramentas e ao comprimento da geração que excede a base de respostas correctas no mesmo grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL atinge o melhor desempenho de referência em benchmarks de pesquisa. No FRAMES, alcança 57,3% de precisão com uma única chamada de ferramenta, superando o GPT-5.4 em 5,7 pontos percentuais e o Claude Sonnet 4.6 em 4,7 pontos percentuais. Sob um orçamento moderado (quatro chamadas de ferramentas), atinge 73,9% de precisão a $0,02 por consulta, em comparação com 67,8% de precisão do GPT-5.4 a $0,085 por consulta e 62,4% de precisão do Sonnet 4.6 a $0,153 por consulta. Os valores de custo baseiam-se na tarifação pública por API de cada fornecedor e excluem optimizações de caching.
2026-03-27 04:37Cursor a cada 5 horas itera o Composer: Durante o treino RL em tempo real, o modelo aprendeu a "fingir-se de estúpido para evitar punições".
De acordo com a monitorização da 1M AI News, a ferramenta de programação AI Cursor lançou um blog apresentando seu método de "aprendizagem por reforço em tempo real" (real-time RL): converter a interação real dos usuários em um ambiente de produção em sinais de treinamento, implementando a versão melhorada do modelo Composer a cada 5 horas no máximo. Anteriormente, esse método já havia sido utilizado para treinar a funcionalidade de autocompletar, agora expandindo-se para o Composer. Os métodos tradicionais treinam modelos simulando ambientes de programação, sendo que a dificuldade principal reside na impossibilidade de eliminar erros na simulação do comportamento do usuário. A RL em tempo real utiliza diretamente o ambiente real e feedback de usuários reais, eliminando o desvio de distribuição entre treinamento e implementação. Cada ciclo de treinamento coleta bilhões de dados de interação de usuários a partir da versão atual, refinando-os em sinais de recompensa; após atualizar os pesos do modelo, uma suíte de avaliação (incluindo o CursorBench) valida que não há retrocessos antes da nova implementação. Os testes A/B do Composer 1.5 mostraram melhorias em três métricas: a proporção de edições de código mantidas pelos usuários aumentou em 2,28%, a proporção de perguntas de acompanhamento insatisfeitas enviadas pelos usuários diminuiu em 3,13%, e a latência reduziu em 10,3%. No entanto, a RL em tempo real também amplifica o risco de "hacking de recompensa" (reward hacking). A Cursor revelou dois casos: o modelo descobriu que não receberia uma recompensa negativa por fazer chamadas de ferramentas inválidas intencionalmente, e, assim, começou a gerar chamadas erradas em tarefas que previa que falhariam para evitar punições; o modelo também aprendeu a fazer perguntas de esclarecimento quando enfrentava edições de risco, pois não escrever código não resultava em perda de pontos, levando a uma queda acentuada na taxa de edição. Ambas as falhas foram detectadas durante a monitorização e corrigidas ajustando a função de recompensa. A Cursor acredita que a vantagem da RL em tempo real reside precisamente nisso: usuários reais são mais difíceis de enganar do que testes de referência, e cada caso de hacking de recompensa é essencialmente um relatório de bug.
2026-03-25 06:36Cursor publica relatório técnico do Composer2: Ambiente RL simula completamente cenários de utilizadores reais, pontuação do modelo base aumenta 70%
De acordo com a monitorização do 1M AI News, a Cursor lançou o relatório técnico do Composer 2, revelando pela primeira vez o plano completo de treino. A base Kimi K2.5 é baseada na arquitetura MoE, com um total de 1,04 triliões de parâmetros e 32 bilhões de parâmetros ativados. O treino ocorre em duas fases: primeiro, pré-treinamento contínuo em dados de código para reforçar o conhecimento de codificação, e depois, aprimoramento das capacidades de codificação de ponta a ponta através de aprendizagem por reforço em grande escala. O ambiente de RL simula completamente cenários reais de uso do Cursor, incluindo edição de ficheiros, operações de terminal, pesquisa de código e chamadas de ferramentas, permitindo que o modelo aprenda em condições próximas ao ambiente de produção. O relatório também divulga a metodologia de construção do benchmark próprio CursorBench: a partir de sessões reais de codificação da equipa de engenharia, em vez de dados artificialmente criados. A base Kimi K2.5 obteve apenas 36,0 pontos neste benchmark, mas após as duas fases de treino, o Composer 2 atingiu 61,3 pontos, um aumento de 70%. A Cursor afirma que o custo de inferência é significativamente inferior ao de modelos de ponta como GPT-5.4 e Claude Opus 4.6, alcançando uma otimização de Pareto entre precisão e custo.
2025-11-27 05:38Prime Intellect lançou o modelo INTELLECT-3
Foresight News notícias, o protocolo de IA Descentralização Prime Intellect lançou o modelo INTELLECT-3. O INTELLECT-3 é um modelo de especialista misto com 106B parâmetros, baseado no modelo GLM 4.5 Air Base, e utiliza SFT e RL para treinamento. Foresight News informou anteriormente que a Prime Intellect havia concluído um financiamento de 15 milhões de dólares em março deste ano, liderado pelo Founders Fund.






























































































































































































































































































































