Mensagem do Gate News, 23 de abril — A equipa de engenharia da Anthropic confirmou que a degradação da qualidade do Claude Code reportada pelos utilizadores ao longo do último mês resultou de três alterações independentes na camada de produto, e não de problemas na API ou no modelo subjacente. Os três problemas foram corrigidos a 7 de abril, 10 de abril e 20 de abril, respetivamente, com a versão final agora na v2.1.116.
A primeira alteração ocorreu a 4 de março, quando a equipa reduziu o nível de esforço de raciocínio predefinido do Claude Code de “high” para “medium” para abordar picos ocasionais e extremos de latência no Opus 4.6 sob elevada intensidade de raciocínio. Após reclamações generalizadas de utilizadores sobre desempenho reduzido, a equipa reverteu a alteração em 7 de abril. O valor predefinido atual é agora “xhigh” para o Opus 4.7 e “high” para outros modelos.
O segundo problema foi um bug introduzido a 26 de março. O sistema foi concebido para limpar registos antigos de raciocínio após a inatividade na conversa exceder uma hora, de modo a reduzir os custos de recuperação da sessão. No entanto, uma falha na implementação fez com que a limpeza fosse executada repetidamente em cada turno subsequente em vez de uma única vez, levando o modelo a perder progressivamente o contexto de raciocínio anterior. Isso manifestou-se como aumento de esquecimento, operações repetidas e invocações anormais de ferramentas. O bug também resultou em faltas de cache em cada pedido, acelerando o consumo das quotas dos utilizadores. Dois testes internos não relacionados mascararam as condições de reprodução, alargando o processo de depuração para mais de uma semana. Após a correção em 10 de abril, a equipa analisou código problemático usando o Opus 4.7 e verificou que o Opus 4.7 conseguia identificar o bug, enquanto o Opus 4.6 não conseguia.
A terceira alteração foi lançada a 16 de abril em conjunto com o Opus 4.7. A equipa adicionou instruções ao prompt do sistema para reduzir a saída redundante. Testes internos ao longo de várias semanas não mostraram regressão, mas após o lançamento, a interação com outros prompts degradou a qualidade da codificação. Uma avaliação alargada revelou uma queda de 3% no desempenho tanto no Opus 4.6 como no 4.7, levando a uma reversão a 20 de abril.
Estas três alterações afetaram grupos de utilizadores diferentes em momentos diferentes, e o efeito combinado criou uma queda de qualidade generalizada e inconsistente, dificultando o diagnóstico. A Anthropic afirmou que agora será necessário envolver mais funcionários internos para utilizarem a mesma versão pública de compilação que os utilizadores, executarem conjuntos completos de avaliação do modelo para cada modificação de prompt do sistema e implementarem períodos de rollout faseado. Como compensação, a Anthropic repôs as quotas de utilização de todos os utilizadores com subscrição.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
O lucro operacional da LG CNS aumenta 19% no 1.º trimestre com o crescimento da IA e da cloud
De acordo com o Chosun Daily, a LG CNS informou a 30 de abril que o lucro operacional do primeiro trimestre aumentou 19,4% face ao ano anterior, para 94,2 mil milhões de won (64,1 milhões de dólares), impulsionado pela procura de IA e de cloud. A receita subiu 8,6% para 1,3 bilião de won (894 milhões de dólares).
A unidade de IA e de cloud da empresa gerou 765,4 bili
GateNews11m atrás
OpenAI lança GPT-5.5-Cyber: confronto com a Anthropic Mythos
A OpenAI anunciou o lançamento do GPT-5.5-Cyber, concebido especificamente para segurança informática, a ser disponibilizado «nos próximos dias» por meio de um mecanismo de acesso confiável em colaboração com o governo, para unidades de defesa críticas, sem venda ao público. Em contraste com a via aberta do Anthropic Mythos, a Casa Branca opõe-se à expansão para 70 entidades. O Preparedness Framework atribuiu uma classificação High (não chegou a critical), e simultaneamente reforçou as protecções de cibersegurança. Acompanhar em seguida a lista de entidades que receberão a implementação, a possível inclusão da CISA e as diferenças nos padrões de segurança entre as duas partes.
ChainNewsAbmedia45m atrás
A receita do 1.º trimestre da Schneider Electric atinge 9,8 mil milhões de euros, impulsionada em 11,2% pela procura de centros de dados impulsionada por IA
De acordo com a Reuters, a Schneider Electric reportou receitas no primeiro trimestre de 9,8 mil milhões de euros (11,4 mil milhões de dólares) a 30 de abril, com o crescimento orgânico a subir para 11,2% devido à procura de data centers impulsionada pela IA. O fornecedor francês de equipamento de energia e refrigeração disse que o resultado ficou ligeiramente acima das estimativas de consenso e
GateNews51m atrás
A Protum angaria uma ronda Seed de 2 milhões de dólares para uma plataforma de governação de IA, com vista a um fecho em junho de 2026
De acordo com o TechCrunch Startup Spotlight, a Protum, uma startup de governação de IA, está a angariar uma ronda de seed de 2 milhões de dólares, com o objetivo de a fechar até junho de 2026. Fundada por Sandeep J., que traz 25 anos de experiência na transformação empresarial, a Protum fornece uma plataforma concebida para dar às empresas contínua
GateNews1h atrás
A vaga de despedimentos nas empresas poderá levar a um cenário de perdas para trabalhadores e empregadores em simultâneo; o estudo recomenda: criar um imposto sobre a automação com IA
Os estudos apontam uma externalidade da necessidade de despedimentos em massa atribuídos à IA: os custos dos despedimentos são suportados apenas pelas empresas, mas a perda do poder de compra é suportada pelo mercado no seu conjunto; quanto mais se despede, mais a procura se contrai, e ambos perdem. Propõe-se a cobrança de um imposto sobre a automatização com IA, para internalizar os custos externos, e o uso do produto da tributação para financiar a requalificação, com o objetivo de recuperar a procura e estabilizar a economia.
ChainNewsAbmedia1h atrás
Claude 会 cobrar imposto sobre linguagem? Estudo revela que a tradução de conteúdos em chinês, japonês e coreano consome mais token, quase 3 vezes
O investigador Komatsuzaki apontou no X que os tokenizadores dos LLMs mais comuns têm um imposto linguístico para as línguas não inglesas. Ao traduzir o teste em 《The Bitter Lesson》, o Claude registou aumentos de tokens no hindi, árabe, russo e chinês de cerca de 3,24×, 2,86×, 2,04× e 1,71×, respetivamente, valores claramente superiores aos da OpenAI. Os modelos nativos da China são mais amigáveis com o chinês, sugerindo que os dados de treino tendenciam para o inglês, criando desigualdades de custos que se tornaram um entrave à popularização.
ChainNewsAbmedia1h atrás