Mensagem do Gate News, 23 de abril — A equipa de engenharia da Anthropic confirmou que a degradação da qualidade do Claude Code reportada pelos utilizadores ao longo do último mês resultou de três alterações independentes na camada de produto, e não de problemas na API ou no modelo subjacente. Os três problemas foram corrigidos a 7 de abril, 10 de abril e 20 de abril, respetivamente, com a versão final agora na v2.1.116.
A primeira alteração ocorreu a 4 de março, quando a equipa reduziu o nível de esforço de raciocínio predefinido do Claude Code de “high” para “medium” para abordar picos ocasionais e extremos de latência no Opus 4.6 sob elevada intensidade de raciocínio. Após reclamações generalizadas de utilizadores sobre desempenho reduzido, a equipa reverteu a alteração em 7 de abril. O valor predefinido atual é agora “xhigh” para o Opus 4.7 e “high” para outros modelos.
O segundo problema foi um bug introduzido a 26 de março. O sistema foi concebido para limpar registos antigos de raciocínio após a inatividade na conversa exceder uma hora, de modo a reduzir os custos de recuperação da sessão. No entanto, uma falha na implementação fez com que a limpeza fosse executada repetidamente em cada turno subsequente em vez de uma única vez, levando o modelo a perder progressivamente o contexto de raciocínio anterior. Isso manifestou-se como aumento de esquecimento, operações repetidas e invocações anormais de ferramentas. O bug também resultou em faltas de cache em cada pedido, acelerando o consumo das quotas dos utilizadores. Dois testes internos não relacionados mascararam as condições de reprodução, alargando o processo de depuração para mais de uma semana. Após a correção em 10 de abril, a equipa analisou código problemático usando o Opus 4.7 e verificou que o Opus 4.7 conseguia identificar o bug, enquanto o Opus 4.6 não conseguia.
A terceira alteração foi lançada a 16 de abril em conjunto com o Opus 4.7. A equipa adicionou instruções ao prompt do sistema para reduzir a saída redundante. Testes internos ao longo de várias semanas não mostraram regressão, mas após o lançamento, a interação com outros prompts degradou a qualidade da codificação. Uma avaliação alargada revelou uma queda de 3% no desempenho tanto no Opus 4.6 como no 4.7, levando a uma reversão a 20 de abril.
Estas três alterações afetaram grupos de utilizadores diferentes em momentos diferentes, e o efeito combinado criou uma queda de qualidade generalizada e inconsistente, dificultando o diagnóstico. A Anthropic afirmou que agora será necessário envolver mais funcionários internos para utilizarem a mesma versão pública de compilação que os utilizadores, executarem conjuntos completos de avaliação do modelo para cada modificação de prompt do sistema e implementarem períodos de rollout faseado. Como compensação, a Anthropic repôs as quotas de utilização de todos os utilizadores com subscrição.
Related Articles
Modelos da OpenAI para migrar gradualmente para o chip personalizado Trainium da Amazon, diz Altman; afirma que está a "olhar em frente"
Altman: A precificação por tokens está a tornar-se obsoleta à medida que o GPT-5.5 muda o foco para a conclusão de tarefas em vez da contagem de tokens
Modelo Ling-2.6-flash da Ant Group disponibilizado em código aberto: 104B Parâmetros Com 7,4B Activos, Atinge Múltiplos Benchmarks SOTA
Sam Altman publica capturas de ecrã do Codex em modo duplo, com a separação oficial entre as funções de escritório e de programação
O Codex da OpenAI lança uma interface em dois modos: Excelmogging para trabalho de escritório, Codemaxxing para programação
Mídia norte-americana: um projecto de ordem executiva da Casa Branca permite a entrada do modelo Anthropic Mythos no governo