Mensaje de Gate News, 23 de abril — El equipo de ingeniería de Anthropic confirmó que la degradación de la calidad de Claude Code reportada por los usuarios durante el mes pasado se debió a tres cambios independientes a nivel de producto, no a problemas de la API ni del modelo subyacente. Los tres problemas se solucionaron el 7 de abril, el 10 de abril y el 20 de abril, respectivamente, con la versión final ahora en v2.1.116.
El primer cambio ocurrió el 4 de marzo, cuando el equipo redujo el nivel de esfuerzo de razonamiento predeterminado para Claude Code de “high” a “medium” para abordar picos ocasionales de latencia extrema en Opus 4.6 bajo alta intensidad de razonamiento. Después de quejas generalizadas de los usuarios sobre el rendimiento reducido, el equipo revirtió el cambio el 7 de abril. El valor predeterminado actual es ahora “xhigh” para Opus 4.7 y “high” para otros modelos.
El segundo problema fue un bug introducido el 26 de marzo. El sistema estaba diseñado para borrar registros antiguos de razonamiento después de que la inactividad de la conversación superara una hora para reducir los costos de recuperación de sesión. Sin embargo, una falla en la implementación hizo que el borrado se ejecutara repetidamente en cada turno posterior en lugar de una sola vez, lo que provocó que el modelo perdiera progresivamente el contexto de razonamiento previo. Esto se manifestó como un aumento de la falta de memoria, operaciones repetidas e invocaciones anómalas de herramientas. El bug también provocó fallos de caché en cada solicitud, acelerando el consumo de la cuota de los usuarios. Dos experimentos internos no relacionados enmascararon las condiciones de reproducción, extendiendo el proceso de depuración a más de una semana. Después de la corrección el 10 de abril, el equipo revisó el código problemático usando Opus 4.7 y descubrió que Opus 4.7 podía identificar el bug, mientras que Opus 4.6 no.
El tercer cambio se lanzó el 16 de abril junto con Opus 4.7. El equipo agregó instrucciones al mensaje del sistema para reducir la salida redundante. Las pruebas internas durante varias semanas no mostraron regresión, pero después del lanzamiento la interacción con otros prompts degradó la calidad de la codificación. La evaluación extendida reveló una caída del 3% en el rendimiento tanto en Opus 4.6 como en 4.7, lo que llevó a un rollback el 20 de abril.
Estos tres cambios afectaron a diferentes grupos de usuarios en distintos momentos, y su efecto combinado creó una caída generalizada e inconsistente de la calidad, complicando el diagnóstico. Anthropic afirmó que ahora requerirá a más empleados internos que usen la misma versión pública de compilación que los usuarios, que ejecuten suites completas de evaluación del modelo para cada modificación del prompt del sistema y que implementen periodos de despliegue por etapas. Como compensación, Anthropic ha restablecido las cuotas de uso para todos los usuarios con suscripción.
Artículos relacionados
La plataforma financiera de IA Rogo recauda $160M en la Serie D liderada por Kleiner Perkins en menos de 3 meses
China bloquea la adquisición de Manus por Meta, respaldada por Meta, el 29 de abril, citando preocupaciones sobre seguridad tecnológica y de datos
Alibaba Cloud Reduce el Precio de la Caché Implícita de DeepSeek-V4-Pro a 1 Yuan por Millón de Tokens el 29 de Abril
La plataforma de IA Certifyde recauda $2M en financiación semilla con el CEO de Ripple, Brad Garlinghouse
DeepSeek Lanza Función de Reconocimiento de Imágenes en Pruebas Beta
Anthropic Lanza 8 Conectores de Herramientas Creativas para Claude, Incluyendo Blender, Adobe, Autodesk