Después de que la IA se convirtiera en un equipo estándar para las empresas, un fenómeno que en el pasado se consideraba un “problema de percepción” está saliendo rápidamente a la superficie: los LLM (modelos de lenguaje a gran escala) se están “volviendo más tontos”. El usuario de la red Wisely Chen señaló que el llamado “degradarse la inteligencia de los LLM” no es un mito urbano, sino que ya puede rastrearse de forma continua mediante datos, y que está generando efectos reales en los flujos de trabajo empresariales.
Puso como ejemplo su propia experiencia: el 15 de abril, los servicios de la serie Claude de Anthropic sufrieron una degradación generalizada, incluyendo claude.ai, la API y Claude Code, que mostraban “Degraded Performance”. Esto no es simplemente que fuera más lento o un error ocasional, sino que la calidad de las respuestas se desplomó de forma evidente, e incluso hubo casos en los que no se podía usar correctamente, lo que hizo que sus tres tareas de desarrollo del día se retrasaran por completo.
Estas situaciones para los desarrolladores individuales tal vez signifiquen solo una caída de eficiencia, pero para los equipos de TI de las empresas el impacto se multiplica. Cuando un equipo tiene varios ingenieros que dependen al mismo tiempo de herramientas de IA para programar, redactar documentos y automatizar procesos, una degradación del modelo en un solo momento implica que la productividad total disminuya colectivamente en el mismo periodo, convirtiéndose así en una pérdida considerable de tiempo y costos.
¿La IA se siente más tonta? Los datos confirman que “ya se degradó”
Wisely Chen señaló que “GPT se volvió más tonto”, “Claude no es como antes” y otras afirmaciones que han circulado por la comunidad durante mucho tiempo carecían de respaldo de datos objetivos. Solo hasta que recientemente surgieron plataformas que monitorean de manera continua la calidad del modelo, este fenómeno se cuantificó por primera vez.
Entre ellas, StupidMeter realiza pruebas automatizadas de 24 horas a modelos principales como OpenAI, Anthropic, Google, etc., haciendo seguimiento de indicadores como exactitud, capacidad de razonamiento y estabilidad. A diferencia de los benchmark tradicionales de una sola vez, estos sistemas se parecen más a la manera en que las empresas monitorean APIs o la disponibilidad de servicios: observan las fluctuaciones del desempeño del modelo en entornos de uso reales.
Los resultados son bastante directos: actualmente, la mayoría de los modelos principales se encuentran en estado de advertencia o degradación, y solo unos pocos mantienen un funcionamiento normal. Esto significa que la calidad del modelo es inestable; no es un problema de un producto único, sino un fenómeno generalizado en toda la industria.
LLM, baja la inteligencia “sin avisar”, afecta la estabilidad de los flujos de trabajo de la IA en las empresas
Para las empresas, este tipo de cambios significa que la IA deja de ser “una herramienta para mejorar la eficiencia” y pasa a ser una “variable que afecta la estabilidad”. Si los flujos de trabajo diarios de una empresa —desde escribir código, hacer code review, hasta producir documentos e informes de análisis— ya dependen en gran medida de LLM, entonces cuando un modelo presenta una caída de la capacidad de razonamiento o una merma en la calidad de las respuestas en un día, estos problemas no ocurren de forma localizada como los fallos (bugs) de software tradicionales, sino que se infiltran simultáneamente en todos los aspectos donde se usa IA.
Lo más importante es que estas fluctuaciones a menudo son difíciles de predecir y difíciles de detectar de inmediato. La mayoría de las empresas no cuenta con mecanismos para monitorear continuamente la calidad del modelo; normalmente solo se dan cuenta de que el problema proviene del propio modelo cuando los resultados son anómalos o cuando baja la eficiencia del equipo. En este contexto, el “degradarse la inteligencia” deja de ser solo una percepción subjetiva de los usuarios y se convierte en un riesgo sistémico que afecta directamente el ritmo de operación de la empresa.
Cuando la IA se convierte en electricidad y agua, la estabilidad pasa a ser el nuevo indicador clave
Wisely Chen compara el papel de los LLM con “la electricidad y el agua de la empresa moderna”. Cuando la IA se ha integrado en la operación diaria y se convierte en una capacidad básica indispensable, la importancia de la estabilidad también aumenta en consecuencia.
En el pasado, al evaluar herramientas de IA, las empresas se enfocaban principalmente en la capacidad del modelo, el precio y las funciones, pero a medida que surge el fenómeno de “degradarse la inteligencia”, aparece otro indicador aún más crucial: la estabilidad. Cuando la calidad del modelo puede cambiar sin previo aviso, las empresas ya no solo “usan IA”, sino que tienen que asumir un nuevo tipo de riesgo para la infraestructura básica. Lo más desesperanzador es que, si solo se miran los modelos de lenguaje grandes de vanguardia, básicamente mientras no se resuelva el problema de la capacidad de cómputo, es posible que siga ocurriendo.
Este artículo Datos revelan que “Claude se degradó” no es un mito urbano; los modelos de IA inestables se convierten en un riesgo para las empresas; apareció por primera vez en CadenaNews ABMedia.
Artículos relacionados
Google 推 Deep Research Max:支援 MCP、可接企業私有資料
Los usuarios activos mensuales de OpenAI Codex alcanzan 4 millones en menos de dos semanas
Dos startups de IA sudafricanas seleccionadas para la clase 10 de Google for Startups Accelerator Africa
La lista de Forbes AI 50 incluye 20 empresas nuevas; OpenAI y Anthropic capturan el 80% de la financiación total
Zi变量 presenta el modelo de IA encarnada WALL-B; los robots llegarán a hogares reales en 35 días
OpenAI Prepara la Función de Agentes para ChatGPT, Con Nombre en Clave Hermes