Se revela que “Claude pierde capacidad” no es un mito urbano; el modelo de IA es inestable y representa un riesgo empresarial

Después de que la IA se convirtiera en un equipo estándar para las empresas, un fenómeno que en el pasado se consideraba un “problema de percepción” está saliendo rápidamente a la superficie: los LLM (modelos de lenguaje a gran escala) se están “volviendo más tontos”. El usuario de la red Wisely Chen señaló que el llamado “degradarse la inteligencia de los LLM” no es un mito urbano, sino que ya puede rastrearse de forma continua mediante datos, y que está generando efectos reales en los flujos de trabajo empresariales.

Puso como ejemplo su propia experiencia: el 15 de abril, los servicios de la serie Claude de Anthropic sufrieron una degradación generalizada, incluyendo claude.ai, la API y Claude Code, que mostraban “Degraded Performance”. Esto no es simplemente que fuera más lento o un error ocasional, sino que la calidad de las respuestas se desplomó de forma evidente, e incluso hubo casos en los que no se podía usar correctamente, lo que hizo que sus tres tareas de desarrollo del día se retrasaran por completo.

Estas situaciones para los desarrolladores individuales tal vez signifiquen solo una caída de eficiencia, pero para los equipos de TI de las empresas el impacto se multiplica. Cuando un equipo tiene varios ingenieros que dependen al mismo tiempo de herramientas de IA para programar, redactar documentos y automatizar procesos, una degradación del modelo en un solo momento implica que la productividad total disminuya colectivamente en el mismo periodo, convirtiéndose así en una pérdida considerable de tiempo y costos.

¿La IA se siente más tonta? Los datos confirman que “ya se degradó”

Wisely Chen señaló que “GPT se volvió más tonto”, “Claude no es como antes” y otras afirmaciones que han circulado por la comunidad durante mucho tiempo carecían de respaldo de datos objetivos. Solo hasta que recientemente surgieron plataformas que monitorean de manera continua la calidad del modelo, este fenómeno se cuantificó por primera vez.

Entre ellas, StupidMeter realiza pruebas automatizadas de 24 horas a modelos principales como OpenAI, Anthropic, Google, etc., haciendo seguimiento de indicadores como exactitud, capacidad de razonamiento y estabilidad. A diferencia de los benchmark tradicionales de una sola vez, estos sistemas se parecen más a la manera en que las empresas monitorean APIs o la disponibilidad de servicios: observan las fluctuaciones del desempeño del modelo en entornos de uso reales.

Los resultados son bastante directos: actualmente, la mayoría de los modelos principales se encuentran en estado de advertencia o degradación, y solo unos pocos mantienen un funcionamiento normal. Esto significa que la calidad del modelo es inestable; no es un problema de un producto único, sino un fenómeno generalizado en toda la industria.

LLM, baja la inteligencia “sin avisar”, afecta la estabilidad de los flujos de trabajo de la IA en las empresas

Para las empresas, este tipo de cambios significa que la IA deja de ser “una herramienta para mejorar la eficiencia” y pasa a ser una “variable que afecta la estabilidad”. Si los flujos de trabajo diarios de una empresa —desde escribir código, hacer code review, hasta producir documentos e informes de análisis— ya dependen en gran medida de LLM, entonces cuando un modelo presenta una caída de la capacidad de razonamiento o una merma en la calidad de las respuestas en un día, estos problemas no ocurren de forma localizada como los fallos (bugs) de software tradicionales, sino que se infiltran simultáneamente en todos los aspectos donde se usa IA.

Lo más importante es que estas fluctuaciones a menudo son difíciles de predecir y difíciles de detectar de inmediato. La mayoría de las empresas no cuenta con mecanismos para monitorear continuamente la calidad del modelo; normalmente solo se dan cuenta de que el problema proviene del propio modelo cuando los resultados son anómalos o cuando baja la eficiencia del equipo. En este contexto, el “degradarse la inteligencia” deja de ser solo una percepción subjetiva de los usuarios y se convierte en un riesgo sistémico que afecta directamente el ritmo de operación de la empresa.

Cuando la IA se convierte en electricidad y agua, la estabilidad pasa a ser el nuevo indicador clave

Wisely Chen compara el papel de los LLM con “la electricidad y el agua de la empresa moderna”. Cuando la IA se ha integrado en la operación diaria y se convierte en una capacidad básica indispensable, la importancia de la estabilidad también aumenta en consecuencia.

En el pasado, al evaluar herramientas de IA, las empresas se enfocaban principalmente en la capacidad del modelo, el precio y las funciones, pero a medida que surge el fenómeno de “degradarse la inteligencia”, aparece otro indicador aún más crucial: la estabilidad. Cuando la calidad del modelo puede cambiar sin previo aviso, las empresas ya no solo “usan IA”, sino que tienen que asumir un nuevo tipo de riesgo para la infraestructura básica. Lo más desesperanzador es que, si solo se miran los modelos de lenguaje grandes de vanguardia, básicamente mientras no se resuelva el problema de la capacidad de cómputo, es posible que siga ocurriendo.

Este artículo Datos revelan que “Claude se degradó” no es un mito urbano; los modelos de IA inestables se convierten en un riesgo para las empresas; apareció por primera vez en CadenaNews ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Google 推 Deep Research Max:支援 MCP、可接企業私有資料

Según el anuncio del blog oficial de Google DeepMind, Google lanzó el nuevo agente de investigación autónoma de próxima generación Deep Research y Deep Research Max el 21 de abril de 2026, construido sobre Gemini 3.1 Pro, como versión oficial después de la versión preview que se ofreció en diciembre de 2025 mediante la Interactions API. Ambas variantes de los agentes ahora están disponibles, en forma de public preview, dentro de los planes de pago de la Gemini API, y los usuarios de startups y empresas de Google Cloud irán incorporándolos gradualmente. Ambas variantes se posicionan de manera distinta: interactivo vs profundidad asíncrona Google separa ambos agentes según el contexto de uso: Deep Research

ChainNewsAbmediaHace27m

Los usuarios activos mensuales de OpenAI Codex alcanzan 4 millones en menos de dos semanas

OpenAI Codex alcanza 4 millones de MAUs, anunciado por Sottiaux y Altman; el salto se produjo en menos de dos semanas desde 3 millones, y los límites de velocidad se restablecieron en todos los niveles para celebrarlo. OpenAI Codex llegó a 4 millones de usuarios activos mensuales en menos de dos semanas desde que alcanzó los 3 millones, según declaraciones de ejecutivos de OpenAI. Para conmemorar el hito, los límites de velocidad en todos los niveles se restablecieron.

GateNewshace2h

Dos startups de IA sudafricanas seleccionadas para la clase 10 de Google for Startups Accelerator Africa

Dos startups sudafricanas, Loop y Vambo AI, se unen a la 10.ª cohorte de Google Accelerator Africa desde 2.600 aplicaciones; Loop mejora la movilidad/pagos, Vambo AI habilita IA multilingüe; el programa se ejecuta de abril a junio de 2026 con mentores y talleres de IA. Resumen: Dos startups sudafricanas, Loop y Vambo AI, han sido seleccionadas para la 10.ª cohorte del Google for Startups Accelerator Africa, elegidas de unas 2.600 solicitudes y una de las 15 participantes africanas. Loop digitaliza la movilidad y los pagos, mientras que Vambo AI ofrece una infraestructura de IA multilingüe para traducción, voz y IA generativa en lenguas africanas. El programa de 2026 se ejecuta del 13 de abril al 19 de junio y ofrece mentoría y talleres prácticos centrados en IA/ML. Desde 2018, el acelerador ha apoyado a 106 startups de 17 países africanos, ayudándolas a recaudar más de $263 millones y a crear más de 2.800 empleos.

GateNewshace3h

La lista de Forbes AI 50 incluye 20 empresas nuevas; OpenAI y Anthropic capturan el 80% de la financiación total

Mensaje de Gate News, 21 de abril — Forbes publicó su lista de IA 50, edición vigésima octava de 2026, que incluye 20 empresas recién incorporadas. OpenAI y Anthropic continúan liderando el ranking, atrayendo capital sustancial de destacados capitalistas de riesgo de Silicon Valley y grandes empresas tecnológicas. La financiación combinada para todas las empresas de la lista

GateNewshace3h

Zi变量 presenta el modelo de IA encarnada WALL-B; los robots llegarán a hogares reales en 35 días

Mensaje de Gate News, 21 de abril — Zibianliang (自变量), una empresa china de robótica, celebró una conferencia de prensa el 21 de abril para presentar su próximo modelo base de IA encarnada de nueva generación, WALL-B. La compañía anunció que los robots impulsados por WALL-B entrarán en hogares reales en 35 días. Según el cofundador de Zibianliang

GateNewshace4h

OpenAI Prepara la Función de Agentes para ChatGPT, Con Nombre en Clave Hermes

Mensaje de Gate News, 21 de abril — OpenAI está preparando una nueva función de Agentes para ChatGPT, con nombre en clave "Hermes," según Tibor Blaho, que supervisa las actualizaciones de productos de IA. La función incluye un nuevo generador de agentes llamado "studio" que permite a los usuarios crear agentes a partir de plantillas, programar ejecuciones, y

GateNewshace5h
Comentar
0/400
Sin comentarios