Se revela que “Claude pierde capacidad” no es un mito urbano; el modelo de IA es inestable y representa un riesgo empresarial

Después de que la IA se convirtiera en un equipo estándar para las empresas, un fenómeno que en el pasado se consideraba un “problema de percepción” está saliendo rápidamente a la superficie: los LLM (modelos de lenguaje a gran escala) se están “volviendo más tontos”. El usuario de la red Wisely Chen señaló que el llamado “degradarse la inteligencia de los LLM” no es un mito urbano, sino que ya puede rastrearse de forma continua mediante datos, y que está generando efectos reales en los flujos de trabajo empresariales.

Puso como ejemplo su propia experiencia: el 15 de abril, los servicios de la serie Claude de Anthropic sufrieron una degradación generalizada, incluyendo claude.ai, la API y Claude Code, que mostraban “Degraded Performance”. Esto no es simplemente que fuera más lento o un error ocasional, sino que la calidad de las respuestas se desplomó de forma evidente, e incluso hubo casos en los que no se podía usar correctamente, lo que hizo que sus tres tareas de desarrollo del día se retrasaran por completo.

Estas situaciones para los desarrolladores individuales tal vez signifiquen solo una caída de eficiencia, pero para los equipos de TI de las empresas el impacto se multiplica. Cuando un equipo tiene varios ingenieros que dependen al mismo tiempo de herramientas de IA para programar, redactar documentos y automatizar procesos, una degradación del modelo en un solo momento implica que la productividad total disminuya colectivamente en el mismo periodo, convirtiéndose así en una pérdida considerable de tiempo y costos.

¿La IA se siente más tonta? Los datos confirman que “ya se degradó”

Wisely Chen señaló que “GPT se volvió más tonto”, “Claude no es como antes” y otras afirmaciones que han circulado por la comunidad durante mucho tiempo carecían de respaldo de datos objetivos. Solo hasta que recientemente surgieron plataformas que monitorean de manera continua la calidad del modelo, este fenómeno se cuantificó por primera vez.

Entre ellas, StupidMeter realiza pruebas automatizadas de 24 horas a modelos principales como OpenAI, Anthropic, Google, etc., haciendo seguimiento de indicadores como exactitud, capacidad de razonamiento y estabilidad. A diferencia de los benchmark tradicionales de una sola vez, estos sistemas se parecen más a la manera en que las empresas monitorean APIs o la disponibilidad de servicios: observan las fluctuaciones del desempeño del modelo en entornos de uso reales.

Los resultados son bastante directos: actualmente, la mayoría de los modelos principales se encuentran en estado de advertencia o degradación, y solo unos pocos mantienen un funcionamiento normal. Esto significa que la calidad del modelo es inestable; no es un problema de un producto único, sino un fenómeno generalizado en toda la industria.

LLM, baja la inteligencia “sin avisar”, afecta la estabilidad de los flujos de trabajo de la IA en las empresas

Para las empresas, este tipo de cambios significa que la IA deja de ser “una herramienta para mejorar la eficiencia” y pasa a ser una “variable que afecta la estabilidad”. Si los flujos de trabajo diarios de una empresa —desde escribir código, hacer code review, hasta producir documentos e informes de análisis— ya dependen en gran medida de LLM, entonces cuando un modelo presenta una caída de la capacidad de razonamiento o una merma en la calidad de las respuestas en un día, estos problemas no ocurren de forma localizada como los fallos (bugs) de software tradicionales, sino que se infiltran simultáneamente en todos los aspectos donde se usa IA.

Lo más importante es que estas fluctuaciones a menudo son difíciles de predecir y difíciles de detectar de inmediato. La mayoría de las empresas no cuenta con mecanismos para monitorear continuamente la calidad del modelo; normalmente solo se dan cuenta de que el problema proviene del propio modelo cuando los resultados son anómalos o cuando baja la eficiencia del equipo. En este contexto, el “degradarse la inteligencia” deja de ser solo una percepción subjetiva de los usuarios y se convierte en un riesgo sistémico que afecta directamente el ritmo de operación de la empresa.

Cuando la IA se convierte en electricidad y agua, la estabilidad pasa a ser el nuevo indicador clave

Wisely Chen compara el papel de los LLM con “la electricidad y el agua de la empresa moderna”. Cuando la IA se ha integrado en la operación diaria y se convierte en una capacidad básica indispensable, la importancia de la estabilidad también aumenta en consecuencia.

En el pasado, al evaluar herramientas de IA, las empresas se enfocaban principalmente en la capacidad del modelo, el precio y las funciones, pero a medida que surge el fenómeno de “degradarse la inteligencia”, aparece otro indicador aún más crucial: la estabilidad. Cuando la calidad del modelo puede cambiar sin previo aviso, las empresas ya no solo “usan IA”, sino que tienen que asumir un nuevo tipo de riesgo para la infraestructura básica. Lo más desesperanzador es que, si solo se miran los modelos de lenguaje grandes de vanguardia, básicamente mientras no se resuelva el problema de la capacidad de cómputo, es posible que siga ocurriendo.

Este artículo Datos revelan que “Claude se degradó” no es un mito urbano; los modelos de IA inestables se convierten en un riesgo para las empresas; apareció por primera vez en CadenaNews ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

NTT anuncia la iniciativa AI x OWN y planea triplicar la capacidad de energía en Japón a 1 GW para 2033

El 27 de abril, el presidente de NTT, Akira Shimada, anunció la iniciativa AI x OWN, el esfuerzo de la empresa por rediseñar la infraestructura de internet para el uso de IA en tiempo real. NTT planea triplicar su capacidad de energía nacional, de aproximadamente 300 MW hoy a alrededor de 1 gigavatio para el año fiscal 2033, ya que el gigante de la telecomunicación

GateNewshace1h

La plataforma de IA Certifyde completa una ronda semilla de 2 millones de dólares el 1 de mayo, respaldada por el CEO de Ripple, Brad Garlinghouse

Según TechfundingNews, la plataforma de aplicaciones de IA Certifyde completó una ronda de financiación semilla de 2 millones de dólares el 1 de mayo. Los inversores incluyen K5 Global, Flamingo Capital y inversores ángel, incluidos el cofundador de Honey, George Ruan, el CEO de Ripple, Brad Garlinghouse, y el cofundador de Nutra, Roland

GateNewshace2h

Subsecretario de tecnología del Pentágono: Anthropic sigue en la lista negra, excepciones para Mythos

El 1 de mayo, el máximo responsable de tecnología del Departamento de Defensa de Estados Unidos (Pentagon technology chief) declaró ante el Congreso: «Anthropic sigue en la lista negra, pero Mythos Preview es otro tema», reconociendo oficialmente que el Departamento de Defensa trata de manera diferente la marca principal Anthropic y su nuevo modelo, Mythos. Esta postura coincide con lo revelado por Axios el 19 de abril, que indicó que la NSA (Agencia de Seguridad Nacional) ya ha utilizado Mythos en la práctica, y también consolida formalmente la orientación de política hacia un «canal de excepción para Mythos». Al mismo tiempo, implica una contradicción interna a nivel de argumentación legal: el Departamento de Defensa había sostenido en los tribunales que usar herramientas de Anthropic amenazaría la seguridad nacional, en contraste con las prácticas actuales. Anthropic vs Pentagon

ChainNewsAbmediahace2h

137 Ventures cierra $700M en nuevos fondos; AUM alcanza 15.000 millones de USD

Según ChainCatcher, 137 Ventures, un inversor inicial en SpaceX, recientemente completó la recaudación de fondos para dos nuevos fondos con un total de más de 700 millones de dólares, elevando sus activos bajo gestión a más de 15 mil millones de dólares. El nuevo capital se destinará a inversiones en agentes de IA, robótica y propulsión espacial

GateNewshace2h

Reddit se dispara un 16% con una sólida perspectiva para el 2T; Apple enfrenta un déficit de Mac mientras la demanda de IA supera el suministro

Las acciones de Reddit subieron un 16% antes de la apertura del mercado el viernes después de que la empresa emitiera una guía de ingresos para el próximo trimestre superior a la esperada. Los visitantes activos diarios crecieron un 17% hasta 126,8 millones, mientras que los ingresos medios por usuario a nivel mundial aumentaron un 44%, impulsados por la IA,

GateNewshace3h

El Departamento de Defensa de EE. UU. llega a un acuerdo con 7 empresas de IA, incluyendo OpenAI, Google y Microsoft

Según el Departamento de Defensa de EE. UU., la agencia firmó acuerdos hoy (1 de mayo) con siete de las principales empresas de inteligencia artificial: SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft y Amazon Web Services (AWS). Los acuerdos tienen como objetivo acelerar la transformación militar y establecer t

GateNewshace3h
Comentar
0/400
Sin comentarios