¿La versión empresarial de Anthropic Claude se está pasando primero a un modelo de pago por uso; de verdad un “empleado” de IA cuesta menos?

Cuando los empresarios basan su cálculo en “usar la IA para reemplazar la mano de obra y reducir costos”, Anthropic cambia las reglas del juego. Este gigante de la IA actualizó recientemente la estructura de facturación de la versión empresarial de Claude: separó el uso de Claude, Claude Code y Cowork de la suscripción mensual de 40 dólares, y lo convirtió en un cobro adicional según la cantidad real de Tokens consumidos. Así, el costo de los “empleados” de IA, parece que no es tan barato como dicen.

(¿Se pueden ahorrar Tokens con un estilo de chino clásico y conversaciones de IA? Una captura de pantalla desata el debate; un ingeniero: en realidad, el inglés es lo más importante)

Se acabó la era de las tarifas fijas; la facturación de la versión empresarial de Claude cambia: paga por lo que uses

El informe de The Information indica que los documentos empresariales actualizados de Anthropic dicen: «El cargo mensual por asiento (seats) solo cubre el acceso a la plataforma e incluye ningún uso; todo el uso se cobrará por separado según las tarifas estándar de la API». Antes, las empresas compraban “ilimitado”; ahora es “pago por consumo”.

Bajo el esquema anterior, el costo de suscripción mensual por cada cuenta empresarial era de aproximadamente 40 a 200 dólares, con un descuento de API del 10% al 15%. Aunque el nuevo esquema baja la suscripción mensual a 20 dólares, también elimina todos los descuentos de API y exige que las empresas se comprometan y paguen por adelantado el volumen estimado de Tokens mensuales. No importa si se usa más o menos de lo prometido, el monto comprometido se paga igual, y cuanto mayor sea la cantidad comprometida, no se traduce en un precio unitario más bajo.

Esta estructura, para Anthropic, genera ingresos recurrentes anuales previsibles; para las empresas, implica una traslación del costo por uso y del riesgo.

La “escasez de recursos de cómputo” es la verdadera chispa detrás del ajuste de precios

Anthropic llama a este cambio “optimización del producto”, pero el motor real es el costo de cómputo, que no deja de aumentar. Incluso si los ingresos anualizados de Anthropic pasaron de 9 mil millones de dólares a 30 mil millones de dólares en apenas cuatro meses, lo que reciben los usuarios no son descuentos, sino una reconfiguración de su estructura de ingresos.

El núcleo del problema está en la forma en que los agentes de IA (AI Agent) consumen recursos: la mensajería tradicional usa “sorbos pequeños”, pero los flujos de trabajo de agentes que incluyen tareas de varios pasos encadenadas, ejecuciones repetidas e incluso cooperación entre múltiples agentes, es “beber con ganas”.

Del lado de la oferta, la situación también está ajustada. El precio del alquiler de GPU Blackwell subió 48% en dos meses; CoreWeave aumentó precios más de 20% desde finales del año pasado; y un banco de Estados Unidos pronostica que la demanda de cómputo se mantendrá contraída hasta 2029. Los ingresos derivados de tarifas fijas, para Anthropic, ya no eran sostenibles.

La inestabilidad del servicio es la luz de advertencia más real para los clientes empresariales

Además, la estabilidad del servicio también es un gran problema. David Hsu, fundador de Retool, dijo a través del Wall Street Journal que, aunque Claude Opus 4.6 rinde mejor que OpenAI, al final trasladó su flujo de trabajo a este último. La razón es que el servicio de Claude se interrumpe con frecuencia, lo que le impide entregar el código a tiempo con regularidad.

En los 90 días hasta el 8 de abril de este año, el tiempo de funcionamiento normal de la API de Anthropic apenas alcanzó 98.95%, muy por debajo del estándar del sector de 99.99%. La decisión de Hsu demuestra una cosa: cuando se trata de elegir entre la confiabilidad del servicio y las capacidades del modelo, lo que necesitan las empresas es una IA con un servicio estable.

El costo real de los empleados de IA es mucho más complejo que el número del estado de cuenta

Hoy, el modelo de precios tradicional de “suscripción mensual” para la IA ya quedó atrás; ahora el costo total se recalcula según el consumo real de Tokens. Negociar descuentos por uso o cláusulas de ajustes de flexibilidad en el contrato, o controlar proactivamente el gasto mediante la optimización de Prompts, el procesamiento por lotes y estrategias de caché, se han convertido en los nuevos desafíos para las empresas que adoptan e inician una transformación con IA.

Hace unos días, OpenAI también anunció que Codex pasará a cobrarse por Tokens; GitHub ajustó en 4 de abril el límite de uso de Copilot; y Windsurf reemplazó el sistema de puntos por una cuota diaria. Toda la industria de la IA está anunciando simultáneamente el fin de la era de las tarifas fijas.

Antes de que las empresas evalúen “cuánta mano de obra se puede ahorrar al implementar IA”, quizá aún deban poner a prueba si los usuarios pueden producir resultados estables y de alta calidad dentro de un presupuesto limitado.

Este artículo sobre que la versión empresarial de Anthropic Claude cambió primero hacia el cobro por cantidad: ¿los “empleados” de IA realmente ahorran dinero? Apareció por primera vez en Cadena de noticias ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

El meme de MTS de Silicon Valley de “vigilar la situación” se convierte en una máquina de noticias 24/7 entregada por a16z

a16z respalda "Monitoring the Situation,", un livestream de X 24/7 nacido de la cultura meme de Polymarket, mientras los VC tecnológicos construyen su propio complejo industrial de noticias. Resumen Andreessen Horowitz ha ayudado a lanzar "Monitoring the Situation" (MTS), un programa de livestream 24/7 en X, inclinándose hacia las predicciones cripto-mar

CryptonewsHace21m

Google 推 Deep Research Max:支援 MCP、可接企業私有資料

Según el anuncio del blog oficial de Google DeepMind, Google lanzó el nuevo agente de investigación autónoma de próxima generación Deep Research y Deep Research Max el 21 de abril de 2026, construido sobre Gemini 3.1 Pro, como versión oficial después de la versión preview que se ofreció en diciembre de 2025 mediante la Interactions API. Ambas variantes de los agentes ahora están disponibles, en forma de public preview, dentro de los planes de pago de la Gemini API, y los usuarios de startups y empresas de Google Cloud irán incorporándolos gradualmente. Ambas variantes se posicionan de manera distinta: interactivo vs profundidad asíncrona Google separa ambos agentes según el contexto de uso: Deep Research

ChainNewsAbmediahace2h

Los usuarios activos mensuales de OpenAI Codex alcanzan 4 millones en menos de dos semanas

OpenAI Codex alcanza 4 millones de MAUs, anunciado por Sottiaux y Altman; el salto se produjo en menos de dos semanas desde 3 millones, y los límites de velocidad se restablecieron en todos los niveles para celebrarlo. OpenAI Codex llegó a 4 millones de usuarios activos mensuales en menos de dos semanas desde que alcanzó los 3 millones, según declaraciones de ejecutivos de OpenAI. Para conmemorar el hito, los límites de velocidad en todos los niveles se restablecieron.

GateNewshace4h

Dos startups de IA sudafricanas seleccionadas para la clase 10 de Google for Startups Accelerator Africa

Dos startups sudafricanas, Loop y Vambo AI, se unen a la 10.ª cohorte de Google Accelerator Africa desde 2.600 aplicaciones; Loop mejora la movilidad/pagos, Vambo AI habilita IA multilingüe; el programa se ejecuta de abril a junio de 2026 con mentores y talleres de IA. Resumen: Dos startups sudafricanas, Loop y Vambo AI, han sido seleccionadas para la 10.ª cohorte del Google for Startups Accelerator Africa, elegidas de unas 2.600 solicitudes y una de las 15 participantes africanas. Loop digitaliza la movilidad y los pagos, mientras que Vambo AI ofrece una infraestructura de IA multilingüe para traducción, voz y IA generativa en lenguas africanas. El programa de 2026 se ejecuta del 13 de abril al 19 de junio y ofrece mentoría y talleres prácticos centrados en IA/ML. Desde 2018, el acelerador ha apoyado a 106 startups de 17 países africanos, ayudándolas a recaudar más de $263 millones y a crear más de 2.800 empleos.

GateNewshace5h

La lista de Forbes AI 50 incluye 20 empresas nuevas; OpenAI y Anthropic capturan el 80% de la financiación total

Mensaje de Gate News, 21 de abril — Forbes publicó su lista de IA 50, edición vigésima octava de 2026, que incluye 20 empresas recién incorporadas. OpenAI y Anthropic continúan liderando el ranking, atrayendo capital sustancial de destacados capitalistas de riesgo de Silicon Valley y grandes empresas tecnológicas. La financiación combinada para todas las empresas de la lista

GateNewshace5h

Zi变量 presenta el modelo de IA encarnada WALL-B; los robots llegarán a hogares reales en 35 días

Mensaje de Gate News, 21 de abril — Zibianliang (自变量), una empresa china de robótica, celebró una conferencia de prensa el 21 de abril para presentar su próximo modelo base de IA encarnada de nueva generación, WALL-B. La compañía anunció que los robots impulsados por WALL-B entrarán en hogares reales en 35 días. Según el cofundador de Zibianliang

GateNewshace6h
Comentar
0/400
Sin comentarios