Amazon incrementa su apuesta por Anthropic: 25 mil millones de dólares: 5 GW de capacidad informática, vinculación de AWS por un billón

Según el anuncio oficial de Anthropic y el comunicado de prensa oficial de Amazon, ambas partes amplían su cooperación estratégica el 4/20: Amazon añade una inversión adicional en Anthropic de hasta 25.000 millones de dólares, y Anthropic se compromete a que el gasto en AWS durante los próximos diez años superará los 100.000 millones de dólares, además de obtener hasta 5GW de capacidad de cómputo adicional, para entrenar y desplegar modelos de Claude.

Esto es la segunda gran expansión de alto impacto en la carrera armamentista de capacidad de cómputo de Anthropic, después del 4/7 en que Anthropic se asoció con Google y Broadcom para obtener 3,5GW de capacidad de cómputo TPU. También es la mayor promesa de un solo compromiso de Amazon hacia una empresa de IA. Como resultado, la valoración de Anthropic queda fijada en 380.000 millones de dólares.

Estructura de inversión: 5.000 millones primero desembolsados, 20.000 millones vinculados a hitos

La inversión de Amazon en esta ocasión se divide en dos fases: 5.000 millones de dólares se desembolsarán inmediatamente el día del anuncio, y los otros hasta 20.000 millones de dólares se liberarán por tramos una vez vinculados con “determinados hitos comerciales”. Sumados a los 8.000 millones de dólares invertidos previamente, el tope máximo de inversión acumulada de Amazon en Anthropic alcanzará los 33.000 millones de dólares.

Los 5.000 millones de dólares de esta ocasión se suscriben al precio de la valoración más reciente de Anthropic de 38.000 millones de dólares, y esta es la primera vez que dicha valoración queda confirmada por primera vez por un inversor de primera línea mediante un nuevo contrato.

Anthropic se compromete a un gasto de 100.000 millones de dólares en AWS en una década

Como contrapartida de la cooperación, Anthropic se compromete a que el gasto en AWS durante los próximos diez años superará los 100.000 millones de dólares. El alcance incluye los chips de IA personalizados Trainium de generaciones actuales y futuras, así como CPUs de uso general Graviton con “decenas de millones de núcleos”.

Andy Jassy (CEO de Amazon) dijo en el anuncio: «Anthropic se compromete a ejecutar modelos de lenguaje a gran escala en Trainium de AWS durante los próximos diez años, lo que refleja los avances compartidos que estamos logrando en la ruta de los chips personalizados». Dario Amodei (CEO de Anthropic) señaló: «Los usuarios nos dicen que Claude es cada vez más importante para su trabajo; debemos construir la infraestructura capaz de seguir el crecimiento de la demanda».

Hoja de ruta de capacidad de cómputo de 5GW: toda la serie Trainium2, 3 y 4 con contrato

El acuerdo de esta ocasión abarca tres generaciones de chips: Trainium2, Trainium3 y Trainium4. Anthropic también conserva la opción de comprar chips personalizados de generaciones posteriores. En cuanto a los plazos concretos, en el Q2 de 2026 habrá una puesta en línea a gran escala de la capacidad de Trainium2; la capacidad a gran escala de Trainium3 se irá habilitando de forma progresiva antes de que termine el año; y el acumulado anual de Trainium2 y Trainium3 en conjunto estará cerca de 1GW.

Project Rainier es el proyecto insignia de la cooperación existente entre ambas partes. Este clúster de entrenamiento actualmente ya ha desplegado alrededor de 500.000 chips Trainium2, que constituyen la infraestructura principal para el entrenamiento de los modelos de Claude.

De ingresos de 9.000 millones a 30.000 millones: el aumento explosivo de la demanda de Anthropic es la motivación para las negociaciones

En el anuncio, Anthropic revela de manera poco común la situación financiera propia: los ingresos anualizados del año en curso ya han superado los 30.000 millones de dólares. En comparación, los 9.000 millones de dólares de finales de 2025 se multiplicaron por más de tres en medio año. El número de clientes empresariales que ejecutan Claude en AWS ya ha superado las 100.000 empresas, y Claude es una de las familias de modelos con mayor uso en la plataforma Amazon Bedrock.

Anthropic también admite que el aumento explosivo de la demanda ha provocado que la infraestructura sufra presión en los periodos punta, y que la disponibilidad y el rendimiento se vean afectados. Esa es precisamente la motivación directa de la expansión a gran escala de capacidad de cómputo de esta vez. Recientemente, las controversias sobre el consumo de tokens del tokenizer de Claude Opus 4.7 y los ajustes en las limitaciones de uso también están relacionados con esta realidad de “infraestructura escasa”.

Vinculación de los tres grandes de capacidad de cómputo: avance simultáneo con AWS, Google y chips de fabricación propia

Sumado a la capacidad de cómputo TPU de 3,5GW de la cooperación entre Anthropic y Broadcom, Google anunciada a principios de abril, Anthropic actualmente ya tiene vinculadas simultáneamente dos rutas de chips personalizados: AWS Trainium y Google TPU, y conserva la opción a largo plazo de aceleradores de fabricación propia. Esto contrasta con la ruta de OpenAI, que va con “principal dependencia de Microsoft Azure y ampliación reciente de AWS”.

Para la cadena de suministro de semiconductores de Taiwán, la expansión a gran escala de Trainium2 a Trainium4 significa que Marvell, proveedores de memoria HBM y la avanzada tecnología de empaquetado de TSMC seguirán recibiendo y atendiendo pedidos de chips personalizados de AWS durante los próximos tres a cinco años.

Detrás de la competencia por la salida a bolsa, la solidez de la capacidad de cómputo

Este anuncio también refuerza la base narrativa sobre la salida a bolsa de Anthropic. Según informes recientes, OpenAI ha superado los 25.000 millones de dólares en ingresos anualizados, y el proceso para una IPO de Anthropic, que va detrás con 19.000 millones, revela que la brecha entre los ingresos de ambas se está reduciendo; según muestran los anuncios oficiales, los ingresos anualizados de Anthropic ya han llegado a 30.000 millones de dólares, y la brecha se reduce aún más.

Para los inversores, el significado del compromiso de esta vez de Amazon no está en el importe de una sola vez, sino en la “vinculación profunda de 100.000 millones de dólares de gasto en AWS durante los próximos diez años”, lo que permite al mercado fijar de forma clara el anclaje sobre el suministro de capacidad de cómputo de Anthropic y la estructura de costos a largo plazo. La capacidad de cómputo para el entrenamiento posterior de Mythos, el modelo con umbral alto Project Glasswing, y de la serie Claude 4.x, estará respaldada por estos nuevos 5GW de capacidad.

Este artículo “Amazon incrementa su inversión en Anthropic con 25.000 millones de dólares: 5GW de capacidad de cómputo y vinculación de 100.000 millones en AWS” apareció por primera vez en 鏈新聞 ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

El meme de MTS de Silicon Valley de “vigilar la situación” se convierte en una máquina de noticias 24/7 entregada por a16z

a16z respalda "Monitoring the Situation,", un livestream de X 24/7 nacido de la cultura meme de Polymarket, mientras los VC tecnológicos construyen su propio complejo industrial de noticias. Resumen Andreessen Horowitz ha ayudado a lanzar "Monitoring the Situation" (MTS), un programa de livestream 24/7 en X, inclinándose hacia las predicciones cripto-mar

Cryptonewshace2h

Google 推 Deep Research Max:支援 MCP、可接企業私有資料

Según el anuncio del blog oficial de Google DeepMind, Google lanzó el nuevo agente de investigación autónoma de próxima generación Deep Research y Deep Research Max el 21 de abril de 2026, construido sobre Gemini 3.1 Pro, como versión oficial después de la versión preview que se ofreció en diciembre de 2025 mediante la Interactions API. Ambas variantes de los agentes ahora están disponibles, en forma de public preview, dentro de los planes de pago de la Gemini API, y los usuarios de startups y empresas de Google Cloud irán incorporándolos gradualmente. Ambas variantes se posicionan de manera distinta: interactivo vs profundidad asíncrona Google separa ambos agentes según el contexto de uso: Deep Research

ChainNewsAbmediahace3h

Los usuarios activos mensuales de OpenAI Codex alcanzan 4 millones en menos de dos semanas

OpenAI Codex alcanza 4 millones de MAUs, anunciado por Sottiaux y Altman; el salto se produjo en menos de dos semanas desde 3 millones, y los límites de velocidad se restablecieron en todos los niveles para celebrarlo. OpenAI Codex llegó a 4 millones de usuarios activos mensuales en menos de dos semanas desde que alcanzó los 3 millones, según declaraciones de ejecutivos de OpenAI. Para conmemorar el hito, los límites de velocidad en todos los niveles se restablecieron.

GateNewshace6h

Dos startups de IA sudafricanas seleccionadas para la clase 10 de Google for Startups Accelerator Africa

Dos startups sudafricanas, Loop y Vambo AI, se unen a la 10.ª cohorte de Google Accelerator Africa desde 2.600 aplicaciones; Loop mejora la movilidad/pagos, Vambo AI habilita IA multilingüe; el programa se ejecuta de abril a junio de 2026 con mentores y talleres de IA. Resumen: Dos startups sudafricanas, Loop y Vambo AI, han sido seleccionadas para la 10.ª cohorte del Google for Startups Accelerator Africa, elegidas de unas 2.600 solicitudes y una de las 15 participantes africanas. Loop digitaliza la movilidad y los pagos, mientras que Vambo AI ofrece una infraestructura de IA multilingüe para traducción, voz y IA generativa en lenguas africanas. El programa de 2026 se ejecuta del 13 de abril al 19 de junio y ofrece mentoría y talleres prácticos centrados en IA/ML. Desde 2018, el acelerador ha apoyado a 106 startups de 17 países africanos, ayudándolas a recaudar más de $263 millones y a crear más de 2.800 empleos.

GateNewshace7h

La lista de Forbes AI 50 incluye 20 empresas nuevas; OpenAI y Anthropic capturan el 80% de la financiación total

Mensaje de Gate News, 21 de abril — Forbes publicó su lista de IA 50, edición vigésima octava de 2026, que incluye 20 empresas recién incorporadas. OpenAI y Anthropic continúan liderando el ranking, atrayendo capital sustancial de destacados capitalistas de riesgo de Silicon Valley y grandes empresas tecnológicas. La financiación combinada para todas las empresas de la lista

GateNewshace7h

Zi变量 presenta el modelo de IA encarnada WALL-B; los robots llegarán a hogares reales en 35 días

Mensaje de Gate News, 21 de abril — Zibianliang (自变量), una empresa china de robótica, celebró una conferencia de prensa el 21 de abril para presentar su próximo modelo base de IA encarnada de nueva generación, WALL-B. La compañía anunció que los robots impulsados por WALL-B entrarán en hogares reales en 35 días. Según el cofundador de Zibianliang

GateNewshace8h
Comentar
0/400
Sin comentarios