Nvidia suministrará a Amazon Web Services una gran cantidad de GPUs hasta 2027 mientras el proveedor de la nube intensifica su infraestructura de IA y busca satisfacer la demanda creciente. AWS anunció a principios de esta semana que planea desplegar alrededor de 1 millón de GPUs Nvidia como parte de su expansión de infraestructura de IA. Un ejecutivo de Nvidia confirmó a Reuters el jueves que se espera que el despliegue continúe hasta finales de 2027. A partir de este año, en las regiones globales de la nube de AWS, se implementará junto con una expansión del trabajo con Nvidia en redes y otras infraestructuras para construir sistemas “capaces de razonar, planificar y actuar de forma autónoma en flujos de trabajo complejos,” dijo AWS, señalando su trabajo en sistemas de IA agentica.
AWS continúa desarrollando chips de IA tanto para entrenamiento como para inferencia. La colaboración sugiere que la demanda podría estar cambiando en toda la pila de IA, mientras que una participación creciente de la actividad parece estar relacionada con ejecutar modelos en servicios en vivo. El acuerdo llega en un momento en que los fiscales estadounidenses persiguen un caso que alega que chips de Nvidia fueron contrabandeados a China, poniendo en duda la cadena de suministro y los controles globales de la compañía. Desde 2022, los chips más avanzados de Nvidia han sido controlados estrictamente como parte de una estrategia más amplia de EE. UU. para limitar el progreso de China en computación avanzada e IA.
El desarrollo más cercano a casa de este jueves podría ampliar aún más esa brecha. Cambios en el ritmo Los observadores dicen que la estructura del acuerdo ofrece pistas sobre dónde se está construyendo la demanda y cómo la infraestructura subyacente está cambiando a un ritmo cada vez más rápido. “Nvidia se está convirtiendo en la capa de infraestructura debajo de los proveedores de la nube, no solo en un proveedor de chips para ellos,” dijo Dermot McGrath, cofundador de ZenGen Labs, a Decrypt. Los chips en el acuerdo están orientados a ejecutar modelos de IA a gran escala, con un enfoque en reducir el costo de uso, dijo McGrath, señalando que la inferencia ahora representa aproximadamente dos tercios del cómputo de IA, frente a aproximadamente un tercio en 2023. Se espera que el mercado de chips enfocados en inferencia supere los 50 mil millones de dólares para 2026, añadió, citando estimaciones de Deloitte. AWS puede usar tanto chips de Nvidia como los propios en los mismos sistemas, brindando a los clientes más opciones que sus rivales, que mantienen los suyos cerrados, explicó McGrath, añadiendo que esta flexibilidad “es un diferenciador.” “Ahora Nvidia está haciendo lo mismo en una capa inferior, con redes y arquitectura de racks en lugar de un modelo de programación,” dijo. Los chips de inferencia son procesadores diseñados para ejecutar modelos de IA entrenados en tiempo real, en lugar de requerir reentrenamiento.
La demanda de inferencia “impulsa compromisos a largo plazo” para más potencia de cómputo, y está creando vínculos más estrechos entre proveedores de la nube y fabricantes de chips, dijo Pichapen Prateepavanich, estratega de políticas y fundadora de la firma de infraestructura Gather Beyond, a Decrypt. “Los proveedores de la nube quieren independencia a largo plazo, pero en el corto plazo necesitan que Nvidia siga siendo competitiva,” dijo, señalando cómo esto crea una dinámica en la que la cooperación y la competencia ocurren al mismo tiempo. Aún así, el control sobre la infraestructura de IA también está cambiando. Lo que está sucediendo es un “cambio en la infraestructura,” dijo Berna Misa, socia de acuerdos en Boardy Ventures, un fondo de inversión liderado por IA, a Decrypt. Nvidia “está integrando su pila completa en computación, redes e inferencia dentro de los centros de datos de AWS que durante años usaron equipos propios,” dijo. Pero aunque AWS está desarrollando sus propios chips de IA, esto “no cambia las matemáticas,” explicó, señalando que la inferencia depende de múltiples componentes en toda la pila, la mayoría de los cuales son suministrados por Nvidia. “Cuando estás tan profundo en la pila de tu cliente, el costo de cambio y la capa de contexto que surge de ello se convierte en la muralla,” concluyó.