CEO de Nvidia Jensen Huang sobre qué sigue para el auge de la IA

Antes de que Jensen Huang llegara a su entrada con chaqueta de cuero en esta edición de GTC, Nvidia $NVDA -0.84% ya había comenzado a vender el mito. La banda sonora previa parecía sospechosamente diseñada a medida para una coronación — letras sobre cosas increíbles que llegan a tiempo, leyendas que se hacen, el futuro que aparece justo a tiempo; canciones que incluso Shazam no pudo identificar. (La primera demostración de IA del día podría haber sido la lista de reproducción). La mitad de la sala tenía los teléfonos en alto para la entrada de Huang, como si Silicon Valley hubiera reservado su propio acto en un estadio. Por una tarde, la cancha de los San Jose Sharks perteneció a un tipo de juego de poder diferente. Porque Huang salió al escenario y hizo lo que mejor sabe hacer: convertir una conferencia de productos en una audiencia sobre el futuro.

El fundador de Nvidia abrió GTC prometiendo un recorrido por “cada capa” de la IA, y luego pasó las siguientes horas argumentando que la compañía no solo vende chips en un mercado en auge. No. La empresa quiere definir toda la infraestructura física de la economía de la IA: el cómputo, la red, el almacenamiento, el software, los modelos, las fábricas y — porque la sutileza claramente está fuera de temporada — quizás incluso los (aún teóricos) centros de datos en el espacio.

El discurso estuvo lleno de anuncios en todas direcciones, pero el mensaje principal fue más compacto. Huang quería que inversores, clientes y rivales entendieran claramente cuatro cosas: la demanda de IA sigue creciendo lo suficiente para justificar gastos exorbitantes; la inferencia ahora es el centro del campo de batalla; los agentes deben salir de los chatbots y entrar en la maquinaria diaria del trabajo de oficina; y la próxima fiebre del oro después de la IA digital podría ser la IA física, donde robots, sistemas autónomos y software industrial consumen aún más datos e infraestructura. No se puede deletrear Nvidia sin IA.

Huang empezó donde suele empezar cuando el mercado empieza a preguntarse si la barrera de Nvidia podría algún día tener una fuga: el software. Pasó los primeros momentos recordando que CUDA tiene 20 años, que la base instalada de Nvidia está “en todas las nubes” y “en todas las empresas de computación”. La mayor protección de Nvidia sigue siendo el ecosistema de software que rodea al silicio, no los rectángulos verdes por sí solos.

Esa lógica dio forma al resto del discurso. Huang se detuvo en los datos estructurados, los llamó la “verdad fundamental” de la computación empresarial, y dijo que la IA finalmente puede aprovechar el océano de información no estructurada — PDFs, videos, voz, toda la basura del ático corporativo que las empresas han acumulado durante años sin saber realmente cómo buscarla o monetizarla. Cuidado, mundo; Nvidia también quiere una parte en la base de datos.

GTC ya no trata solo de un chip más rápido y mejor. El gran discurso de este año fue sobre el intento de Nvidia de convertirse en la compañía que posee la economía del trabajo de IA en sí — los chips, el almacenamiento, la red, la capa de orquestación, el gemelo digital, la política de modelos abiertos, el tiempo de ejecución de agentes y lo que venga después del centro de datos cuando la Tierra comience a sentirse abarrotada. GTC 2026 fue una conferencia sobre inferencia, agentes y fábricas de IA, con el hardware sirviendo como prueba en lugar de trama.

Bueno, eso es un número grande

La mayor demostración de Huang fue numérica. Celebró el 20 aniversario de CUDA, lo llamó la rueda de inercia detrás de la computación acelerada, dijo que la demanda de computación ha aumentado “1 millón de veces en los últimos años”, y elevó la apuesta diciendo que ahora ve al menos 1 billón de dólares en oportunidades de ingresos desde 2025 hasta 2027, frente a los 500 mil millones que había mencionado anteriormente para la demanda de Blackwell y Rubin hasta 2026. Las acciones de Nvidia cerraron con un aumento del 1.6% el lunes, lo que parece una aprobación sin conversión total.

Ese número — y el marco de Huang — probablemente fue el principio organizador del discurso. Nvidia quería que inversores y clientes escucharan, en público y en volumen, que la expansión todavía está en sus primeras etapas, aún se está ampliando y todavía es lo suficientemente grande como para que el gasto actual parezca un pago inicial. Ese número también hizo un trabajo de limpieza silencioso. Nvidia ha pasado meses respondiendo las preguntas habituales que surgen cuando una compañía se convierte en la principal caja registradora en una fiebre de gasto de capital: ¿Cuánto durará esto? ¿Qué pasa cuando los hyperscalers se vuelven religiosos con los costos? ¿Cuánto de la próxima fase se filtra a chips personalizados y alternativas más baratas?

La respuesta de Huang fue ampliar la perspectiva — hacer el mercado más grande y la carga de trabajo más caótica. Dijo que “la inflexión de inferencia ha llegado”, y construyó el centro del discurso en torno a un argumento simple: la IA ahora puede hacer trabajo productivo. Y una vez que eso sucede, la imagen de la demanda cambia. Entrenar modelos gigantes y admirarlos nunca iba a ser la etapa final. Todo eso pasa a producción, donde el contador nunca deja de correr.

Esto — ¡esto! — es tu ingreso, decía, convirtiendo un centro de datos en una menta y una factura de energía en destino. Nvidia estaba vendiendo una realidad tan mejorada que casi podía facturarse, y la sala seguía llena de personas tratando de decidir si la demostración parecía trascendental o simplemente un poco más cara.

Los tokens estaban en todas partes en el discurso — en el video de apertura, en las gráficas de rendimiento, en el argumento económico. El punto, esencialmente, es que el valor futuro de la IA radica en generar salidas útiles de forma continua, lo que significa que la inferencia se convierte en la parte de la pila donde el costo, la latencia y el rendimiento realmente empiezan a importar. Huang está promoviendo la dependencia. Quiere que los clientes piensen en campus de gigavatios, racks integrados, presupuestos de megavatios y curvas de rendimiento de tokens, no en servidores que puedan mezclar y combinar a voluntad.

La inferencia toma el centro del escenario

Quizá una de las líneas más agudas del discurso también fue la más simple: “La inflexión de inferencia ha llegado.” Nvidia sabe que el mundo se ha interesado en hardware de inferencia más barato y eficiente. Bien. También le gustaría vender eso.

Huang dividió la inferencia en dos etapas — prellenado y decodificación — y propuso un sistema en el que los chips Vera Rubin de Nvidia manejan el trabajo de prellenado, mientras que el silicio derivado de Groq se encarga de la decodificación, el paso que realmente produce la respuesta. Eso importa; la inferencia es donde el próximo capítulo de Nvidia se vuelve más caótico. Entrenar modelos grandes hizo a la compañía rica. Servir a cientos de millones de usuarios en tiempo real es donde los clientes empiezan a preguntar sobre costos, latencia y si realmente necesitan el mismo silicio para cada paso.

La respuesta de Huang fue clásica de Nvidia. No defender solo la GPU en aislamiento; tragar toda la pila. Describió Vera Rubin como “un salto generacional” construido en torno a siete chips y cinco sistemas a escala de rack, con Nvidia afirmando que la plataforma puede entrenar grandes modelos de mezcla de expertos con una cuarta parte del número de GPUs en comparación con Blackwell y ofrecer hasta 10 veces más rendimiento de inferencia por vatio a una décima parte del costo por token. También usó el discurso para mirar más allá de Rubin hacia la futura plataforma Feynman, porque en Nvidia, la próxima generación siempre está en las alas antes de que la actual termine su ovación.

Huang no está promoviendo una pieza más rápida tanto como una dependencia mayor. Nvidia anunció un diseño de referencia para la fábrica de IA Vera Rubin DSX, herramientas de simulación DSX para planificar fábricas de IA antes de construirlas, y un menú más amplio de componentes de almacenamiento, red y sistema diseñados para operar como una máquina verticalmente integrada. El mensaje fue claro: deja de pensar en servidores, empieza a pensar en campus. O, si eres Nvidia, empieza a enviar facturas como un servicio público.

Los agentes dejan el escenario de demostración

Si el discurso de hardware trataba de mantener a Nvidia en el centro de la inferencia, el de software trataba de asegurarse de que la IA empresarial no se convierta en la fiesta de otra compañía. Huang dijo que “el 100% de Nvidia” ahora usa Claude Code, Codex y Cursor; la gente ya no pregunta quién, qué, cuándo, dónde y cómo a la IA. Ahora le piden crear. Hacer. Lo siento, empresas de chatbots — la IA ahora se trata menos de una novedad conversacional y más de un sistema laboral.

Huang pasó el día asegurándose de que ese sistema laboral funcione a través de la pila de Nvidia. La compañía lanzó OpenClaw y NemoClaw para la comunidad OpenClaw — en asociación con la compañía demasiado de moda — impulsó su Agent Toolkit y OpenShell runtime, y apostó por AI-Q, que busca enrutar consultas y reducir costos en más del 50% mediante una mezcla híbrida de modelos de frontera y modelos abiertos de Nvidia.

Hay una cobertura estratégica oculta en toda esa apertura.

Nvidia presentó la Coalición Nemotron con Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam y Thinking Machines Lab, con el primer proyecto destinado a sustentar la próxima familia de modelos Nemotron 4. Lee entre líneas, y está bastante claro que Nvidia no quiere que el futuro del software de IA se divida claramente entre unos pocos grandes proveedores de modelos cerrados y un montón de hardware de consumo. También quiere una participación en la capa de modelos abiertos — la parte que determina quién puede construir, ajustar y poseer la IA fuera de los laboratorios más grandes.

El discurso del imperio se hace más grande

Y luego, porque a Huang nunca le ha gustado una metáfora que no pueda ampliar, el discurso se expandió desde el centro de datos a casi todas las industrias adyacentes que pudo encontrar.

Huang ha estado ampliando la historia de Nvidia más allá de los asistentes digitales durante un tiempo, y el GTC de este año llevó ese tema aún más lejos. Nvidia anunció un Plano de Fábrica de Datos de IA Física con Microsoft $MSFT -1.91% Azure y Nebius, destinado a automatizar cómo se generan, aumentan y evalúan los datos de entrenamiento para robótica, agentes de visión IA y vehículos autónomos. La propuesta es sencilla: los datos del mundo real son escasos, los casos extremos son molestos, y los datos sintéticos más la simulación pueden convertir el cómputo en la materia prima que estos sistemas necesitan.

Huang también presentó el GR00T N2, un modelo de base para robots de próxima generación basado en la investigación DreamZero, que la compañía dice que más que duplica el éxito frente a los principales modelos VLA en nuevas tareas y entornos. Los chatbots entusiasmaron a Wall Street. La IA física es la parte que podría mantener la fiebre de infraestructura durante años, porque los robots, sistemas industriales y máquinas autónomas no solo necesitan modelos — necesitan datos de entrenamiento infinitos, simulación, redes, sensores y cómputo en el borde.

Huang incluso llevó a Olaf, de Disney $DIS -0.88%, al escenario, una pequeña pieza de teatro de IA física que dejó más claro el punto que otra diapositiva de arquitectura. Nvidia dice que Disney ha estado entrenando a Olaf y a sus robots BDX -2.20% con un simulador de física acelerado por GPU basado en el marco Warp de Nvidia e integrado en Newton, y que Olaf debutará en Disneyland París el 29 de marzo.

Nvidia también aseguró que los vehículos autónomos siguen en la lista de la lotería. La compañía dijo que BYD, Geely, Isuzu y Nissan están construyendo vehículos listos para Level 4 en su plataforma DRIVE Hyperion, mientras Uber $UBER -1.45% planea lanzar robotaxis con tecnología Nvidia en Los Ángeles y San Francisco en la primera mitad de 2027, y expandirse a 28 mercados para 2028. La autonomía encaja casi demasiado bien en la visión de Huang: la próxima fase de la IA se moverá por el mundo físico, lo que significa más sensores, más simulación, más redes, más cómputo en el borde y, convenientemente para Nvidia, hardware más caro en todas partes.

Huang incluso llevó la historia de “más grande y mejor” un paso más allá y dijo que Nvidia irá al espacio, con futuros sistemas basados en Vera Rubin destinados a centros de datos orbitales y operaciones espaciales autónomas. Claro, eso suena un poco a alguien que ha descubierto que todavía hay sectores sin explorar. Pero también suena a una compañía decidida a hacer que “infraestructura de IA” signifique casi todas las máquinas costosas a la vista. Nvidia sigue siendo el rey de los chips, por supuesto. Pero Huang ya no parece especialmente interesado solo en ese título. Su empresa intenta pasar de ser un proveedor de chips a ser arquitecto de fábricas, proveedor de sistemas operativos y recaudador de peajes en un mundo donde la IA hace más trabajo y los centros de datos con restricciones de energía se convierten en motores de ingresos medidos en tokens por vatio.

Al terminar, el discurso parecía más grande que un calendario de lanzamientos. Se leía como un mapa de imperio. Sí, había DLSS 5 para gráficos, nuevas alianzas de software industrial, asociaciones en telecomunicaciones y una avalancha de herramientas para desarrolladores. Pero la conclusión duradera fue más simple y mucho más grande: Nvidia quiere que la IA deje de entenderse solo como una categoría de software y comience a tratarse como un proyecto de infraestructura a escala de utilidad, con hardware y software de Nvidia integrados en cada capa.

Ese es un mensaje muy Jensen Huang. La parte inquietante para los rivales es que, por ahora al menos, todavía tiene muchos clientes dispuestos a construir en torno a ello.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado