CEO Nvidia Jensen Huang về những điều tiếp theo trong sự bùng nổ của AI

Trước khi Jensen Huang kịp bước vào cửa ra vào áo khoác da tại GTC năm nay, Nvidia $NVDA -0.70% đã bắt đầu truyền thuyết đó. Nhạc nền trước buổi trình diễn nghe có vẻ đặc biệt được chế tác cho một lễ đăng quang — lời bài hát về những điều tuyệt vời đến đúng lịch trình, huyền thoại đang được tạo ra, tương lai xuất hiện đúng như dự kiến; thậm chí còn có những bài hát mà Shazam cũng không thể nhận diện. (Bản demo AI đầu tiên trong ngày có thể chính là danh sách phát đó.) Một nửa phòng đã giơ điện thoại chờ đợi Huang bước ra như thể Silicon Valley đã đặt riêng một màn trình diễn trong sân vận động của chính mình. Trong một buổi chiều, sân nhà của San Jose Sharks thuộc về một loại quyền lực khác. Bởi vì Huang bước lên sân khấu và làm những gì anh làm tốt nhất: biến một bài phát biểu sản phẩm thành một cuộc họp về tương lai.

Người sáng lập Nvidia mở đầu GTC bằng lời hứa sẽ dẫn dắt mọi người qua “từng lớp” của AI, rồi dành vài giờ tiếp theo để tranh luận rằng công ty không chỉ bán chip vào một thị trường nóng bỏng. Không đâu. Công ty muốn định hình toàn bộ hệ sinh thái của nền kinh tế AI: tính toán, mạng lưới, lưu trữ, phần mềm, mô hình, nhà máy, và — vì rõ ràng là không còn phù hợp với thời điểm này — có thể cả các trung tâm dữ liệu (vẫn còn mang tính lý thuyết) ở không gian.

Bài phát biểu mở ra nhiều thông báo ở mọi hướng, nhưng thông điệp chính lại rõ ràng hơn. Huang muốn các nhà đầu tư, khách hàng và đối thủ nghe rõ bốn điều: nhu cầu AI vẫn tăng trưởng đủ nhanh để biện minh cho khoản chi tiêu khổng lồ; suy luận (inference) giờ là trung tâm của chiến trường; các đại lý sẽ không chỉ xuất hiện trong chatbot mà còn lan ra vào các hoạt động hàng ngày của công việc văn phòng; và sau cơn sốt vàng kỹ thuật số AI, có thể là AI vật lý — nơi robot, hệ thống tự động và phần mềm công nghiệp tiêu thụ nhiều dữ liệu và hạ tầng hơn nữa. Bạn không thể viết Nvidia mà không có AI.

Huang bắt đầu từ nơi anh thường bắt đầu khi thị trường bắt đầu tự hỏi liệu rào chắn của Nvidia có thể bị rò rỉ: phần mềm. Ông dành thời gian đầu tiên nhắc nhở mọi người rằng CUDA đã 20 tuổi, rằng hệ sinh thái cài đặt của Nvidia “ở trong mọi đám mây” và “mọi công ty máy tính.” Lớp phòng thủ mạnh nhất của Nvidia vẫn là hệ sinh thái phần mềm bao quanh silicon, chứ không phải các hình chữ nhật xanh lá cây riêng lẻ.

Logic đó đã định hình phần còn lại của bài phát biểu. Huang nhấn mạnh vào dữ liệu có cấu trúc, gọi đó là “chân lý nền” của tính toán doanh nghiệp, và nói rằng AI cuối cùng có thể tận dụng được biển thông tin không có cấu trúc — PDFs, video, lời nói, tất cả những thứ trong kho lưu trữ của các công ty đã tích trữ nhiều năm mà không biết cách tìm kiếm hay kiếm tiền. Cảnh báo thế giới; Nvidia cũng muốn có phần trong cơ sở dữ liệu đó.

GTC không còn chỉ về một chip nhanh hơn, tốt hơn nữa. Bài phát biểu lớn của năm nay là về nỗ lực của Nvidia trở thành công ty sở hữu nền kinh tế của công việc AI — các chip, bộ lưu trữ, mạng lưới, lớp điều phối, bản sao kỹ thuật số, chính sách mô hình mở, thời gian chạy đại lý, và bất cứ thứ gì sau trung tâm dữ liệu khi Trái đất bắt đầu cảm thấy đông đúc. GTC 2026 là một bài phát biểu về suy luận, về đại lý, và về nhà máy AI, với phần cứng đóng vai trò làm bằng chứng chứ không phải cốt truyện.

Chà, đó là một con số lớn

Điểm mạnh lớn nhất của Huang là con số. Ông kỷ niệm 20 năm CUDA, gọi đó là bánh đà thúc đẩy tính toán tăng tốc, nói rằng nhu cầu tính toán đã tăng “gấp 1 triệu lần trong vài năm qua,” rồi nâng cao hơn nữa khi dự đoán sẽ có ít nhất 1 nghìn tỷ USD doanh thu từ 2025 đến 2027, tăng từ con số 500 tỷ USD mà ông từng đưa ra cho Blackwell và Rubin đến năm 2026. Cổ phiếu Nvidia đóng cửa tăng 1,6% vào thứ Hai, như thể là sự chấp thuận mà chưa hoàn toàn chuyển đổi.

Con số đó — và cách Huang trình bày — có thể chính là nguyên tắc tổ chức của bài phát biểu chính. Nvidia muốn các nhà đầu tư và khách hàng nghe rõ, công khai và lớn tiếng rằng quá trình xây dựng vẫn còn sớm, vẫn đang mở rộng, và vẫn đủ lớn để khiến chi tiêu hiện tại trông như tiền đặt cọc. Con số này cũng đã làm sạch một số vấn đề nhỏ. Nvidia đã dành nhiều tháng để trả lời các câu hỏi quen thuộc mỗi khi một công ty trở thành người thu tiền chính trong cơn sốt đầu tư: Điều này kéo dài bao lâu? Điều gì xảy ra khi các nhà siêu mở rộng bắt đầu chú ý đến chi phí? Bao nhiêu phần của giai đoạn tiếp theo sẽ rò rỉ vào chip tùy chỉnh và các lựa chọn rẻ hơn?

Câu trả lời của Huang là mở rộng tầm nhìn — làm thị trường lớn hơn và khối lượng công việc phức tạp hơn. Ông nói “điểm nghẽn suy luận đã đến,” và xây dựng phần trung tâm của bài phát biểu dựa trên một luận điểm đơn giản: AI giờ đây có thể làm công việc hiệu quả. Và khi điều đó xảy ra, bức tranh về nhu cầu sẽ thay đổi. Huấn luyện các mô hình lớn và ngưỡng mộ chúng chưa bao giờ là giai đoạn cuối cùng. Tất cả đều chuyển vào sản xuất, nơi đồng hồ không bao giờ ngừng chạy.

Điều này — điều này! — chính là doanh thu của bạn, ông nói, biến trung tâm dữ liệu thành một đồng tiền và hóa đơn điện thành định mệnh. Nvidia đang cố gắng thuyết phục thực tế đến mức có thể lập hóa đơn, và phòng họp vẫn đầy người đang cố quyết định xem bản demo có vẻ siêu việt hay chỉ hơi đắt hơn một chút.

Tokens xuất hiện khắp nơi trong bài phát biểu — trong video mở đầu, trong biểu đồ hiệu suất, trong luận điểm kinh tế. Ý chính, về cơ bản, là giá trị tương lai của AI nằm ở việc tạo ra đầu ra hữu ích liên tục, nghĩa là suy luận trở thành phần của hệ thống nơi chi phí, độ trễ và khả năng xử lý thực sự quan trọng. Huang đang đề xuất sự phụ thuộc. Ông muốn khách hàng nghĩ về các khuôn viên gigawatt, các giá đỡ tích hợp, ngân sách megawatt, và các đường cong throughput token, chứ không phải các máy chủ có thể pha trộn và ghép nối theo ý muốn.

Suy luận trở thành trung tâm

Có lẽ một trong những câu nói sắc nét nhất của bài phát biểu cũng là đơn giản nhất: “Điểm nghẽn suy luận đã đến.” Nvidia biết thế giới đã quan tâm đến phần cứng suy luận rẻ hơn, gọn nhẹ hơn. Được rồi. Công ty cũng muốn bán phần cứng đó.

Huang chia suy luận thành hai giai đoạn — tiền xử lý (prefill) và giải mã (decode) — và trình bày một hệ thống trong đó chip Vera Rubin của Nvidia xử lý công đoạn tiền xử lý, trong khi silicon do Groq phát triển đảm nhận giải mã, bước thực sự đưa ra câu trả lời. Điều này quan trọng; suy luận là nơi chương mới của Nvidia trở nên phức tạp hơn. Huấn luyện làm công ty giàu có. Phục vụ hàng trăm triệu người dùng trong thời gian thực là nơi khách hàng bắt đầu đặt câu hỏi về chi phí, độ trễ, và liệu họ có thực sự cần cùng một silicon cho mọi bước hay không.

Phản hồi của Huang là điển hình của Nvidia. Đừng chỉ bảo vệ GPU riêng lẻ; hãy nuốt trọn toàn bộ hệ thống. Ông mô tả Vera Rubin như “bước nhảy vọt của một thế hệ” dựa trên bảy chip và năm hệ thống dạng rack, với Nvidia khẳng định nền tảng này có thể huấn luyện các mô hình hỗn hợp lớn với số GPU bằng một phần tư so với Blackwell và cung cấp gấp 10 lần khả năng throughput suy luận trên mỗi watt, với chi phí mỗi token giảm một phần mười. Ông cũng dùng bài phát biểu để nhìn xa hơn Rubin đến nền tảng tương lai Feynman, vì trong thế giới Nvidia, thế hệ tiếp theo luôn đứng trong cánh chờ trước khi thế hệ hiện tại kết thúc cúi chào.

Huang không chỉ giới thiệu một phần nhanh hơn mà còn là một sự phụ thuộc lớn hơn. Nvidia công bố thiết kế tham khảo nhà máy AI Vera Rubin DSX, công cụ mô phỏng DSX để lập kế hoạch nhà máy AI trước khi xây dựng, và một danh mục rộng hơn các thành phần lưu trữ, mạng lưới, hệ thống nhằm vận hành như một cỗ máy tích hợp dọc. Thông điệp rõ ràng: Đừng nghĩ về máy chủ nữa, hãy nghĩ về các khuôn viên. Hoặc, nếu là Nvidia, bắt đầu gửi hóa đơn như một dịch vụ tiện ích.

Đại lý rời khỏi sân trình diễn

Nếu phần cứng là để giữ Nvidia ở trung tâm của suy luận, thì phần mềm là để đảm bảo AI doanh nghiệp không trở thành bữa tiệc của người khác. Huang nói “100% Nvidia” hiện đang sử dụng Claude Code, Codex, và Cursor; mọi người không còn hỏi AI ai, cái gì, khi nào, ở đâu, như thế nào nữa. Họ yêu cầu nó tạo ra. Làm việc. Xin lỗi các công ty chatbot — AI giờ đây ít còn là một trò chuyện mới lạ mà đã trở thành một hệ thống lao động.

Huang dành cả ngày để đảm bảo hệ thống lao động đó chạy xuyên suốt hệ sinh thái của Nvidia. Công ty ra mắt OpenClaw và NemoClaw cho cộng đồng OpenClaw — hợp tác với công ty đang rất thịnh hành — đẩy mạnh Agent Toolkit và runtime OpenShell, và tập trung vào AI-Q, nhằm định tuyến truy vấn và cắt giảm chi phí hơn 50% thông qua sự kết hợp hybrid giữa frontier và các mô hình mở của Nvidia.

Có một chiến lược phòng vệ chiến lược trong tất cả sự cởi mở đó.

Nvidia công bố Liên minh Nemotron cùng Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam, và Thinking Machines Lab, với dự án đầu tiên dự kiến hỗ trợ dòng mô hình Nemotron 4 sắp tới. Đọc giữa các dòng, rõ ràng Nvidia không muốn tương lai phần mềm AI bị chia nhỏ rõ ràng giữa một số nhà cung cấp mô hình đóng lớn và một đống phần cứng hàng hóa phía dưới. Công ty muốn tham gia vào lớp mô hình mở, phần quyết định ai được xây dựng, tinh chỉnh và sở hữu AI ngoài các phòng thí nghiệm lớn nhất.

Chiến dịch đế chế ngày càng lớn hơn

Và rồi, vì Huang chưa từng gặp một phép ẩn dụ nào mà ông không thể nâng cấp, bài phát biểu mở rộng ra khỏi trung tâm dữ liệu đến gần như mọi ngành công nghiệp liên quan mà nó có thể tìm thấy.

Huang đã mở rộng câu chuyện của Nvidia vượt ra ngoài trợ lý kỹ thuật số từ lâu, và GTC năm nay đẩy mạnh chủ đề đó hơn nữa. Nvidia công bố Bản thiết kế Nhà máy Dữ liệu AI Vật lý cùng Microsoft $MSFT -0.14% Azure và Nebius nhằm tự động hóa quá trình tạo, mở rộng và đánh giá dữ liệu huấn luyện cho robot, AI thị giác, và xe tự hành. Thông điệp khá rõ ràng: Dữ liệu thực tế khan hiếm, các trường hợp ngoại lệ phiền phức, và dữ liệu tổng hợp cộng với mô phỏng có thể biến tính toán thành nguyên liệu thô mà các hệ thống này cần.

Huang cũng giới thiệu trước GR00T N2, một mô hình nền tảng robot thế hệ mới dựa trên nghiên cứu DreamZero, mà công ty nói rằng hơn gấp đôi thành công so với các mô hình VLA hàng đầu trong các nhiệm vụ mới và môi trường mới. Chatbot khiến Wall Street phấn khích. AI vật lý là phần có thể duy trì cơn sốt hạ tầng trong nhiều năm, vì robot, hệ thống công nghiệp và máy móc tự động không chỉ cần mô hình — họ cần dữ liệu huấn luyện vô tận, mô phỏng, mạng lưới, cảm biến và tính toán tại biên.

Huang thậm chí còn mang Olaf của Disney $DIS +1.66% lên sân khấu, một phần nhỏ của sân khấu AI vật lý, giúp làm rõ hơn ý chính so với một sơ đồ kiến trúc khác. Nvidia nói rằng Disney đã huấn luyện Olaf và các robot BDX +0.85% của mình bằng trình giả lập vật lý tăng tốc GPU dựa trên nền tảng Warp của Nvidia và tích hợp vào Newton, với Olaf dự kiến ra mắt tại Disneyland Paris vào ngày 29 tháng 3.

Nvidia cũng đảm bảo xe tự hành vẫn giữ vị trí trong danh sách dự đoán của mọi người. Công ty cho biết BYD, Geely, Isuzu và Nissan đang xây dựng xe chuẩn Level 4 dựa trên nền tảng DRIVE Hyperion của Nvidia, trong khi Uber $UBER +4.19% dự kiến sẽ triển khai robotaxi do Nvidia cung cấp tại Los Angeles và San Francisco trong nửa đầu năm 2027 trước khi mở rộng ra 28 thị trường vào năm 2028. Tính tự động phù hợp gần như quá rõ ràng với luận điểm của Huang: Giai đoạn tiếp theo của AI sẽ đi qua thế giới vật lý, nghĩa là nhiều cảm biến hơn, nhiều mô phỏng hơn, nhiều mạng lưới hơn, nhiều tính toán tại biên hơn, và tất nhiên, với Nvidia, nhiều phần cứng đắt tiền hơn khắp nơi.

Huang còn đưa câu chuyện lớn hơn và tốt hơn một bước nữa khi nói Nvidia sẽ đi vào không gian, với các hệ thống Vera Rubin dựa trên mục tiêu trung tâm dữ liệu quỹ đạo và hoạt động không gian tự động. Chắc chắn, điều đó nghe có vẻ như một người đã phát hiện ra còn vài lĩnh vực chưa bị khai thác. Nhưng cũng nghe như một công ty quyết tâm biến “hạ tầng AI” thành gần như mọi máy móc đắt tiền trong tầm mắt. Nvidia vẫn là vua chip, chắc chắn. Nhưng Huang không còn đặc biệt quan tâm đến danh hiệu đó nữa. Công ty của ông đang cố gắng chuyển từ nhà cung cấp chip thành kiến trúc sư nhà máy, nhà cung cấp hệ điều hành, và người thu phí cho một thế giới nơi AI làm nhiều công việc hơn và trung tâm dữ liệu tiết kiệm năng lượng trở thành nguồn doanh thu đo bằng tokens mỗi watt.

Khi Huang kết thúc, bài phát biểu chính cảm giác lớn hơn một lịch trình ra mắt sản phẩm. Nó như một bản đồ đế chế. Đúng vậy, có DLSS 5 cho đồ họa, các liên kết phần mềm công nghiệp mới, hợp tác viễn thông, và một đợt sóng phần mềm dành cho nhà phát triển. Nhưng điểm bền vững và lớn hơn nhiều là: Nvidia muốn AI không còn chỉ là một danh mục phần mềm nữa mà trở thành một dự án hạ tầng quy mô tiện ích, với phần cứng và phần mềm của Nvidia được tích hợp ở mọi lớp.

Đây là thông điệp rất Jensen Huang. Phần gây lo ngại cho các đối thủ là, ít nhất hiện tại, ông vẫn còn nhiều khách hàng sẵn sàng xây dựng xung quanh nó.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.46KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.45KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Ghim