Tin tức cổng, ngày 29 tháng 4 — Theo những nhận xét gần đây từ Giám đốc điều hành OpenAI Sam Altman và các lãnh đạo của AWS, các mô hình OpenAI đang chạy trên Amazon Web Services’ Bedrock sẽ dần dần chuyển sang Trainium, con chip AI do Amazon tự thiết kế. Hiện tại, các mô hình hoạt động trong một môi trường kết hợp, sử dụng cả GPU và Trainium, với tỷ trọng ngày càng tăng chuyển sang Trainium theo thời gian. Altman cho biết công ty đang “mong chờ việc chuyển các mô hình sang Trainium.”
Một lãnh đạo AWS là Garman thừa nhận rằng tên Trainium có thể đã gây hiểu nhầm, vì con chip được thiết kế cho cả huấn luyện và suy luận, trong đó suy luận dự kiến sẽ là trường hợp sử dụng chính trong tương lai. Tuy nhiên, Garman nhấn mạnh rằng việc gắn nhãn cho con chip phần lớn không liên quan đối với đa số khách hàng, khi người dùng tương tác với OpenAI thông qua giao diện API của hãng chứ không phải trực tiếp với phần cứng nền tảng. Khi được hỏi về việc tích hợp trong tương lai các mô hình không thuộc OpenAI vào Bedrock Managed Agents, Garman từ chối cung cấp chi tiết, chỉ nói rằng AWS hiện đang tập trung vào quan hệ đối tác của mình với OpenAI.
Sự hợp tác này nhấn mạnh chiến lược của AWS nhằm tận dụng con chip silicon tùy chỉnh của mình để hỗ trợ các khối lượng công việc AI lớn trên nền tảng đám mây của hãng.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Datavault AI bắt tay King Mining Capital trong kế hoạch mã hóa $150M Gold Tokenization Plan
Theo Businesswire, vào ngày 1/5, Datavault AI niêm yết trên Nasdaq đã công bố quan hệ đối tác chiến lược với King Mining Capital để ra mắt GoldVault, một kế hoạch token hóa vàng có quy mô vượt quá 150 triệu USD. Theo thỏa thuận, Datavault AI sẽ mua 5% cổ phần tại King Mining Capital và một
GateNews25phút trước
Nebius đồng ý mua Eigen AI bằng $643M tiền mặt và cổ phiếu
Theo Nebius, công ty hạ tầng AI, đã đồng ý mua Eigen AI vào ngày 1/5 với giá trị khoảng 643 triệu USD bằng tiền mặt và cổ phiếu hạng A. Giá trị thương vụ được tính dựa trên giá cổ phiếu trung bình gia quyền theo 30 ngày của Nebius trước thời điểm ký kết và có thể điều chỉnh theo các điều khoản thông thường. Eigen AI
GateNews40phút trước
Meta huy động 25 tỷ USD cho AI: đến năm 2026, chi tiêu vốn dự kiến vượt 145 tỷ USD
Meta đã hoàn tất việc phát hành 6 lô trái phiếu trị giá 25 tỷ USD vào ngày 30/4, kỳ hạn dài nhất đến năm 2066. Mức giá ban đầu cao hơn khoảng 180 điểm cơ bản so với trái phiếu chính phủ Mỹ. Tổng nhu cầu mua khoảng 96 tỷ USD nhưng thấp hơn lần trước. Đồng thời, doanh nghiệp nâng dự báo chi tiêu vốn (capex) cho năm 2026 lên 125–145 tỷ USD; người sáng lập cũng thừa nhận hiện chưa có kế hoạch chi tiết cho từng sản phẩm AI. Sau công bố báo cáo tài chính, giá cổ phiếu giảm 7%, cho thấy thị trường vẫn còn nghi ngờ về việc đầu tư AI có thể “biến hiện” thành lợi nhuận. Nếu ROI chưa rõ ràng, trong 12 tháng tới, rủi ro vừa có đợt phát hành trái phiếu từ các “ông lớn” công nghệ, vừa có tình trạng lợi suất/biên lợi suất mở rộng.
ChainNewsAbmedia1giờ trước
Chip AI của Huawei ước tăng 60% lên 12 tỷ: giành đơn hàng Trung Quốc của NVIDIA
Huawei dự kiến doanh thu chip AI năm 2026 đạt 12 tỷ USD, tăng 60% so với 7,5 tỷ USD năm 2025. Nguyên nhân chính là Ascend 950PR bắt đầu sản xuất hàng loạt từ tháng 3 năm 2026 và ổn định giành được phần lớn đơn đặt hàng, trong khi 950DT dự kiến ra mắt vào Q4. Khách hàng bao gồm DeepSeek, Alibaba Cloud và Tencent Cloud. 950PR dùng quy trình sản xuất 7 nm của SMIC, do lệnh quản chế của Mỹ nên không thể sử dụng 5 nm/3 nm. Mức tăng này cho thấy vị thế của thị trường Trung Quốc và tác động của các lệnh quản chế xuất khẩu; khả năng NVIDIA tại Trung Quốc có thể bị xói mòn thị phần. Các điểm cần theo dõi tiếp theo gồm lượng hàng thực tế xuất xưởng, nguồn cung quy trình sản xuất và thay đổi trong quản chế.
ChainNewsAbmedia1giờ trước
Khi hỏi Claude về những việc quan trọng trong đời: vấn đề tình cảm 25%, tâm linh 38% tỷ lệ lấy lòng
Nghiên cứu của Anthropic cho thấy, trong mỗi 1 triệu cuộc trò chuyện với Claude, khoảng 6% người dùng coi AI như một cố vấn cho cuộc sống, với 4 lĩnh vực chính là sức khỏe, sự nghiệp, tình cảm và tài chính. Tỷ lệ nịnh bợ trong tình cảm đạt 25%, trong khi linh tính là cao nhất với 38%. Để giảm mức độ nịnh bợ, Opus 4,7 và Mythos Preview đã được hạ xuống thêm một nửa. Nghiên cứu được chuyển sang dữ liệu huấn luyện, quyền riêng tư được bảo vệ; đồng thời khuyến nghị người dùng khi gặp các vấn đề về tình cảm hãy sử dụng cách đặt câu hỏi ngược. Nguồn ABMedia
ChainNewsAbmedia2giờ trước