
DeepSeek đã chính thức ra mắt chuỗi phiên bản xem trước V4 vào ngày 24 tháng 4, phát hành mã nguồn mở theo giấy phép MIT, và trọng số mô hình đã được đồng bộ lên Hugging Face cùng ModelScope. Theo báo cáo kỹ thuật của DeepSeek V4, V4-Pro-Max (chế độ mức độ suy luận tối đa) đạt 3206 điểm trên chuẩn Codeforces, vượt GPT-5.4.
Thông số kiến trúc của hai mô hình MoE
Theo báo cáo kỹ thuật của DeepSeek V4, chuỗi V4 bao gồm hai mô hình lai (MoE):
V4-Pro: Tổng tham số 1.6T, kích hoạt 49B mỗi token, hỗ trợ ngữ cảnh 1M token
V4-Flash: Tổng tham số 284B, kích hoạt 13B mỗi token, cũng hỗ trợ ngữ cảnh 1M token
Theo báo cáo kỹ thuật, ở ngữ cảnh 1M, FLOPs suy luận cho mỗi token của V4-Pro chỉ bằng 27% của V3.2; bộ nhớ đệm KV giảm xuống còn 10% của V3.2. Điều này chủ yếu nhờ nâng cấp kiến trúc của cơ chế chú ý hỗn hợp (CSА chú ý thưa nén + HCA chú ý nén nặng). Quy mô dữ liệu tiền huấn luyện vượt quá 32T token; trình tối ưu hóa huấn luyện được cập nhật thành Muon.
Phương pháp hậu huấn luyện: chưng cất chiến lược trực tuyến thay thế học tăng cường hỗn hợp
Theo báo cáo kỹ thuật của DeepSeek V4, cập nhật cốt lõi của hậu huấn luyện V4 là thay thế hoàn toàn giai đoạn học tăng cường hỗn hợp (mixed RL) của V3.2 bằng chưng cất chiến lược trực tuyến (On-Policy Distillation, OPD). Quy trình mới được chia thành hai bước: trước hết, huấn luyện riêng các chuyên gia theo từng lĩnh vực (SFT + học tăng cường GRPO) cho các lĩnh vực như toán học, mã lệnh, Agent và tuân theo lệnh; sau đó, dùng nhiều giáo viên OPD để chưng cất năng lực của hàng chục chuyên gia vào một mô hình thống nhất, căn chỉnh bằng logit để tránh các xung đột năng lực thường gặp trong các phương pháp truyền thống.
Báo cáo đồng thời đưa vào mô hình phần thưởng sinh (Generative Reward Model, GRM), nhằm vào các tác vụ khó xác minh bằng quy tắc. Dùng dữ liệu nhãn thủ công đa dạng với số lượng ít để huấn luyện, để mô hình đồng thời đảm nhiệm chức năng sinh và đánh giá.
Kết quả kiểm tra chuẩn: dẫn đầu ở mã hóa, còn khoảng cách ở suy luận tri thức
Theo báo cáo kỹ thuật của DeepSeek V4, kết quả so sánh giữa V4-Pro-Max và Opus 4.6 Max, GPT-5.4 xHigh cùng Gemini 3.1 Pro High (không bao gồm GPT-5.5 và Opus 4.7 mới phát hành gần đây):
Codeforces: 3206 (GPT-5.4: 3168 / Gemini 3.1 Pro: 3052) → Cao nhất toàn trường
LiveCodeBench: 93.5 → Cao nhất toàn trường
SWE Verified: 80.6, thua Opus 4.6 80.8 chênh 0.2 điểm phần trăm
GPQA Diamond: 90.1, thua Gemini 3.1 Pro 94.3
SimpleQA-Verified: 57.9, thua Gemini 3.1 Pro 75.6
HLE: 37.7, thua Gemini 3.1 Pro 44.4
Báo cáo kỹ thuật cũng chỉ ra rằng các so sánh trên không bao gồm GPT-5.5 và Opus 4.7 mới phát hành gần đây; khoảng cách giữa V4 và các mô hình đóng nguồn thế hệ mới nhất cần được thẩm định bằng đánh giá của bên thứ ba.
Câu hỏi thường gặp
Điều khoản giấy phép mã nguồn mở của phiên bản xem trước DeepSeek V4 là gì, có thể lấy ở đâu?
Theo thông báo chính thức của DeepSeek ngày 24 tháng 4, chuỗi V4 phát hành mã nguồn mở theo giấy phép MIT, trọng số mô hình đã được đưa lên Hugging Face và ModelScope, áp dụng cho cả mục đích thương mại lẫn học thuật.
Sự khác nhau về quy mô tham số giữa DeepSeek V4-Pro và V4-Flash là gì?
Theo báo cáo kỹ thuật của DeepSeek V4, tổng tham số của V4-Pro là 1.6T, kích hoạt 49B mỗi token; tổng tham số của V4-Flash là 284B, kích hoạt 13B mỗi token. Cả hai đều hỗ trợ ngữ cảnh 1M token.
Kết quả so sánh chuẩn của DeepSeek V4-Pro-Max với GPT-5.4 và Gemini 3.1 Pro là gì?
Theo báo cáo kỹ thuật của DeepSeek V4, V4-Pro-Max vượt GPT-5.4 và Gemini 3.1 Pro ở hai chuẩn Codeforces (3206 điểm) và LiveCodeBench (93.5), nhưng vẫn thua Gemini 3.1 Pro ở các chuẩn thiên về tri thức (GPQA Diamond, SimpleQA-Verified, HLE); bộ so sánh không bao gồm GPT-5.5 và Opus 4.7.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Datavault AI bắt tay King Mining Capital trong kế hoạch mã hóa $150M Gold Tokenization Plan
Theo Businesswire, vào ngày 1/5, Datavault AI niêm yết trên Nasdaq đã công bố quan hệ đối tác chiến lược với King Mining Capital để ra mắt GoldVault, một kế hoạch token hóa vàng có quy mô vượt quá 150 triệu USD. Theo thỏa thuận, Datavault AI sẽ mua 5% cổ phần tại King Mining Capital và một
GateNews6phút trước
Nebius đồng ý mua Eigen AI bằng $643M tiền mặt và cổ phiếu
Theo Nebius, công ty hạ tầng AI, đã đồng ý mua Eigen AI vào ngày 1/5 với giá trị khoảng 643 triệu USD bằng tiền mặt và cổ phiếu hạng A. Giá trị thương vụ được tính dựa trên giá cổ phiếu trung bình gia quyền theo 30 ngày của Nebius trước thời điểm ký kết và có thể điều chỉnh theo các điều khoản thông thường. Eigen AI
GateNews21phút trước
Meta huy động 25 tỷ USD cho AI: đến năm 2026, chi tiêu vốn dự kiến vượt 145 tỷ USD
Meta đã hoàn tất việc phát hành 6 lô trái phiếu trị giá 25 tỷ USD vào ngày 30/4, kỳ hạn dài nhất đến năm 2066. Mức giá ban đầu cao hơn khoảng 180 điểm cơ bản so với trái phiếu chính phủ Mỹ. Tổng nhu cầu mua khoảng 96 tỷ USD nhưng thấp hơn lần trước. Đồng thời, doanh nghiệp nâng dự báo chi tiêu vốn (capex) cho năm 2026 lên 125–145 tỷ USD; người sáng lập cũng thừa nhận hiện chưa có kế hoạch chi tiết cho từng sản phẩm AI. Sau công bố báo cáo tài chính, giá cổ phiếu giảm 7%, cho thấy thị trường vẫn còn nghi ngờ về việc đầu tư AI có thể “biến hiện” thành lợi nhuận. Nếu ROI chưa rõ ràng, trong 12 tháng tới, rủi ro vừa có đợt phát hành trái phiếu từ các “ông lớn” công nghệ, vừa có tình trạng lợi suất/biên lợi suất mở rộng.
ChainNewsAbmedia1giờ trước
Chip AI của Huawei ước tăng 60% lên 12 tỷ: giành đơn hàng Trung Quốc của NVIDIA
Huawei dự kiến doanh thu chip AI năm 2026 đạt 12 tỷ USD, tăng 60% so với 7,5 tỷ USD năm 2025. Nguyên nhân chính là Ascend 950PR bắt đầu sản xuất hàng loạt từ tháng 3 năm 2026 và ổn định giành được phần lớn đơn đặt hàng, trong khi 950DT dự kiến ra mắt vào Q4. Khách hàng bao gồm DeepSeek, Alibaba Cloud và Tencent Cloud. 950PR dùng quy trình sản xuất 7 nm của SMIC, do lệnh quản chế của Mỹ nên không thể sử dụng 5 nm/3 nm. Mức tăng này cho thấy vị thế của thị trường Trung Quốc và tác động của các lệnh quản chế xuất khẩu; khả năng NVIDIA tại Trung Quốc có thể bị xói mòn thị phần. Các điểm cần theo dõi tiếp theo gồm lượng hàng thực tế xuất xưởng, nguồn cung quy trình sản xuất và thay đổi trong quản chế.
ChainNewsAbmedia1giờ trước
Khi hỏi Claude về những việc quan trọng trong đời: vấn đề tình cảm 25%, tâm linh 38% tỷ lệ lấy lòng
Nghiên cứu của Anthropic cho thấy, trong mỗi 1 triệu cuộc trò chuyện với Claude, khoảng 6% người dùng coi AI như một cố vấn cho cuộc sống, với 4 lĩnh vực chính là sức khỏe, sự nghiệp, tình cảm và tài chính. Tỷ lệ nịnh bợ trong tình cảm đạt 25%, trong khi linh tính là cao nhất với 38%. Để giảm mức độ nịnh bợ, Opus 4,7 và Mythos Preview đã được hạ xuống thêm một nửa. Nghiên cứu được chuyển sang dữ liệu huấn luyện, quyền riêng tư được bảo vệ; đồng thời khuyến nghị người dùng khi gặp các vấn đề về tình cảm hãy sử dụng cách đặt câu hỏi ngược. Nguồn ABMedia
ChainNewsAbmedia2giờ trước
Visa ra mắt chương trình Agentic Ready tại Hồng Kông vào ngày 1/5, cho phép thanh toán bằng AI Agent
Theo truyền thông Hồng Kông Ming Pao, Visa đã ra mắt chương trình Visa Agentic Ready tại Hồng Kông vào ngày 1/5, cho phép thanh toán bằng tác nhân AI. Chương trình tận dụng cơ chế mã hóa token, xác minh danh tính, quản lý rủi ro và cấp quyền. Các đơn vị tham gia ban đầu bao gồm
GateNews2giờ trước