"DEEPSEEK"的搜尋結果
今天
13:41

阿里雲將 DeepSeek-V4-Pro 隱式快取定價調降至 4 月 29 日起每 100 萬個 tokens 1 元

根據阿里雲的說明,其百炼平台將把 DeepSeek-V4-Pro 模型的隱式快取 (Implicit Cache) 的定價降低至自 2026 年 4 月 29 日 23:59:59(北京時間)起,每 100 萬個 tokens 收費 1 元。僅當請求命中快取時才適用隱式快取;快取中的輸入 tokens 將按快取的 cached_token 費率計費,而未命中快取的輸入 tokens 則按標準 input_token 費率收費。此調整僅影響隱式快取的定價;基礎模型推論費率維持不變。
09:09

4月29日:DeepSeek 多模態研究員暗示全新視覺模型

4月29日,DeepSeek 多模態團隊研究員 Chen 小康 在 X 發文:「現在,我們看見你了,」並配上兩張 DeepSeek 鯨魚吉祥物的圖片——一張閉著眼睛,另一張睜開眼睛。該貼文似乎在暗示即將推出的視覺模型,這也與 Chen 在 DeepSeek 多模態團隊擔任研究員的角色相符。
展開
00:30

ZetaChain 推出 Anuma:注重隱私的 AI 聚合平台

Gate News 訊息,4 月 28 日——ZetaChain 的團隊已正式推出 Anuma,一款注重隱私的 AI 聚合平台,可讓使用者透過單一介面存取多個 AI 模型——包括 GPT、Claude、Gemini、Grok、DeepSeek、Kimi 與 Qwen。 Anuma 具備本地隱私儲存、跨模型協作,以及跨不同模型的統一情境記憶系統。該平台的網頁介面現已開放使用。
展開
06:31

DeepSeek V4-Pro 價格砍 75%,API 快取成本降至 1/10

Gate 新聞訊息,4 月 27 日——DeepSeek 宣布,其新款 V4-Pro 模型面向開發者提供 75% 的折扣,並將其 API 產品線中的輸入快取命中價格下調至先前水準的 1/10。 V4 模型於 4 月 25 日以 Pro 和 Flash 版本發布,已針對華為的 Ascend 處理器進行優化。DeepSeek 表示,V4-Pro 在世界知識基準(world-knowledge benchmarks)上優於其他開源模型,並且僅次於 Google 的封閉式 Gemini-Pro-3.1。V4 系列專為 AI 代理而設計,能處理超出聊天機器人能力範圍的複雜任務。 V4-Pro API 成本已低於主要的西方競爭對手,定價為每 100 萬輸出 tokens $3.48,相較之下 for OpenAI 的 GPT-4.5。V4-Flash 定價為每 100 萬輸入 tokens $0.14、每 100 萬輸出 tokens $0.28,可能讓透過單次請求就能完成整份程式碼庫或監管文件的審閱等具成本效益的應用成為可能。
展開
05:17

GPT-5.5 重返編碼最前沿,但 OpenAI 在輸給 Opus 4.7 後更換了基準測試

Gate 新聞訊息,4月27日——SemiAnalysis,一家半導體與 AI 分析公司,發布了一份包含 GPT-5.5、Claude Opus 4.7 與 DeepSeek V4 的編碼助手對比基準測試。關鍵發現:GPT-5.5 標誌著 OpenAI 在六個月後首次重返編碼模型的最前沿,且 SemiAnalysis 工程師如今在 Codex 與 Claude Code 之間交替使用;此前他們幾乎完全依賴 Claude,S
展開