Результаты поиска для "DEEPSEEK"
Сегодня
13:41

Alibaba Cloud Снижает Цену Неявного Кэша DeepSeek-V4-Pro до 1 Юаня за Миллион Токенов 29 Апреля

Согласно Alibaba Cloud, ее платформа Bailian снизит цену неявного кэша (Implicit Cache) для модели DeepSeek-V4-Pro до 1 юаня за миллион токенов с 29 апреля 2026 года в 23:59:59 по пекинскому времени. Неявный кэш применяется только тогда, когда запросы попадают в кэш; кэшированные входные токены тарифицируются по тарифу cached_token, тогда как некэшированные входные токены оплачиваются по стандартным тарифам input_token.
Больше
10:37

DeepSeek запускает функцию распознавания изображений в бета-тестировании

Согласно PANews, сегодня DeepSeek запустила функцию распознавания изображений (29 апреля), в настоящее время она находится на бета-тестировании. Для развертывания бета-версии могут быть выбраны как пользователи веб-версии, так и мобильного приложения.
09:09

Исследователь мультимодального направления DeepSeek намекает на новую модель зрения на 29 апреля

29 апреля исследователь мультимодальной команды DeepSeek Сяокан Чэнь опубликовал в X: «Теперь, мы видим вас», сопроводив пост двумя изображениями талисмана DeepSeek — кита: на одном изображении глаза закрыты, а на другом — открыты. Похоже, пост намекает на готовящуюся модель зрения, что согласуется с ролью Чэня как исследователя в мультимодальной команде DeepSeek.
Больше
11:02

Kimi K2.6 возглавляет рейтинги LLM OpenRouter в первую неделю, использование выросло на 7 683%

Сообщение Gate News, 28 апреля — модель Kimi K2.6 от Moonshot AI, флагманская модель, вышла на первое место в еженедельном рейтинге LLM OpenRouter, набрав 1,88 трлн токенов, и продемонстрировала всплеск на 7 683% по сравнению с прошлой неделей. Запущенная на OpenRouter 20 апреля модель всего за неделю обогнала Claude Sonnet 4.6 (1.35T, -3%) и DeepSeek V3.2 1.24T.
Больше
01:16
1

DeepSeek увеличивает уставный капитал на 50%, доля основателя Ляна Вэньфэна растет до 34%

Сообщение Gate News, 28 апреля — Согласно данным Qichacha, DeepSeek (Hangzhou Deepseek AI Basic Technology Research Co., Ltd.) увеличила свой уставный капитал с 10 млн юаней до 15 млн юаней. Вклад основателя Ляна Вэньфэна в уставный капитал вырос с 1 млн юаней до 5,1 млн юаней
Больше
00:30

ZetaChain запускает Anuma — платформу агрегации ИИ с фокусом на приватность

Новостное сообщение Gate News, 28 апреля — команда ZetaChain официально запустила Anuma, ориентированную на приватность платформу агрегации ИИ, которая позволяет пользователям получать доступ к нескольким ИИ-моделям — включая GPT, Claude, Gemini, Grok, DeepSeek, Kimi и Qwen — через единый интерфейс. Anuma включает локальное хранилище для приватности, мульти-модальное взаимодействие и единую систему контекстной памяти между разными моделями. Веб-интерфейс платформы теперь открыт для использования.
Больше
06:31

DeepSeek снижает цены на V4-Pro на 75%, урезает затраты на кэш API до одной десятой

Сообщение Gate News, 27 апреля — DeepSeek объявила скидку 75% на свою новую модель V4-Pro для разработчиков и снизила цены на попадания в кэш входных данных по всей линейке API до одной десятой от предыдущих уровней. Модель V4, выпущенная 25 апреля в версиях Pro и Flash, была оптимизирована для процессоров Huawei Ascend
Больше
05:17

GPT-5.5 Возвращается на Передний край в Кодинге, но OpenAI Меняет Бенчмарки После Поражения Opus 4.7

Gate News сообщение, 27 апреля — SemiAnalysis, фирма по анализу полупроводников и ИИ, опубликовала сравнительный бенчмарк ассистентов для программирования, включая GPT-5.5, Claude Opus 4.7 и DeepSeek V4. Ключевой вывод: GPT-5.5 знаменует собой первый возврат OpenAI на передний край в моделях для кодинга за последние шесть месяцев, при этом инженеры SemiAnalysis теперь чередуют между Codex и Claude Code после того, как ранее почти исключительно полагались на Claude. GPT-5.5 основана на новом подходе к предварительному обучению с кодовым названием "Spud" и представляет собой первое расширение масштаба предварительного обучения OpenAI со времён GPT-4.5. При практических испытаниях проявилось явное разделение ролей. Claude отвечает за планирование новых проектов и первичную настройку, тогда как Codex особенно силён в исправлениях багов, требующих интенсивных рассуждений. Codex демонстрирует более сильное понимание структур данных и логических рассуждений, но испытывает трудности с тем, чтобы выводить неоднозначные намерения пользователя. В задаче на одной панели Claude автоматически воссоздал компоновку эталонной страницы, но сфабриковал большие объёмы данных, тогда как Codex пропустил компоновку, зато предоставил значительно более точные данные. Анализ выявляет деталь манипуляции бенчмарком: февральский блог OpenAI призывал отрасль перейти на SWE-bench Pro как новый стандарт для бенчмарков кода. Однако в объявлении GPT-5.5 переход осуществлён на новый бенчмарк под названием "Expert-SWE." Причина, спрятанная в мелком шрифте, заключается в том, что GPT-5.5 был обойдён Opus 4.7 на SWE-bench Pro и заметно уступил ненадлежащим образом не раскрытому Anthropic Mythos 77.8%. Что касается Opus 4.7, Anthropic опубликовала разбор последствий через неделю после релиза, признав три ошибки в Claude Code, которые сохранялись в течение нескольких недель с марта по апрель, затрагивая почти всех пользователей. Ранее несколько инженеров сообщали о деградации производительности в версии 4.6, но их замечания были отклонены как субъективные. Кроме того, новый токенизатор Opus 4.7 увеличивает использование токенов до 35%, что Anthropic откровенно признала — фактически это означает скрытое повышение цены. DeepSeek V4 оценили как "удерживающий темп с передним краем, но не ведущий," позиционируя себя как самый бюджетный вариант среди закрытых моделей. Анализ также отметил, что "Claude по-прежнему превосходит DeepSeek V4 Pro в высокосложных задачах китайской письменности," и прокомментировал, что "Claude выиграл у китайской модели на её родном языке." В статье вводится ключевая идея: цена модели должна оцениваться через "стоимость за задачу," а не через "стоимость за токен." Прайсинг GPT-5.5 вдвое выше, чем у GPT-5.4 input $5, output за миллион токенов, но он выполняет те же задачи, используя меньшее число токенов, поэтому фактическая стоимость не обязательно выше. Первичные данные SemiAnalysis показывают, что коэффициент входов к выходам у Codex составляет 80:1, что ниже, чем 100:1 у Claude Code.
Больше
03:11

Котируемая в Гонконге MiniMax-W падает более чем на 14%, Zhipu снижается более чем на 6% при запуске модели DeepSeek

Вестник Gate, 27 апреля — котируемая в Гонконге MiniMax-W упала более чем на 14% в ходе торгов в течение дня, а Zhipu снизилась более чем на 6% в ту же сессию. Падение последовало за выпуском DeepSeek новой модели в пятницу и объявлением ограниченных по времени рекламных предложений в
Больше
00:21
1

DeepSeek откладывает запуск V4, чтобы оптимизировать под чипы Huawei Ascend

Сообщение Gate News, 27 апреля — DeepSeek отложила релиз своей модели V4, чтобы доработать свой программный стек для чипов Huawei Ascend, что отражает более широкую инициативу Пекина по развитию отечественной цепочки поставок для ИИ на фоне того, что доступ к передовым зарубежным полупроводникам становится все более ограниченным. DeepSe
Больше