Результати пошуку для "DEEPSEEK"
2026-04-28
11:02

Kimi K2.6 очолює рейтинги LLM OpenRouter у перший тиждень, використання зростає на 7 683%

Повідомлення Gate News, 28 квітня — Kimi K2.6, флагманська модель від Moonshot AI, досягла першого місця в щотижневих рейтингах LLM OpenRouter, споживши 1,88 трильйона токенів, та виросла на 7 683% у порівнянні з попереднім тижнем. Модель, запущена на OpenRouter 20 квітня, випередила Claude Sonnet 4.6 (1.35T, -3%) та DeepSeek
Більше
01:16
1

DeepSeek збільшив(ла) статутний капітал на 50%, частка засновника Лян Веньфеня зросла до 34%

Повідомлення Gate News, 28 квітня — Згідно з даними Qichacha, DeepSeek (Hangzhou Deepseek AI Basic Technology Research Co., Ltd.) збільшив(ла) статутний капітал із 10 млн юанів до 15 млн юанів. Частка засновника Лян Веньфеня у статутному капіталі зросла з 1 млн юанів до 5,1 млн юанів
Більше
00:30

ZetaChain запускає Anuma — платформу для агрегування ШІ з фокусом на конфіденційність

Повідомлення Gate News, 28 квітня — команда ZetaChain офіційно запустила Anuma, платформу для агрегування ШІ з фокусом на конфіденційність, яка дає змогу користувачам отримувати доступ до кількох моделей ШІ—включно з GPT, Claude, Gemini, Grok, DeepSeek, Kimi та Qwen—через єдиний інтерфейс. Anuma має локальне сховище для конфіденційності,
Більше
06:31

DeepSeek знижує ціни на V4-Pro на 75% і скорочує витрати на кеш API до однієї десятої

Повідомлення Gate News, 27 квітня — DeepSeek оголосила знижку 75% на свою нову модель V4-Pro для розробників і знизила ціни на кеш вхідних даних у всій лінійці API до однієї десятої від попередніх рівнів. Модель V4, випущена 25 квітня у версіях Pro і Flash, була оптимізована під процесори Ascend від Huawei
Більше
05:17

GPT-5.5 повертається на передній край у кодуванні, але OpenAI змінює бенчмарки після поразки від Opus 4.7

Повідомлення Gate News, 27 квітня — SemiAnalysis, компанія з аналізу напівпровідників та ШІ, опублікувала порівняльний бенчмарк асистентів для кодування, зокрема GPT-5.5, Claude Opus 4.7 і DeepSeek V4. Ключовий висновок: GPT-5.5 означає перше повернення OpenAI на передній край у моделях для кодування за шість місяців, причому інженери SemiAnalysis тепер чергують між Codex і Claude Code після того, як раніше майже виключно покладалися на Claude. GPT-5.5 створено на основі нового підходу до попереднього навчання з кодовою назвою "Spud" і є першим розширенням масштабу попереднього навчання OpenAI з моменту GPT-4.5. У практичному тестуванні чітко проявився розподіл ролей. Claude береться за планування нових проєктів та початкове налаштування, тоді як Codex найкраще справляється з виправленнями багів, що потребують інтенсивного осмислення. Codex демонструє сильніше розуміння структур даних і логічного міркування, але має труднощі з тим, щоб вгадувати неоднозначні наміри користувача. В одній задачі на єдиній панелі керування Claude автоматично відтворив макет сторінки-зразка, але сфабрикував великі обсяги даних, тоді як Codex пропустив макет, зате видав значно точніші дані. Аналіз виявляє деталь маніпуляції бенчмарком: у лютневому блозі OpenAI закликав індустрію перейти на SWE-bench Pro як новий стандарт для бенчмарків кодування. Однак у повідомленні про GPT-5.5 перехід здійснили на новий бенчмарк під назвою "Expert-SWE." Причина, захована в дрібному шрифті, полягає в тому, що GPT-5.5 було випереджено Opus 4.7 на SWE-bench Pro і він суттєво відстав від неопублікованого Mythos 77.8% від Anthropic. Щодо Opus 4.7: Anthropic опублікувала постмортем-аналіз через тиждень після релізу, визнавши три баги в Claude Code, які зберігалися протягом кількох тижнів з березня по квітень, впливаючи майже на всіх користувачів. Раніше кілька інженерів повідомляли про погіршення продуктивності в версії 4.6, але їх відхилили, назвавши суб’єктивними спостереженнями. Крім того, новий токенізатор у Opus 4.7 збільшує використання токенів до 35%, що Anthropic прямо визнав — по суті, це приховане підвищення ціни. DeepSeek V4 оцінили як "дотримання темпу з переднім краєм, але без лідерства," позиціонуючи його як найдешевшу альтернативу серед моделей із закритим кодом. Аналіз також зазначив, що "Claude продовжує випереджати DeepSeek V4 Pro у завданнях із високою складністю китайського письма," коментуючи, що "Claude переміг китайську модель у її власній мові." У статті вводиться ключова ідея: ціноутворення моделей слід оцінювати за "вартістю за задачу" замість "вартості за токен." Ціна GPT-5.5 удвічі вища за ціну GPT-5.4 input $5, output per million tokens, але він виконує ті самі завдання, використовуючи менше токенів, тож фактична вартість не обов’язково вища. Початкові дані SemiAnalysis показують, що співвідношення вхідних і вихідних даних у Codex становить 80:1, що нижче, ніж у Claude Code — 100:1.
Більше
03:11

MiniMax-W, що котирується в Гонконзі, падає більш ніж на 14%, Zhipu знижується більш ніж на 6% під час запуску моделі DeepSeek

Повідомлення Gate News, 27 квітня — котирування MiniMax-W, що котирується в Гонконзі, впали більш ніж на 14% протягом дня, тоді як Zhipu знизилась більш ніж на 6% під час тієї ж сесії. Зниження відбулося після виходу DeepSeek нового моделі в п’ятницю та його оголошення про промоакції з обмеженим терміном дії, на
Більше
00:21
1

DeepSeek Затримує Запуск V4, Щоб Оптимізувати Під Чипи Huawei Ascend

Повідомлення Gate News, 27 квітня — DeepSeek переніс випуск своєї моделі V4, щоб доопрацювати її програмний стек для чипів Huawei Ascend, що відображає ширшу ініціативу Пекіна щодо створення вітчизняного ланцюга постачання для ШІ, оскільки доступ до передових іноземних напівпровідників стає дедалі більш обмеженим. DeepSe
Більше
15:02

DeepSeek Зрізає Ціни на Вхідний Кеш до 1/10 Від Ціни Запуску; V4-Pro Падає до 0,025 Юаня за Мільйон Токенів

Повідомлення Gate News, 26 квітня — DeepSeek знизив ціни на вхідний кеш у всій лінійці своїх моделей до однієї десятої від цін запуску, починаючи з негайно. Модель V4-Pro доступна зі знижкою 2,5x на обмежений час, а акція діє до 5 травня 2026 року, 11:59 PM UTC+8. Після обох з
Більше
09:00

Baidu Qianfan запустила підтримку Day 0 для DeepSeek-V4 із API-сервісами

Повідомлення Gate News, 25 квітня — Попередня версія DeepSeek-V4 вийшла в ефір і була оприлюднена з відкритим кодом 25 квітня, а платформа Baidu Qianfan у межах Baidu Intelligent Cloud забезпечує адаптацію сервісу Day 0 API. Модель має розширене контекстне вікно на мільйон токенів і доступна у двох версіях: DeepSeek-V4
Більше
00:25
1

API DeepSeek V4-Pro отримує 75% знижку до 5 травня, ціна на виході знижується до $0.87 за мільйон токенів

Повідомлення Gate News, 26 квітня — DeepSeek оголосила про 75% знижку на ціни API V4-Pro зі строком дії обмежений часом, дійсну до 5 травня о 15:59 UTC. Після знижки ціна за мільйон токенів така: вхідний кеш-хіт $0.03625
Більше