Сообщение Gate News от 29 апреля — веса модели Ling-2.6-flash от Ant Group теперь открыты для свободного распространения: ранее они были доступны только через API. Модель включает 104 миллиарда общих параметров, 7,4 миллиарда активируемых параметров на один вывод, окно контекста 256K и лицензию MIT. Доступны версии с точностью BF16, FP8 и INT4 на HuggingFace и ModelScope.
Ling-2.6-flash вносит улучшения гибридного линейного внимания по сравнению с Ling 2.0: она обновляет исходную GQA до архитектуры 1:7 MLA plus Lightning Linear hybrid в сочетании с высокоспряжённой MoE. Эффективность вывода существенно превосходит аналогичные модели: пиковая скорость генерации достигает 340 токенов/с на 4x GPU H20, при этом пропускная способность prefill и decode примерно в 4 раза выше, чем у сопоставимых открытых моделей. Агентно-ориентированные бенчмарки демонстрируют сильные результаты: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval и PinchBench достигают уровня SOTA или приближаются к нему. Во всём комплекте бенчмарков Artificial Analysis общее потребление токенов составляет лишь 15 миллионов. На AIME 2026 модель набрала 73,85%.
Официальный сайт Ant Group также указывает флагманскую версию Ling-2.6-1T (триллион-параметров) и версию Ling-2.6-mini (облегчённого формата), однако на момент публикации их веса остаются не выпущенными на HuggingFace: для скачивания доступна только серия flash.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
DeepSeek представила метод Visual Primitives для усиления мультимодального рассуждения 30 апреля
Согласно техническому отчёту DeepSeek, 30 апреля компания представила Visual Primitives — метод, который встраивает базовые визуальные единицы, такие как точки и ограничивающие рамки (bounding boxes), в цепочки рассуждений, чтобы решить проблему Reference Gap в мультимодальных задачах. Метод сокращает потребление токенов изображения
GateNews24м назад
NVIDIA выпускает веса флагманской модели Cosmos-Reason2-32B и расширяет контекстное окно до 256 тыс. токенов
По сообщению Beating, NVIDIA выпустила веса для Cosmos-Reason2-32B — флагманской версии своего физического AI-модели рассуждений для зрения и языка (VLM), предназначенной, чтобы помочь роботам и системам автономного вождения понимать пространственные, временные и физические принципы. Модель с 32-миллиарда параметров,
GateNews27м назад
OpenAI раскрыл, почему Codex запрещает говорить «гоблинов»: награда за «ботанический» типаж вышла из-под контроля
OpenAI в официальном блоге объяснила запрет Codex на «гоблинов» и другие существа: это связано с предпочтением биоморфных метафор в поощрительных сигналах, которые использовались при обучении шизоидного «книжного» типа личности, что привело к межличностному загрязнению и ошибочному RLHF-наведению. Инцидент раскрыл Barron Roth после того, как были опубликованы системные инструкции; OpenAI применяет две стратегии — краткосрочное жесткое кодирование и долгосрочное удаление поощрительных сигналов, — предупреждая о хрупкости дизайна наград и необходимости более точного посттренировочного аудита.
ChainNewsAbmedia1ч назад
Alibaba открывает исходный код модуля интерпретируемости Qwen-Scope для Qwen, охватывающего 7 моделей, 30 апреля
По данным PANews, 30 апреля Alibaba's Qwen объявила о выпуске с открытым исходным кодом Qwen-Scope — модуля интерпретируемости, обученного на моделях серий Qwen3 и Qwen3.5. Релиз охватывает 7 крупных языковых моделей в вариантах для плотных и mixture-of-experts, а также 14 наборов разреженных автоэнкодеров
GateNews2ч назад
ИИ-серверы Nvidia B300 достигли $1 млн в Китае на фоне дефицита поставок
Как сообщает Reuters, AI-серверы Nvidia B300 теперь продаются в Китае примерно за 7 миллионов юаней (1 миллион долларов США) — на фоне пресечения каналов контрабанды и сохранения спроса со стороны местных технологических компаний. Цена выросла с примерно 4 миллионов юаней (585 000 долларов США) в конце 2025 года, значительно
GateNews2ч назад
Операционная прибыль LG CNS выросла на 19% в 1-м квартале на фоне роста в сфере AI и облаков
По данным Chosun Daily, 30 апреля LG CNS сообщила, что операционная прибыль в первом квартале увеличилась на 19,4% в годовом выражении до 94,2 млрд вон (64,1 млн долларов США) благодаря спросу на ИИ и облачные услуги. Выручка выросла на 8,6% до 1,3 трлн вон (894 млн долларов США).
ИИ и облачный подразделение компании сгенерировал 765,4 миллиар…
GateNews3ч назад