Результати пошуку для "LLM"
2026-04-02
02:38

PIPPIN (pippin) за 24 години виріс на 20,56%

Gate News повідомлення, 2 квітня, згідно з даними Gate, станом на час підготовки матеріалу PIPPIN (pippin) коштує 0.0603 долара США, за 24 години виріс на 20.56%, досягнувши максимуму 0.0779 долара США, а мінімум опустився до 0.0499 долара США; обсяг торгів за 24 години становить 21.2392 млн доларів США. Поточна ринкова капіталізація — близько 60.3162 млн доларів США. Pippin — SVG-кит «єдиноріг», згенерований за останнім LLM-бенчмарком із використанням ChatGPT 4o. Pippin створив Yohei Nakajima, який є визнаним інноватором і лідером думок у сфері AI VC. Він відомий своїм публічним підходом до побудови та весь час перебуває на передовій руху «AI for VC».
Більше
PIPPIN-25,85%
01:11

TAO за останній місяць зросла на 94,9%, Bittensor завершив найбільше децентралізоване попереднє навчання LLM в історії

Ціна TAO продовжує зростати, досягаючи нового максимуму на рівні 337.84 доларів США з приростом на 13.6% за 24 години. Відомий інвестор Jason Calacanis висловив позитивне ставлення до TAO та інвестував у проекти його екосистеми. Підмережа Bittensor завершила важливе попереднє навчання, що доводить її спроможність до практичного застосування.
Більше
TAO6,06%
BTC3,64%
05:03

a16z:AI агенти кидають виклик логіці інтернет-реклами, глобальний ринок онлайн-реклами у 2025 році досягне 291 мільярда доларів

Gate News повідомляє, що 23 березня дані Mordor Intelligence показали, що обсяг світового ринку онлайн-реклами у 2025 році становить приблизно 291 мільярд доларів США і головним чином контролюється Google. a16z зазначає, що з 1997 по 2024 рік основою комерційної моделі Інтернету була монетизація через захоплення частини уваги користувачів рекламою. Однак великі мовні моделі (LLM) та агенти штучного інтелекту не піддаються впливу реклами, тому традиційна логіка «розсіювання уваги» вже не працює.
Більше
13:08

Tether запустила фреймворк BitNet LoRA, який підтримує тренування великих мовних моделей на мобільних пристроях

Gate News повідомляє, що 17 березня QVAC Fabric від Tether запустив глобально перший кросс-платформний фреймворк LoRA для тонкого налаштування, орієнтований на Microsoft BitNet (One-bit LLM), що значно знижує вимоги до відеопам'яті та обчислювальної потужності при навчанні великих моделей. Цей фреймворк підтримує LoRA мікротонкого налаштування та прискорення виведення на Intel, AMD, Apple Silicon серії M та мобільних GPU (включаючи Adreno, Mali, Apple Bionic).
Більше
07:09

Засновник Sentry ставить під сумнів, що LLM сповільнює розвиток, стверджує, що OpenClaw генерує занадто багато коду, що важко виправляти

Співзасновник Sentry Девід Крамер висловив думку, що великі мовні моделі не підвищують продуктивність, а навпаки, призводять до виникнення складного коду та уповільнення розвитку. Він ставить під сумнів підхід до автоматичного генерування коду, вважаючи, що якість результатів низька, особливо щодо інкрементальної розробки та послідовності стилю. На основі особистого досвіду він зазначає, що розробка програмного забезпечення залишається складною задачею, а психологічні зміни вплинули на його внесок.
Більше
11:02

China Academy of Information and Communications Technology Together with Universities Discovers and Fixes Critical OpenClaw Command Injection Vulnerability Китайская академия информации и коммуникационных технологий совместно с университетами обнаружила и устранила критическую уязвимость внедрения команд OpenClaw Китайська академія інформації та комунікаційних технологій спільно з університетами виявила та усунула критичну вразливість внедрення команд OpenClaw

Китайський інститут інформаційних комунікацій та університетська команда виявили під час аудиту відкритої правової бази OpenClaw вразливість типу інжекції команд, керованої LLM, у модулі bash-tools. Зловмисники можуть спровокувати виконання команд для віддаленого виконання коду та крадіжки даних. Було запущено процес розкриття вразливості та подано рекомендації щодо виправлення.
Більше
09:32

Cofounder AMI Labs Xie Saining: LLM у певному розумінні є «антит-Bitter Lesson», світовий модель — це майбутнє

Сяе Сайнін у інтерв'ю критикував сучасний напрямок розвитку AI, який зосереджується на великих мовних моделях, вважаючи, що це обмежує навчання AI на основі реального світу, і наголошував на перевагах світових моделей. Він переконаний, що створення інтелектуальних агентів, здатних виживати в реальності, становить більший виклик, і згадав, що AMII Labs зосереджується на збиранні реальних даних з планами випустити AI смарт-окуляри та робортів у майбутньому.
Більше
06:07

Bittensor підмережа завершила попереднє навчання LLM з 72 мільярдами параметрів, TAO зросійпо 54,8% за останні два тижні

Bittensor підмережа Templar завершила 10 березня предтренування децентралізованої мовної моделі Covenant-72B з 72 мільярдами параметрів. Модель показала чудові результати в тесті MMLU, перевищивши кілька централізованих базових моделей. Проект залучив співпрацю понад 70 вузлів, усі ваги та контрольні точки були опубліковані відповідно до ліцензії Apache. Під впливом цієї новини Bittensor та його токен зажили загального зростання.
Більше
TAO6,06%
08:37

OpenClaw випустила версію v2026.3.8, додано локальне резервне копіювання CLI, режим мовчазного тайм-ауту Talk і режим контексту пошуку LLM у Brave

OpenClaw випустила версію v2026.3.8 8 березня, додавши функції локального резервного копіювання стану, автоматичного транскрибування Talk Mode та режим LLM Context для пошуку у браузері Brave, виправивши кілька проблем. У розробці взяли участь 43 співробітники.
Більше