OpenAI, Anthropic і Google запускають спільний механізм для виявлення AI-витоку шляхом дистиляції

AI蒸餾行為

За повідомленням Bloomberg від 16 квітня, OpenAI, Anthropic PBC і Google розпочали співпрацю через галузеву неприбуткову організацію Frontier Model Forum, щоб ділитися інформацією для виявлення та зупинення протиправної практики дистиляції (distillation) проти умов надання сервісу. OpenAI підтвердив Bloomberg, що бере участь у роботі з обміну інформацією щодо протиправної дистиляції.

Рамки співпраці: механізм обміну інформацією Frontier Model Forum

Frontier Model Forum був заснований у 2023 році OpenAI, Anthropic, Google та Microsoft спільно. За повідомленням Bloomberg, наразі ці три компанії обмінюються інформацією через цю організацію з метою ідентифікувати запити проти масштабного обсягу даних (adversarial data requests), відстежувати спроби дистиляції, що порушують умови надання сервісу, і координувати припинення відповідних дій. Google публікував допис, у якому зазначив, що виявив зростання спроб вилучення (model extraction).

За повідомленням Bloomberg, такі моделі обміну інформацією відповідають усталеним практикам у сфері кібербезпеки, яка протягом тривалого часу посилювала захист, обмінюючись між компаніями даними про атаки та стратегіями опонентів.

Парламентський меморандум OpenAI та пов’язані звинувачення

Згідно з меморандумом, поданим OpenAI до Спеціального комітету Палати представників США з питань Китаю (House Select Committee on China) (лютий 2026 року), OpenAI звинувачує китайські AI-компанії DeepSeek у спробі «зайти в ролі пасажира (ride along)» на розроблених OpenAI та іншими американськими передовими лабораторіями технологіях, а також стверджує, що вона й надалі використовує технології дистиляції даних, щоб витягати результати з американських моделей для розробки нової версії чат-бота, і що застосовувані методи стають дедалі більш складними.

Anthropic у лютому 2026 року опублікував заяву, в якій ідентифікував три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — і висунув звинувачення, що вони незаконно витягують функціональність моделей Claude через протиправну дистиляцію. Раніше Anthropic у 2025 році заборонив китайським компаніям використовувати Claude. Bloomberg також повідомляв, що після того, як DeepSeek у січні 2025 року оприлюднив модель міркувань R1, Microsoft і OpenAI розпочали розслідування щодо того, чи DeepSeek незаконно вилучав дані моделей США.

Позиція адміністрації Трампа та обмеження комплаєнсу щодо антимонопольного законодавства

Згідно з оприлюдненими документами з політики, посадовці адміністрації Трампа заявили, що готові сприяти обміну інформацією між AI-компаніями, щоб протидіяти загрозам протиправної дистиляції. У《Плані дій щодо штучного інтелекту》, оприлюдненому президентом Трампом, прямо закликається створити центр обміну інформацією та аналітики; частина цілей — саме для протидії зазначеним діям.

За повідомленням Bloomberg, нинішній обсяг обміну інформацією про технічну дистиляцію між трьома компаніями залишається обмеженим через те, що вони не впевнені, які саме відомості можуть бути законно обмінені за чинними антимонопольними рекомендаціями; три компанії заявили, що мають намір розширити співпрацю після того, як у США уряд чітко визначить відповідні рамки керівництва.

Поширені запитання

OpenAI, Anthropic і Google — через яку організацію вони співпрацюють?

За повідомленням Bloomberg, три компанії здійснюють обмін інформацією через Frontier Model Forum — організацію, яку OpenAI, Anthropic, Google та Microsoft спільно заснували у 2023 році як галузеву неприбуткову організацію.

Що OpenAI подала до Конгресу США щодо проблеми AI-дистиляції?

Згідно з оприлюдненими даними OpenAI, OpenAI подала до Спеціального комітету Палати представників США з питань Китаю меморандум (лютий 2026 року), у якому звинуватила DeepSeek у тому, що вона на постійній основі витягує результати з американських моделей, використовуючи технології дистиляції даних, і розробляє на цій основі нову версію чат-бота.

Які оприлюднені дії зробила Anthropic у зв’язку з проблемою дистиляції китайських AI-лабораторій?

Згідно з оприлюдненою заявою Anthropic, Anthropic у 2025 році заборонила китайським компаніям використовувати модель Claude, а в лютому 2026 року виявила три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — та звинуватила їх у незаконному витягу од функціональності моделі Claude через протиправну дистиляцію.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Anthropic планує надати доступ до Mythos банкам Великої Британії наступного тижня

Anthropic запропонує свій інструмент ШІ, Mythos, банкам Великої Британії наступного тижня, ознаменувавши вихід компанії на ринок фінансових послуг Великої Британії.

GateNews1год тому

Глобальний ринок робототаксі, за прогнозами, досягне $168B до 2035 року, завдяки США та Китаю

Глобальний ринок роботаксі може досягти $168 мільярдів до 2035 року, завдяки прогресу в ШІ та зростанню інвестицій. США та Китай лідируватимуть, а ключовими гравцями стануть такі компанії, як Waymo і Baidu. Зниження витрат на обладнання підвищує прибутковість, і оператори, ймовірно, вийдуть на беззбитковість до 2028 року.

GateNews2год тому

OpenAI запускає GPT-4.5 із розширеними можливостями міркування, ціна $75 за мільйон вхідних токенів

OpenAI запустила GPT-4.5, підвищивши продуктивність і можливості, але вона все ще відстає в передових міркуваннях порівняно з конкурентами. Доступ залежить від підписки, а в майбутньому очікуються моделі на кшталт GPT-5.

GateNews2год тому

Палата представників США пропонує законопроєкт, щоб карати китайські AI-компанії за копіювання моделей

Республіканці в Палаті представників запропонували Закон про запобігання крадіжкам моделей американського ШІ (Deterring American AI Model Theft Act), щоб націлитися на китайські та російські структури, які зловживають американськими моделями ШІ. Законопроєкт, що перебуває на розгляді, може призвести до санкцій або внесення до чорного списку, потенційно прискоривши технологічну самодостатність Китаю, попри те що США наразі зберігають перевагу в чипах.

GateNews2год тому
Прокоментувати
0/400
Немає коментарів