Генеральний директор Anthropic: Claude недостатньо підходить для військових застосувань, очікує підписання більш чітких умов

ChainNewsAbmedia

Anthropic виконавчий директор Даріо Амоді (Dario Amodei) дав інтерв’ю головному редактору «Економіст» Занні Мінтон Беддос (Zanny Minton Beddoes), у якому пояснив, чому Anthropic виступає проти деяких контрактних умов Пентагону. Він вважає, що позиція Anthropic базується не лише на демократичних цінностях, а й на побоюваннях щодо надійності існуючих моделей штучного інтелекту для військових цілей та питання, хто має контролювати їх у кінцевому підсумку. Амоді також висловив сподівання на діалог із урядом для обговорення більш чітких умов щодо AI.

Амоді: Claude ще не готовий стати моделлю для повної військової автоматизації

Після заборони уряду Трампа використовувати моделі компанії для масштабного спостереження або автономної зброї, Claude був позначений у США як постачальник ризиків AI. Амоді зазначив, що основна модель Anthropic, Claude, ще не готова для застосування у повністю автоматизованих військових сценаріях. Як приватний постачальник AI, компанії важко пояснити уряду, як правильно використовувати ці моделі, але він вважає це необхідною мірою безпеки.

Амоді уточнив, що Anthropic уклала обмежений контракт із Пентагоном, і наразі проблем немає, але їх турбує потенційне розширення сфери застосування у майбутньому. Повна військова автоматизація може створити ситуацію, коли AI керує мільйонами безпілотників без дотримання традиційних військових правил, і без чітких обмежень це стане неконтрольованим.

Як Anthropic доводить, що обмеження використання зброї є обґрунтованим?

У розмові з «Економістом» Амоді пояснив, що обмеження використання Claude для керування безпілотниками у повністю автоматизованій зброї базується на двох причинах: недостатній надійності моделі та відсутності рамок людського контролю (відео 0:00-0:18, 5:48-5:58).

Недостатня надійність Claude: Амоді вважає, що модель Claude ще не здатна підтримувати повністю автоматизовані військові сценарії, порівнюючи її з авіакомпаніями, які мають оприлюднювати потенційно небезпечні способи польоту (відео 0:05-0:49).

Відсутність рамок людського контролю: Амоді побоюється, що без людських нормативів управління військовою технікою з безпілотниками може виникнути ситуація, коли один людський оператор контролює мільйони зброї без відповідальності, що суперечить традиційним військовим принципам (відео 5:48-6:55).

Як вирішити розбіжності щодо військового штучного інтелекту?

Через інтерв’ю з «Економістом» Амоді висловив сподівання, що Anthropic і уряд зможуть співпрацювати для більш детального обговорення застосувань AI, зокрема щодо надійності моделей і рамок управління, щоб мінімізувати ризики. Він підкреслив, що постачальники AI мають відповідальність чітко визначати рівень зрілості моделей для високоризикових застосувань.

Амоді запропонував укласти початковий обмежений контракт, що охоплює вже погоджені сценарії використання, щоб перед розширенням застосувань до більш спірних задач встановити правила роботи моделей. Водночас потрібно вести дискусії для досягнення балансу, щоб не надати надмірних повноважень приватним компаніям і водночас не зробити урядову владу абсолютною.

Назва Anthropic походить від «антропології» і відображає початкову ідею засновника Амоді — створити людинор-centered AI-компанію. Ця прихильність зробила його одним із небагатьох керівників високотехнологічних компаній, які відкрито критикують уряд США і прямо звинувачують Китай у крадіжці технології Claude. Як Anthropic зберігатиме баланс між своїми цінностями та національною безпекою, стане важливим випробуванням для розвитку військового застосування AI. Як вирішити цю кризу, що стосується технологічного суверенітету та етичних меж? Світ уважно спостерігає.

Ця стаття «Anthropic виконавчий директор: Claude ще не готовий для військових застосувань, сподіваємося на більш чіткі умови» вперше з’явилася на ABMedia.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів