Пентагон під ударом: 149 колишніх суддів заявляють, що закон не слід використовувати для «карати антропічних»

Група з 149 пенсіонерів федеральних та штатних суддів підтримала Anthropic, приватну компанію, що займається штучним інтелектом і стоїть за Claude, у її юридичній суперечці з Міністерством оборони (DoD). У короткому документі, поданому у вівторок, вони стверджували, що урядове агентство неправильно позначило компанію як ризик для національної безпеки у ланцюзі постачань.

Оголошення 70% знижки на TipRanks Premium

  • Відкрийте доступ до даних рівня хедж-фондів та потужних інвестиційних інструментів для більш розумних і точних рішень

  • Будьте попереду ринку з останніми новинами та аналізами і максимізуйте потенціал свого портфеля

Судді заявили, що рішення не має належного правового підґрунтя і не дотримувалося необхідних процедур. Вони додали, що хоча уряд може обирати своїх підрядників, він не повинен використовувати цю владу для шкоди або покарання компанії, або виходити за межі необхідного для управління контрактами.

Судді ставлять під сумнів використання Pentagon позначки національної безпеки

У поданні йшлося, що DoD неправильно інтерпретувало закон, позначаючи Anthropic як ризик у ланцюзі постачань. За словами суддів, ця позначка не була підтверджена доказами і мала ширші наслідки для діяльності компанії з штучного інтелекту.

Вони зазначили, що Anthropic не прагне примусити укласти контракт з департаментом. Скоріше, «Anthropic просить лише, щоб його не карали на виході», — зазначено у короткому документі. Судді заявили, що DoD не може використовувати закон для «карання Anthropic», попереджаючи, що така позначка може вплинути на стосунки компанії з іншими урядовими агентствами та приватними партнерами.

Новий інструмент для торгівлі для биков/ведмедів NVDA

До них приєдналися працівники кількох великих технологічних компаній, які також критикували позначення Anthropic як ризику у ланцюзі постачань ще у березні цього року. Співробітники IBM, Google, Salesforce та інших компаній висловили занепокоєння, що така позначка може створити прецедент для того, як федеральні агентства ставляться до компаній у сфері штучного інтелекту та технологій. Навіть співробітники OpenAI, компанії, яка взяла на себе контракт на 200 мільйонів доларів після конфлікту Anthropic з Пентагоном, висловили обережність щодо ширших наслідків.

Поточна суперечка привертає ширшу увагу

Остання справа слідує за кількома тижнями обміну думками між Anthropic і Міністерством оборони щодо ролі компанії у військових системах уряду. Після позначки Anthropic як ризику у ланцюзі постачань, AI-компанія подала позов проти агентства, стверджуючи, що дії DoD були незаконною відповіддю.

Перед цим судовим процесом президент США Дональд Трамп наказав агентствам припинити використання технологій Anthropic через побоювання щодо національної безпеки. Цей наказ був виданий після того, як DoD вже використовувало системи Claude у військових операціях США, зокрема щодо Ірану.

Які зараз найкращі акції AI для купівлі?

Anthropic — приватна компанія і не має публічно доступних акцій до IPO. Однак інвестори, які цікавляться акціями у сфері штучного інтелекту, можуть розглянути варіанти «Strong Buy» від Уолл-стріт, такі як GOOGL, Microsoft MSFT, Nvidia NVDA, Amazon AMZN і Meta META, що відстежуються на TipRanks’ Stock Comparison Center.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити