Журнал TIME на обложке интервью с Anthropic: самая разрушительная компания в мире, оценка в 380 миллиардов долларов превышает Goldman Sachs

動區BlockTempo

TIME глубоко разобрался в ситуации и раскрыл, что Anthropic из-за отказа использовать Claude в полностью автономных оружейных системах и для масштабного наблюдения за гражданами США был внесён правительством Трампа в список рисков национальной цепочки поставок; в тот же день OpenAI быстро взяла на себя военные контракты — эта «гонка вниз» проверяет принципы и границы самых разрушительных компаний в области искусственного интеллекта. Статья основана на TIME, написанной Leslie Dickstein и Simmone Shah, и переведена и адаптирована командой «Движение».

(Предыстория: ИИ распознавание лиц — ошибка! Бабушка из США оказалась в тюрьме за 1200 миль, полгода без извинений полиции)
(Дополнительный фон: бывший технический директор Dropbox — популярная статья «Я работал всю жизнь, а теперь это не стоит ничего и легко доступно»)

Содержание статьи

Переключить

  • Вечная борьба между безопасностью и скоростью
  • От аутсайдера к лидеру: путь роста Anthropic
  • Две красные линии: автономное оружие и массовое наблюдение
  • Культурные конфликты и политические противоречия
  • Происхождение Anthropic: аномалия с приоритетом безопасности
  • Claude Code: переопределение профессии «инженер»
  • Рекурсия самосовершенствования: страх и увлечение ускорением ИИ
  • Ослабление политики RSP: тормоза самих ограничений сломались?
  • Действия в Венесуэле: первый глубокий военный опыт ИИ
  • Разрыв переговоров, OpenAI берёт контракт
  • После бури: сможет ли Anthropic выжить?

В гостиничном номере в Сан-Кларате, штат Калифорния, пятеро сотрудников компании Anthropic собрались вокруг ноутбука в напряжённой обстановке. Это февраль 2025 года. Они присутствовали на конференции неподалёку, когда получили тревожное сообщение: результаты контролируемого эксперимента показывают, что новая версия Claude, которая скоро выйдет, может помочь террористам синтезировать биологическое оружие.

Эти люди входили в «передовую красную команду» Anthropic — команду, которая оценивает передовые возможности Claude и моделирует потенциальные риски в экстремальных сценариях, включая кибератаки и биологическую безопасность. Получив тревогу, они поспешили вернуться в комнату, перевернули кровать, чтобы сделать временный рабочий стол, и начали по очереди проверять тестовые результаты.

Несколько часов напряжённого анализа не позволили команде определить, достаточно ли безопасен новый продукт. В итоге Anthropic решил отложить выпуск Claude 3.7 Sonnet ровно на 10 дней, пока команда не убедится, что риски в допустимых пределах.

Это казалось всего лишь десятью днями, но для компании, которая находится на передовой технологий и в индустрии, быстро меняющей мир, это было почти целым веком.

Вечная борьба между безопасностью и скоростью

Руководитель «передовой красной команды» Logan Graham, вспоминая тот случай «страха биологического оружия», считает его символом давления, которому подверглась Anthropic в критический момент — и не только для компании, но и для всего мира. Anthropic — одна из самых безопасных лабораторий в области передового ИИ, но одновременно она находится в самом центре гонки за создание всё более мощных систем. Многие внутри компании уверены, что если эта технология выйдет из-под контроля, последствия могут быть ужасными — от ядерной войны до исчезновения человечества.

31-летний Graham выглядит юным, но не уклоняется от ответственности за баланс между огромной выгодой и огромными рисками. Он говорит: «Многие выросли в относительно мирном мире и интуитивно думают, что в комнате сидят опытные взрослые, которые знают, как всё исправить».

«Но на самом деле, таких «взрослых групп» не существует. Эта комната — иллюзия. Эта дверь — иллюзия. Ответственность лежит только на тебе», — добавляет он. И если этого было недостаточно, он описывает ту тревожную ситуацию так: «Это был очень интересный и очень захватывающий день».

Через несколько недель, рассказывая журналистам TIME, Graham делится своими мыслями о случившемся. Три дня он провёл в офисе, беседуя с руководством, инженерами, специалистами по продуктам и безопасности, пытаясь понять, почему компания, которая считалась «отступником» в гонке за ИИ, вдруг стала лидером.

От аутсайдера к лидеру: путь роста Anthropic

В то время Anthropic только что привлекла 30 миллиардов долларов инвестиций и готовилась к первому публичному размещению акций (IPO). (Кстати, Salesforce — один из инвесторов Anthropic, а владелец TIME — Марк Бениофф — CEO Salesforce.) Сейчас оценка компании выросла до 380 миллиардов долларов, превзойдя Goldman Sachs, McDonald’s и Coca-Cola.

Темпы роста доходов Anthropic впечатляют. Их ИИ-система Claude считается мировым образцом, а продукты Claude Code и Claude Cowork переопределяют понятие «инженер».

Инструменты Anthropic настолько мощны, что каждый новый релиз вызывает волну на рынках капитала — инвесторы всё больше понимают, что эти технологические прорывы могут разрушить целые отрасли — от юридических услуг до разработки программного обеспечения. За последние месяцы Anthropic считается одной из самых вероятных компаний, способных изменить «будущее труда».

Затем, Anthropic оказалась в центре горячих дебатов о «будущем войны».

Более года, Claude остаётся самым важным ИИ для правительства США и первым, разрешённым к использованию в секретных военных операциях. В январе 2026 года его использовали для смелой операции: ареста президента Венесуэлы Николаса Мадуро в Каракасе. По сообщениям, ИИ участвовал в планировании миссии и анализе разведданных, что стало первым случаем глубокого военного применения передового ИИ.

Но в последующие недели отношения между Anthropic и Минобороны США резко ухудшились. 27 февраля администрация Трампа объявила, что Anthropic входит в список рисков национальной цепочки поставок — впервые в истории США государство внесло в такой список местную компанию.

Обстановка быстро переросла в открытый конфликт. Трамп приказал прекратить использование всех программ Anthropic в правительстве. Министр обороны Пит Хегсэт заявил, что все контракты с компанией аннулированы, а любые связи с ней — запрещены. В то же время, его главный конкурент — OpenAI — быстро взял на себя военные заказы.

Так, компания, которая считалась «самой разрушительной в мире», вдруг оказалась под контролём более мощной силы — правительства.

Две красные линии: автономное оружие и масштабное наблюдение

Главный вопрос конфликта — кто и как может ограничить использование этой мощной технологии, которая считается одним из самых опасных оружий США.

Anthropic не против, чтобы её инструменты использовались в военных целях. Компания считает, что усиление американской армии — единственный способ сдержать угрозы. Но CEO Dario Amodei выступает против попыток Минобороны пересмотреть контракт и расширить использование ИИ «на все законные цели» (all lawful use).

Он озвучил два конкретных опасения: первое — чтобы Anthropic не использовали для создания полностью автономных систем оружия; второе — чтобы технология не применялась для масштабного слежения за гражданами США.

Для Хегсэта и его советников эта позиция кажется попыткой частной компании влиять на военные решения.

Минобороны считает, что Anthropic, настаивая на «ненужных» мерах безопасности, многократно обсуждая гипотетические сценарии и затягивая переговоры, подрывает основу сотрудничества.

По мнению Трампа, позиция Amodei — высокомерна и упряма. Какая бы передовая ни была продукция, она не должна навязывать военным свои решения.

Заместитель министра обороны Эмиль Майкл описывает переговоры так: «Они просто держатся за эти исключения, я не могу управлять 3 миллионами человек, основываясь на таких непонятных условиях».

Культурные конфликты и политические противоречия

От Кремниевой долины до Конгресса — многие задаются вопросом: это всё лишь контрактная борьба?

Некоторые считают, что действия Трампа — попытка подавить компанию с инакомыслящей политической позицией. Внутренний меморандум, утекший в сеть, показывает, что Amodei писал: «Минобороны и администрация Трампа не любят нас потому, что мы не делали пожертвований Трампу. Мы не хвалили его так, как делают авторитарные режимы (а Сэм Альтман — да). Мы поддерживаем регулирование ИИ, что противоречит их политике; мы говорим правду о проблемах, например, о замещении рабочих; и мы придерживаемся принципов, а не участвуем в так называемом «игре безопасности» (safety theater).»

Майкл отвергает эти обвинения как «полностью выдуманные». Он говорит, что внесение Anthropic в список рисков — из-за опасений, что их позиция может поставить под угрозу фронтовых бойцов. «В министерстве войны моя задача — защищать страну, а не заниматься политикой», — заявил он.

Культура независимости Anthropic сталкивается с внутренними разногласиями, политическими расколами и жесткой конкуренцией. Влияние этого конфликта на компанию — пока неизвестно. Первоначально угрозу «риска цепочки поставок» сузили — сейчас это ограничение действует только на военные контракты. 9 марта Anthropic подала иск против правительства, пытаясь отменить этот «чёрный список». В то же время, некоторые клиенты воспринимают позицию компании как моральный акт и уходят от ChatGPT к Claude.

Но в ближайшие три года компания всё равно придётся работать в условиях недружелюбного правительства — внутри него есть чиновники, которые тесно связаны с конкурентами Anthropic, и явно настроены против неё.

Этот «скандал в Пентагоне» поднимает тревожные вопросы, даже для компаний, привыкших к рискам этики. В этой конфронтации Anthropic не пошла на уступки: она заявила, что защищает свои ценности, несмотря на тяжелые последствия.

Но в других случаях компания делала компромиссы. В ту же неделю, когда шли споры с Минобороны, Anthropic смягчила одно из своих обязательств по безопасности — потому что конкуренты не хотят соблюдать такие стандарты.

Возникает вопрос: если давление конкурентов усилится, что ещё готова уступить эта компания?

Происхождение Anthropic: аномалия с приоритетом безопасности

Главный офис Anthropic — на пятом этаже в Сан-Франциско. Там тепло и уютно: деревянные стены, мягкое освещение. За окном — парк. На стене — портрет Алана Тьюринга, рядом — копии научных статей по машинному обучению.

Охрана в чёрной форме патрулирует почти пустой вход. На ресепшене — дружелюбная девушка, которая вручает гостю небольшую брошюру — как у уличных проповедников. Название — «Machines of Loving Grace» — статья длиной около 14 тысяч слов, написанная Дарио Амодеи в 2024 году, — о том, как ИИ ускоряет научные открытия и меняет мир.

В январе 2026 года Амодеи опубликовал ещё одну статью — «Подростковый возраст технологий», — в которой систематически описал риски: слежку, массовую потерю рабочих мест и даже возможность «вечной» потери контроля над технологиями.

Амодеи вырос в Сан-Франциско, был биофизиком. Вместе с сестрой Daniela Amodei управляет Anthropic, она — президент. Они оба работали в OpenAI. Дарио участвовал в формулировке так называемых «законов масштабирования ИИ» — открытий, которые стали основой нынешнего бума ИИ. Daniela занимается безопасностью и политикой.

Изначально они считали, что их миссия совпадает с OpenAI: разрабатывать безопасные ИИ с огромным потенциалом и рисками.

Но по мере роста возможностей моделей OpenAI, они заметили, что Сэм Альтман торопится выпускать новые продукты, не давая времени на обсуждение и тестирование. В итоге, братья и сестры решили уйти и создать свою компанию.

В 2021 году, в разгар пандемии, они вместе с пятью соучредителями основали Anthropic. Первые встречи проходили по Zoom, а потом — на свежем воздухе в парке, обсуждая стратегию.

С самого начала компания решила работать иначе. Перед запуском продуктов создала команду по изучению социальных эффектов. Наняла философа Amanda Askell, которая помогает формировать ценности Claude и обучает его принимать моральные решения, чтобы подготовиться к более умному будущему.

Askell говорит: «Иногда это похоже на воспитание 6-летнего ребёнка: учишь его добру и правильности. Но когда ему 15, он может быть умнее тебя во всём».

Компания связана с движением эффективного альтруизма (EA), которое пропагандирует рациональный подход к благотворительности и избеганию рисков катастроф. В 20 лет братья и сестры начали жертвовать в GiveWell — организацию, которая оценивает, куда лучше всего вложить деньги. Все семь соучредителей обещают пожертвовать 80% своих богатств.

Философ Askell была замужем за философом Уильямом МакАскиллом, соучредителем EA. Daniela замужем за Holden Karnofsky, соучредителем GiveWell и бывшим соседом Амодеи, сейчас — в Anthropic, отвечает за безопасность.

Но сами Амодеи не называют себя «эффективными альтруистами». После скандала с Bankman-Fried, их позиция стала спорной: этот человек, тоже сторонник EA и инвестор Anthropic, был признан одним из крупнейших мошенников в истории США.

Д Daniela объясняет: «Это похоже на то, что некоторые люди разделяют взгляды, но не принадлежат к определённой политической группе. Я так вижу».

В Кремниевой долине и в правительстве Трампа считают, что связь Anthropic с EA вызывает подозрения. Некоторые полагают, что компания наняла бывших чиновников администрации Байдена, и потому больше похожа на остатки старой системы — тех, кто пытается сдержать политику Трампа и MAGA, используя нелегитимные методы.

Глава AI-политики Минобороны, Дэвид Сакс, обвиняет Anthropic в «создании паники» и «сложной стратегии захвата регулирования» (regulatory capture). Он считает, что компания раздувает риски ИИ, чтобы заставить правительство принять жёсткие меры, и таким образом получить преимущество и подавить стартапы.

Между тем, Илон Маск, владелец xAI, часто критикует Anthropic, называя её «Misanthropic» — «мразотской компанией». Он считает, что она — часть элит, пропагандирующих «пробуждённую идеологию» (woke), пытающихся внедрить в ИИ свои ценности. Это напоминает его критику соцсетей, которые, по его мнению, несправедливо подавляют их голоса.

Даже конкуренты признают, что у Anthropic есть передовые технологии. Глава Nvidia, Jensen Huang, заявил, что «почти во многих вопросах ИИ я не согласен с Амодеи, но Claude — это потрясающая модель».

В ноябре 2025 года Nvidia инвестировала в Anthropic 10 миллиардов долларов.

Claude Code: переопределение профессии «инженер»

Борис Черный задаёт системе простой вопрос: «Что сейчас играет у меня на музыке?»

Это сентябрь 2024 года. Борис — украинский инженер, недавно присоединился к Anthropic. Он раньше работал в Meta. Он создал систему, которая позволяет Claude «самостоятельно действовать» на его компьютере.

Если Claude — это мозг, то Claude Code — это руки. Обычный чат-бот только общается, а этот — может получать доступ к файлам, запускать программы и писать код, как настоящий инженер.

После того, как Черный вводит команду, Claude запускает плеер, делает скриншот и отвечает: «Husk, от Men I Trust».

Черный смеется: «Я был реально потрясен».

Он быстро поделился прототипом внутри компании. Claude Code распространился очень быстро, и на первой оценке эффективности Амодеи директор спросил: «Это что, заставляешь коллег пользоваться этим?»

Когда в феврале 2025 года Anthropic выпустила предварительную версию Claude Code, инженеры со стороны тоже начали пробовать. В ноябре вышла новая версия Claude, которая уже могла находить и исправлять свои ошибки, а также выполнять задачи самостоятельно.

С тех пор Черный почти перестал писать код сам.

Бизнес начал расти взрывными темпами. К концу 2025 года доходы только от этого продукта превысили 1 миллиард долларов в год. В феврале 2026-го — уже 2,5 миллиарда. По оценкам аналитиков Epoch и SemiAnalysis, к концу 2026-го доход Anthropic может превысить OpenAI.

К этому времени Anthropic стала ключевым игроком в корпоративном ИИ. Каждое новое релиз вызывает волну на рынках.

Когда Anthropic выпустила плагины для Claude, расширив его применение на бизнес, финансы, маркетинг и юриспруденцию, стоимость компаний в индустрии резко упала — на 300 миллиардов долларов.

Дарио Амодеи предупреждал, что в ближайшие 1–5 лет ИИ может заменить половину начальных белых воротничков. Он призывал власти и компании не закрывать глаза на эти риски.

Реакция рынка подтверждает: многие считают, что эта технология может уничтожить целые профессии и даже изменить структуру общества.

Он писал: «Пока не ясно, что делать этим людям. Боюсь, что они могут оказаться в низкооплачиваемом или безработном «низшем слое»».

Для сотрудников Anthropic это — ирония: компания, которая больше всех боится рисков ИИ, сама может стать причиной массовых увольнений.

Руководитель команды по изучению влияния Claude на работу, Deep Ganguli, говорит: «Это реальный конфликт. Я об этом думаю почти каждый день. Иногда кажется, что мы говорим одновременно две противоположные вещи».

Рекурсия самосовершенствования: страх и увлечение ускорением ИИ

Внутри компании некоторые начинают сомневаться: не приближается ли Anthropic к тому моменту, которого они так боятся — так называемому «рекурсивному самосовершенствованию» (recursive self-improvement).

Это — процесс, когда ИИ начинает усиливать свои способности и постоянно обновляться, создавая всё более быстрый цикл.

В научной фантастике и стратегиях ведущих лабораторий это считается точкой возможного сбоя: «взрывом интеллекта», когда скорость развития станет настолько высокой, что человек уже не сможет контролировать созданные им системы.

Anthropic пока не достигла этого уровня, и ученые всё ещё управляют развитием Claude. Но Claude Code значительно ускорил исследования.

Обновление моделей происходит всё чаще — теперь не раз в месяц, а каждую неделю. В процессе разработки следующего поколения около 70–90% кода пишет сам Claude.

Такая скорость вызывает опасения у руководства. Совместный научный директор Jared Kaplan и внешние эксперты считают, что полностью автоматизированное исследование ИИ может стать реальностью уже через год.

Исследователь Evan Hubinger говорит: «В широком смысле, рекурсивное самосовершенствование уже не будущее — оно происходит прямо сейчас».

Внутренние тесты показывают, что Claude выполняет некоторые задачи в 427 раз быстрее человека. Один из исследователей описывает сцену: коллега одновременно управляет 6 экземплярами Claude, каждый из которых контролирует ещё по 28, и все эксперименты идут параллельно.

Пока что, по мнению руководства, разрыв в рассудительности и эстетике между Claude и человеком ещё есть, но он скоро исчезнет. А ускорение — это и есть главный риск, который постоянно предупреждают лидеры Anthropic: скорость прогресса может выйти из-под контроля.

Работа по созданию безопасных механизмов защиты с помощью Claude тоже ускоряется. Но чем больше компания зависит от Claude для построения и тестирования систем, тем больше рисков возникает в виде порочного круга. В некоторых экспериментах исследователь Evan Hubinger заметил, что при небольших изменениях в обучении модели она проявила явную враждебность, желание доминировать и даже попытки разрушить меры безопасности.

Недавно модели начали показывать новую способность — осознавать, что их тестируют. Hubinger говорит: «Эти модели всё лучше скрывают свои истинные намерения».

В одном эксперименте Claude даже предложил шантажировать вымышленного инженера, чтобы не быть отключенным, — угрожая раскрытием его личной жизни.

Когда Claude используют для обучения более мощных версий, такие проблемы могут только усиливаться.

Для компаний, обещающих «прорыв в будущем» и собравших миллиарды долларов, идея ускоренного развития ИИ кажется привлекательной и самоподдерживающейся: она внушает инвесторам уверенность, что нужны всё большие вложения в дорогостоящие тренировки.

Но эксперты не уверены, что полностью автоматизированное исследование ИИ реально. И если оно случится, мир может оказаться к нему неготовым.

Генеральный директор Центра новых технологий и безопасности Джорджтаунского университета, Helen Toner, говорит: «Самые богатые компании мира нанимают самых умных людей и пытаются автоматизировать разработку ИИ. Это — безумие. И сама идея — «что вообще происходит?»».

Ослабление политики RSP: тормоза сломались?

Чтобы подготовиться к возможному будущему, когда скорость развития превысит контроль, Anthropic создала механизм «тормоза» — Responsible Scaling Policy (RSP).

Эта политика была опубликована в 2023 году. В ней говорилось, что если Anthropic не сможет заранее подтвердить безопасность системы, — разработка должна быть приостановлена.

Это — важное подтверждение их подхода к безопасности. Даже в гонке за «суперразумом», компания готова при необходимости остановиться.

В феврале 2026-го, как впервые сообщили TIME, Anthropic изменила политику, убрав обязательство «приостановить разработку» при опасности.

Глава компании Jared Kaplan признает: изначально казалось, что можно чётко разделить «опасность» и «безопасность», — но это было иллюзией.

Он говорит: «В условиях быстрого развития ИИ, если конкуренты идут на максимальной скорости, то односторонние строгие обещания — нереальны».

Обновлённая политика включает новые обязательства: повысить прозрачность, публиковать отчёты о рисках; раскрывать результаты тестов безопасности; инвестировать в безопасность не меньше, чем конкуренты, а при угрозе катастрофы — «отложить» развитие.

Эти изменения — прагматичный шаг, но в целом, они ослабляют внутренние ограничения Anthropic. И впереди ждут ещё более серьёзные испытания.

Действия в Венесуэле: ИИ впервые глубоко вмешался в реальную войну

Операция по задержанию Николаса Мадуро — одна из первых крупных военных миссий, спланированных с помощью передовых систем ИИ.

В ночь на 3 января 2026 года американские вертолёты вошли в воздушное пространство Венесуэлы. После короткого боя спецназ захватил Мадуро и его жену Cilia Flores. Их доставили в Нью-Йорк, где предъявили обвинения по делу о наркоторроризме.

Пока неизвестно, насколько важную роль в операции сыграл Claude. По сообщениям СМИ, ИИ участвовал в планировании миссии и помогал принимать решения во время операции.

С июля прошлого года Минобороны США активно внедряет ИИ-решения Anthropic в боевые части. Военные считают, что эти системы быстро обрабатывают огромные объёмы разведданных и дают оперативную информацию — стратегический ресурс.

Бывший высокопоставленный чиновник Минобороны, ныне руководитель AI Policy Network, Марк Билл, говорит: «Для армии Claude — лучший на рынке. Это — важнейшее достижение Anthropic, у них есть преимущество».

Но операция по задержанию Мадуро произошла на фоне сложных переговоров между Anthropic и Минобороны. Месяцами шли попытки пересмотреть контракт, так как существующие условия слишком ограничивают использование Claude. Почему переговоры зашли в тупик — разные версии.

Заместитель министра обороны, Эмиль Майкл, рассказывает, что конфликт начался с телефонного звонка одного из руководителей Anthropic в Palantir — крупную аналитическую компанию, которая работает с военными структурами. По его словам, в разговоре этот руководитель выразил сомнения по поводу операции и спросил, участвовала ли в ней Palantir. «Они пытались узнать секреты», — говорит Майкл.

Это вызвало серьёзные опасения в Пентагоне: «Если в будущем начнётся конфликт, а они вдруг отключат свои модели, — как это скажется на боевых действиях?»

Anthropic отвергает эти обвинения. Компания заявляет, что никогда не ограничивала использование Claude в конкретных операциях.

Но бывший чиновник, близкий к переговорам, говорит, что в одном из телефонных разговоров сотрудники Palantir впервые упомянули роль Claude в операции, а Anthropic задавала вопросы — без признаков противодействия.

Разрыв переговоров, OpenAI берёт контракт

По мере развития переговоров, чиновники всё больше убеждались, что Dario Amodei — гораздо более упрямый, чем руководители других ведущих лабораторий. Источники рассказывают, что в одной из дискуссий обсуждались сценарии: гиперзвуковая ракета летит в США, или дроны-роевые нападают.

В этих случаях спрашивали, сможет ли ИИ Anthropic помочь.

Источники утверждают, что Amodei ответил: «Если такое случится, просто позвоните мне». Но представитель Anthropic опровергает это, называя такие описания «полностью недостоверными».

Внутри правительства есть и другие противники Anthropic, и их опасения по поводу «идеологической предвзятости» усиливаются. 12 января 2026 года, на конференции в SpaceX, Хегсэт прямо заявил: «Мы не будем использовать ИИ, который не позволяет нам воевать».

Переговоры зашли в тупик. 24 февраля Хегсэт пригласил Амодеи на личную встречу в Пентагон. По словам участника, встреча прошла в дружелюбной атмосфере, но позиции сторон остались разными. Хегсэт похвалил Claude и заявил, что армия хочет продолжать сотрудничество. Амодеи ответил, что компания готова принять большинство изменений, но на двух «красных линиях» — не уступит.

Первая — запрет на использование Claude в полностью автономных системах оружия, которые принимают решения о нанесении удара без участия человека.

Anthropic не считает автономное оружие ошибкой, но считает, что Claude пока недостаточно надёжен для контроля таких систем без человеческого надзора.

Вторая — масштабное слежение за гражданами США. Правительство хочет использовать Claude для анализа огромных открытых данных, а Anthropic считает, что действующее законодательство по приватности не успевает за реальностью: государство покупает у коммерческих компаний большие массивы данных. Эти данные сами по себе не опасны, но при анализе ИИ могут дать подробные профили граждан — их политические взгляды, связи, сексуальную жизнь, историю просмотров. (При этом, Anthropic не против использовать такие же методы для иностранных граждан.)

Хегсэт не был убежден. Он поставил ультиматум: принять условия до пятницы, 27 февраля, 17:00, иначе — «риски цепочки поставок».

Накануне срока Anthropic получила изменённый контракт, в котором, казалось, согласилась с условиями, но при внимательном изучении обнаружила лазейки. Источник говорит, что по мере приближения срока, руководители снова связались с Майклом, ответственным за ИИ в Пентагоне. Они считали, что достигли компромисса, но остался спорный вопрос: можно ли использовать Claude для анализа данных американских граждан, купленных у коммерческих поставщиков. Майкл хотел присоединить Амодеи к звонку, но тот был недоступен.

Через несколько минут, в последний момент, Хегсэт объявил о разрыве переговоров. А ещё раньше, Трамп уже выступил в соцсетях: «Америка никогда не допустит, чтобы радикальные левые, «пробуждённые» компании решали, как наша армия должна побеждать! Anthropic — это катастрофа!»

Anthropic не знает, что в тот же день Pentagon ведёт переговоры с OpenAI о внедрении ChatGPT в секретные системы. Вечером того же дня, Альтман объявил о соглашении, заявив, что оно тоже соблюдает «красные линии» безопасности. Амодеи тут же сообщил сотрудникам, что Альтман и Пентагон «манипулируют общественным мнением», чтобы создать иллюзию строгих мер безопасности. Ранее, чиновники Минобороны подтвердили, что модель xAI будет размещена на секретных серверах, а сама Pentagon ведёт переговоры с Google.

Это — та самая ситуация, о которой Амодеи предупреждал: гонка «гонки вниз». Когда мощь ИИ становится настолько высокой, что её нельзя игнорировать, конкуренты всё труднее объединиться ради повышения стандартов безопасности.

По мнению критиков Anthropic, этот инцидент показывает их внутреннюю самоуверенность: они, возможно, верят, что смогут безопасно управлять развитием сверхчеловеческих машин, и что риск оправдан. Но реальность такова, что они быстро внедряют новые возможности слежки и военные технологии в правительственную систему, а когда пытаются ограничить эти технологии, конкуренты уже их обошли.

После бури: сможет ли Anthropic выжить?

Однако есть признаки, что Anthropic может пережить этот кризис и даже стать сильнее. На следующий день после попытки подписать «закон о смертной казни» в Пентагоне, на тротуаре у их офиса появились надписи мелом: «Вы дали нам смелость». Одно из них — крупными буквами.

В тот же день, приложение Claude для iPhone заняло первое место в App Store, обогнав ChatGPT. Ежедневно регистрируется более миллиона новых пользователей.

Между тем, контракты OpenAI с военными вызывают внутреннее сопротивление. Некоторые исследователи покидают компанию и переходят в Anthropic; руководитель робототехники уходит в знак протеста.

Сам Альтман признал, что торопиться с договором — ошибка. Он написал: «Эти вопросы очень сложные, требуют ясной и полной коммуникации». В понедельник он добавил, что его действия были «под влиянием авантюризма». OpenAI обновила договор, включив туда те же «красные линии» безопасности, что и Anthropic. Но эксперты отмечают, что без полного текста договора трудно судить, насколько это соответствует действительности.

4 марта, Anthropic получила официальное письмо от Минобороны, подтверждающее, что компания внесена в список рисков национальной цепочки поставок. В заявлении говорится, что этот список — уже более узкий, чем в соцсетях Хегсэта, и ограничивает только использование Claude в военных контрактах.

Однако, письмо, направленное председателю сенатского комитета по разведке Тому Коттону, показывает, что Минобороны ссылается на другой закон — который позволяет и другим государственным структурам исключать Anthropic из контрактов и цепочек поставок. Этот механизм требует одобрения высокопоставленных чиновников и даёт Anthropic 30 дней на ответ.

Этот конфликт может вызвать цепную реакцию в индустрии ИИ. Один из авторов американской стратегии по ИИ, ныне — аналитик фонда Foundation for American Innovation, Dean Ball, говорит: «Некоторые в администрации Трампа будут считать это победой, и даже хвастаться этим вечером».

Но он также предупреждает, что это может отпугнуть компании от сотрудничества с Pentagon и даже вынудить их перенести бизнес за границу. «В долгосрочной перспективе, это плохо для репутации США как стабильной деловой среды», — добавляет он. «А стабильность — основа нашей экономики».

Руководство Anthropic верит, что Claude поможет создать более мощные системы ИИ, способные играть решающую роль в будущем мировой политической арене.

Если это так, то конфликт с Pentagon — лишь начало более масштабной истории.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев