Anthropic виграє попередню заборону у справі з Міноборони, суддя посилається на «відповідь за Першою поправкою»

Генеральний директор і співзасновник Anthropic Даріо Амодей виступає на сцені під час Саміту New York Times Dealbook 2025 у Jazz at Lincoln Center 3 грудня 2025 року в Нью-Йорку.

Michael M. Santiago | Getty Images

Федеральний суддя у Сан-Франциско ухвалив прохання Anthropic про попередній заборонний наказ у його позові проти адміністрації Трампа.

Суддя Ріта Лін винесла рішення у четвер, через два дні після того, як адвокати стартапу штучного інтелекту та уряду США з’явилися у суді на слухання. Anthropic подав позов проти адміністрації, щоб спробувати скасувати її внесення до чорного списку Міністерством оборони та директиву президента Дональда Трампа, яка забороняє федеральним агентствам використовувати його моделі Claude.

Anthropic домагався заборонного наказу, щоб призупинити ці дії та запобігти подальшій фінансовій та репутаційній шкоді під час розгляду справи.

Anthropic опублікував таку заяву щодо рішення: «Ми вдячні суду за швидке реагування і раді, що вони погоджуються з тим, що Anthropic, ймовірно, має успіх у справі за суттю. Хоча цей випадок був необхідний для захисту Anthropic, наших клієнтів і партнерів, наш фокус залишається на продуктивній співпраці з урядом, щоб забезпечити всім американцям безпечний і надійний штучний інтелект.»

«Засудження Anthropic за публічний контроль позиції уряду щодо контрактів — це класична незаконна відповідь за першим доповненням», — написала суддя Лін у постанові. Остаточне рішення у справі може бути ще через кілька місяців.

Під час вівторкового слухання Лін запитала адвокатів уряду, чому Anthropic було внесено до чорного списку. У своїй постанові вона була ще більш різкою.

«Ніщо в законодавстві не підтримує оруелівське уявлення про те, що американська компанія може бути позначена потенційним ворогом і саботажником США за висловлення незгоди з урядом», — написала вона.

Позов Anthropic стався напередодні драматичних кількох тижнів у Вашингтоні між Міністерством оборони та однією з найцінніших приватних компаній у світі.

У дописі на X наприкінці лютого міністр оборони Піт Хегсет заявив, що Anthropic є так званим ризиком у ланцюзі постачання, що означає, що використання технологій компанії нібито загрожує національній безпеці США. Офіційне повідомлення про цю позначку Anthropic отримало у листі раніше цього місяця.

Anthropic стала першою американською компанією, яка публічно названа ризиком у ланцюзі постачання, оскільки зазвичай ця позначка застосовувалася до іноземних ворогів. Ця позначка вимагає від підрядників оборони, таких як Amazon, Microsoft і Palantir, підтвердити, що вони не використовують Claude у своїй роботі з військовими.

Детальніше читайте на CNBC у розділі технологій

  • Судові поразки Meta додають до нещодавніх проблем Цукерберга і є «ключовою подією» для соціальних мереж
  • Знайомтесь із Figure AI: компанією, яка створила гуманоїдного робота, якого приймала Меланія Трамп
  • Прорив у Google AI тисне на акції пам’ятевих чипів від Samsung до Micron
  • Ілон Маск закликає суддю Делаверу відмовитися від участі у судових процесах через ймовірний упереджений підхід

Адміністрація Трампа використовувала два окремі позначення — 10 U.S.C. § 3252 і 41 U.S.C. § 4713 — щоб обґрунтувати свої дії, і їх потрібно оскаржувати у двох окремих судах. Через це Anthropic подала ще один позов для формального перегляду рішення Міністерства оборони у Апеляційному суді США у Вашингтоні.

Напередодні того, як Хегсет оголосив Anthropic ризиком у ланцюзі постачання, президент Дональд Трамп написав у Truth Social пост із наказом федеральним агентствам «негайно припинити» використання технологій Anthropic. Він заявив, що для агентств, таких як DOD, буде введено шестимісячний перехідний період.

«Ми вирішимо долю нашої країни — НЕ якась неконтрольована, радикально-ліва AI-компанія, яку керують люди, які не мають уявлення, що таке реальний світ», — написав Трамп.

Дії адміністрації Трампа здивували багато офіційних осіб у Вашингтоні, які почали цінувати і покладатися на технології Anthropic. Компанія стала першою, яка розгорнула свої моделі у закритих мережах DOD, і її підтримували за здатність інтегруватися з існуючими підрядниками оборони, такими як Palantir.

У липні Anthropic підписала контракт на 200 мільйонів доларів із Пентагоном, але, коли у вересні почалися переговори щодо розгортання Claude на платформі DOD GenAI.mil, вони застрягли.

DOD хотів отримати необмежений доступ до моделей Anthropic для всіх законних цілей, тоді як Anthropic прагнула гарантій, що її технології не використовуватимуться для повністю автономної зброї або внутрішнього масового спостереження.

Обидві сторони не дійшли згоди, і тепер конфлікт буде вирішено у суді.

«Усі, включно з Anthropic, погоджуються, що Міністерство оборони має право припинити використання Claude і шукати більш ліберального постачальника AI», — сказала Лін під час вівторкового слухання. «Я не вважаю, що це саме про це. Це питання зовсім іншого характеру — чи порушило уряд закон.»

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити