Anthropic офіційно відповідає: щодо визначення «ризиків ланцюга постачання» подасть позов проти Міністерства оборони США

robot
Генерація анотацій у процесі

Згідно з інформацією додатку Цзитон Ціньцзяо, Міністерство оборони США офіційно повідомило компанію Anthropic PBC про визнання її та її продуктів ризиком для американської ланцюга постачань. За словами високопосадовця Міноборони, ця міра додатково загострила суперечку між сторонами у сфері безпеки штучного інтелекту.

Цей чиновник у четвер повідомив: «Міністерство війни (Department of War, скорочено DOW) офіційно направило керівництву Anthropic повідомлення, у якому чітко зазначено, що ця компанія та її продукти вважаються ризиком для ланцюга постачань, і ця оцінка набирає чинності з сьогоднішнього дня». Варто зазначити, що міністр оборони Пітт Хаггсес останнім часом все частіше використовує традиційну назву «Міністерство війни» для позначення Міноборони, і у цьому повідомленні вперше офіційно оприлюднено таку назву.

У відповідь на погрози Міноборони щодо внесення компанії до чорного списку через суперечності щодо безпеки штучного інтелекту, Anthropic PBC очікує, що ця ситуація переросте у юридичну суперечку.

«Ми переконані, що ця дія не має підстав у правовій сфері, тому іншого виходу, окрім як захищатися у суді, у нас немає», — чітко заявив у четвер генеральний директор Anthropic Даріо Амоді у своєму офіційному блозі.

Хоча цей чиновник Міноборони наголосив, що рішення «набирає чинності негайно», за інформацією джерел, американські військові продовжують використовувати штучний інтелект Claude від Anthropic у своїх операціях щодо Ірану. Минулого п’ятниці міністр оборони Пітт Хаггсес попередив цю компанію про необхідність переходу на інші платформи протягом шести місяців, щоб перенести свої AI-операції до інших постачальників.

Незважаючи на те, що цей чиновник Міноборони підкреслив, що рішення «негайно набирає чинності», джерела повідомляють, що американські військові активно використовують AI Claude у своїх операціях щодо Ірану. У п’ятницю Хаггсес попередив компанію про шестимісячний перехідний період, щоб вона перенесла свої AI-активи до інших постачальників.

Щодо цієї серії подій, представники Anthropic та Міноборони США не зробили негайних коментарів. Варто зазначити, що цей чиновник Міноборони не уточнив, коли або яким чином було передано Anthropic повідомлення про визнання ризику.

Раніше Anthropic заявила, що будь-які дії щодо визнання ризику для ланцюга постачань з боку Міноборони будуть оскаржені у суді.

Визнання ризику для ланцюга постачань Міноборони США може порушити співпрацю Anthropic із військовими — адже довгий час компанія була глибоко залежною від їхнього програмного забезпечення. До недавнього часу Anthropic залишалася єдиним постачальником AI-систем для секретної хмарної платформи Міноборони США, а розроблений нею інструмент Claude Gov завдяки високій зручності став ключовою платформою для військових.

«Це створює надзвичайно стратегічно важливу технологічну можливість», — підкреслила старший аналітик Центру безпеки та нових технологій Джорджтаунського університету Лорен Кайн у коментарі. «Якщо цю здатність буде примусово позбавлено, це спричинить ланцюгові наслідки для військових, бізнесу та всьої технологічної екосистеми».

Генеральний директор Anthropic Даріо Амоді вів багатотижневі переговори з віцепрезидентом Міноборони з досліджень і інженерії Еміром Мікелем щодо укладення спеціального контракту, який регулював би доступ Міноборони до технологій Anthropic. Однак минулого тижня переговори були розірвані — стартап наполягав на отриманні чітких гарантій, що його AI-технології не будуть використані для масового спостереження за громадянами США або для розгортання автономної зброї.

Після цього міністр оборони Пітт Хаггсес у п’ятницю на платформі X повідомив, що Anthropic вже становить «ризик для ланцюга постачань». Варто зазначити, що таке визнання ризику зазвичай застосовується до країн або суб’єктів, яких США вважає опонентами, і використання його щодо технологічних компаній є досить рідкісним випадком.

На даний момент невідомо, на підставі якого закону Міноборони США визнало Anthropic загрозою для ланцюга постачань. У заяві, оприлюдненій минулого тижня у відповідь на пост міністра Хаггсеса у соцмережах, Anthropic зазначила, що очікує, що ця оцінка ризику буде здійснена відповідно до статті 3252 Закону про управління збройними силами США.

«З початку подій основний принцип залишався незмінним — військові повинні мати автономію використовувати технології для будь-яких легальних цілей», — наголосив цей чиновник у четвер. «Ми категорично не дозволимо будь-якому постачальнику обмежувати законне використання ключових можливостей, щоб втручатися у командно-контроль і ставити під загрозу життя наших військових».

Ця оцінка припадає на критичний момент, коли американські війська активно залежать від Claude у своїх операціях щодо Ірану — вони використовують низку AI-інструментів для ефективної обробки величезних обсягів даних у бойових діях. За інформацією джерел, широко застосовувана в регіоні система Maven, розроблена компанією Palantir Technologies Inc., є однією з головних платформ, а Claude від Anthropic — один із ключових великих мовних моделей, інтегрованих у цю систему. Вони підкреслюють, що Claude показує високі результати у реальних умовах, ставши важливою підтримкою для американських операцій проти Ірану та значно прискоривши AI-оновлення системи Maven.

Зараз оцінка Anthropic становить близько 380 мільярдів доларів. За поточними показниками, компанія може отримати близько 20 мільярдів доларів річного доходу, що у два рази перевищує рівень наприкінці минулого року. Однак конфлікт із Міноборони США кидає тінь на перспективи розвитку цієї технологічної компанії.

На даний момент невідомо, який довгостроковий вплив матиме ця оцінка ризику на продажі Anthropic корпоративним клієнтам (які довгий час були її основним джерелом доходу). Варто зазначити, що у тіні конфлікту компанія тихо розширює свою аудиторію звичайних користувачів — її головний додаток нещодавно посів перше місце у рейтингу завантажень App Store, що свідчить про широку підтримку та довіру до технологічних продуктів Anthropic.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити