Anthropic подає до суду на уряд США за називання його ризиком

Антропік подає позов проти уряду США через називання його ризиком у ланцюгу постачань

1 день тому

ПоділитисяЗберегти

Калі Хейс, технологічний репортер

ПоділитисяЗберегти

Reuters

Компанія з штучного інтелекту (ШІ) Anthropic подала перший у своєму роді позов проти уряду США через звинувачення у тому, що вона є «ризиком у ланцюгу постачань».

Генеральний директор компанії Dario Amodei та міністр оборони Піт Хегсетх публічно сварилися через відмову компанії дозволити військовим без обмежень використовувати її інструменти ШІ.

Пентагон відповів, позначивши Anthropic першою американською компанією як «ризик у ланцюгу постачань», але Anthropic у своєму позові у понеділок проти низки урядових агентств заявила, що дія уряду була «беспрецедентною та незаконною».

Представник Міністерства оборони США відмовився коментувати через політику щодо активних судових процесів.

«Конституція не дозволяє уряду використовувати свою величезну силу для покарання компанії за її захищену свободу слова», — написала Anthropic. «Жоден федеральний закон не надає повноважень на такі дії».

Позов Anthropic поданий проти президента Дональда Трампа, його виконавчого офісу, кількох урядових лідерів, зокрема Хегсетха, міністра закордонних справ Марко Рубіо та міністра торгівлі Говарда Лутніка, а також 16 урядових агентств, включаючи Міністерство війни, Міністерство внутрішньої безпеки та Міністерство енергетики.

Міністерство війни — це вторинна назва, яку Трамп використовував для Міністерства оборони.

Прес-секретар Білого дому Ліз Хастон повідомила BBC, що Anthropic — «радикальна ліворадикальна, пробуджена компанія», яка намагається контролювати військову діяльність.

«За адміністрації Трампа наша армія буде дотримуватися Конституції США — а не умов будь-якої пробудженої компанії ШІ», — сказала Хастон.

Anthropic заперечувала це у своєму юридичному позові, поданому у понеділок вранці у федеральному суді Каліфорнії.

Компанія заявила, що Хегсетх вимагав від неї зняти будь-які обмеження щодо використання у своїх оборонних контрактах, хоча обмеження щодо «смертоносної автономної війни» та «спостереження за американцями масово» завжди були частиною її урядових контрактів.

З 2024 року Anthropic використовується урядом і військовими США і стала першою передовою компанією ШІ, чиї інструменти були розгорнуті у державних агентствах, що займаються секретною роботою.

‘Публічне осудження’

Anthropic заявила, що працювала з Хегсетх над переглядом мов контракту, щоб задовольнити військові потреби. Хоча переговори майже завершилися успішно і передбачали обмеження щодо спостереження та озброєнь, ці переговори були раптово зірвані.

Замість цього Міністерство оборони «відреагувало на спроби Anthropic компромісу публічним осудженням».

Під час переговорів з військовими чиновниками Трамп звинуватив компанію у тому, що вона керується «лівими екстремістами», і наказав усім урядовим агентствам припинити використання інструментів Anthropic.

Хегсетх швидко відреагував на заяву Трампа, назвавши Anthropic «ризиком у ланцюгу постачань», що означало, що інструменти, такі як Claude, раптово вважалися недостатньо безпечними для урядового використання. Він також заборонив будь-якій компанії, що працює з урядом, використовувати інструменти Anthropic.

Claude — один із найпопулярніших інструментів ШІ у світі, і Claude Code є майже універсальним у роботі таких великих технологічних компаній, як Google, Meta, Amazon і Microsoft.

Ці компанії також співпрацюють з урядом. Минулого тижня Microsoft, Google і Amazon заявили, що продовжать використовувати Claude поза межами роботи для оборонних агентств.

Проте Anthropic стверджує, що через коментарі Трампа і Хегсетха їй було «незворотно» завдано шкоди.

«Поточні та майбутні контракти з приватними сторонами також під сумнівом, що ставить під загрозу сотні мільйонів доларів у короткостроковій перспективі», — заявила компанія. «На додаток до цих негайних економічних збитків, репутація Anthropic і її основні свободи першої поправки під атакою».

Anthropic також зазначила «охолоджуючий ефект» на свободу слова через репресії адміністрації Трампа, що впливають на інші структури.

Але до понеділка вдень майже 40 співробітників Google і OpenAI подали до суду короткий документ у підтримку Anthropic і її зусиль щодо обмеження неправильного використання ШІ, пропонуючи свою експертизу щодо небезпек, які несе масштабне застосування технології.

«Як група, ми різні у своїй політиці та філософії, але об’єднані переконанням, що сучасні системи передового ШІ становлять ризик, коли їх використовують для внутрішнього масового спостереження або для роботи автономних смертельних озброєнь без людського контролю, і що ці ризики потребують певних обмежень, будь то технічні засоби безпеки або обмеження у використанні», — йдеться у заяві підписантів.

Google і OpenAI вважаються конкурентами Anthropic у сфері інструментів ШІ, і обидві компанії також мають такі інструменти у використанні урядом.

Генеральний директор OpenAI Сэм Альтман минулого тижня зізнався, що прискорив укладання нового контракту з Міністерством оборони у зв’язку з конфліктом Anthropic із урядом.

Anthropic не шукає грошових компенсацій у своєму позові, але просить суд одразу визнати, що директива Трампа «перевищує повноваження президента» і порушує Конституцію, а також відхилити її позначення як ризику у ланцюгу постачань.

Карл Тобіас, голова юридичного факультету Університету Річмонда, сказав, що швидке врегулювання позову можливе, але він очікує, що адміністрація Трампа застосує «стратегію спаленої землі».

«Anthropic цілком може виграти у федеральному суді, але ця влада не соромиться оскаржувати рішення», — сказав Тобіас. «Ймовірно, вона піде до Верховного суду».

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити