Федеральний суд зупиняє заборону адміністрації Трампа на Anthropic AI через питання Першої поправки

Ключові висновки

Зміст

Перемикання

  • Ключові висновки

  • Суд розглядає обґрунтування уряду

  • Аргументи, представлені кожною стороною

    • Отримайте 3 безкоштовні електронні книги про акції
  • Федеральний суддя Сан-Франциско видав попередню заборону, яка зупиняє заборону Пентагону на використання системи AI Claude компанії Anthropic

  • Суддя Ріта Лін охарактеризувала дії уряду як “класичну незаконну помсту за Першу поправку”

  • Конфлікт виник після того, як Anthropic відхилила вимоги Пентагону дозволити використання Claude в смертоносних автономних зброях та операціях масового спостереження

  • Anthropic контролювала 32% ринку корпоративного AI у 2025 році, перевищивши 25% OpenAI

  • Семи-добова пауза на заборону дає федеральному уряду можливість подати апеляцію


Федеральний суд втрутився, щоб зупинити адміністрацію Трампа від виконання своєї заборони на використання платформи штучного інтелекту Anthropic державними агентствами, тимчасово зупинивши дії, які загрожували знищити мільярди потенційного доходу компанії.

СВІЖІ НОВИНИ: Anthropic отримала попередню заборону щодо позначення “ризику ланцюга постачання” Пентагону від судді Ріти Лін у Каліфорнії, але дозволяє затримку на один тиждень

— Хадас Голд (@Hadas_Gold) 26 березня 2026 року

Суддя окружного суду США Ріта Лін, що веде справу в Північному окрузі Каліфорнії, видала попередню заборону в четвер. Наказ включає семидобовий період призупинення, що дозволяє федеральним органам влади подати апеляцію.

Юридична битва виникла з угоди липня 2025 року між Anthropic та Міністерством оборони. Згідно з пропонованою угодою, Claude став би першим фронтовим AI-системою, авторизованим для розгортання на засекречених урядових мережах.

До лютого 2026 року переговори зірвалися. Офіційні особи Пентагону прагнули перепідписати угоду, наполягаючи, щоб Anthropic дозволила військове розгортання Claude “для всіх законних цілей” без оперативних обмежень.

Anthropic відмовилася від цих умов. Керівництво компанії наполягало на тому, що їхня технологія не повинна підтримувати смертоносні автономні системи зброї або дозволяти широкомасштабне спостереження за американськими громадянами.

Президент Трамп видав виконавчий указ 27 лютого, забороняючи всім федеральним департаментам використовувати продукти Anthropic. У дописі на Truth Social він оголосив, що компанія вчинила “катастрофічну помилку, намагаючись тиснути на Міністерство війни”.

Міністерство оборони, в свою чергу, класифікувало Anthropic як загрозу для національної безпеки ланцюга постачання. Anthropic відповіла, подавши позов до федерального суду Вашингтона, округ Колумбія, 9 березня, стверджуючи, що міністр оборони Піт Хегсетх перевищив свої юридичні повноваження.

Суд розглядає обґрунтування уряду

90-хвилинне судове слухання відбулося в Сан-Франциско 24 березня. Суддя Лін запитала адвокатів уряду, чи піддається Anthropic покаранню за публічний виклик позиціям Пентагону.

У своєму письмовому рішенні Лін визначила, що заборона, здається, не пов’язана з законними цілями національної безпеки. “Якщо занепокоєння викликане цілісністю оперативного ланцюга командування, Міністерство війни просто могло б припинити використання Claude”, - зазначено в її рішенні.

Вона також дійшла висновку, що дії уряду здаються “спрямованими на покарання Anthropic” і представляють собою поведінку, яка є “произвольною, капризною та зловживанням дискрецією”.

Під час слухання представник Anthropic підкреслив, що офіційні особи Пентагону мають повноваження оцінювати будь-яку AI-систему перед оперативним розгортанням. Anthropic не має технічної можливості віддалено деактивувати модель, змінити її функціональність або моніторити військові застосування.

Аргументи, представлені кожною стороною

Адвокат Міністерства юстиції стверджував, що Anthropic підриває довіру під час обговорень контракту, намагаючись вплинути на оперативну політику Пентагону. Юридичний представник уряду висловив занепокоєння щодо потенційних ризиків “майбутнього саботажу” з боку Anthropic.

Суддя Лін відхилила цей аргумент. Вона постановила, що Міністерство юстиції не має “законних підстав” для висновку, що позиція Anthropic щодо обмежень використання може перетворити компанію на загрозу безпеці.

Згідно з даними Menlo Ventures, Anthropic контролювала 32% ринку корпоративного AI у 2025 році, перевищуючи 25% частку OpenAI. Всеохоплююча федеральна заборона загрожувала серйозно підірвати це лідерство на ринку.

Anthropic висловила вдячність суду за швидкі дії. Організація одночасно подала ще один юридичний виклик до апеляційного суду Вашингтона, округ Колумбія, щодо порушень закону про закупівлі.

Номер справи - Anthropic проти Міністерства війни США, 26-cv-01996, Окружний суд США, Північний округ Каліфорнії.

✨ Обмежена пропозиція

Отримайте 3 безкоштовні електронні книги про акції

            Відкрийте для себе акції з високими показниками в AI, криптовалюті та технології з експертним аналізом.
        

        

            *                       
                    **Топ-10 акцій AI** - провідні компанії AI
                
            *                       
                    **Топ-10 криптоакцій** - лідери блокчейн
                
            *                       
                    **Топ-10 технологічних акцій** - технологічні гіганти
                
        

        

            
                📥 Отримайте ваші безкоштовні електронні книги

Рекламуйте тут

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.25KХолдери:1
    0.00%
  • Рин. кап.:$2.26KХолдери:1
    0.00%
  • Рин. кап.:$2.34KХолдери:1
    1.57%
  • Рин. кап.:$2.36KХолдери:3
    0.80%
  • Рин. кап.:$2.25KХолдери:1
    0.00%
  • Закріпити