Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Федеральний суд зупиняє заборону адміністрації Трампа на Anthropic AI через питання Першої поправки
Ключові висновки
Зміст
Перемикання
Ключові висновки
Суд розглядає обґрунтування уряду
Аргументи, представлені кожною стороною
Федеральний суддя Сан-Франциско видав попередню заборону, яка зупиняє заборону Пентагону на використання системи AI Claude компанії Anthropic
Суддя Ріта Лін охарактеризувала дії уряду як “класичну незаконну помсту за Першу поправку”
Конфлікт виник після того, як Anthropic відхилила вимоги Пентагону дозволити використання Claude в смертоносних автономних зброях та операціях масового спостереження
Anthropic контролювала 32% ринку корпоративного AI у 2025 році, перевищивши 25% OpenAI
Семи-добова пауза на заборону дає федеральному уряду можливість подати апеляцію
Федеральний суд втрутився, щоб зупинити адміністрацію Трампа від виконання своєї заборони на використання платформи штучного інтелекту Anthropic державними агентствами, тимчасово зупинивши дії, які загрожували знищити мільярди потенційного доходу компанії.
Суддя окружного суду США Ріта Лін, що веде справу в Північному окрузі Каліфорнії, видала попередню заборону в четвер. Наказ включає семидобовий період призупинення, що дозволяє федеральним органам влади подати апеляцію.
Юридична битва виникла з угоди липня 2025 року між Anthropic та Міністерством оборони. Згідно з пропонованою угодою, Claude став би першим фронтовим AI-системою, авторизованим для розгортання на засекречених урядових мережах.
До лютого 2026 року переговори зірвалися. Офіційні особи Пентагону прагнули перепідписати угоду, наполягаючи, щоб Anthropic дозволила військове розгортання Claude “для всіх законних цілей” без оперативних обмежень.
Anthropic відмовилася від цих умов. Керівництво компанії наполягало на тому, що їхня технологія не повинна підтримувати смертоносні автономні системи зброї або дозволяти широкомасштабне спостереження за американськими громадянами.
Міністерство оборони, в свою чергу, класифікувало Anthropic як загрозу для національної безпеки ланцюга постачання. Anthropic відповіла, подавши позов до федерального суду Вашингтона, округ Колумбія, 9 березня, стверджуючи, що міністр оборони Піт Хегсетх перевищив свої юридичні повноваження.
Суд розглядає обґрунтування уряду
90-хвилинне судове слухання відбулося в Сан-Франциско 24 березня. Суддя Лін запитала адвокатів уряду, чи піддається Anthropic покаранню за публічний виклик позиціям Пентагону.
Під час слухання представник Anthropic підкреслив, що офіційні особи Пентагону мають повноваження оцінювати будь-яку AI-систему перед оперативним розгортанням. Anthropic не має технічної можливості віддалено деактивувати модель, змінити її функціональність або моніторити військові застосування.
Аргументи, представлені кожною стороною
Адвокат Міністерства юстиції стверджував, що Anthropic підриває довіру під час обговорень контракту, намагаючись вплинути на оперативну політику Пентагону. Юридичний представник уряду висловив занепокоєння щодо потенційних ризиків “майбутнього саботажу” з боку Anthropic.
Суддя Лін відхилила цей аргумент. Вона постановила, що Міністерство юстиції не має “законних підстав” для висновку, що позиція Anthropic щодо обмежень використання може перетворити компанію на загрозу безпеці.
Згідно з даними Menlo Ventures, Anthropic контролювала 32% ринку корпоративного AI у 2025 році, перевищуючи 25% частку OpenAI. Всеохоплююча федеральна заборона загрожувала серйозно підірвати це лідерство на ринку.
Номер справи - Anthropic проти Міністерства війни США, 26-cv-01996, Окружний суд США, Північний округ Каліфорнії.
✨ Обмежена пропозиція
Отримайте 3 безкоштовні електронні книги про акції
Рекламуйте тут