Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Anthropic виграє попередню заборону у справі з Міноборони, суддя посилається на «відповідь за Першою поправкою»
Генеральний директор і співзасновник Anthropic Даріо Амодей виступає на сцені під час Саміту New York Times Dealbook 2025 у Jazz at Lincoln Center 3 грудня 2025 року в Нью-Йорку.
Michael M. Santiago | Getty Images
Федеральний суддя у Сан-Франциско ухвалив прохання Anthropic про попередній заборонний наказ у його позові проти адміністрації Трампа.
Суддя Ріта Лін винесла рішення у четвер, через два дні після того, як адвокати стартапу штучного інтелекту та уряду США з’явилися у суді на слухання. Anthropic подав позов проти адміністрації, щоб спробувати скасувати її внесення до чорного списку Міністерством оборони та директиву президента Дональда Трампа, яка забороняє федеральним агентствам використовувати його моделі Claude.
Anthropic домагався заборонного наказу, щоб призупинити ці дії та запобігти подальшій фінансовій та репутаційній шкоді під час розгляду справи.
Anthropic опублікував таку заяву щодо рішення: «Ми вдячні суду за швидке реагування і раді, що вони погоджуються з тим, що Anthropic, ймовірно, має успіх у справі за суттю. Хоча цей випадок був необхідний для захисту Anthropic, наших клієнтів і партнерів, наш фокус залишається на продуктивній співпраці з урядом, щоб забезпечити всім американцям безпечний і надійний штучний інтелект.»
«Засудження Anthropic за публічний контроль позиції уряду щодо контрактів — це класична незаконна відповідь за першим доповненням», — написала суддя Лін у постанові. Остаточне рішення у справі може бути ще через кілька місяців.
Під час вівторкового слухання Лін запитала адвокатів уряду, чому Anthropic було внесено до чорного списку. У своїй постанові вона була ще більш різкою.
«Ніщо в законодавстві не підтримує оруелівське уявлення про те, що американська компанія може бути позначена потенційним ворогом і саботажником США за висловлення незгоди з урядом», — написала вона.
Позов Anthropic стався напередодні драматичних кількох тижнів у Вашингтоні між Міністерством оборони та однією з найцінніших приватних компаній у світі.
У дописі на X наприкінці лютого міністр оборони Піт Хегсет заявив, що Anthropic є так званим ризиком у ланцюзі постачання, що означає, що використання технологій компанії нібито загрожує національній безпеці США. Офіційне повідомлення про цю позначку Anthropic отримало у листі раніше цього місяця.
Anthropic стала першою американською компанією, яка публічно названа ризиком у ланцюзі постачання, оскільки зазвичай ця позначка застосовувалася до іноземних ворогів. Ця позначка вимагає від підрядників оборони, таких як Amazon, Microsoft і Palantir, підтвердити, що вони не використовують Claude у своїй роботі з військовими.
Детальніше читайте на CNBC у розділі технологій
Адміністрація Трампа використовувала два окремі позначення — 10 U.S.C. § 3252 і 41 U.S.C. § 4713 — щоб обґрунтувати свої дії, і їх потрібно оскаржувати у двох окремих судах. Через це Anthropic подала ще один позов для формального перегляду рішення Міністерства оборони у Апеляційному суді США у Вашингтоні.
Напередодні того, як Хегсет оголосив Anthropic ризиком у ланцюзі постачання, президент Дональд Трамп написав у Truth Social пост із наказом федеральним агентствам «негайно припинити» використання технологій Anthropic. Він заявив, що для агентств, таких як DOD, буде введено шестимісячний перехідний період.
«Ми вирішимо долю нашої країни — НЕ якась неконтрольована, радикально-ліва AI-компанія, яку керують люди, які не мають уявлення, що таке реальний світ», — написав Трамп.
Дії адміністрації Трампа здивували багато офіційних осіб у Вашингтоні, які почали цінувати і покладатися на технології Anthropic. Компанія стала першою, яка розгорнула свої моделі у закритих мережах DOD, і її підтримували за здатність інтегруватися з існуючими підрядниками оборони, такими як Palantir.
У липні Anthropic підписала контракт на 200 мільйонів доларів із Пентагоном, але, коли у вересні почалися переговори щодо розгортання Claude на платформі DOD GenAI.mil, вони застрягли.
DOD хотів отримати необмежений доступ до моделей Anthropic для всіх законних цілей, тоді як Anthropic прагнула гарантій, що її технології не використовуватимуться для повністю автономної зброї або внутрішнього масового спостереження.
Обидві сторони не дійшли згоди, і тепер конфлікт буде вирішено у суді.
«Усі, включно з Anthropic, погоджуються, що Міністерство оборони має право припинити використання Claude і шукати більш ліберального постачальника AI», — сказала Лін під час вівторкового слухання. «Я не вважаю, що це саме про це. Це питання зовсім іншого характеру — чи порушило уряд закон.»