Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Федеральний суд тимчасово заборонив Пентагону позначати компанію штучного інтелекту Anthropic як ризик для ланцюга постачання
САН-ФРАНЦИСКО (AP) — Федеральний суддя ухвалив рішення на користь компанії штучного інтелекту Anthropic у тимчасовій забороні Пентагону позначати цю компанію як ризик у ланцюзі постачань.
Суддя окружного суду США Ріта Лін у четвер заявила, що також забороняє президенту Дональду Трампу видавати наказ про припинення використання Anthropic усіма федеральними агентствами.
Рішення Лін було ухвалено після 90-хвилинного слухання у федеральному суді Сан-Франциско у вівторок, під час якого суддя запитувала, чому адміністрація Трампа зробила надзвичайний крок, оголосивши Anthropic ризиком у ланцюзі постачань після того, як переговори щодо оборонного контракту з компанією зірвалися через спробу компанії запобігти використанню її технологій штучного інтелекту у повністю автономних зброях або спостереженні за американцями.
Anthropic, виробник чатбота Claude, просив Лін видати екстрений наказ про зняття стигми, яку компанія вважає необґрунтовано застосованою у рамках «незаконної кампанії помсти», що спонукала компанію з Сан-Франциско подати позов проти адміністрації Трампа раніше цього місяця. Пентагон стверджував, що має право використовувати Claude будь-яким законним способом.
Лін зазначила, що її рішення не стосується цього публічного політичного дебату, а стосується дій уряду у відповідь на нього.
Пов’язані новини
Затримки у використанні деяких аеропортів США через персонал TSA матимуть серйозні наслідки, кажуть експерти
Конфлікт у східній Конго посилюється з використанням важкої зброї та дронів, попереджає ООН
Якщо питання стосується цілісності операційної ланки командування, Міністерство війни може просто припинити використання Claude. Замість цього ці заходи, здається, спрямовані на покарання Anthropic, — написала Лін.
Anthropic також подала окрему та більш вузьку справу, яка досі перебуває на розгляді у федеральному апеляційному суді у Вашингтоні, округ Колумбія.
Лін зазначила, що її наказ буде діяти протягом тижня і не зобов’язує Пентагон використовувати продукти Anthropic або забороняє їй перейти до інших постачальників штучного інтелекту.