Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Запуск ф'ючерсів
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Anthropic офіційно відповідає: щодо визначення «ризиків ланцюга постачання» подасть позов проти Міністерства оборони США
Згідно з інформацією додатку Цзитон Ціньцзяо, Міністерство оборони США офіційно повідомило компанію Anthropic PBC про визнання її та її продуктів ризиком для американської ланцюга постачань. За словами високопосадовця Міноборони, ця міра додатково загострила суперечку між сторонами у сфері безпеки штучного інтелекту.
Цей чиновник у четвер повідомив: «Міністерство війни (Department of War, скорочено DOW) офіційно направило керівництву Anthropic повідомлення, у якому чітко зазначено, що ця компанія та її продукти вважаються ризиком для ланцюга постачань, і ця оцінка набирає чинності з сьогоднішнього дня». Варто зазначити, що міністр оборони Пітт Хаггсес останнім часом все частіше використовує традиційну назву «Міністерство війни» для позначення Міноборони, і у цьому повідомленні вперше офіційно оприлюднено таку назву.
У відповідь на погрози Міноборони щодо внесення компанії до чорного списку через суперечності щодо безпеки штучного інтелекту, Anthropic PBC очікує, що ця ситуація переросте у юридичну суперечку.
«Ми переконані, що ця дія не має підстав у правовій сфері, тому іншого виходу, окрім як захищатися у суді, у нас немає», — чітко заявив у четвер генеральний директор Anthropic Даріо Амоді у своєму офіційному блозі.
Хоча цей чиновник Міноборони наголосив, що рішення «набирає чинності негайно», за інформацією джерел, американські військові продовжують використовувати штучний інтелект Claude від Anthropic у своїх операціях щодо Ірану. Минулого п’ятниці міністр оборони Пітт Хаггсес попередив цю компанію про необхідність переходу на інші платформи протягом шести місяців, щоб перенести свої AI-операції до інших постачальників.
Незважаючи на те, що цей чиновник Міноборони підкреслив, що рішення «негайно набирає чинності», джерела повідомляють, що американські військові активно використовують AI Claude у своїх операціях щодо Ірану. У п’ятницю Хаггсес попередив компанію про шестимісячний перехідний період, щоб вона перенесла свої AI-активи до інших постачальників.
Щодо цієї серії подій, представники Anthropic та Міноборони США не зробили негайних коментарів. Варто зазначити, що цей чиновник Міноборони не уточнив, коли або яким чином було передано Anthropic повідомлення про визнання ризику.
Раніше Anthropic заявила, що будь-які дії щодо визнання ризику для ланцюга постачань з боку Міноборони будуть оскаржені у суді.
Визнання ризику для ланцюга постачань Міноборони США може порушити співпрацю Anthropic із військовими — адже довгий час компанія була глибоко залежною від їхнього програмного забезпечення. До недавнього часу Anthropic залишалася єдиним постачальником AI-систем для секретної хмарної платформи Міноборони США, а розроблений нею інструмент Claude Gov завдяки високій зручності став ключовою платформою для військових.
«Це створює надзвичайно стратегічно важливу технологічну можливість», — підкреслила старший аналітик Центру безпеки та нових технологій Джорджтаунського університету Лорен Кайн у коментарі. «Якщо цю здатність буде примусово позбавлено, це спричинить ланцюгові наслідки для військових, бізнесу та всьої технологічної екосистеми».
Генеральний директор Anthropic Даріо Амоді вів багатотижневі переговори з віцепрезидентом Міноборони з досліджень і інженерії Еміром Мікелем щодо укладення спеціального контракту, який регулював би доступ Міноборони до технологій Anthropic. Однак минулого тижня переговори були розірвані — стартап наполягав на отриманні чітких гарантій, що його AI-технології не будуть використані для масового спостереження за громадянами США або для розгортання автономної зброї.
Після цього міністр оборони Пітт Хаггсес у п’ятницю на платформі X повідомив, що Anthropic вже становить «ризик для ланцюга постачань». Варто зазначити, що таке визнання ризику зазвичай застосовується до країн або суб’єктів, яких США вважає опонентами, і використання його щодо технологічних компаній є досить рідкісним випадком.
На даний момент невідомо, на підставі якого закону Міноборони США визнало Anthropic загрозою для ланцюга постачань. У заяві, оприлюдненій минулого тижня у відповідь на пост міністра Хаггсеса у соцмережах, Anthropic зазначила, що очікує, що ця оцінка ризику буде здійснена відповідно до статті 3252 Закону про управління збройними силами США.
«З початку подій основний принцип залишався незмінним — військові повинні мати автономію використовувати технології для будь-яких легальних цілей», — наголосив цей чиновник у четвер. «Ми категорично не дозволимо будь-якому постачальнику обмежувати законне використання ключових можливостей, щоб втручатися у командно-контроль і ставити під загрозу життя наших військових».
Ця оцінка припадає на критичний момент, коли американські війська активно залежать від Claude у своїх операціях щодо Ірану — вони використовують низку AI-інструментів для ефективної обробки величезних обсягів даних у бойових діях. За інформацією джерел, широко застосовувана в регіоні система Maven, розроблена компанією Palantir Technologies Inc., є однією з головних платформ, а Claude від Anthropic — один із ключових великих мовних моделей, інтегрованих у цю систему. Вони підкреслюють, що Claude показує високі результати у реальних умовах, ставши важливою підтримкою для американських операцій проти Ірану та значно прискоривши AI-оновлення системи Maven.
Зараз оцінка Anthropic становить близько 380 мільярдів доларів. За поточними показниками, компанія може отримати близько 20 мільярдів доларів річного доходу, що у два рази перевищує рівень наприкінці минулого року. Однак конфлікт із Міноборони США кидає тінь на перспективи розвитку цієї технологічної компанії.
На даний момент невідомо, який довгостроковий вплив матиме ця оцінка ризику на продажі Anthropic корпоративним клієнтам (які довгий час були її основним джерелом доходу). Варто зазначити, що у тіні конфлікту компанія тихо розширює свою аудиторію звичайних користувачів — її головний додаток нещодавно посів перше місце у рейтингу завантажень App Store, що свідчить про широку підтримку та довіру до технологічних продуктів Anthropic.