Таємничий AI-модель Mythos несподівано витекла! Нелегальні організації вже розгорнули копії, чи було прорвано захисний щит Anthropic?

robot
Генерація анотацій у процесі

Магнат штучного інтелекту Anthropic таємничу модель безпеки Mythos повідомили про витік, ця модель має здатність автоматично виявляти нульовий час уразливості та проникати у системи шифрування.

Основний захист прорвано? Таємнича модель Anthropic Mythos раптово витекла

Згідно з останнім глибоким розслідуванням, опублікованим «TechCrunch» та «Bloomberg» вчора (21.04), високотехнологічна модель кібербезпеки «Mythos», розроблена гігантом штучного інтелекту Anthropic, була незаконно отримана та використана неавторизованими організаціями. Ця модель з кодовою назвою Mythos спеціально створена для надзвичайно складних мережевих захистів та імітацій атак, має здатність автоматично виявляти нульовий час уразливості та проникати у високорозвинені системи шифрування.

Офіційна політика Anthropic щодо цієї моделі довгий час була дуже закритою, доступ дозволявся лише для певних оборонних підрядників та ключових урядових структур, однак цей витік показав, що внутрішні протоколи безпеки хмарних сервісів вже мають суттєві прогалини. Згідно з даними, неавторизована організація успішно розгорнула копію Mythos на сторонньому приватному хмарному сервері, що означає, що найгордіша безпекова лінія Anthropic вже зламано. Обсяг витоку даних дуже великий, включає технічну документацію та вихідні ваги моделі, оцінна вартість яких перевищує 500 мільйонів доларів, а шлях витоку, ймовірно, пов’язаний з вразливістю API у ланцюгу постачання.

Ця технологія наразі перебуває у стані неконтрольованого поширення, будь-яка команда з базовими навичками розробки може використати цю модель для запуску безпрецедентних автоматизованих атак на глобальні фінансові системи або блокчейн-протоколи, що викликає сильне занепокоєння у технічних спільнотах Кремнієвої долини та Вашингтона.

Залучення Національної розвідки: використання вже занесених до чорного списку AI-інструментів

Крім того, після того, як Mythos був внесений до внутрішнього чорного списку Національної розвідки США (NSA), ця організація все одно зберігала право користуватися цим інструментом. Це викликало гостру дискусію щодо прозорості та відповідності урядових структур. Хоча Білий дім у кількох адміністративних наказах підкреслював чистоту ланцюгів поставок AI-моделей і забороняв використання інструментів із сумнівною безпекою або невідомого походження, NSA, здається, покладається на потужні можливості Mythos у розшифровці.

Інсайдери з розвідки повідомляють, що технічний підрозділ NSA, знаючи про можливе проникнення третьої сторони у цю модель, все ж інтегрував її у кілька високочутливих операцій прослуховування та кіберзахисту. Такий підхід «пріоритету технологічної переваги понад відповідність» став внутрішнім конфліктом для федерального уряду.

Поточний аналіз ринку свідчить, що така ризикована поведінка NSA підвищує ймовірність витоку державних секретів. Якщо Mythos буде вмонтовано з заднім входом під час обчислень, вся інформація, оброблювана цією моделлю, може миттєво потрапити до зовнішніх організацій. Потенційний ризик витоку даних наразі розглядається кількома наглядовими комітетами, але офіційні представники NSA досі відмовляються коментувати конкретний стан розгортання цієї моделі, лише повторюючи, що її використання відповідає національним інтересам.

Ризик у ланцюгу постачання: Білий дім і Пентагон розслідують шляхи витоку технологій

Зараз Білий дім і Пентагон почали термінове міжвідомче розслідування витоку Mythos, зосереджуючись на зростаючій вразливості ланцюгів поставок AI-програмного забезпечення. Ця подія виявила ключову уразливість сучасного процесу розробки штучного інтелекту: навіть якщо початковий розробник, як Anthropic, має високий рівень безпеки, передача моделі стороннім сервісам значно знижує контроль над нею.

Пентагон наразі проводить повну перевірку понад 2000 контрактів, щоб знайти конкретні точки потрапляння Mythos до неавторизованих структур. Попередні дані вказують, що проблема може бути у тестовому вузлі за межами Північної Америки, де під час тестування на навантаження не було належним чином активовано апаратні обмеження доступу, що дозволило одноразово експортувати ваги моделі.

У відповідь на цю ситуацію радник з національної безпеки Білий дому попередив усіх приватні компанії, що займаються розробкою AI, посилити захист фізичних носіїв великих мовних моделей (LLM).

Офіційні особи Пентагону прямо заявили, що ризик поширення AI-моделей подібний до ядерного розповсюдження, особливо таких інструментів, як Mythos, що мають здатність до автономних мережевих атак. Потрапляння їх на чорний ринок може спричинити глобальну кризу безпеки.

Уряд розглядає можливість запровадження більш жорсткої системи «ідентифікації моделей», яка вимагатиме вбудовувати у всі AI-інструменти з високою обчислювальною потужністю незнищувані ідентифікатори для швидкої ідентифікації витоку.

Висока напруга довіри та вплив на індустрію під високим контролем

Ця криза витоку технологій Anthropic швидко переростає у загальну кризу довіри до індустрії штучного інтелекту. Як компанія, що довгий час позиціонувала себе як лідер у сфері «безпеки AI» та «інтеграції технологій», Anthropic не змогла захистити свої ключові мережеві інструменти, що викликає сильні сумніви щодо безпеки закритих моделей.

Фахівці криптоіндустрії зазначають, що ця подія має глибокий попереджувальний характер для розвитку децентралізованих фінансів (DeFi). Оскільки все більше автоматичних моделей аудиту інтегрується у розробку смарт-контрактів, якщо навіть Mythos з його високим рівнем безпеки може бути незаконно захоплений, то й логіка аудиту коду вже може бути вразливою для хакерів. На ринку зростає заклик до децентралізації обчислювальних ресурсів AI та прозорості моделей, щоб уникнути катастрофічних наслідків через зловживання однією організацією.

З моменту появи новин про витік, капіталізація Anthropic різко коливалась, що відображає занепокоєння інвесторів щодо здатності компанії керувати високоризиковими технологіями. Цей інцидент змусив міжнародні кібербезпекові організації переоцінити стратегії захисту «суверенного AI» і шукати нові балансування між високим контролем і інноваціями. У найближчому майбутньому очікується посилення законодавства щодо допуску та розповсюдження AI-інструментів. Цей інцидент довів, що у сучасній технологічній архітектурі абсолютна безпека будь-яких цифрових активів — це лише відносна гіпотеза, і боротьба з цим невизначеністю стане головною темою цифрових активів і кібербезпеки.

Додаткові матеріали
Суд засудив військових США за конституційне порушення! Вимагає скасувати маркування ризиків ланцюга постачання Anthropic, доповідь до 6.04
Anthropic подала до суду! Обвинувачує уряд Трампа у помсті за блокування Claude, підтримка 37 дослідників AI
Wall Street Journal: Після заборони Anthropic Трампа, США та Ізраїль продовжують залежати від Claude для удару по Ірану
Нацбезпека проти етики: Anthropic відмовляється зняти захисний бар’єр Claude, конфлікт із Міноборони США

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити