Anthropic создали самый мощный в истории AI-модель, но не решаются её выпускать…

robot
Генерация тезисов в процессе

Оригинал | Odaily Звёздный вестник(@OdailyChina

Автор|Азума(@azuma_eth

8 апреля компания-разработчик ИИ за Claude, Anthropic, официально объявила о запуске нового проекта под названием «Стеклянные крылья» (Project Glasswing). Этот проект будет совместно продвигаться с несколькими ведущими компаниями, включая Amazon, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA и Palo Alto Networks.

Anthropic заявляет, что это экстренная инициатива, направленная на защиту самых критически важных в мире программных систем; все стороны совместно будут использовать предварительную версию Mythos Preview, чтобы обнаружить и исправить потенциальные недостатки в системах, от которых сегодня зависит существование мира.

Под так называемым Mythos подразумевается следующее поколение ИИ-моделей, которое разрабатывает Anthropic. Это первая в истории человечества модель с прорывом по масштабу параметров на уровень более чем 1 триллион (в отличие от этого: текущие ведущие модели на рынке имеют количество параметров в диапазоне от нескольких сотен миллиардов до примерно 1 триллиона). Стоимость обучения составила ошеломляющие 10 миллиардов долларов. По сравнению с самой мощной моделью Claude на данный момент Opus 4.6, Mythos заметно улучшает результаты в тестах, включая программирование, академическое рассуждение и кибербезопасность.

Слухи о Mythos ходили в рынке еще на прошлой неделе: тогда распространённая обеспокоенность заключалась в том, — повлияет ли Mythos, обладающий специализацией в области кибербезопасности, на текущую расстановку сил в противостоянии «атака—защита»? Если его будет использовать злоумышленник, приведёт ли это к более масштабным инцидентам безопасности? Odaily тогда тоже сообщал об этом и обсуждал с экспертами по безопасности из отрасли, а также с основателем SlowMist Юй Сюань (Yuxuan Yu) возможное влияние на индустрию кибербезопасности в сфере криптовалют (см. «Интервью Odaily с Юй Сюань: утечка нового AI уровня “ядерной бомбы” от Anthropic — как это повлияет на кибербезопасность в крипто?»). Однако на тот момент Anthropic не признавал существование Mythos публично, поэтому доступная информация оставалась ограниченной.

8 апреля, по мере того как был опубликован план «Стеклянные крылья», Anthropic также раскрыл больше деталей, связанных с Mythos. Судя по опубликованным Anthropic практическим примерам, компания не преувеличивает возможности Mythos настолько, что даже не решается напрямую выпускать саму модель, опасаясь, что хакерские группировки могут намеренно использовать её во вред. Вместо этого компания планирует сначала дать ведущим компаниям возможность опробовать и проверить модель через план «Стеклянные крылья», чтобы заранее закрыть потенциальные уязвимости.

Mythos демонстрирует мускулы: за несколько недель — «выкопали» тысячи «нулевых дней»

Говоря о силе Mythos, Anthropic прямо заявил, что появление модели означает уже наступивший суровый факт: возможности ИИ по кодированию достигли очень высокого уровня — в обнаружении и использовании уязвимостей в ПО они почти могут обойти всех, кроме самых опытных людей.

Согласно раскрытию Anthropic, всего за несколько недель Anthropic с помощью Mythos обнаружил тысячи уязвимостей “нулевого дня” (то есть недостатков, которые ранее не удавалось выявить даже самим разработчикам ПО). При этом многие из них относятся к уязвимостям высокого риска; проблемы охватывают все основные операционные системы и основные браузеры, а также затрагивают ряд других критически важных программных продуктов.

Anthropic привёл несколько показательных кейсов:

  • Mythos обнаружил уязвимость в OpenBSD, существующую уже 27 лет. Этот проект долгое время славился своей «крайне высокой безопасностью» и широко используется в критической инфраструктуре, включая межсетевые экраны; при этом данная уязвимость позволяет злоумышленнику удалённо напрямую приводить систему к сбою;
  • В популярной видеопроцессинговой библиотеке FFmpeg, которой пользуются многие программы, Mythos нашёл уязвимость, существующую 16 лет: проблемный участок кода в ходе автоматизированного тестирования запускался более 5 миллионов раз, но всё время оставался незамеченным;
  • Mythos также способен автоматически «сшивать» несколько уязвимостей в ядре Linux — от повышения прав обычного пользователя до полного контроля над сервером.

Особенно тревожно то, что Anthropic заявляет: большинство этих уязвимостей были “самостоятельно обнаружены и сформированы в виде путей эксплуатации” самим Mythos в условиях почти полного отсутствия человеческого вмешательства. Это, возможно, означает, что ИИ уже начал обладать автоматизированными возможностями атак и защиты, сравнимыми с топовой хакерской командой.

На оценочных тестовых бенчмарках Mythos демонстрирует «скачкообразную» эволюцию по сравнению с Opus 4.6. Например, в тесте повторения уязвимостей по сетевой безопасности Mythos достигает 83,1%, тогда как Opus 4.6 — 66,6%; в ряде тестов на кодинг и рассуждения Mythos также показывает значительное опережение по результатам.

Возможно, именно потому, что возможности Mythos оказываются слишком мощными, Anthropic не выбрал путь прямого открытия модели, а сначала запустил план «Стеклянные крылья», чтобы ещё до появления на просторах интернета заранее «усилить защиту».

В рамках этого плана Anthropic заранее предоставит участникам проекта доступ к предварительной версии Mythos Preview для обнаружения и исправления уязвимостей или слабых мест в их базовых системах — с акцентом на задачи вроде обнаружения локальных уязвимостей, чёрного ящика тестирования бинарных программ, усиления безопасности терминалов и тестов на проникновение в системы.

Anthropic также обещает, чтопредоставит участникам проекта в общей сложности 100 миллионов долларов в виде квоты на использование модели, чтобы поддержать применение на всём этапе исследовательского превью. После этого версия Mythos Preview будет открыта для участников по цене 25 долларов / 125 долларов за каждые 1 миллион токенов входа / выхода соответственно (участники также могут получить доступ к этой модели через Claude API, Amazon Bedrock, Google Cloud Vertex AI и Microsoft Foundry). Помимо квоты на использование модели, Anthropic также выделит через Linux Foundation 2,5 миллиона долларов для пожертвований Alpha-Omega и OpenSSF, а также 1,5 миллиона долларов — Фонду Apache Software — чтобы помочь поддерживающим открытый исходный код разработчикам справляться с постоянно меняющейся средой безопасности.

Anthropic планирует постепенно расширять круг участников «Стеклянных крыльев» и в течение нескольких месяцев продолжать работу, при этом по возможности делиться опытом, чтобы другие организации могли применить эти знания к собственной системе безопасности. В течение 90 дней Anthropic публично опубликует отчёт о промежуточных результатах, включая исправленные уязвимости и меры по безопасности, которые можно будет раскрыть.

Технологии будут только развиваться, но и слишком сильно переживать не нужно

ИИ необратимо меняет мир, к которому мы привыкли, включая сферу кибербезопасности, на которой сосредоточена и эта статья. По мере того как пороги обнаружения и эксплуатации уязвимостей существенно снижаются, невольно появляется тревога: не станет ли ИИ тем самым лезвием в руках злоумышленников и не нарушит ли существующий баланс в кибербезопасности? (P.S.: для пользователей криптовалют, которым нужно держать «живые деньги» в кошельках или на смарт-контрактных протоколах, эта тревога будет особенно острой.)

В ответ на этот вопрос Anthropic считает, что «у нас всё ещё есть причины сохранять оптимизм». ИИ представляет опасность именно потому, что он способен наносить вред в руках недобросовестных людей, но одновременно у ИИ есть и неоценимая ценность в выявлении и исправлении критически важных дефектов в ПО, а также в разработке более безопасных новых программ.

Очевидно, что в ближайшие годы возможности ИИ будут продолжать быстро эволюционировать. Однако когда появляются новые способы атаки, одновременно будут возникать и новые механизмы защиты. Обновление технологий неизбежно, но это не значит, что риски обязательно выйдут из-под контроля — если система обороны развивается синхронно, то даже можно за счёт ИИ построить более мощный «искусственный ров» безопасности.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить