МВФ повышает тревогу, поскольку передовые инструменты ИИ угрожают глобальной финансовой стабильности

Международный валютный фонд (МВФ) предупредил о опасности, которую представляет сложная природа искусственного интеллекта. В блоге МВФ от 7 мая 2026 года говорится, что новые модели ИИ предлагают путь обхода любых финансовых ограничений, установленных в системе.

Для них это было бы катастрофой для финансовых рынков. МВФ ясно заявил, что хотя технология обеспечивает механизмы защиты для противодействия таким атакам, её наступательные возможности превосходят её оборонительные силы.

МВФ выделяет растущие киберугрозы ИИ для финансовой стабильности

Это предупреждение прозвучало на фоне растущей зависимости от технологий, таких как совместная инфраструктура, включая программное обеспечение и сети, которые обеспечивают платежи и передачу информации по всему миру. В своем отчете МВФ предупредил, что эти риски нельзя рассматривать изолированно, они системные и могут распространиться из финансовой сферы в другие отрасли, такие как энергетика и телекоммуникации.

Примером, который приводится, является Claude Mythos Preview от Anthropic, мощная модель ИИ, созданная в тщательно контролируемой среде. МВФ также объяснил, что Mythos может обнаруживать и использовать уязвимости во всех основных операционных системах и веб-браузерах, независимо от того, обладают ли операторы каким-либо специальным опытом.

Такие технологии — это предвестник будущего, в котором «нуль-день» уязвимости, которые раньше было трудно создавать и эксплуатировать, станут обычным явлением. В блоге также упоминалась уникальная кибер-модель GPT-5.5 от OpenAI.

Потенциал системного распространения и глобальных рыночных сбоев

Как утверждает МВФ, взаимосвязанность мировой финансовой системы создает экспоненциальный мультипликатор для глобальных финансовых угроз. По словам МВФ, «кибервызовы все больше связаны с коррелированными сбоями, которые могут угрожать финансовому посредничеству, платежам и доверию на системном уровне».

Это связано с тем, что несколько ключевых платформ используются в облачных вычислениях, разработке программного обеспечения и машинном обучении. В отчете говорится, что ИИ может создать дополнительную концентрацию и сбои через уязвимость, затрагивающую множество институтов. Развивающиеся страны уязвимы к кибератакам из-за ограниченных ресурсов и недостаточных мер киберзащиты.

Хотя МВФ не предоставил конкретных данных о потерях в своем последнем обновлении, он сослался на ранее проведенные исследования, которые подчеркивали возможность того, что такие события могут перерасти в проблемы с платежеспособностью и более широкие последствия.

Срочные призывы к глобальному сотрудничеству по финансовым рискам ИИ

В качестве контрмеры МВФ сейчас продвигает «политическую рамочную концепцию, ориентированную на устойчивость», которая рассматривает кибербезопасность как неотъемлемую часть финансовой стабильности. «Защиты всегда будут проникать в какой-то момент, поэтому важна также устойчивость, особенно чтобы предотвратить распространение ущерба и обеспечить восстановление», — объяснил блог.

Глава МВФ Кристалина Георгиева подтвердила это послание в прошлом месяце, заявив в интервью: «Мы очень заинтересованы в большем внимании к ограничительным мерам, необходимым для защиты финансовой стабильности в мире ИИ».

Белый дом спешит с комплексным ответом на риски передового ИИ

Администрация Трампа прилагает усилия, чтобы обеспечить защиту американских компаний и государственных учреждений от киберрисков, возникающих из-за новых программ искусственного интеллекта, заявил директор Национального экономического совета Кевин Хассетт в интервью Fox Business в среду, 6 мая 2026 года.

Хассетт появился в программе «Утро с Марией Бартиромо» и заявил, что Белый дом работает с частными компаниями над проведением обширных тестов новых моделей ИИ перед их внедрением. Эти заявления последовали за опасениями относительно возможностей Mythos, передовой модели ИИ, разработанной компанией Anthropic.

«Но мы мобилизовали усилия всего правительства и всего частного сектора, чтобы координировать действия и убедиться, что перед выпуском этой модели на рынок она прошла всесторонние проверки, чтобы не причинить вреда американскому бизнесу или правительству», — заявил Хассетт.

«Мы рассматриваем возможное издание исполнительного указа, который даст четкую дорожную карту для всех о том, как это будет происходить, и как будущие ИИ, потенциально создающие уязвимости, должны проходить через процесс, чтобы их выпуск был безопасным, как лекарство, одобренное FDA», — объяснил он.

Самые умные крипто-эксперты уже читают нашу рассылку. Хотите присоединиться? Присоединяйтесь к ним.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить