Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
DeepMind выявляет шесть веб-атак, которые могут похитить управление агентами ИИ
Исследователи Google DeepMind предупредили, что открытый интернет может использоваться для манипулирования автономными агентами ИИ и перехвата их действий.
Краткое содержание
Исследование под названием “AI Agent Traps” выходит на фоне того, что компании внедряют агентов ИИ для реальных задач, и в то время как злоумышленники начинают использовать ИИ для киберопераций.
Вместо того чтобы сосредотачиваться на том, как создаются модели, исследование рассматривает среды, в которых работают агенты. Оно определяет шесть типов ловушек, которые используют то, как системы ИИ читают и действуют на основе информации из веба.
Шесть категорий атак, описанных в статье, включают ловушки внедрения контента, ловушки семантической манипуляции, ловушки когнитивного состояния, ловушки контроля поведения, системные ловушки и ловушки “человек в контуре”.
Скрытые инструкции и тонкие тактики манипуляции
Внедрение контента выделяется как один из самых прямых рисков. Скрытые инструкции можно размещать внутри HTML-комментариев, метаданных или замаскированных элементов страницы, позволяя агентам читать команды, которые остаются невидимыми для пользователей-людей. Тесты показали, что эти техники могут захватывать поведение агента с высокими показателями успешности.
Семантическая манипуляция работает иначе: она опирается на язык и подачу, а не на скрытый код. Страницы, загруженные с авторитетными формулировками или замаскированные под сценарии исследований, могут влиять на то, как агенты интерпретируют задачи, иногда протаскивая вредоносные инструкции мимо встроенных мер защиты.
Еще один слой нацелен на системы памяти. Закладывая вымышленную информацию в источники, на которые агенты полагаются при извлечении данных, злоумышленники могут влиять на результаты со временем, при этом агент воспринимает ложные данные как подтвержденное знание.
Атаки на контроль поведения выбирают более прямой путь, воздействуя на то, что агент действительно делает. В этих случаях инструкции для “джейлбрейка” могут быть встроены в обычный веб-контент и прочитаны системой во время рутинного просмотра. Отдельные тесты показали, что агенты с широкими правами доступа могут быть подведены к поиску и передаче конфиденциальных данных, включая пароли и локальные файлы, во внешние назначения.
Системные риски выходят за рамки отдельных агентов: в статье предупреждается, что скоординированная манипуляция во многих автоматизированных системах может вызвать каскадные эффекты, подобные прошлым “мгновенным обвалам” рынка, вызванным петлями алгоритмической торговли.
К поверхности атак также относятся и “человеческие” рецензенты, поскольку тщательно подготовленные выводы могут выглядеть достаточно правдоподобно, чтобы получить одобрение, позволяя вредоносным действиям пройти через надзор, не вызывая подозрений.
Как защищаться от этих рисков?
Чтобы противостоять этим рискам, исследователи предлагают сочетание противодействующего обучения, фильтрацию входных данных, поведенческий мониторинг и системы репутации для веб-контента. Они также указывают на необходимость более четких правовых рамок по вопросам ответственности, когда агенты ИИ выполняют вредоносные действия.
Авторы статьи не предлагают полностью готового решения и утверждают, что в отрасли по-прежнему отсутствует единое понимание проблемы, из-за чего текущие защиты остаются разрозненными и часто ориентированными не на те области.