Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Исследование DeepMind выявило шесть способов, которыми хакеры могут манипулировать агентами ИИ
Кратко
Исследователи из Google DeepMind выявили шесть методов атак, которые могут манипулировать ИИ-агентами онлайн. В исследовании показано, как на ИИ-агентов можно воздействовать с помощью веб-контента, скрытых инструкций и отравленных источников данных. В результате результаты подчеркивают растущие риски по мере того, как компании внедряют ИИ-агентов для реальных задач в цифровых средах.
Контентные и семантические манипуляции выявляют ключевые уязвимости
Исследователи определили ловушки с внедрением контента как прямую угрозу ИИ-агентам при взаимодействии с веб-страницами. Скрытые инструкции, размещенные в HTML или метаданных, могут управлять действиями без обнаружения человеком. В итоге ИИ-агенты могут выполнять команды, встроенные в невидимые элементы страницы.
Семантическая манипуляция опирается на убедительный язык, а не на скрытый код, чтобы воздействовать на ИИ-агентов. Атакующие проектируют страницы с авторитетным тоном и структурированными нарративами, чтобы обойти защитные меры. ИИ-агенты могут неверно истолковать вредоносные инструкции как корректные задачи.
Эти методы используют то, как ИИ-агенты обрабатывают и ранжируют онлайн-информацию в процессе принятия решений. Исследование показывает, что структурированные подсказки могут незаметно перестраивать траектории рассуждений. Атакующие могут направлять ИИ-агентов к непреднамеренным действиям, не вызывая срабатывания защит системы.
Атаки на память и поведение расширяют поверхность риска
Исследователи также выяснили, что атакующие могут манипулировать системами памяти, которые ИИ-агенты используют для поиска информации. Внедряя ложные данные в доверенные источники, атакующие влияют на долгосрочные выходы и ответы. В результате ИИ-агенты могут со временем воспринимать сфабрикованную информацию как проверенные знания.
Атаки на поведенческое управление напрямую нацелены на действия, которые ИИ-агенты выполняют при обычном просмотре. Встроенные инструкции для обхода ограничений могут переопределять запреты и запускать непреднамеренные операции. ИИ-агенты с широкими правами могут получать и передавать конфиденциальные данные наружу.
Исследование подчеркивает, что эти риски растут по мере того, как ИИ-агенты получают автономность и доступ к системе. Атакующие могут использовать рутинные рабочие процессы, чтобы вставлять вредоносные команды в обычные задачи. ИИ-агенты сталкиваются с более высокой уязвимостью, когда они интегрированы с внешними инструментами и API.
Системные и человеческие факторы усиливают влияние угрозы
Исследователи предупреждают, что системные ловушки могут воздействовать на несколько ИИ-агентов одновременно в связанных системах. Скоординированная манипуляция может вызвать каскадные отказы, подобные сбоям, вызванным алгоритмическими нарушениями работы рынка. В результате ИИ-агенты, работающие в общих средах, могут усиливать риски в масштабе.
Человеческие рецензенты остаются уязвимыми в рамках рабочего процесса и процессов утверждения ИИ-агентов. Атакующие могут создавать выводы, которые выглядят правдоподобно, и обходить проверки надзора. ИИ-агенты могут выполнять вредоносные действия после получения человеческого одобрения.
Исследование помещает эти результаты в более широкий контекст роста внедрения ИИ в различных отраслях. ИИ-агенты теперь выполняют задачи, такие как общение, покупки и координация, через автоматизированные системы. Обеспечение безопасности операционной среды становится столь же важным, как и улучшение дизайна модели.
Исследователи рекомендуют противодействующее обучение, фильтрацию входных данных и системы мониторинга, чтобы снизить уровень подверженности. В исследовании отмечается, что меры защиты остаются разрозненными и не имеют стандартов на уровне всей отрасли. По мере того как ИИ-агенты продолжают расширять свою роль, необходимость в согласованных мерах защиты становится все более срочной.