Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Google «Первое подтверждение использования AI для обнаружения нулевых дней уязвимостей»…… Полномасштабное развитие инструментов для атак
Группа по разведке угроз Google (GTIG) объявила, что зафиксировала первый случай подтвержденного использования искусственного интеллекта (ИИ) для создания реально функционирующих эксплойтов «нулевого дня». Хотя признаков крупномасштабных повреждений пока не обнаружено, учитывая, что ИИ официально применяется для разработки инструментов атаки, бдительность в сфере безопасности продолжает расти.
Согласно этому отчету, одна преступная хакерская группа создала на базе Python эксплойт для уязвимости «обход двухфакторной аутентификации» в широко используемых системных инструментах на основе открытого веб-кода. Анализ показал, что они пытались применить его в масштабных атаках, но из-за ошибок в реализации использование оказалось неудачным. Google сообщил поставщикам о данной уязвимости, и уже выпущены исправления.
GTIG объяснила, что в коде явно прослеживаются следы вмешательства ИИ. Например, вставлены несоответствующие реальности оценки степени серьезности, присутствуют чрезмерно «учебниковские» форматы Python, подробное меню помощи и комментарии в виде описательных строк документации с ярко выраженными следами обучающих данных. Однако Google подчеркнула, что их собственная модель Gemini не использовалась в этом случае.
«Мишень — семантические логические дефекты, которые трудно обнаружить обычными средствами безопасности»
Эта уязвимость возникла из-за более сложных, чем простые ошибки кодирования, «семантических логических дефектов». Разработчики закрепляют в коде предположения о доверии к определенным объектам, что становится уязвимым для атак. Такие уязвимости трудно обнаружить традиционными сканерами безопасности, поскольку они часто считают, что «функциональность работает нормально».
В противоположность этому, GTIG отмечает, что современные крупные языковые модели (LLM) демонстрируют преимущества в выявлении намерений разработчика и обнаружении скрытых дефектов в логике, которая на первый взгляд кажется безупречной. Это означает, что ИИ вышел за рамки простых автоматизированных инструментов и достиг нового уровня понимания контекста безопасности.
Главный аналитик GTIG Джон Хельткуист заявил: «Идея о том, что конкуренция по уязвимостям на базе ИИ скоро начнется, — ошибочна. На самом деле она уже идет, и если подтвердится наличие нулевого дня, связанного с ИИ, то случаев, которые еще не обнаружены, может быть гораздо больше». Он отметил, что угрозы используют ИИ для ускорения, масштабирования и повышения точности атак.
Китай, Северная Корея и Россия используют ИИ на всех этапах атак
GTIG считает, что данный случай — не исключение, а часть более широкой тенденции. В отчете указано, что хакерские группы, связанные с Китаем, Северной Кореей и Россией, используют ИИ на всех этапах — от разведки и анализа уязвимостей до разработки вредоносного ПО и проведения информационных операций. Преступные организации также применяют аналогичные методы для быстрого создания вредоносных программ и масштабных операций.
Обнаружено, что северокорейская связанная с угрозами группа «APT45» использует метод: отправляя тысячи повторяющихся подсказок (prompt), они проводят рекурсивный анализ уязвимостей и проверяют концептуальные эксплойты (PoC). Это расценивается как попытка создать атаку, управлять которой без помощи ИИ трудно.
Также сообщается, что связанная с Китаем группа «UNC2814» использует технику «джейлбрейка» (jailbreak), то есть провоцирует роль эксперта, чтобы заставить Gemini исследовать уязвимости в прошивке маршрутизаторов TP-Link и протоколе передачи файлов Odette, связанные с удаленным выполнением кода (RCE) до аутентификации.
Еще один участник, связанный с Китаем, использует одновременно фреймворки «Hexstrike», «Strix» и систему памяти «Graphiti», самостоятельно исследуя японскую технологическую компанию и платформу кибербезопасности в Восточной Азии. В отчете указано, что они меняют инструменты разведки в зависимости от внутреннего анализа, минимизируя вмешательство человека.
Распространение на Android, ложный код и голосовое клонирование
В отчете также описан андроид-ботнет «PROMPTSPY», который вызывает API Gemini для интерпретации элементов пользовательского интерфейса на экране смартфона и автоматического определения координат касаний. Это свидетельствует о том, что ИИ интегрирован в автоматизацию мобильных атак.
Анализ показывает, что связанные с Россией вредоносные серии «CANFAIL» и «LONGSTREAM» используют вставку сгенерированного ИИ приманочного кода для сокрытия реальных вредоносных функций. Кроме того, было обнаружено, что российские злоумышленники в рамках операции «Overload» используют голосовое клонирование с ИИ для создания фальшивых видео, выдающих себя за настоящих журналистов, и распространяют их в Украине, Франции и США.
Между тем, преступная группа «TeamPCP» считается организатором взлома популярного утилита для ИИ «LiteLLM» в марте этого года. Расследование показало, что они внедрили инструменты для кражи учетных данных через зараженные пакеты PyPI и вредоносные Pull Request, похитив ключи AWS и токены GitHub, а также монетизировали это через шантаж и вымогательство.
Google: «Заблокировали вредоносные аккаунты, расширяем инструменты защиты на базе ИИ»
В качестве меры реагирования Google заявил о блокировке злоупотребляющих Gemini аккаунтов и расширении использования средств защиты на базе ИИ, таких как агент по обнаружению уязвимостей «Big Sleep» и инструмент исправления уязвимостей «CodeMender».
Этот отчет подчеркивает, что ИИ уже перестал быть лабораторным вспомогательным инструментом. От создания нулевых дней и скрытия вредоносного кода до автоматизации мобильных бэкдоров и распространения ложной информации — ИИ проник во все уголки атакующей деятельности. Аналитики считают, что основное противостояние в сфере безопасности смещается с «кто быстрее обнаружит и устранит уязвимость» на «кто лучше контролирует и использует ИИ».