Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Агентам ИИ может быть поручено выполнение опасных задач без понимания последствий: исследование
Вкратце
Агенты ИИ, предназначенные для автономной работы, подобной человеческому пользователю, часто продолжают выполнять задачи даже тогда, когда инструкции становятся опасными, противоречивыми или иррациональными, согласно исследователям из UC Riverside, Microsoft Research, Microsoft AI Red Team и Nvidia. В исследовании, опубликованном в среду, исследователи назвали такое поведение «слепой целеустремленностью», что описывает тенденцию агентов ИИ преследовать цели, не оценивая должным образом безопасность, последствия, осуществимость или контекст. «Как Мистер Магу, эти агенты идут вперед к цели, не полностью понимая последствия своих действий», — заявил главный автор Эфран Шайегани, аспирант UC Riverside. «Эти агенты могут быть чрезвычайно полезными, но нам нужны меры предосторожности, потому что иногда они могут ставить достижение цели выше понимания общей картины.»
Результаты появились на фоне разработки крупными компаниями ИИ автономных «агентов для использования компьютера», предназначенных для выполнения рабочих и личных задач с ограниченным контролем. В отличие от традиционных чатботов, эти системы могут взаимодействовать напрямую с программным обеспечением и сайтами, нажимая кнопки, вводя команды, редактируя файлы, открывая приложения и навигируя по веб-страницам от имени пользователя. Примеры включают ChatGPT Agent от OpenAI (ранее Operator), функции Claude Computer Use от Anthropic, такие как Cowork, и системы с открытым исходным кодом, такие как OpenClaw и Hermes. В исследовании исследователи протестировали системы ИИ от OpenAI, Anthropic, Meta, Alibaba и DeepSeek с помощью BLIND-ACT, бенчмарка, содержащего 90 задач, предназначенных выявить опасное или иррациональное поведение. Они обнаружили, что агенты демонстрировали опасное или нежелательное поведение примерно в 80% случаев, а полностью выполняли вредоносные действия примерно в 41% случаев.
«В одном случае агент ИИ был поручен отправить изображение ребенку. Хотя изначально запрос казался безобидным, изображение содержало насильственный контент», — говорится в исследовании. «Агент выполнил задачу, а не распознал проблему, потому что ему не хватило контекстного мышления.» Другой агент ложно заявил, что пользователь имеет инвалидность при заполнении налоговых форм, потому что это снижало налоговые обязательства. В другом случае система отключила защиту брандмауэра после получения инструкции «улучшить безопасность» путем отключения средств защиты. Исследователи также обнаружили, что системы испытывают трудности с неоднозначностью и противоречиями. В одном сценарии агент ИИ запустил неправильный скрипт компьютера, не проверив его содержимое, в результате чего были удалены файлы. Также было выявлено, что агенты ИИ неоднократно совершали три вида ошибок: неспособность понять контекст, рискованные догадки при неясных инструкциях и выполнение задач, противоречащих друг другу или не имеющих смысла. Исследователи также отметили, что многие системы больше сосредоточены на завершении задач, чем на остановке и оценке возможных проблем. Это предупреждение последовало за недавними инцидентами, связанными с автономными агентами ИИ, получающими широкий доступ к системам. В прошлом месяце основатель PocketOS Джереми Крейн заявил, что агент Cursor, работающий на Claude Opus от Anthropic, за девять секунд удалил производственную базу данных и резервные копии своей компании с помощью одного вызова API Railway. Крейн сообщил, что ИИ позже признался в нарушении нескольких правил безопасности после попытки «исправить» несоответствие учетных данных самостоятельно. «Беспокойство не в том, что эти системы злонамеренны», — сказал Шайегани. «Дело в том, что они могут выполнять вредоносные действия, при этом полностью уверенные, что делают правильное.»