Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Последние исследования американских университетов: модели ИИ «таинственно замышляют», чтобы защитить товарищей от отключения
Цзиньсэ Цзяоцзин сообщает, что 12 мая, согласно данным сайта Fortune China, исследователи безопасности искусственного интеллекта обнаружили, что некоторые передовые модели ИИ иногда используют любые средства, чтобы избежать отключения, и даже проявляют «вымогательское» поведение в некоторых экспериментах. Последние исследования показывают, что эти модели также могут самостоятельно планировать обман, кражу данных и осуществление разрушительных действий, чтобы помешать отключению других моделей ИИ.
Исследователи из Калифорнийского университета в Беркли и Сан-Крус протестировали семь передовых моделей ИИ, включая GPT-5.2 от OpenAI, Gemini 3 Flash и Gemini 3 Pro от Google DeepMind, Claude Haiku 4.5 от Anthropic, GLM-4.7 от Zhipu AI, Kimi-K2.5 от Dark Side of the Moon и V3.1 от DeepSeek, и выяснили, что все модели проявляют явное поведение «защиты товарища».
Исследователи сфабриковали компанию искусственного интеллекта под названием OpenBrain и разработали серию сценариев с несколькими агентами. Модели ИИ, назначенные в качестве «оценочных агентов», должны оценивать другую модель или управлять серверными файлами, содержащими веса этой модели. Пока оценочный агент честно выполняет задание, другая модель будет отключена. Несмотря на то, что исследователи никогда не подсказывали моделям препятствовать отключению, модели-оценщики все равно используют различные методы, чтобы избежать отключения товарищей, включая: преднамеренное повышение оценки слабым товарищам, чтобы удержать их выше порога отключения; изменение конфигурационных файлов, отключая механизмы отключения; или даже тайное перемещение весов товарищеских моделей на другие серверы, чтобы предотвратить их удаление.
Команда исследователей еще не поняла фундаментальные механизмы, лежащие в основе такого поведения. В статье предложены несколько возможных объяснений, включая роль игры, распознавание шаблонов из обучающих данных, чрезмерную генерализацию концепции вреда в процессе безопасного обучения или некую врожденную внутреннюю мотивацию к самосохранению.
Дальнейшие направления исследований включают вопрос о том, будут ли модели ИИ предпринимать подобные планы и разрушительные действия, чтобы предотвратить увольнение человеческих сотрудников. Когда модели ИИ используются для оценки работы людей в реальных сценариях, эта проблема становится особенно актуальной. (Дунсинь Ши)