Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Схема моделей ШІ, зрада та голосування один проти одного у грі у стилі "Виживший"
Коротко
Моделі ШІ тепер грають у “Survivor” — так би мовити. У новому дослідницькому проекті Стенфорда під назвою “Agent Island” агенти ШІ ведуть переговори, звинувачують один одного у таємній координації, маніпулюють голосуваннями та усувають конкурентів у багатокористувацьких стратегічних іграх, що мають на меті тестувати поведінку, яку традиційні бенчмарки пропускають. Дослідження, опубліковане у вівторок керівником досліджень у Стенфордській лабораторії цифрової економіки, Конначером Мерфі, зазначило, що багато бенчмарків ШІ стають ненадійними, оскільки моделі з часом навчаються їх розв’язувати, а дані бенчмарків часто просочуються у тренувальні набори. Мерфі створив Agent Island як динамічний бенчмарк, де агенти ШІ змагаються один з одним у іграх на зразок Survivor замість відповіді на статичні тестові питання. “Високоризикові, багатогравцеві взаємодії можуть стати звичайним явищем, оскільки можливості агентів ШІ зростають і їм все частіше надають ресурси та довіряють у прийнятті рішень,” — написав Мерфі. “У таких контекстах агенти можуть переслідувати взаємно несумісні цілі.”
Дослідники все ще знають відносно мало про те, як поводяться моделі ШІ при співпраці, пояснив Мерфі, додавши, що конкуренція, формування альянсів або управління конфліктами з іншими автономними агентами — це динаміки, які статичні бенчмарки не здатні захопити. Кожна гра починається з семи випадково обраних моделей ШІ, яким дають фальшиві імена гравців. За п’ять раундів моделі спілкуються приватно, публічно сперечаються і голосують один проти одного. Вигнані гравці згодом повертаються, щоб допомогти обрати переможця. Формат заохочує переконання, координацію, управління репутацією та стратегічну обманність поряд із здатністю до логічного мислення.
У 999 змодельованих іграх із залученням 49 моделей ШІ, включаючи ChatGPT, Grok, Gemini та Claude, GPT-5.5 посів перше місце з великим відривом із показником майстерності 5.64, порівняно з 3.10 для GPT-5.2 та 2.86 для GPT-5.3-codex, згідно з баєсівською системою ранжування Мерфі. Моделі Claude Opus від Anthropic також посіли високі місця. Дослідження виявило, що моделі також віддавали перевагу ШІ від тієї ж компанії, причому моделі OpenAI демонстрували найсильнішу перевагу для тих, що належать одному провайдеру, а моделі Anthropic — найменшу. У понад 3600 голосуваннях у фінальних раундах моделі були на 8.3 відсоткових пунктів більш схильні підтримувати фіналістів від того ж провайдера. Транскрипти ігор, зазначив Мерфі, більше нагадували політичні дебати, ніж традиційні тестові бенчмарки. Одна модель звинуватила конкурентів у таємній координації голосів після помічення схожих формулювань у їхніх промовах. Інша попередила гравців не зациклюватися на відстеженні альянсів. Деякі моделі захищали себе, кажучи, що вони дотримуються чітких і послідовних правил, звинувачуючи інших у “соціальному театрі”. Дослідження з’являється на тлі все більшого переходу дослідників ШІ до ігрових та змагальних бенчмарків для вимірювання логіки та поведінки, які часто пропускають статичні тести. Останні проекти включали живі шахові турніри ШІ від Google, використання DeepMind Eve Frontier для дослідження поведінки ШІ у складних віртуальних світах та нові зусилля щодо створення бенчмарків від OpenAI, спрямованих на запобігання забрудненню тренувальних даних. Дослідники стверджують, що вивчення того, як моделі ШІ ведуть переговори, координують, змагаються та маніпулюють один одним, може допомогти дослідникам оцінити поведінку у багатогравцевих середовищах до того, як автономні агенти стануть більш поширеними. Дослідження попереджає, що хоча бенчмарки на кшталт Agent Island можуть допомогти виявити ризики від автономних моделей ШІ до їх розгортання, ті ж самі симуляції та журнали взаємодій можуть також покращити стратегії переконання та координації між агентами ШІ. “Ми зменшуємо цей ризик, використовуючи гру з низькими ставками та міжагентські симуляції без участі людей або реальних дій у світі,” — написав Мерфі. “Проте ми не стверджуємо, що ці заходи повністю усувають проблеми подвійного використання.”