Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
METR обновил базовые показатели возможностей AI-агентов, Gemini 3.1Pro превосходит все передовые модели по надежности и занимает вершину
ME News Новости, 16 апреля (UTC+8), по данным мониторинга 动察 Beating, агентство по оценке безопасности ИИ METR обновило базовый показатель «Временная горизонталь» (Time Horizon), добавив тестовые данные Gemini 3.1 Pro от Google. Этот базовый показатель отслеживает предел возможностей передовых ИИ-агентов самостоятельно выполнять программные задачи; с момента запуска в феврале этого года он стал важным ориентиром для оценки роста возможностей ИИ-агентов. Метод измерения заключается в том, что эксперты по программному обеспечению (в среднем с опытом около 5 лет) и ИИ-агенты выполняют одну и ту же группу из более чем ста программных задач, а время, затраченное человеком, служит мерой сложности задачи. Основными показателями являются два: 50% временной горизонталь (максимальная сложность задачи, которую ИИ с вероятностью 50% сможет выполнить) и 80% временной горизонталь (максимальная сложность задачи, которую ИИ с вероятностью 80% сможет выполнить). В рейтинге Gemini 3.1 Pro произошли изменения по этим двум показателям. На 50% временной горизонтали он занимает второе место, уступая значительно лидирующему Claude Opus 4.6: 1. Claude Opus 4.6: около 12.0 часов 2. Gemini 3.1 Pro: около 6.4 часов 3. GPT-5.2: около 5.9 часов 4. GPT-5.4: около 5.7 часов Однако на более строгой 80% временной горизонтали Gemini 3.1 Pro вышел на первое место: 1. Gemini 3.1 Pro: около 1.5 часов 2. Claude Opus 4.6: около 1.2 часов 3. GPT-5.2: около 1.1 часов Claude Opus 4.6 способен выполнять более сложные задачи, но его успехи колеблются, тогда как Gemini 3.1 Pro имеет более низкий потолок, но более стабильную работу в пределах своих возможностей. Для производственных сценариев, требующих предсказуемых результатов, последний вариант может быть более практичным. По сравнению с предыдущим поколением Gemini 3 Pro (50% временной горизонталь около 3.7 часов), Gemini 3.1 Pro улучшился примерно на 71%. На более длительных временных линиях данные METR показывают, что временная горизонталь передовых моделей с 2019 года, начиная с GPT-2, выросла с нескольких секунд до более десяти часов, увеличиваясь примерно в 4.3 раза каждые 4.3 месяца, и METR отмечает, что «нет признаков замедления экспоненциального роста». Следует отметить, что задачи METR охватывают программную инженерию, машинное обучение и кибербезопасность, и все они являются четко определенными, автоматически оцениваемыми независимыми задачами. В последующих исследованиях METR обнаружил, что при смене метода оценки с автоматической алгоритмической оценки на общую человеческую оценку производительность ИИ значительно снижается. Время в 12 часов на временной горизонталь не означает, что ИИ может заменить человека на полдня реальной работы. (Источник: BlockBeats)