Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Бывший технический директор OpenAI бросает вызов бывшей компании: новая модель отвечает за 200 мс, задержка превосходит GPT-Realtime
По данным мониторинга Beating, лаборатория Thinking Machines, основанная бывшим CTO OpenAI Мира Мурати, опубликовала предварительный обзор исследования «интерактивной модели». Новая система отказалась от традиционного подхода соединения голоса и текста с помощью внешних инструментов, обрабатывая аудио и видео взаимодействия нативно в реальном времени. Модель способна получать информацию с задержкой всего 200 мс в «мик-раундах», что позволяет одновременно слушать, видеть и говорить, а также поддерживать возможность прерывания пользователем в реальном времени.
Первая демонстрационная модель TML-Interaction-Small использует архитектуру MoE с 276 миллиардами параметров, активируя 12 миллиардов параметров при каждом запуске. Чтобы исправить недостаток традиционных больших моделей, которые «останавливают восприятие при генерации ответа», команда разработчиков разделила систему на фронтенд и бэкенд: фронтенд-модель обеспечивает непрерывный диалог, а бэкенд-модель синхронно обрабатывает сложные выводы, поиск в интернете или генерацию интерфейса, после чего результаты бесшовно возвращаются на фронтенд.
Эта архитектура значительно превосходит по скорости отклика конкурентов. Согласно официальным данным, задержка при голосовом взаимодействии составляет всего 0,40 секунды, а в FD-bench V1.5 модель набрала 77,8 баллов, что выше по двум ключевым показателям GPT-realtime-2.0 и Gemini 3.1 Flash Live. Однако постоянная обработка аудио и видео быстро расходует контекстную память, а низкая задержка сильно зависит от качества сети. Thinking Machines планирует в ближайшие месяцы открыть ограниченный предварительный просмотр.