Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Бывший технический директор OpenAI бросает вызов старой компании: новая модель отвечает за 200 мс, превосходя GPT в реальном времени
Согласно мониторингу Dongcha Beating, лаборатория Thinking Machines, основанная бывшим CTO OpenAI Мира Мурати, выпустила предварительный исследовательский обзор своего «интерактивного модели». Новая система отказывается от традиционного подхода соединения голоса и текста с помощью внешних инструментов, вместо этого нативно обрабатывает взаимодействия в реальном времени с аудио и видео. Модель может непрерывно получать информацию с «микро-обратной связью» длительностью 200 мс, позволяя одновременно слушать, смотреть и говорить, а также поддерживать мгновенные прерывания со стороны пользователя. Первая демонстрируемая модель, TML-Interaction-Small, использует архитектуру MoE с 276 миллиардами параметров, активируя одновременно 12 миллиардов параметров. Чтобы решить проблему традиционной большой модели «остановки восприятия при генерации ответов», команда разработчиков разделила систему на фронтенд и бэкенд: фронтенд-модель предназначена для поддержания непрерывного диалога, в то время как бэкенд-модель одновременно занимается сложным рассуждением, поиском в интернете или генерацией интерфейса, бесшовно передавая результаты обратно на фронтенд. Эта архитектура напрямую превосходит по скорости отклика конкурентов старой компании. Официальные данные показывают, что задержка при голосовом воспроизведении составляет всего 0,40 секунд, достигая оценки 77,8 в FD-bench V1.5, при этом оба ключевых показателя превосходят GPT-realtime-2.0 и Gemini 3.1 Flash Live. Однако непрерывная обработка аудио и видео быстро исчерпывает емкость контекста, а эффект низкой задержки сильно зависит от условий сети. Thinking Machines планирует открыть ограниченный предварительный просмотр в ближайшие месяцы.