Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Команда Хэ Кайминга ELF: модель распространения языка наконец запущена
Согласно мониторингу Beating, команда MIT под руководством Хэ Кайминга выпустила модель распространения языка ELF (Embedded Language Flows). Она не использует автогрессивный подход GPT — «предсказание следующего токена», а вместо этого переносит генерацию текста в непрерывное векторное пространство, и только на последнем шаге преобразует его обратно в дискретные токены.
Модели распространения уже хорошо зарекомендовали себя в генерации изображений, но при применении к тексту это вызывает сложности: изображение по своей природе является непрерывным сигналом, а язык состоит из дискретных токенов. Ранее многие модели распространения для текста использовали либо повторное внедрение токенов в процессе генерации, либо требовали отдельного декодера. Подход ELF более чистый: большинство шагов выполняется только в непрерывном векторном пространстве, а дискретизация осуществляется на финальном этапе с помощью сети с общими весами.
Результаты экспериментов также впечатляют. В оценке генерации безусловных текстов OpenWebText, ELF-B с 105 миллионами параметров достигла примерно 24.1 Gen. PPL за 32 шага выборки, превзойдя множество базовых моделей на основе дискретных и непрерывных моделей распространения языка. Более важно, что ELF-B использовала всего около 45 миллиардов обучающих токенов, тогда как сравниваемые методы обычно требуют более 500 миллиардов — то есть обучение потребляло примерно в десять раз меньше токенов. Этот результат как минимум показывает, что подход на основе непрерывного распространения не «заглушен» «дискретностью языка», и предыдущие проблемы скорее связаны с интерфейсами моделирования и стратегиями выборки.