Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Команда Хе Кайміна ELF: модель розповсюдження мови нарешті запущена
Згідно з моніторингом Beating, команда MIT Хе Каймінга випустила модель поширення мови ELF (Embedded Language Flows). Вона не використовує автогресивний підхід GPT «прогнозування наступного токена», а замість цього поміщає генерацію тексту у безперервний простір векторів, поки не досягне останнього кроку, коли він перетворюється назад у дискретні токени.
Моделі поширення вже стали зрілими у генерації зображень, але при застосуванні до тексту вони залишаються незграбними: зображення є природно безперервним сигналом, тоді як мова складається з дискретних токенів. Раніше багато моделей поширення для тексту з безперервним представленням або постійно вводили токени у процесі генерації, або потребували додаткового окремого декодера. Підхід ELF є більш чистим: більшість кроків виконується лише у безперервному просторі векторів для шумозаглушення, а остаточний крок — це дискретизація за допомогою спільної мережі з вагами.
Результати експериментів також вражають. У тесті безумовної генерації OpenWebText ELF-B з 105 мільйонами параметрів досягла приблизно 24.1 Gen. PPL за 32 кроки зразку, перевершуючи багато базових моделей мовних моделей на основі дискретних і безперервних моделей поширення. Що ще важливіше, ELF-B використовувала лише близько 45 мільярдів токенів для навчання, тоді як порівняльні методи зазвичай перевищують 500 мільярдів, тобто кількісно менше приблизно у один порядок. Цей результат щонайменше показує, що безперервний шлях поширення у мовному моделюванні не зачинений «мовною дискретністю», і попередні проблеми швидше стосувалися інтерфейсу моделювання та дизайну зразків.