Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Вчені MIT розкривають механізм сильного накладання LLM: подвоєння ширини зменшує помилки приблизно вдвічі
AIMPACT повідомлення, 3 травня (UTC+8), дослідники MIT розкрили механізм надійного масштабування продуктивності великих мовних моделей у залежності від масштабу, вперше надаючи експериментальне підтвердження явища “накладання”. Дослідження виявило, що LLM обходять обмеження по вимірах, зберігаючи кілька концепцій у одному й тому ж вимірі, і це “сильне накладання” дозволяє моделі одночасно представляти всі концепції, а джерело помилок — шум, що виникає через накладання. Команда використовувала спрощену модель Anthropic та відкриті моделі OPT, GPT-2, Qwen2.5, Pythia для перевірки: подвоєння ширини моделі приблизно наполовину зменшує кількість помилок, коефіцієнт масштабування досягає 0.91, що близько до теоретичного значення 1. Дослідження відповідає на два ключові питання: масштабування припиниться, коли ширина моделі досягне розміру словника; для завдань природної мови рівномірний розподіл частот обмежує швидкість зростання, але архітектурний дизайн, що заохочує накладання, може забезпечити кращу продуктивність при однаковому масштабі.