Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Чому велика модель не може написати «Ма Цзяці»? Повний скан словника MiniMax виявив, що майже 5% токенів були забуті під час подальшого навчання
За даними моніторингу Beating, MiniMax опублікував технічний блог, у якому розкривається причина неспроможності їхньої великої моделі серії M2 виводити ім’я «马嘉祺». Виявлення проблеми почалося з аналізу окремого випадку і в кінцевому підсумку розкриває системну деградацію, що зачепила весь словник.
Причиною стала сегментація (tokenizer, компонент, що розбиває текст на оброблювані модулем частини) під час тренування злила «嘉祺» у один окремий токен. На етапі попереднього тренування модель бачила багато інтернет-текстів і навчилася цьому токену; але у подальшому тренуванні діалогових даних кількість зразків з «嘉祺» була менше 5. У процесі додаткового тренування високочастотні токени, такі як позначки tool_call, символи коду тощо, постійно оновлювали свої векторні простори, витісняючи низькочастотні токени типу «嘉祺» у неправильний напрямок. Модель все ще «знає» 马嘉祺 і може точно відповідати на пов’язані запити, але втрата полягає лише у здатності виводити цей токен.
Команда провела повний аналіз всього словника з близько 200 тисяч токенів і виявила, що приблизно 4.9% токенів зазнали значної деградації. Найсерйозніше деградували японські токени: 29.7% японських токенів показали значну деградацію, що значно перевищує корейські 3.3%, російські 3.7%, китайські 3.9% та англійські 3.5%. У списку лідерів за деградацією також опинилися «传奇私服» («легендарний приватний сервер»), «无痛人流» («безболісне абортування») та інші SEO-спам-слова з інтернету, механізм яких ідентичний «嘉祺».
Серйозна деградація японських токенів також розв’язала стару загадку. Раніше модель у японських діалогах іноді випадково вставляла російські або корейські символи, і причина цього залишалася невідомою. Аналіз показав, що після зсуву параметрів японських токенів у векторному просторі вони почали змішуватися з токенами інших мов, що призвело до неправильного активування японських токенів (мішані мови) і витіснення сусідніх низькочастотних китайських токенів за нормальні ймовірності (забуття токенів).
Рішення полягає у створенні синтетичних даних, що охоплюють весь словник, щоб модель тренувалася на простому повторювальному завданні до здатності кожного токена. Результат був миттєвим: частка відповідей із російськими символами у японських відповідях знизилася з 47% до 1%, а стабільність вихідних параметрів всього словника (косинусна схожість) знизилася до мінімуму 0.329 і підвищилася до понад 0.97 у всіх випадках.