Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Почему крупные модели не справляются с генерацией «Ма Цзяци»: анализ токенов MiniMax показывает, что почти 5% токенов забываются после обучения
Согласно мониторингу Dongcha Beating, MiniMax опубликовала технический блог, раскрывающий причину, по которой крупная модель серии M2 не могла выводить имя «Ма Цзяци». Расследование началось с конкретного случая и в конечном итоге выявило системную проблему деградации, затрагивающую весь словарь. Причиной послужило то, что токенизатор (компонент, который сегментирует текст на единицы для обработки моделью) объединял «Цзяци» в отдельный токен во время обучения. На этапе предварительного обучения модель сталкивалась с большим количеством интернет-текстов и выучила этот токен; однако в данных для диалогов после обучения было менее 5 образцов, содержащих «Цзяци». Во время пост-обучения токены высокой частоты, такие как маркеры вызова инструментов и символы кода, постоянно обновляли окружающее векторное пространство, вытесняя низкочастотные токены, такие как «Цзяци», в неправильном направлении. Модель всё ещё «распознаёт» Ма Цзяци и может точно отвечать с соответствующей информацией; она просто потеряла способность выводить этот токен. Команда затем провела всесторонний скан примерно 200 000 токенов полного словаря и обнаружила, что около 4,9% токенов значительно деградировали. Самая серьёзная деградация наблюдалась в японском языке: 29,7% японских токенов показали значительную деградацию, значительно превышая корейский (3,3%), русский (3,7%), китайский (3,9%) и английский (3,5%). Другие заметно деградировавшие токены включали интернет-SEO мусорные термины, такие как «легендарный приватный сервер» и «бесполезный аборт», с механизмами, идентичными «Цзяци». Серьёзная деградация в японском также решила старую загадку. Ранее модель иногда вставляла русские или корейские символы в японские диалоги, но причина оставалась неизвестной. Этот анализ показал, что после дрейфа параметров японских токенов они запутались с токенами других языков в векторном пространстве, что приводило к неправильной активации японских токенов (смешивание языков) и вытеснению соседних низкочастотных китайских токенов из нормального диапазона вероятностей (забывание токенов). Решением является создание синтетического набора данных, охватывающего весь словарь, позволяющего модели практиковать каждый токен через простые повторяющиеся задачи. Результаты были мгновенными: доля русских символов, вставленных в японские ответы, снизилась с 47% до 1%, а стабильность выходных параметров для всего словаря (косинусное сходство) увеличилась с низкого значения 0,329 до более 0,97.