Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
DeepSeek открытая библиотека GPU-операторов DeepGEMM крупное обновление версии, добавлен Mega MoE, объединяющий пятишаговые вычисления MoE в один kernel
ME News Новости, 16 апреля (UTC+8), согласно мониторингу 动察 Beating, DeepSeek сегодня выпустила самое крупное обновление с момента открытия исходного кода DeepGEMM. Эта библиотека GPU-операторов, выпущенная во время «Недели открытого исходного кода» в феврале прошлого года, изначально предназначалась только для матричных умножений FP8, а теперь расширена до полного набора операторов, охватывающих ключевые этапы вывода больших моделей, поддерживая матричные операции с различной точностью FP8, FP4, BF16, а также специализированные операторы для MoE и оценки внимания.
Ключевым нововведением является Mega MoE. Архитектура MoE (гибридных экспертов) — основа моделей, таких как DeepSeek V3, при выводе требующая последовательного выполнения пяти шагов: распределение EP, линейное преобразование первого слоя, активация SwiGLU, линейное преобразование второго слоя, объединение EP. Традиционно эти пять шагов реализуются отдельными ядрами, вызываемыми по очереди, что требует ожидания завершения каждого шага и перемещения данных в видеопамяти. Mega MoE объединяет эти пять шагов в одно ядро, позволяя одновременно выполнять коммуникацию NVLink и вычисления Tensor Core, устраняя промежуточные ожидания и перенос данных. В настоящее время поддерживается только комбинация точностей FP8×FP4, требуется PyTorch версии 2.9 и выше. Команда отмечает, что оптимизация продолжается, и данные о производительности будут опубликованы позже.
Другие нововведения включают: матричные умножения с гибридной точностью FP8×FP4, поддержку более крупных MTP для оператора оценки внимания FP4 (Indexer), PDL (программируемая зависимость запуска — оптимизация планирования GPU, уменьшающая задержки при запуске ядра), более быструю скорость JIT-компиляции, а также множество оптимизаций для матричных операций MoE. Это обновление также адаптировано к структуре данных MoE в DeepEPv2. В описании PR специально указано: «Данное обновление связано только с разработкой DeepGEMM и не имеет отношения к внутренним моделям.»
(Источник: BlockBeats)