Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
DeepSeek відкритий бібліотечний GPU-оператор DeepGEMM великого оновлення версії, додано Mega MoE, що об’єднує п’ять кроків обчислень MoE у один ядро
ME News Новини, 16 квітня (UTC+8), згідно з моніторингом Датчі Beating, DeepSeek сьогодні випустила найбільше оновлення з моменту відкритого вихідного коду DeepGEMM. Цей бібліотечний GPU оператор, випущений під час «Тижня відкритого коду» у лютому минулого року, спочатку підтримував лише матричні множення FP8, тепер він розширений до повного набору операторів для ключових етапів обчислень великих моделей, підтримуючи матричні операції з точністю FP8, FP4, BF16, а також спеціальні оператори для MoE та оцінки уваги.
Основною новинкою є Mega MoE. Архітектура MoE (змішних експертів) є основою моделей, таких як DeepSeek V3, і при обчисленнях потрібно послідовно виконати п’ять кроків: розподіл EP, перший лінійний перетворювач, активація SwiGLU, другий лінійний перетворювач, злиття EP. Традиційно ці п’ять кроків виконуються окремими ядрами по черзі, кожен раз очікуючи завершення попереднього, а дані переміщуються у відеопам’ять. Mega MoE об’єднує ці п’ять кроків у одне ядро, дозволяючи одночасно виконувати комунікацію NVLink і обчислення Tensor Core, що зменшує час очікування та переміщення даних. Зараз підтримується лише комбінація точностей FP8×FP4, потрібна версія PyTorch 2.9 або вище, команда повідомила, що оптимізація ще триває, а дані про продуктивність будуть опубліковані пізніше.
Інші нововведення включають: матричне множення з гібридною точністю FP8×FP4, підтримку більшого MTP для оператора оцінки уваги FP4 (Indexer), PDL (програмоване ініціювання залежностей — оптимізація планування GPU для зменшення затримки запуску ядра), швидший JIT-компілятор, а також кілька оптимізацій для матричних обчислень MoE. Це оновлення також адаптоване до розподілу даних MoE у DeepEPv2. У поясненні PR особливо зазначено: «Це оновлення стосується лише розробки DeepGEMM і не пов’язане з внутрішнім випуском моделей.»
(Джерело: BlockBeats)