Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Яфан Чжан розкриває повні технічні характеристики DeepSeek V4: 1,6 трильйонів параметрів, 384 експерти з 6 активованими
Згідно з моніторингом Dongcha Beating, аспірант Прінстонського університету Йіфань Чжан оновив технічні деталі DeepSeek V4 у X. Він анонсував «V4 наступного тижня» 19 квітня і навів три назви компонентів архітектури, а сьогодні ввечері надав повну таблицю параметрів, а також вперше розкрив існування легкої версії V4-Lite з 285 мільярдами параметрів. Загальна кількість параметрів для V4 становить 1,6 трильйона. Механізм уваги — DSA2, який поєднує дві схеми розрідженої уваги: DSA (DeepSeek Sparse Attention), використану в V3.2, та NSA (Native Sparse Attention), запропоновану у статті раніше цього року. Розмір голови — 512, у парі з розрідженою MQA та SWA (Sliding Window Attention). Шар MoE має загалом 384 експертів, з яких одночасно активовано 6, з використанням Fused MoE Mega-Kernel. Залишкові з’єднання йдуть за принципом Hyper-Connections. Деталі, розкриті для фази тренування, включають: оптимізатор — Muon (матричний оптимізатор, що застосовує ортогоналізацію Ньютона-Шульца до оновлень імпульсу), довжина передтренувального контексту — 32 тисячі, а фаза навчання з підкріпленням використовує GRPO з доданою корекцією за допомогою KL-розбіжності. Остаточна довжина контексту — 1 мільйон. Модальність — чистий текст. Чжан не займає посаду в DeepSeek, і DeepSeek не відповів на цю інформацію.