Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Yifan Zhang раскрывает полные технические характеристики DeepSeek V4: 1,6T параметров, 384 эксперта для активации 6
Согласно мониторингу Beating, аспирант Принстона Yifan Zhang обновил технические детали DeepSeek V4 на платформе X. Он анонсировал «V4 на следующей неделе» 19 апреля и перечислил три названия архитектурных компонентов, а сегодня вечером предоставил полный список параметров, а также впервые раскрыл существование облегчённой версии V4-Lite с 285 миллиардами параметров.
Общий размер V4 составляет 1,6 триллиона. Механизм внимания — DSA2, сочетающий ранее использованные в V3.2 схемы разреженного внимания DeepSeek (DeepSeek Sparse Attention) и предложенную в начале этого года NSA (Native Sparse Attention), две схемы разреженного внимания, с размером головы 512, в сочетании с Sparse MQA и SWA (скользящее окно внимания). В слое MoE всего 384 эксперта, активируется по 6 одновременно, используется Fused MoE Mega-Kernel. Остаточные связи продолжают использовать Hyper-Connections.
Первичные раскрытые детали обучения включают: оптимизатор Muon (тип матричного оптимизатора, применяющего ортогонализацию Newton-Schulz к обновлению импульса), длину предварительного контекста 32K, на этапе обучения с усилением — GRPO с добавлением KL-дивергенции для коррекции. Итоговая длина контекста увеличена до 1 миллиона. Модаль — чистый текст.
Zhang не занимает должность в DeepSeek, официальные представители DeepSeek не прокомментировали указанную информацию.