Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Sakana AI совместно с NVIDIA: позволяет GPU пропускать до 80% бесполезных вычислений больших моделей, ускорение вывода H100 на 30%
По данным мониторинга Beating, Sakana AI совместно с NVIDIA открыли формат разреженных данных под названием TwELL и сопутствующий ускоряющий ядро, успешно позволяющее GPU при работе с крупными моделями пропускать «бесполезные вычисления», результаты которых близки к нулю. Эта схема при сохранении точности модели позволяет увеличить скорость вывода H100 до 30%, ускорить обучение до 24% и значительно снизить пиковое использование видеопамяти.
Передний слой больших моделей (FFN) занимает большую часть параметров и вычислительных ресурсов. Но на самом деле при каждом генерации текста более 80% нейронов находятся в «спящем режиме» (активность близка к нулю), не внося никакого вклада в конечный результат. Если удастся пропускать эти нейроны, можно сэкономить огромное количество вычислительной мощности. Однако современные GPU изначально оптимизированы для выполнения плотных матриц, и при использовании традиционных методов для выделения разбросанных полезных данных затраты на поиск и чтение данных могут полностью съесть выгоду от экономии вычислений.
Формат TwELL специально создан, чтобы разрушить этот аппаратный барьер. Он полностью ориентирован на параллельную архитектуру GPU: вместо того чтобы объединять ненулевые данные по регионам, как в традиционных методах, он разбивает данные на небольшие блоки (тайлы), которые GPU обрабатывает наиболее эффективно. Таким образом, вычислительные ядра GPU могут напрямую собирать полезные данные локально, полностью устраняя задержки на глобальное чтение и запись видеопамяти, что идеально вписывается в ускорительный конвейер современных чипов.
На практике при обучении модели с 1,5 миллиарда параметров достаточно было ввести небольшую регуляризацию, чтобы снизить долю нейронов, требующих вычислений, до менее 2%, при этом производительность по семи задачам не ухудшилась. Данные также выявили закономерность: чем больше параметров у модели, тем больше нейронов находится в спящем режиме (например, у модели с 2 миллиардами параметров доля ненулевых элементов на 38% ниже, чем у модели с 500 миллионами). Это означает, что в будущем при создании еще более крупных моделей эта оптимизация, ориентированная на низкоуровневое аппаратное обеспечение, сможет дать еще более значительный прирост производительности.