Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Google DeepMind открыла исходный код семейства мультимодальных моделей Gemma 4
МЕ Новости, 3 апреля (UTC+8), Google DeepMind недавно выпустила открытый исходный код семейства мультимодальных моделей Gemma 4. Эта серия моделей поддерживает ввод текста и изображений (малые модели также поддерживают аудио), генерирует текстовые выходы, включает варианты предварительного обучения и настройки по инструкциям, максимальный размер контекстного окна достигает 256K токенов, и поддерживает более 140 языков. Модели используют две архитектуры: плотную (Dense) и гибридных экспертов (MoE), всего четыре размера: E2B, E4B, 26B A4B и 31B. Их основные возможности включают высокопроизводительный вывод, расширенную мультимодальную обработку, оптимизацию на устройстве, увеличение окна контекста, улучшенные кодировочные и интеллектуальные способности, а также нативную поддержку системных подсказок. В технических деталях модели используют гибридный механизм внимания, глобальные слои применяют унифицированные ключи и значения, а также пропорциональный RoPE (p-RoPE). В частности, модели E2B и E4B используют технологию вложений по слоям (PLE), что позволяет иметь эффективное число параметров, меньшее общего количества. В то время как модель MoE 26B A4B при выводе активирует только 3.8B параметров, скорость работы приближается к модели с 4B параметрами. (Источник: InFoQ)