Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Xiaomi MiMo-V2-Pro занял первое место в тройке лидеров OpenRouter: за полмесяца израсходовано 6 триллионов токенов
Согласно мониторингу 1M AI News, в длинном официальном сообщении Xiaomi говорится, что Xiaomi MiMo-V2-Pro во всех трех измерениях — дневном, недельном и месячном рейтингах — на OpenRouter поднялся на первое место. В официальном раскрытии сказано, что за последнюю неделю потребление токенов у этой модели превысило 4 трлн, а за менее чем полмесяца с момента запуска累计 потребление токенов — более 6 трлн.
Xiaomi также заявляет, что MiMo-V2-Pro в измерении Model Rank на Text Arena (Arena Expert) вошла в топ-5 в мире, уступая только топовым моделям Anthropic, OpenAI и Google. В лабораторном измерении Xiaomi в настоящее время занимает четвертое место в мире на Text Arena (Arena Expert) и пятое место на Code Arena.
MiMo-V2-Pro — флагманская базовая модель, выпущенная Xiaomi 18 марта, использует архитектуру MoE и поддерживает контекст до 1 млн.