Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Маск заявил, что Colossus2 одновременно обучает 7 моделей, а максимальное число параметров достигает 10 триллионов.
Согласно мониторингу 1M AI News, основатель SpaceX и xAI Маск опубликовал на X пост, в котором говорится, что супервычислительный кластер Colossus 2 компании SpaceXAI в настоящее время одновременно обучает 7 моделей:
Он добавил комментарий «Еще есть кое-что, что нужно догнать» (Some catching up to do). Ранее несколько СМИ сообщали, что следующая флагманская модель xAI Grok 5 по масштабам составляет около 6 триллионов параметров — приведенные в списке 6T этому соответствуют. Модель с 10 триллионами параметров ранее не появлялась в публичных сообщениях.
В своем посте Маск использовал обозначение «SpaceXAI» для объединенной после слияния сущности SpaceX и xAI. Обе компании завершили слияние в феврале этого года, а оценка после слияния составила около 1,25 триллиона долларов США. Colossus 2 был запущен 17 января — это первый в мире AI-тренировочный кластер уровня гигафлопс (гигава), и планируется, что в этом месяце он будет обновлен до 1,5GW.