Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Обратная связь по высказываниям Маска: параметры Claude Opus могут достигать 5 триллионов, в 10 раз больше, чем у Grok 4.2
Криптоиндустриальные новости: 10 апреля Илон Маск недавно в ответе на платформе X неожиданно вызвал бурные обсуждения в обществе относительно масштаба параметров флагманской модели Anthropic. В ответ на вопрос пользователя о количестве параметров Grok 4.2 Маск подтвердил: «0,5 трлн общих параметров. В настоящее время Grok — в два раза меньше Sonnet, и в десять раз меньше Opus. С учетом его размера, это очень мощная модель.» Если исходить из утверждения Маска «Grok 4.2 — в десять раз меньше Opus» и произвести обратные вычисления, то параметры Claude Opus примерно составляют 5 трлн, а Claude Sonnet — около 1 трлн. Стоит отметить, что Anthropic никогда не раскрывала публично параметры своих моделей; вышеуказанные цифры — лишь предположения, основанные на словах Маска, и не являются официальными данными. В то же время Маск сообщил, что суперкомпьютерный кластер Colossus 2 компании SpaceX AI одновременно обучает 7 моделей, максимальный размер которых достигает 10 трлн параметров, и добавил с намеком: «Есть еще некоторые задачи по догонке.» Если предположения верны, то Claude Opus с 5 трлн параметров занимает вершину среди известных развернутых моделей; а модель с 10 трлн параметров, одновременно обучаемая xAI, станет важным фактором в следующей гонке вооружений.