Обратная связь по высказываниям Маска: параметры Claude Opus могут достигать 5 триллионов, в 10 раз больше, чем у Grok 4.2

robot
Генерация тезисов в процессе

Криптоиндустриальные новости: 10 апреля Илон Маск недавно в ответе на платформе X неожиданно вызвал бурные обсуждения в обществе относительно масштаба параметров флагманской модели Anthropic. В ответ на вопрос пользователя о количестве параметров Grok 4.2 Маск подтвердил: «0,5 трлн общих параметров. В настоящее время Grok — в два раза меньше Sonnet, и в десять раз меньше Opus. С учетом его размера, это очень мощная модель.» Если исходить из утверждения Маска «Grok 4.2 — в десять раз меньше Opus» и произвести обратные вычисления, то параметры Claude Opus примерно составляют 5 трлн, а Claude Sonnet — около 1 трлн. Стоит отметить, что Anthropic никогда не раскрывала публично параметры своих моделей; вышеуказанные цифры — лишь предположения, основанные на словах Маска, и не являются официальными данными. В то же время Маск сообщил, что суперкомпьютерный кластер Colossus 2 компании SpaceX AI одновременно обучает 7 моделей, максимальный размер которых достигает 10 трлн параметров, и добавил с намеком: «Есть еще некоторые задачи по догонке.» Если предположения верны, то Claude Opus с 5 трлн параметров занимает вершину среди известных развернутых моделей; а модель с 10 трлн параметров, одновременно обучаемая xAI, станет важным фактором в следующей гонке вооружений.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить