Модель с 27 миллиардов параметров работает на GPU с 16 ГБ видеопамяти, утверждается, что её способность к выводам близка к Claude 4 Opus

robot
Генерация тезисов в процессе

МЭ Новости, сообщение, 1 апреля (UTC+8), в последнее время появилась информация о том, что модель с размером 27B параметров при работе с 4-битным квантованием на GPU с 16GB локальной видеопамяти в бенчмарке SWE-bench показала результаты лучше, чем у Claude Sonnet 4.5. Согласно точке зрения в статье, эта модель может обеспечивать вычислительные возможности рассуждения на уровне Claude 4 Opus, но при этом требует меньше ресурсов. Вторая версия этой модели сократила избыточность цепочки рассуждений (chain-of-thought) на 24%, сохранив при этом точность HumanEval на уровне 96.91%. (Источник: InFoQ)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить