Le modèle à 27 milliards de paramètres fonctionne sur un GPU avec 16 Go de mémoire vidéo, et sa capacité d'inférence serait proche de Claude 4 Opus.

robot
Création du résumé en cours

Actualités ME : le 1er avril (UTC+8), il a récemment été rapporté qu’un modèle d’une taille de 27B de paramètres, exécuté en quantification sur 4 bits avec une GPU locale de 16 Go de mémoire vidéo, a obtenu de meilleurs résultats que Claude Sonnet 4.5 sur le banc d’essai SWE-bench. Selon l’avis exprimé dans l’article, ce modèle peut fournir des capacités de raisonnement comparables à celles de Claude 4 Opus, tout en nécessitant moins de ressources. La version v2 de ce modèle a réduit de 24 % la redondance du chain-of-thought, tout en conservant un taux de précision de 96,91 % sur HumanEval. (Source : InFoQ)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler