Le modèle à 27 milliards de paramètres fonctionne sur un GPU avec 16 Go de mémoire vidéo, et sa capacité d'inférence serait proche de Claude 4 Opus.

robot
Création du résumé en cours

Actualité ME, message du 1er avril (UTC+8) : récemment, il a été rapporté qu’un modèle d’une taille de 27B paramètres, fonctionnant en quantification 4 bits sur un GPU disposant de 16 Go de mémoire vive, se montre meilleur que Claude Sonnet 4.5 aux tests de référence SWE-bench. Selon les avis présentés dans l’article, ce modèle est capable de fournir des capacités de raisonnement comparables à celles de Claude 4 Opus, tout en nécessitant moins de ressources. La version v2 du modèle réduit la redondance du raisonnement (chain-of-thought) de 24%, tout en conservant une précision HumanEval de 96,91%. (Source : InFoQ)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler