Le modèle à 27 milliards de paramètres fonctionne sur un GPU avec 16 Go de mémoire vidéo, et sa capacité d'inférence serait proche de Claude 4 Opus.

robot
Création du résumé en cours

Nouvelles ME, message du 1er avril (UTC+8). Récemment, des informations indiquent qu’un modèle d’une taille de 27B de paramètres, exécuté en quantification 4 bits sur un GPU avec 16 Go de mémoire vidéo en local, a obtenu de meilleurs résultats que Claude Sonnet 4.5 sur le benchmark SWE-bench. Selon l’article, ce modèle peut fournir une capacité de raisonnement comparable à celle de Claude 4 Opus, tout en nécessitant moins de ressources. La version v2 du modèle réduit de 24% la redondance du raisonnement (chain-of-thought), tout en conservant une précision de 96,91% sur HumanEval. (Source : InFoQ)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler