El modelo de 27B parámetros funciona en una GPU con 16GB de memoria, y se afirma que su capacidad de inferencia se acerca a Claude 4 Opus

robot
Generación de resúmenes en curso

Noticias de ME, 1 de abril (UTC+8). Recientemente se informó que un modelo con un tamaño de parámetros de 27B, al ejecutarse con cuantización de 4 bits en una GPU con 16GB de VRAM de forma local, obtuvo mejores resultados que Claude Sonnet 4.5 en la prueba de referencia SWE-bench. Según la opinión del artículo, este modelo puede ofrecer capacidades de razonamiento comparables a Claude 4 Opus, pero con una demanda de recursos menor. La versión v2 del modelo reduce la redundancia del chain-of-thought en 24%, manteniendo al mismo tiempo una precisión del 96.91% en HumanEval. (Fuente: InFoQ)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado