El modelo de 27B parámetros funciona en una GPU con 16GB de memoria, y se afirma que su capacidad de inferencia se acerca a Claude 4 Opus

robot
Generación de resúmenes en curso

Noticias de ME: Mensaje, 1 de abril (UTC+8). Recientemente se informó que un modelo con un tamaño de 27B de parámetros, al ejecutarse mediante cuantización de 4 bits en una GPU local con 16GB de VRAM, obtuvo un rendimiento superior al de Claude Sonnet 4.5 en el benchmark SWE-bench. Según la perspectiva del artículo, este modelo puede ofrecer una capacidad de razonamiento comparable a la de Claude 4 Opus, pero con menores requerimientos de recursos. La versión v2 de este modelo reduce en un 24% la redundancia del chain-of-thought, mientras mantiene una precisión de 96.91% en HumanEval. (Fuente: InFoQ)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado