El modelo de 27B parámetros funciona en una GPU con 16GB de memoria, y se afirma que su capacidad de inferencia se acerca a Claude 4 Opus

robot
Generación de resúmenes en curso

Noticias de ME, mensaje del 1 de abril (UTC+8): Recientemente se ha informado que un modelo de escala de 27B de parámetros, al ejecutarse en un GPU local con 16GB de VRAM en cuantificación de 4 bits, obtuvo un mejor desempeño que Claude Sonnet 4.5 en el benchmark SWE-bench. Según el punto de vista del artículo, este modelo puede ofrecer una capacidad de razonamiento comparable a la de Claude 4 Opus, pero con menores requisitos de recursos. La versión v2 del modelo reduce en un 24% la redundancia del razonamiento encadenado (chain-of-thought), manteniendo al mismo tiempo una precisión de HumanEval del 96.91%. (Fuente: InFoQ)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado