El modelo de 27B parámetros funciona en una GPU con 16GB de memoria, y se afirma que su capacidad de inferencia se acerca a Claude 4 Opus

robot
Generación de resúmenes en curso

ME Noticias, mensajes, 1 de abril (UTC+8). Recientemente se informó que un modelo con un tamaño de parámetros de 27B, al ejecutarse en GPUs con 16GB de VRAM local mediante cuantización de 4 bits, mostró un rendimiento superior al de Claude Sonnet 4.5 en el benchmark SWE-bench. Según la opinión del artículo, este modelo puede ofrecer una capacidad de razonamiento comparable a la de Claude 4 Opus, pero con menores necesidades de recursos. La versión v2 del modelo reduce en un 24% la redundancia del razonamiento (chain-of-thought), manteniendo al mismo tiempo una precisión de 96.91% en HumanEval. (Fuente: InFoQ)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado