vkhosla presenta el modelo 1-bit Bonsai de 8B, con un uso de memoria de solo 1.15GB

robot
Generación de resúmenes en curso

Noticias de ME News, del 1 de abril (UTC+8): Recientemente, el autor vkhosla presentó en redes sociales un modelo de pesos de 1 bit llamado 1-bit Bonsai 8B. Según su descripción, el modelo solo ocupa 1.15 GB de memoria y su “densidad de inteligencia” (intelligence density), según se afirma, supera en más de 10 veces a la de su modelo correspondiente de precisión completa. El texto indica que, en hardware de borde, el modelo reduce su tamaño en 14 veces, aumenta la velocidad en 8 veces y mejora la eficiencia energética en 5 veces, manteniendo al mismo tiempo su competitividad en comparación con otros modelos. La noticia también menciona que el modelo tiene una mejor capacidad de compresión, una mayor velocidad, un menor tamaño y una mayor eficiencia energética que el modelo anunciado el día anterior por Google. El texto original no proporciona puntos de referencia específicos para comparar el rendimiento del modelo, el editor, detalles de implementación técnica ni resultados completos de la evaluación. (Fuente: InFoQ)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado