vkhosla presenta el modelo 1-bit Bonsai de 8B, con un uso de memoria de solo 1.15GB

robot
Generación de resúmenes en curso

ME Noticias: mensaje, 1 de abril (UTC+8). Recientemente, el autor vkhosla presentó en redes sociales un modelo de pesos de 1 bit llamado 1-bit Bonsai 8B. Según su descripción, su consumo de memoria es solo de 1,15 GB, y su “densidad de inteligencia” (intelligence density) supuestamente supera en más de 10 veces la de su modelo correspondiente de precisión total. El artículo señala que, en hardware de borde, el tamaño de este modelo se reduce 14 veces, la velocidad aumenta 8 veces y la eficiencia energética mejora 5 veces, manteniéndose además competitivo frente a otros modelos. La noticia también menciona que este modelo tiene una mejor capacidad de compresión, una mayor velocidad, un menor tamaño y una mayor eficiencia energética que el modelo anunciado el día anterior por Google. El texto original no proporciona puntos de referencia de comparación de rendimiento específicos del modelo, la entidad que lo lanzó, detalles de implementación técnica ni resultados de evaluación completos. (Fuente: InFoQ)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado