oLLM: una biblioteca ligera de Python para la inferencia de LLM construida sobre transformers 🔥
Ejecutar qwen3-next-80B, GPT-OSS, Llama3,…
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
oLLM: una biblioteca ligera de Python para la inferencia de LLM construida sobre transformers 🔥
Ejecutar qwen3-next-80B, GPT-OSS, Llama3,…