oLLM: uma biblioteca Python leve para inferência LLM construída sobre transformers 🔥
Execute qwen3-next-80B, GPT-OSS, Llama3,...
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
oLLM: uma biblioteca Python leve para inferência LLM construída sobre transformers 🔥
Execute qwen3-next-80B, GPT-OSS, Llama3,...