oLLM: uma biblioteca Python leve para inferência LLM construída sobre transformers 🔥
Execute qwen3-next-80B, GPT-OSS, Llama3,...
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
oLLM: uma biblioteca Python leve para inferência LLM construída sobre transformers 🔥
Execute qwen3-next-80B, GPT-OSS, Llama3,...