O Google atualiza a tarifação da API Gemini, cobrando por níveis de uso de raciocínio

A Google recentemente atualizou os níveis de cobrança da API Gemini, com planos de otimização e preços baseados na demanda real de uso de inferência. Os novos níveis de serviço de inferência incluem: Padrão(Standard), Flexível(Flex), Prioritário(Priority), Em lote(Batch) e em cache(Caching). Dentre eles, o nível de inferência flexível aproveita recursos ociosos fora do horário de pico, oferecendo um desconto de 50% sobre o preço padrão, com uma latência alvo de 1 a 15 minutos, mas sem garantia de latência. O nível de API em lote também oferece um desconto de 50% na tarifa padrão, com uma latência máxima de até 24 horas. O nível de cache é cobrado com base no número de tokens(Token) e na duração do armazenamento, sendo recomendado para chatbots com comandos complexos, análise repetida de arquivos de vídeo longos e consultas a grandes conjuntos de documentos. A precificação do nível prioritário é de 75% a 100% superior ao preço padrão, com latência controlada em milissegundos a segundos. A Google recomenda esse nível para cenários como chatbots de atendimento ao cliente em tempo real, detecção de fraudes em tempo real e assistentes inteligentes críticos para o negócio.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar