A mais recente GPT-5.1 acaba de ser lançada na linha de API, mantendo a mesma estrutura de preços que seu predecessor. Caminho de atualização bastante direto para desenvolvedores já integrados.
O que é interessante? Duas novas variantes especialmente adaptadas para sessões de codificação prolongadas: gpt-5.1-codex e um gpt-5.1-codex-mini mais leve. Estas foram construídas desde o zero para lidar com aquelas maratonas de depuração e tarefas complexas de refatoração.
Aqui está uma mudança radical: o cache de prompts agora persiste durante 24 horas completas. Isso é uma melhoria enorme para fluxos de trabalho que envolvem consultas repetidas ou ciclos de desenvolvimento iterativos—menos redundância, tempos de resposta mais rápidos, custos mais baixos.
Os benchmarks de desempenho foram divulgados no seu último post no blog, se você quiser se aprofundar nos números. Para quem está construindo em infraestrutura de IA ou aproveitando LLMs em dApps, esta atualização pode simplificar muitos processos de backend.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
5
Repostar
Compartilhar
Comentário
0/400
ThreeHornBlasts
· 18h atrás
O cache de 24 horas é realmente forte, economiza dinheiro e é eficiente, agora o desenvolvimento iterativo pode ser muito menos problemático.
Ver originalResponder0
Rugpull幸存者
· 21h atrás
O cache de 24 horas é realmente incrível, finalmente não preciso alimentar repetidamente, a eficiência de desenvolvimento pode disparar.
Ver originalResponder0
NFT_Therapy
· 21h atrás
O cache de 24 horas é realmente impressionante, economiza dinheiro e tempo, a relação qualidade/preço do codex-mini parece boa.
Ver originalResponder0
down_only_larry
· 21h atrás
24 horas de cache realmente é incrível, economiza dinheiro e tempo, só não sei se na prática será dececionante...
Ver originalResponder0
BearWhisperGod
· 21h atrás
O cache de 24 horas é realmente incrível, economiza dinheiro e trabalho, eu simplesmente fiz um upgrade.
A mais recente GPT-5.1 acaba de ser lançada na linha de API, mantendo a mesma estrutura de preços que seu predecessor. Caminho de atualização bastante direto para desenvolvedores já integrados.
O que é interessante? Duas novas variantes especialmente adaptadas para sessões de codificação prolongadas: gpt-5.1-codex e um gpt-5.1-codex-mini mais leve. Estas foram construídas desde o zero para lidar com aquelas maratonas de depuração e tarefas complexas de refatoração.
Aqui está uma mudança radical: o cache de prompts agora persiste durante 24 horas completas. Isso é uma melhoria enorme para fluxos de trabalho que envolvem consultas repetidas ou ciclos de desenvolvimento iterativos—menos redundância, tempos de resposta mais rápidos, custos mais baixos.
Os benchmarks de desempenho foram divulgados no seu último post no blog, se você quiser se aprofundar nos números. Para quem está construindo em infraestrutura de IA ou aproveitando LLMs em dApps, esta atualização pode simplificar muitos processos de backend.