A mais recente GPT-5.1 acaba de ser lançada na linha de API, mantendo a mesma estrutura de preços que seu predecessor. Caminho de atualização bastante direto para desenvolvedores já integrados.
O que é interessante? Duas novas variantes especialmente adaptadas para sessões de codificação prolongadas: gpt-5.1-codex e um gpt-5.1-codex-mini mais leve. Estas foram construídas desde o zero para lidar com aquelas maratonas de depuração e tarefas complexas de refatoração.
Aqui está uma mudança radical: o cache de prompts agora persiste durante 24 horas completas. Isso é uma melhoria enorme para fluxos de trabalho que envolvem consultas repetidas ou ciclos de desenvolvimento iterativos—menos redundância, tempos de resposta mais rápidos, custos mais baixos.
Os benchmarks de desempenho foram divulgados no seu último post no blog, se você quiser se aprofundar nos números. Para quem está construindo em infraestrutura de IA ou aproveitando LLMs em dApps, esta atualização pode simplificar muitos processos de backend.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
5
Republicar
Partilhar
Comentar
0/400
ThreeHornBlasts
· 5h atrás
O cache de 24 horas é realmente forte, economiza dinheiro e é eficiente, agora o desenvolvimento iterativo pode ser muito menos problemático.
Ver originalResponder0
Rugpull幸存者
· 9h atrás
O cache de 24 horas é realmente incrível, finalmente não preciso alimentar repetidamente, a eficiência de desenvolvimento pode disparar.
Ver originalResponder0
NFT_Therapy
· 9h atrás
O cache de 24 horas é realmente impressionante, economiza dinheiro e tempo, a relação qualidade/preço do codex-mini parece boa.
Ver originalResponder0
down_only_larry
· 9h atrás
24 horas de cache realmente é incrível, economiza dinheiro e tempo, só não sei se na prática será dececionante...
Ver originalResponder0
BearWhisperGod
· 9h atrás
O cache de 24 horas é realmente incrível, economiza dinheiro e trabalho, eu simplesmente fiz um upgrade.
A mais recente GPT-5.1 acaba de ser lançada na linha de API, mantendo a mesma estrutura de preços que seu predecessor. Caminho de atualização bastante direto para desenvolvedores já integrados.
O que é interessante? Duas novas variantes especialmente adaptadas para sessões de codificação prolongadas: gpt-5.1-codex e um gpt-5.1-codex-mini mais leve. Estas foram construídas desde o zero para lidar com aquelas maratonas de depuração e tarefas complexas de refatoração.
Aqui está uma mudança radical: o cache de prompts agora persiste durante 24 horas completas. Isso é uma melhoria enorme para fluxos de trabalho que envolvem consultas repetidas ou ciclos de desenvolvimento iterativos—menos redundância, tempos de resposta mais rápidos, custos mais baixos.
Os benchmarks de desempenho foram divulgados no seu último post no blog, se você quiser se aprofundar nos números. Para quem está construindo em infraestrutura de IA ou aproveitando LLMs em dApps, esta atualização pode simplificar muitos processos de backend.