「Comprar quanta capacidade de computação? Tudo」: Co-fundador da OpenAI afirma que os 110 mil milhões de dólares ainda não atendem à procura, o pré-treinamento já mudou para otimização conjunta de custos

robot
Geração de resumo em curso

De acordo com o monitorização de 1M AI News, o cofundador da OpenAI Greg Brockman, numa entrevista, recordou o salto significativo nas capacidades de programação por IA em Dezembro de 2025. Ele usou um teste prompt que guardou durante anos para medir o progresso: fazer com que a IA construísse um website que, na altura em que ele aprendeu a programar, lhe tinha levado meses a concluir. Ao longo de 2025, esta tarefa exigia várias rondas de prompts e cerca de quatro horas para ficar bem; em Dezembro, com um único prompt ficou feito e com qualidade muito boa. Ele afirmou que o novo modelo fez com que a IA passasse de «conseguir concluir cerca de 20% das tarefas» para «cerca de 80%», e que esta mudança obrigou todos a «terem de reorganizar os fluxos de trabalho em torno da IA».

Quanto ao destino dos 1100 mil milhões de dólares de financiamento, Brockman comparou o poder de computação a «contratar vendedores»: desde que o produto tenha canais de vendas escaláveis, quanto mais vendedores contratar, mais receita gera. O poder de computação não é um centro de custos, mas um centro de receitas. Ele recordou uma conversa com a equipa na véspera do lançamento do ChatGPT: «Eles perguntaram ‘quanto poder de computação devemos comprar?’ Eu disse ‘todo’. Eles disseram ‘não, não, a sério, afinal de contas, quanto devemos comprar?’ Eu disse ‘o que quer que construamos, não vai conseguir acompanhar a procura.’» Este juízo continua válido até hoje, e a compra de poder de computação precisa de ser assegurada com antecedência de 18 a 24 meses.

Sobre como usar este poder de computação, Brockman revelou que a OpenAI já não procura apenas a maior escala de treino prévio, mas sim otimizar em conjunto a capacidade de treino prévio e o custo de inferência: «Não é necessariamente preciso fazê-lo o mais grande possível, porque também há que ter em conta os muitos cenários de uso de inferência downstream; aquilo que verdadeiramente pretende é a melhor solução de inteligência multiplicada pelo custo.» Mas ele opôs-se claramente à ideia de que «o treino prévio já não importa», argumentando que quanto mais inteligente for o modelo base, maior será a eficiência nas fases subsequentes de aprendizagem por reforço e de inferência; ainda assim, é «absolutamente necessário» recorrer a GPUs Nvidia para suportar treino centralizado em grande escala.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar