Co-Fundador da OpenAI afirma que $110 mil milhões ainda não conseguem atender à procura, com o pré-treinamento a mudar para otimização conjunta de custos

robot
Geração de resumo em curso

De acordo com a monitorização da 1M AI News, o cofundador da OpenAI Greg Brockman reflectiu, numa entrevista, sobre o salto nas capacidades de programação em IA esperado até Dezembro de 2025. Ele usou um prompt de teste que tinha mantido durante anos para medir o progresso: pedir à IA para construir um website que lhe teria levado meses a concluir quando estava a aprender programação. Ao longo de 2025, esta tarefa exigiu múltiplos prompts e cerca de quatro horas para ser realizada; até Dezembro, podia ser concluída com um único prompt e com alta qualidade. Ele afirmou que o novo modelo permitiu à IA saltar de “ser capaz de completar cerca de 20% das tarefas” para “cerca de 80%”, uma mudança que obriga toda a gente a “reorganizar os fluxos de trabalho em torno da IA”.

Quanto à alocação do financiamento de 110 mil milhões de dólares, Brockman comparou o poder de computação a “contratar vendedores”: enquanto o produto tiver um canal de vendas escalável, contratar mais vendedores pode gerar mais receitas. O poder de computação não é um centro de custos, mas sim um centro de receitas. Ele recordou uma conversa com a sua equipa na véspera do lançamento do ChatGPT: “Perguntaram: ‘Quanto poder de computação devemos comprar?’ Eu disse: ‘Todo ele.’ Responderam: ‘Não, não, não, a sério, quanto devemos comprar?’ Eu disse: ‘Independentemente de como o construirmos, não vamos conseguir acompanhar a procura.’ Este juízo continua válido até hoje, e a aquisição de poder de computação precisa de estar definida com antecedência de 18 a 24 meses. Sobre como utilizar este poder de computação, Brockman revelou que a OpenAI já não está a perseguir apenas o maior escala de pré-treino, mas que está, em vez disso, a optimizar em conjunto as capacidades de pré-treino e os custos de inferência: ‘Não é necessariamente preciso torná-lo o maior possível, porque também é preciso considerar os inúmeros casos de uso de inferência a jusante; o que realmente queremos é a solução óptima de inteligência multiplicada pelo custo.’ No entanto, ele opôs-se firmemente à ideia de que ‘o pré-treino já não é importante’, acreditando que quanto mais inteligente for o modelo base, maior é a eficiência das fases subsequentes de reforço e inferência, e que ainda existe uma ‘necessidade absoluta’ de GPUs Nvidia para suportar um treino centralizado em grande escala.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar