OpenAI cofundador mais recente entrevista exclusiva: Após o encerramento do Sora, qual é o próximo passo do ChatGPT?

Título do vídeo: Presidente da OpenAI, Greg Brockman: Estratégia de IA, AGI e a Super App

Autor do vídeo: Alex Kantrowitz

Compilação: Peggy, BlockBeats

Nota do editor: Este artigo foi compilado a partir de uma conversa do Presidente e cofundador da OpenAI Greg Brockman no Big Technology Podcast. O programa tem acompanhado, há muito tempo, as mudanças na IA, na indústria tecnológica e nas estruturas empresariais, sendo uma janela importante para observar, em primeira linha, as decisões do Vale do Silício.

Nesta conversa, Brockman não se ficou pelas capacidades do próprio modelo; moveu o problema ainda mais para a frente: quando as capacidades da IA já foram, em grande medida, validadas, que caminhos a indústria deve escolher em seguida, como deve reconfigurar as formas de produto e como deve lidar com o impacto sistémico que daí resulta. A conversa abordou a estratégia de produtos da OpenAI, a “super app” que se aproxima, e a avaliação de que a IA está a entrar na “fase de descolagem”.

Esta conversa pode ser compreendida em três aspetos.

Primeiro, a convergência de caminhos.
Da geração de vídeo a modelos de raciocínio, do avanço em várias frentes à escolha ativa, a decisão da OpenAI não é apenas um juízo simples de superioridade técnica, mas uma resposta às restrições da realidade — a capacidade de computação tornou-se o principal gargalo. Com recursos limitados, as rotas tecnológicas começam a convergir para duas direções com mais efeito de alavanca: assistentes pessoais e a resolução de problemas complexos. Isto também significa que a lógica competitiva da IA está a passar de “o que é que consegue fazer” para “o que é que deve fazer primeiro”.

Segundo, a reconstrução de forma.
A proposta da “super app” é, na essência, uma mudança de patamar na forma do produto. A IA deixa de ser um conjunto de ferramentas dispersas e passa a ser uma única porta de entrada: compreende contexto, chama ferramentas, executa tarefas e vai acumulando memória de forma contínua em diferentes cenários. De ChatGPT a Codex, a IA está a assumir, progressivamente, o fluxo de trabalho completo, enquanto o papel humano deixa de ser de executor e passa a ser de gestor — definir objetivos, distribuir tarefas e supervisionar.

Terceiro, a viragem do ritmo.
Se nos últimos dois anos foi uma fase de subida de capacidades, então o que está a acontecer agora é a “descolagem”. Por um lado, as capacidades do modelo saltam de “assistir cerca de 20% do trabalho” para “cobrir cerca de 80% das tarefas”, o que desencadeia diretamente uma reestruturação dos fluxos de trabalho; por outro lado, a IA está a participar na própria evolução (usar IA para otimizar IA), e, somando a sinergia entre chips, aplicações e o lado das empresas, forma-se um ciclo fechado de aceleração contínua. A IA deixa de ser uma tecnologia pontual e passa a ser um motor-chave para impulsionar o crescimento económico.

Mas ao mesmo tempo, outra série de questões está a surgir em paralelo: a desconfiança do público, a incerteza no emprego, as controvérsias trazidas pelos centros de dados e os limites de segurança e governação. Face a isto, a resposta dada por Brockman não se encontra totalmente dentro da esfera técnica. Ele enfatiza mais dois pontos: primeiro, que o risco não pode ser resolvido apenas por “controlo centralizado”, sendo necessário construir, em torno da IA, uma infraestrutura social de base semelhante ao sistema elétrico; segundo, que a capacidade individual está a mudar — o que realmente importa não é “saber usar ferramentas”, mas “conseguir, com a ajuda da IA, atingir os próprios objetivos”.

Se antes a questão era “o que é que a IA consegue fazer”, agora a questão tornou-se: quando a IA começa a completar grande parte do trabalho por si, de que é que você ainda precisa?

A seguir, o conteúdo original (foi reorganizado para facilitar a compreensão):

TL;DR

A AGI já entrou numa fase de “caminho claro”: Greg Brockman (cofundador da OpenAI) considera que os modelos de raciocínio baseados em GPT já têm uma rota clara para a AGI, com previsão de realização em poucos anos, embora a forma ainda seja “não uniforme” (jagged).

Nota: AGI (Artificial General Intelligence) refere-se à inteligência artificial geral, ou seja, sistemas de IA que têm capacidades comparáveis, ou até superiores, às humanas na esmagadora maioria das tarefas cognitivas. Ao contrário da “IA especializada” atual (por exemplo, reconhecimento de imagens, algoritmos de recomendação), a AGI enfatiza a generalidade entre tarefas e capacidades de transferência.

Convergência estratégica: de múltiplas explorações para duas aplicações centrais: Com a restrição de capacidade de computação, a OpenAI vai concentrar recursos em “assistentes pessoais” e “resolução de problemas complexos”, em vez de avançar simultaneamente por todas as direções (como geração de vídeo).

A “super app” tornar-se-á a forma de entrada da IA: Chat, programação, navegador e trabalho de conhecimento serão integrados num sistema unificado; a IA deixará de ser uma ferramenta para se tornar “a camada de execução”, e os utilizadores passarão a ser “gestores”.

Viragem crucial: a IA começa a assumir o fluxo de trabalho, não apenas a ajudar: As capacidades do modelo saltaram de “concluir 20% das tarefas” para “assumir 80%”, obrigando indivíduos e empresas a reconfigurarem a forma como trabalham.

Capacidade de computação como principal gargalo e foco competitivo: A procura por IA é muito maior do que a oferta; no futuro, a limitação não será a capacidade do modelo, mas sim os recursos de computação, com centros de dados e infraestrutura a tornarem-se variáveis-chave.

“Descolagem” da IA (takeoff) está a acontecer: Aceleração técnica autoimpulsionada (IA a otimizar IA) em conjunto com a coordenação da indústria (chips, aplicações, empresas), empurra a IA de ferramentas para motor de crescimento económico.

O maior risco não está na tecnologia, mas na governação e na forma de uso: Problemas de segurança não podem ser resolvidos por uma única entidade; é necessário um ecossistema aberto e infraestrutura social para acomodar isso em conjunto.

A capacidade central do indivíduo está a mudar: No futuro, a competitividade não estará em “executar”, mas em “definir objetivos + gerir sistemas de IA”; usar IA de forma proativa tornar-se-á uma capacidade base.

Organização da conversa:

Alex (apresentador):
Hoje chamámos o cofundador e CEO da OpenAI, Greg Brockman, para conversarmos sobre as oportunidades com mais potencial em IA, como é que a OpenAI vai aproveitar essas oportunidades e a conceção de “super app”. Greg também está aqui no nosso estúdio de gravação.

Greg Brockman (cofundador e CEO da OpenAI):
É um prazer conhecer-te. Obrigado por fazeres o convite.

Por que motivo parar Sora? Falta de capacidade de computação

Alex:
Neste momento, faz sentido. A OpenAI está a suspender o avanço da geração de vídeo e a concentrar recursos numa “super app” — que vai integrar cenários comerciais e de programação. Do exterior (incluindo eu), parece que a OpenAI já ganhou liderança no segmento do consumidor, mas agora está a ajustar a alocação de recursos. Afinal, o que está a acontecer?

Nota: Em março de 2026, a OpenAI anunciou que iria encerrar o seu produto de geração de vídeo, Sora (incluindo a app e a API), e parou o avanço comercial relacionado.

Greg Brockman:
Durante algum tempo, estivemos a desenvolver essa tecnologia de deep learning para verificar se ela consegue realmente produzir o tipo de impacto positivo que sempre imaginámos — se pode ser usada para construir aplicações verdadeiramente úteis para as pessoas e para melhorar a vida.

Ao mesmo tempo, estamos a fazer outra coisa: colocar esta tecnologia em produção. Por um lado, para sustentar o funcionamento do negócio; por outro, para acumular, antecipadamente, experiência no mundo real, preparando o momento em que a tecnologia estiver verdadeiramente madura.

E agora chegámos a uma nova fase. Vemos que, de facto, esta tecnologia é viável. Estamos a transitar de “benchmarks” e algumas demonstrações de capacidades mais abstratas para uma fase nova: é necessário colocá-la no mundo real, fazê-la participar em trabalho real e continuar a evoluir através do feedback dos utilizadores.

Por isso, eu prefiro interpretar esta mudança como uma mudança estratégica impulsionada pela transição de fase técnica.

Isto não significa que estejamos a passar do “lado do consumidor” para o “lado empresarial”. Mais rigorosamente, estamos a fazer a pergunta: com recursos limitados, quais aplicações devem ser priorizadas primeiro? Porque não é possível fazer tudo.

Quais aplicações podem ser concretizadas de verdade, gerar sinergias entre si e produzir impacto real? Se enumerasses todas as direções, o lado do consumidor pode ser decomposto em muitas opções: por exemplo, um assistente pessoal, um sistema que realmente te compreende, alinha-se com os teus objetivos e te ajuda a concretizar objetivos de vida; ou ainda a criação e entretenimento; e muitas outras possibilidades. Já no lado empresarial, se olhares a um nível mais elevado, podes abstrair isso para uma coisa: tens uma tarefa complexa e a IA consegue ajudar-te a completá-la?

Para nós, neste momento, a prioridade é muito clara: há apenas duas coisas no topo. A primeira é o assistente pessoal. A segunda é uma IA que te ajude a resolver problemas complexos.

O problema é que a nossa capacidade de computação atual nem sequer suporta totalmente estas duas coisas. Se acrescentares mais cenários de aplicação, torna-se simplesmente impossível cobrir tudo. Por isso, isto é uma avaliação da realidade: a tecnologia está a amadurecer rapidamente, o impacto vai explodir e nós temos de decidir, escolher as direções mais importantes e fazê-las realmente.

Alex:
Tu mencionaste antes uma analogia: que a OpenAI é parecida com a Disney. Tens uma capacidade central e depois estendes para cenários diferentes. A Disney tem o Mickey Mouse, pode fazer filmes, parques temáticos e o Disney+. A “base” da OpenAI é o modelo, que pode fazer geração de vídeo, fazer assistentes e criar aplicações empresariais.

Mas agora parece que vocês já não seguem esse caminho de “estender por tudo”, e que, em vez disso, precisam mesmo de fazer escolhas?

Greg Brockman:
Na verdade, eu sinto que esta analogia continua ainda a fazer mais sentido agora. O ponto crucial é este: do ponto de vista técnico, a Sora (modelo de vídeo) e o GPT (modelo de raciocínio) pertencem a dois ramos técnicos diferentes. A forma como são construídos é completamente distinta.

A dificuldade, nesta fase atual, é que é muito difícil avançar simultaneamente nesses dois ramos tecnológicos — especialmente com recursos limitados. Por isso, a nossa escolha, nesta fase, foi concentrar a maioria dos recursos no caminho do GPT.

Dito isto, isto não significa abandonar outras direções. Por exemplo, no domínio da robótica, continuamos a fazer investigação relacionada. Mas a robótica, em si, ainda está numa fase muito inicial; ainda não entrou numa fase de maturidade que antecede a verdadeira explosão.

Em contrapartida, no próximo ano, veremos uma verdadeira descolagem da IA no trabalho de conhecimento.

E é importante sublinhar que a linha do GPT não é apenas “texto”. Por exemplo, a interação de voz bidirecional (speech-to-speech) é também parte deste caminho técnico; torna a IA mais utilizável e mais prática. Estas capacidades, em essência, continuam a pertencer ao mesmo ecossistema de modelos, apenas ajustadas de formas diferentes.

Mas se seguires para dois ramos técnicos completamente diferentes, é difícil manter isso a longo prazo com computação limitada. E a razão pela qual a computação é limitada é — a procura é demasiado grande. Quase sempre que um modelo é lançado, as pessoas querem usá-lo para fazer mais coisas.

Alex:
Então, por que é que vocês não colocaram o foco no caminho dos “world models”? Por exemplo, modelos de vídeo precisam compreender as relações entre objetos, o que é crucial para robótica também. E o progresso da Sora, na verdade, tem sido muito rápido. Por que motivo, no final, vocês apostaram no GPT?

Nota: “World model” (modelo do mundo) foca-se em perceção e intuição física; o núcleo é fazer com que a IA compreenda “como o mundo funciona”, em vez de aprender apenas “padrões superficiais dos dados”. Estes modelos são normalmente usados para descrever sistemas como a Sora: não é apenas gerar imagens ou vídeos, mas modelar relações entre objetos (por exemplo, pessoas, carros, luz), mudanças contínuas ao longo do tempo (evolução entre frames), e leis físicas fundamentais (como movimento, oclusão e colisões). Em contraste, o GPT é um modelo de linguagem e de raciocínio, com foco maior em cognição abstrata e capacidades de execução de tarefas.

Greg Brockman:
O maior problema neste domínio é que há demasiadas oportunidades.

Nós descobrimos muito cedo que, na OpenAI, sempre que uma ideia é racional do ponto de vista matemático, normalmente consegue avançar e obter resultados muito bons. Isto mostra que a capacidade base do deep learning é muito forte: abstrai regras de geração a partir de dados e consegue transferir para cenários novos. Podes aplicar isso a world models, descoberta científica, programação e vários outros campos.

Mas o ponto-chave é que precisamos de fazer escolhas.

Houve uma discussão durante muito tempo: até onde é que modelos de linguagem conseguem ir? Será que conseguem realmente compreender o mundo? Eu acho que esta questão já tem resposta: os modelos de linguagem podem chegar à AGI.

Nós vemos uma rota clara. Este ano ainda surgirão modelos mais fortes. E, dentro da OpenAI, um dos nossos maiores sofrimentos é como alocar capacidade de computação — este problema só vai piorar, não vai aliviar. Assim, na essência, não é “qual rota é mais importante”, mas “qual é a oportunidade e a ordem”.

Agora, algumas aplicações que antes considerávamos distantes começaram a ficar ao alcance. Por exemplo, resolver problemas físicos que ainda não tinham sido resolvidos. Recentemente, tivemos um caso: um físico estuda um problema há muito tempo; ele entregou o problema ao modelo e, após 12 horas, nós já tínhamos uma solução. Ele disse que foi a primeira vez que se sentiu como se um modelo estivesse “a pensar”. O problema poderá até ser algo que os humanos jamais conseguiriam resolver, mas a IA conseguiu.

Quando vês algo assim, a única escolha que tens é apostar ainda mais. Investir duas vezes, ou triplicar. Porque isso significa que podemos mesmo libertar um enorme potencial.

Por isso, para mim, isto não é uma competição entre direções diferentes. É qual é a missão da OpenAI: como é que trazemos a AGI para o mundo? Como é que fazemos com que isso beneficie verdadeiramente toda a gente? E nós já vemos essa rota; sabemos como avançar.

Apostar no GPT, não no world model: escolha do caminho para a AGI

Alex:
Ok, eu queria mesmo voltar ao tema da próxima geração de modelos que mencionaste agora. Mas antes, quero perseguir uma questão.

Eu falei, mais cedo este ano, com Demis Hassabis da Google DeepMind. Foi interessante porque ele disse que, para ele, algo muito próximo da AGI era, na verdade, o gerador de imagens que eles chamam de Nano Banana.

Nota: Demis Hassabis é uma das figuras-chave que impulsionam a IA da investigação para aplicações verdadeiramente transformadoras. Ele fundou a DeepMind, desenvolveu a AlphaGo e, em 2016, derrotou o campeão mundial de Go — tornando-se um acontecimento marcante na história do desenvolvimento da IA.

A razão dele é: quer seja gerador de imagens ou gerador de vídeo, para gerar imagens e vídeos desse tipo, em essência tens de compreender relações de interação entre objetos; pelo menos, tens de ter algum tipo de noção de como o mundo funciona.

Então, isso não implica algum risco potencial? É uma grande aposta — se for verdade, ao continuar a reforçar outra árvore tecnológica, a OpenAI pode estar a perder algo?

Greg Brockman:
Se for assim? Eu tenho duas respostas.

Primeiro, claro que existe essa possibilidade. É assim mesmo neste campo: no fim, tens de escolher e tens de apostar. E a OpenAI está a fazer isso desde o início: temos de avaliar qual é o caminho para a AGI em que acreditamos e avançar com grande foco ao longo dessa rota. Como quando somas vetores aleatórios, no fim o resultado pode aproximar-se de zero; mas se alinhares todos os vetores, eles conseguem empurrar-te numa direção bem definida.

Segundo, há o facto de que a geração de imagens também é uma capacidade muito popular no ChatGPT, e nós continuamos a investir nela e a dar prioridade. Conseguimos fazer isso porque, na prática, ela não pertence a um ramo de “world models” ou “modelos de difusão”. Baseia-se na arquitetura do GPT. Assim, embora lide com distribuições de dados diferentes, na base do stack tecnológico, o núcleo central é, na verdade, o mesmo.

E é aqui que está, talvez, uma das partes mais surpreendentes da AGI: por vezes, aplicações que parecem muito diferentes — voz a voz, geração de imagens, processamento de texto e, até, como o próprio texto pode ser aplicado à investigação científica, programação, informação de saúde pessoal, e outros cenários — acabam por ser acomodadas dentro de um quadro técnico comum.

Assim, do ponto de vista técnico, uma coisa que eu tenho vindo a pensar, e que a empresa tem vindo a pensar, é como unificar os nossos esforços na medida do possível. Porque nós acreditamos mesmo que esta tecnologia traz ganhos de conjunto, podendo elevar todo o sistema económico.

Mas a escala disso é enorme. Obviamente, não podemos fazer tudo. Mas podemos fazer a nossa parte.

Alex:
Isto remete para o “general” na Artificial General Intelligence (AGI, inteligência artificial geral).

Greg Brockman:
Sim, exatamente. E esse “G”, de facto, é mesmo isso.

Alex:
Falando em “unificar”, como é que seria essa super app?

Greg Brockman:
Na minha conceção, a super app é —

Alex:
Vai integrar chat, programação, navegador e coisas como o ChatGPT, certo?

Greg Brockman:
Sim. O que queremos fazer é uma aplicação para utilizadores finais, para que tu possas experienciar verdadeiramente o poder da AGI — a sua “generalidade”.

Se pensares nos produtos de chat de hoje, eu acho que eles vão evoluir gradualmente para o teu assistente pessoal, para a tua API pessoal, para uma IA que pensa mesmo por ti. Ela conhece-te; sabe muito sobre ti; alinha-se com os teus objetivos; é confiável e capaz de “te representar”, em certa medida, neste mundo digital.

Quanto ao Codex, podes entendê-lo assim: neste momento, ele ainda é uma ferramenta feita principalmente para engenheiros de software, mas está a tornar-se “um Codex para toda a gente”.

Qualquer pessoa que queira criar ou construir coisas pode usar o Codex para fazer com que o computador execute o que quer fazer. E já não é apenas sobre “escrever software”; é mais “usar o computador” em si. Por exemplo, eu posso pedir que ele me ajude a configurar o meu portátil. Às vezes eu esqueço como se configuram os hot corners; eu peço ao Codex para fazer e ele faz mesmo.

É assim que um computador deveria ser. Ele deve adaptar-se à pessoa, e não o contrário — para eu ter de me adaptar a ele.

Por isso, podes imaginar uma aplicação em que, tudo o que queres que o computador faça, podes dizer-lhe diretamente. No seu interior, fica embutida capacidade para “usar o computador” e “operar o navegador”, permitindo à IA atuar de forma a operar páginas web, enquanto tu também consegues supervisionar o que ela está a fazer. Além disso, seja a tua interação via conversa, escrever código ou trabalho de conhecimento mais genérico, tudo isto ficará unificado num único sistema. A IA terá memória; compreenderá-te.

É isto que estamos a construir.

Mas, para ser honesto, isto é apenas parte do iceberg. O que é mais importante para mim é a unificação da tecnologia base.

Falámos antes da unificação ao nível dos modelos base; mas a mudança real nos últimos anos foi: já não é apenas “o problema dos modelos”. Agora, o mais importante é o “sistema de suporte”. Ou seja, como o modelo obtém contexto? Como se liga ao mundo real? Que ações consegue tomar? Quando novos contextos entram continuamente, como funciona o mecanismo do ciclo de interação com o utilizador?

No passado, na verdade tínhamos múltiplas implementações internamente, ou pelo menos algumas implementações ligeiramente diferentes. Agora estamos a convergir tudo para uma só. No final, teremos uma camada de IA unificada e, de forma muito leve, apontá-la para diferentes cenários de aplicação concretos.

Claro que continuas a poder fazer um pequeno plugin, uma pequena interface, para serviços específicos — finanças, serviços jurídicos, etc. Mas na maior parte dos casos, nem sequer vais precisar disso, porque a própria super app será suficientemente ampla e suficientemente genérica.

Alex:
Este tipo de aplicação é para cenários empresariais e para cenários pessoais?

Greg Brockman:
Sim, esse é mesmo o núcleo. Tal como um computador — por exemplo, o teu portátil — ele é para uso pessoal ou para uso de trabalho? A resposta é: ambos. Ele é, primeiro de tudo, o teu dispositivo, a tua interface para entrares no mundo digital. E é precisamente isto que queremos fazer.

Alex:
Então, numa perspetiva não comercial, se eu usar a super app na minha vida pessoal, para que é que eu a usaria? E como é que a minha vida mudaria?

Greg Brockman:
Eu vejo assim: na vida pessoal, ela vai, primeiro, continuar a forma como hoje se usa o ChatGPT.

Como é que as pessoas usam o ChatGPT, hoje? Já estão a utilizá-lo para completar tarefas muito variadas e até surpreendentes. Às vezes basta dizer algo como: “Quero que me ajudes a redigir um discurso para um casamento.” Ou: “Podes dar-me um feedback sobre esta ideia?” Ou ainda: “Estou a montar um pequeno negócio; consegues dar-me algumas ideias?”

Alguns destes cenários são mais pessoais; noutros, a fronteira entre pessoal e trabalho já começa a ficar confusa. E a minha opinião é que todos estes tipos de problemas devem ser entregues à super app para resolver.

Greg Brockman:
Mas se olhares para a evolução do ChatGPT, ele está a mudar em si mesmo.

Antes, ele não tinha memória, certo? Para cada pessoa, era o mesmo tipo de IA, sempre a começar do zero, como se estivesses quase a falar com um estranho. Mas se ele conseguir recordar as vossas interações passadas, será muito mais poderoso. E se também puder aceder a mais contexto, será ainda mais poderoso.

Por exemplo, ele liga ao teu e-mail e ao teu calendário, compreende verdadeiramente as tuas preferências e tem um conjunto mais profundo de contexto sobre experiências passadas, usando essas informações para te ajudar a atingir objetivos. Ou, como acontece agora no ChatGPT, existe uma funcionalidade chamada Pulse: envia-te, todos os dias, conteúdos que possivelmente te interessam, com base no que ele sabe sobre ti.

Assim, no nível do uso pessoal, a super app incluirá tudo isto, e fará isso de forma mais profunda e mais rica.

Alex:
Quando é que planeiam lançá-la?

Greg Brockman:
De forma mais precisa, a maneira correta de entender é: nos próximos meses, vamos avançar, passo a passo, na direção desse objetivo. A visão completa de que estamos a falar será entregue gradualmente, mas não aparecerá de uma só vez; vai surgir em fases.

Por exemplo, a app Codex de hoje já contém, na prática, duas camadas: uma é um sistema de “agent harness” de uso geral (sistema de suporte a agentes) — pode usar ferramentas; a outra é um agente especializado em escrever software.

E o sistema de suporte de uso geral pode ser usado em muitos outros cenários. Se o ligas a uma folha de cálculo, ou a um documento Word, ele pode ajudar-te a tratar trabalho de conhecimento.

Assim, o nosso primeiro passo é tornar a app Codex mais útil para trabalho de conhecimento genérico. Porque já vimos internamente na OpenAI que as pessoas começam, de forma espontânea, a usá-la desta maneira.

Este será o primeiro passo; depois haverá muitos outros.

Alex:
Ontem, falei com um dos teus colegas sobre o Codex, e ele mencionou que uma pessoa está a usar o Codex para fazer edição de vídeo: pede ao Codex que trate o vídeo para si; o Codex até fez um plugin para o Adobe Premiere, para dividir o vídeo em capítulos e começar a editar. Esta é a direção que vocês querem seguir?

Greg Brockman:
Eu gosto muito de ouvir casos como este. É precisamente assim que esperamos que o sistema funcione. E há um ponto interessante: o Codex foi originalmente desenhado para engenheiros de software; para utilizadores não programadores, a sua disponibilidade atual não é tão alta, porque durante a configuração surgem muitos pequenos problemas.

Os programadores percebem imediatamente o que significa e sabem como corrigir; nós já estamos habituados. Mas se tu não és programador, ao veres isso, vais pensar: “O que é isto? Eu nunca vi nada assim antes.”

Mesmo assim, ainda estamos a ver que muitas pessoas que nunca escreveram programas já começam a usá-lo para montar sites ou para fazer exatamente aquele tipo de coisas que descreveste — automação da interação entre diferentes softwares — obtendo uma alavancagem enorme. Por exemplo, dentro da nossa equipa de comunicação, alguém já o conectou ao Slack e ao e-mail para tratar grandes volumes de feedback e depois fazer uma boa síntese e consolidação.

Assim, o que acontece agora é isto: aquelas pessoas com muita motivação já estão dispostas a ultrapassar esses obstáculos e a obter retornos muito altos.

De um certo modo, a parte mais difícil já está feita — já criámos uma IA realmente inteligente, capaz e que consegue cumprir tarefas na prática.

O que falta fazer agora é a parte relativamente “mais fácil”: torná-la realmente útil para o público em geral, desmantelando esses requisitos de entrada um pouco de cada vez.

Alex:
E, do ponto de vista do panorama competitivo, a Anthropic já tem aplicações com o Claude: chatbots e também Claude Code. Em certa medida, eles já têm uma “pré-forma” da sua própria “super app”.

Como é que vês o motivo de a Anthropic ter chegado primeiro a este ponto? E quão grande achas que é a possibilidade de a OpenAI alcançar essa posição?

Greg Brockman:
Se recuarmos o tempo 12 a 18 meses, nós já estávamos a ver “programação” como uma área prioritária e estávamos sempre a obter os melhores resultados em testes muito “puros de capacidade”, como competições de código. Mas a parte em que investimos menos naquele momento foi a “usabilidade na última milha”.

Ou seja, não demos a devida importância ao seguinte problema: a IA já é muito inteligente e consegue resolver todo o tipo de problemas difíceis de programação, mas nunca viu bases de código do mundo real — e, na vida real, as bases de código são normalmente caóticas, muito longe do ambiente “limpo” que ela conhece.

Nesse aspeto, de facto ficámos para trás. E a partir de mais ou menos meados do ano passado, começámos a corrigir isso com seriedade. Criámos equipas especificamente para identificar onde estavam as lacunas e que tipo de caos e complexidades existem no mundo real que nós ainda não tínhamos tocado de forma real.

Por exemplo, como construir dados de treino? Como montar ambientes de treino? Para a IA experienciar verdadeiramente como é “fazer engenharia de software” — ser interrompida, deparar-se com problemas estranhos, situações não ideais, etc.

Eu acho que agora já chegámos. Quando os utilizadores realmente colocam a nossa solução e a dos concorrentes lado a lado, e fazem uma comparação direta, muitas pessoas acabam por preferir a nossa.

Obviamente, sabemos que ainda estamos atrás em experiência na interface do utilizador, e essa parte também vamos corrigir. Mas no conjunto, a nossa direção neste período tem sido: não apenas fazer um modelo e depois embrulhá-lo com uma espécie de produto; é desde o início pensá-lo como um produto completo. Quando fazemos investigação, também pensamos em como vai ser usado, no final. Isto é uma viragem que está a acontecer dentro da OpenAI.

Assim, na minha perspetiva, vamos ter uma vaga muito forte de upgrades de modelos. Só olhando para o roadmap deste ano, eu sinto-me entusiasmado — dá para fazer muitas coisas.

Em simultâneo, estamos a preencher de forma muito focada a usabilidade na última milha.

Alex:
Desde 2022, a OpenAI tem sido uma líder incontestável neste campo. Claramente, a competição já não é apenas sobre resultados em testes. E tu próprio usaste agora a expressão “nós já alcançámos”. O ambiente dentro da empresa mudou também? Ou seja, já não é aquela sensação de liderança à distância, como nos tempos em que o ChatGPT parecia muito à frente; agora é uma competição de frente.

Algumas reportagens externas também mostram essa mudança — por exemplo, reuniões internas onde foi enfatizado que a OpenAI já não tinha tarefas “secundárias”; todos teriam de concentrar esforços no foco central. Então, como mudou o ambiente e o clima dentro?

Greg Brockman:
Eu diria que, para mim pessoalmente, o momento em que a OpenAI me deixou mais desconfortável foi precisamente depois de lançarmos o ChatGPT.

Eu lembro-me de que, numa festa de feriados na empresa, havia um clima de “nós vencemos”. Eu nunca tinha sentido algo assim antes. A minha reação foi: não, nós não somos esse tipo de pessoas; nós somos do lado que está em desvantagem.

E sempre fomos. A maioria dos nossos concorrentes neste campo são grandes empresas já estabelecidas, com mais capital, mais pessoal e mais dados — quase todos os recursos.

Então por que razão a OpenAI ainda consegue competir? Em algum nível, a resposta está nisto: nunca nos sentimos confortáveis. Sempre nos encarámos como desafiantes.

Na verdade, para mim, ver o mercado começar a apresentar realmente um cenário competitivo desse tipo — ver outros concorrentes a aparecer e a fazerem bem — é uma coisa saudável.

Porque, na minha opinião, nunca deves fixar a tua atenção exclusivamente no que o concorrente está a fazer agora. Se ficares a olhar para onde estão agora, quando lá chegares, eles já avançaram.

E acho que, durante algum tempo, aconteceu o inverso: muitas pessoas ficaram a olhar para a posição em que estávamos, e isso permitiu que continuássemos a avançar. Isso acabou por criar um tipo de alinhamento interno e sensação de unidade.

Antes eu mencionara que, no passado, quase tratávamos “investigação” e “deploy” como duas coisas separadas; mas agora queremos de facto integrá-las. E, para mim, isso é maravilhoso.

Por isso, vou dizer: esta fase em que estamos agora não é uma fase em que eu sinto que “já ganhámos” ou que “de repente estamos em crise”. Sabes, a forma como o mundo te avalia normalmente não é assim tão boa como dizem, nem tão má como também dizem.

No geral, eu acho que continuamos estáveis. E na parte central do desenvolvimento de modelos — o nosso roteiro, os investimentos nas investigações que fizemos e continuámos a fazer — eu estou bastante confiante. Quanto ao lado do produto, eu acho que agora temos uma energia muito boa; todos estão a unir-se e a colocar realmente estas coisas à frente, perante o mundo.

Alex:
Tu já mencionaste várias vezes que existem novos modelos muito fortes a caminho. Mas afinal, o que é?

Segundo a reportagem do The Information, vocês já concluíram um “pré-treino do Spud”; e Sam Altman também disse aos funcionários da OpenAI que, em poucas semanas, eles deverão ver um modelo muito forte. Mas isso foi há umas semanas. A equipa internamente acha que ele pode até acelerar verdadeiramente a economia, com avanços mais rápidos do que muita gente esperava.

Então, afinal, o que é o “Spud”?

Greg Brockman:
É um bom modelo. Mas eu acho que a ênfase não está num modelo isolado.

O nosso processo de desenvolvimento é, em linhas gerais, assim: primeiro vem o pré-treino, isto é, a produção de um novo modelo base; e depois todas as melhorias seguintes são construídas em cima desse modelo base. Esta etapa, em geral, exige que muitas equipas dentro da empresa invistam um esforço enorme. De facto, nos últimos 18 meses, a maior parte do meu tempo foi gasto aqui: essencialmente em torno da infraestrutura de GPUs, apoiando equipas responsáveis por treinar framework e fazendo realmente esses grandes treinos acontecerem.

Depois vem a fase de reforço de aprendizagem. Ou seja, fazer com que uma IA que já aprendeu uma grande quantidade de conhecimento do mundo real comece a aplicar esse conhecimento de forma real.

Depois vem o processo de “pós-treino”. Nesta etapa, tu realmente ensinas: “agora que já sabes resolver problemas, treina em diferentes cenários”.

Por fim, existe ainda uma fase de “última milha” sobre comportamento e usabilidade.

Assim, eu trato o Spud como um novo “alicerce”, como um novo modelo de pré-treino. E nele pode-se dizer que as nossas investigações de aproximadamente dois anos começam, de facto, a produzir resultados. Vai ser muito empolgante.

Eu acho que, aquilo que o mundo vai sentir no fim é um aumento global de capacidades. Mas, para mim, isto nunca foi apenas uma questão de lançar uma versão isolada. Porque quando esta versão sair, ela será apenas uma versão inicial dos progressos seguintes. Continuaremos a fazer mais, em cada etapa desse processo de melhoria.

Por isso eu acho que, agora, nós nos assemelhamos a uma máquina com motor de progresso em aceleração — e o Spud é apenas um nó nesse caminho.

Alex:
Então o que é que tu achas que ele conseguirá fazer que os modelos atuais ainda não conseguem?

Greg Brockman:
Eu acho que ele conseguirá resolver problemas mais difíceis e também ficar mais refinado. Vai compreender melhor instruções e também compreender melhor contexto.

Às vezes as pessoas falam de uma sensação chamada “big model smell” — a ideia é que, quando um modelo fica realmente mais inteligente e mais capaz, consegues sentir isso claramente. Ele vai seguir melhor a tua intenção; vai estar mais alinhado com as tuas necessidades.

Quando colocas uma pergunta e a IA não percebe realmente o que queres dizer, essa sensação continua a ser bastante dececionante. Tu ficas a pensar: “isto devia ser algo que ela seria capaz de pensar”.

Assim, eu diria que, de certa forma, isto é uma mudança quantitativa acumulada que leva a uma mudança qualitativa. Por um lado, muitos indicadores vão melhorar. Por outro lado, vão surgir alguns cenários totalmente novos: antes tu talvez não usasses diretamente porque a IA não era suficientemente fiável; agora vais usá-la sem hesitar.

Eu acho que será uma mudança abrangente. E eu estou particularmente ansioso por ver como isto continua a elevar o teto das capacidades. Já vimos o desempenho em cenários como investigação física; e eu acho que, a seguir, conseguirá resolver mais problemas abertos e lidar com horizontes de tempo mais longos.

Ao mesmo tempo, estou também ansioso por ver como isto eleva o limite inferior das capacidades — ou seja, independentemente do que tu queiras fazer, ele será muito mais útil do que hoje.

Alex:
Mas, para utilizadores comuns, às vezes é difícil sentir esta mudança. Antes do lançamento do GPT-5, por exemplo, o público já tinha tido muito aquecimento e expectativas. Mas quando ele apareceu de facto, as reações iniciais foram, de certo modo, um pouco dececionantes. Só mais tarde é que as pessoas foram percebendo que, em tarefas específicas, ele é de facto muito forte.

Para a próxima geração, achas que isso vai ser sentido de forma mais evidente em certos cenários profissionais, ou vai tornar-se um upgrade mais intuitivo e generalizado para toda a gente?

Greg Brockman:
Eu acho que a história vai ser semelhante. Depois de um modelo ser lançado, haverá pessoas que, ao experimentar de primeira, vão sentir algo como “é dia e noite” comparado com o que tinham visto antes. Mas também haverá cenários em que o gargalo não está em “ser inteligente”. Se tu apenas tornas o modelo mais inteligente, nesses locais o utilizador pode não sentir imediatamente a diferença.

Mas, com o tempo, eu acho que as pessoas vão sentir a mudança. Porque o que realmente muda é: em que medida vais começar a depender deste sistema.

Se pensares na forma como interagimos hoje com a IA, cada pessoa tem uma espécie de modelo mental interno sobre “o que é que ela consegue fazer”. Esse modelo mental não muda rapidamente. Normalmente acontece assim: com acumulação de experiência, ocasionalmente ela completa para ti uma coisa verdadeiramente extraordinária e só então é que tu percebes: “afinal, ela consegue fazer isto — eu nem sequer tinha pensado”.

Por exemplo, em cenários como a obtenção de informação médica, já vimos algo semelhante. Tenho um amigo que usou o ChatGPT para conhecer diferentes opções de tratamento para o seu cancro. O médico já lhe tinha dito que era estádio avançado e que “não havia nada a fazer”. Mas ele usou o ChatGPT para pesquisar muitas abordagens diferentes e, no fim, encontrou uma solução de tratamento.

Numa situação como esta, é preciso, em primeiro lugar, que exista alguma confiança na capacidade da IA neste cenário, para que a pessoa esteja disposta a investir tanto esforço para extrair valor desse sistema.

Por isso eu acho que, daqui para a frente, em quaisquer cenários semelhantes, aquilo que a IA consegue fazer por ti vai tornar-se cada vez mais óbvio para toda a gente.

Assim, esta mudança tem duas faces: a tecnologia em si vai ficando mais forte, e ao mesmo tempo a nossa compreensão sobre a tecnologia está a mudar, a acompanhar o que ela consegue.

Alex:
Então, quer dizer que tu vais começar a depender mais e mais dela. Na OpenAI, estão também a desenvolver um “investigador de IA” automatizado que, segundo se diz, será lançado ainda este outono. Mas o que é que ele faz exatamente?

Fase inicial da “descolagem” da IA

Greg Brockman:
Do ponto de vista das tendências gerais, eu sinto que estamos no início da descolagem desta tecnologia.

Alex:
O que significa “descolagem”?

Greg Brockman:
Descolagem significa que a IA vai ficando cada vez mais forte ao longo de uma curva exponencial. Uma das razões é que já conseguimos usar IA para nos ajudar a melhorar a própria IA, e isso faz com que todo o processo de I&D acelere.

Mas eu acho que “descolagem” não é só uma questão técnica; significa também libertar influência no mundo real. Muitos desenvolvimentos tecnológicos parecem uma curva em S; mas se olhares para várias curvas S ao longo de uma dimensão de tempo mais longa, elas acabam por convergir para um crescimento aproximadamente exponencial.

Eu acho que estamos exatamente nessa fase. Ou seja: a tecnologia em si está a avançar a cada vez mais rápida velocidade, e este motor de progresso está a acumular energia cinética.

Ao mesmo tempo, no mundo exterior, há muitos fatores favoráveis a juntar-se: os fabricantes de chips estão a obter mais recursos para investir; e há muita gente a construir aplicações no topo, a tentar incorporar IA em diferentes cenários para encontrar o encaixe entre a IA e necessidades específicas diversas.

Toda essa energia vai-se acumulando, empurrando a IA para uma fase de descolagem, para que deixe de ser algo marginal e se torne, gradualmente, no principal motor de crescimento económico.

E isto não está a acontecer apenas dentro destas paredes. Tem a ver com como o mundo inteiro, como o sistema económico inteiro, vai avançando em conjunto esta tecnologia e com a sua utilidade a desenvolver-se continuamente.

Alex:
Então, o que é que esse “investigador” faria em termos concretos?

Greg Brockman:
Por “investigador”, no essencial, queremos dizer isto: à medida que a percentagem de tarefas que a IA pode assumir vai ficando cada vez maior, deveríamos permitir que ela funcione de forma mais autónoma.

Naturalmente, por detrás disto há muitas coisas que precisam de ser pensadas com cuidado. Não significa que a colocamos no exterior para correr por um tempo e, depois, voltar a saber se fez algum resultado bom.

Eu acho que continuaremos a ter uma participação muito profunda na gestão. Por exemplo, hoje, se tu encaminhares um investigador júnior e o deixares sozinho por muito tempo, ele provavelmente acabará por seguir um caminho com pouco valor. Mas se for um investigador sénior — ou alguém com sentido de direção — ele nem sequer precisa de dominar pessoalmente todas as competências operacionais específicas para continuar a dar feedback e fazer revisão do que essa pessoa produz, e também orientar a direção: “o que eu quero que tu completes”.

Assim, na minha compreensão, o sistema que estamos a construir é um conjunto de mecanismos que vai aumentar bastante a velocidade de produção de modelos, impulsionar novas descobertas em investigação e também tornar estes modelos mais úteis, mais utilizáveis no mundo real. E tudo isto vai acontecer a uma velocidade cada vez maior.

Alex:
O que é que ele faz concretamente? Tu vais dizer-lhe diretamente: “vai encontrar AGI”, e ele tenta sozinho?

Greg Brockman:
De certa forma, sim. Pelo menos no primeiro nível do que entendo, é assim. Mas, de um ponto de vista mais prático, eu entendo isso como: transferir para um sistema baseado em silício, o máximo possível, todo o fluxo de trabalho completo de um cientista de investigação — do início ao fim.

Alex:
Outra forma de entender “descolagem” é: o progresso da IA deixa de ser apenas uma melhoria gradual, passando a acumular energia cinética, até evoluir para um impulso quase impossível de impedir, avançando para uma inteligência mais inteligente do que os humanos.

Tu te preocuparias com o facto de, tal como as coisas podem evoluir no bom sentido, o progresso também poder ficar fora de controlo, poder desviar-se?

Greg Brockman:
Eu acho que, claro, isto vai acontecer. Sem dúvida. Eu acredito que, para obter os benefícios dessa tecnologia, tens de pensar seriamente nos riscos ao mesmo tempo.

Se olhares para a nossa forma de desenvolver tecnologia, vais ver que investimos muito em segurança e proteção. Um exemplo muito bom é o ataque de prompt injection. Se vais construir uma IA muito inteligente, muito capaz e que está ligada a muitas ferramentas, claro que tens de garantir que ela não se desvia, nem fica manipulável, apenas porque alguém dá uma instrução estranha.

É neste tipo de coisas que investimos bastante — e eu acho que já obtivemos resultados muito bons, e que existe uma equipa muito forte responsável por essa área.

O interessante é que algumas dessas questões podem, de facto, ser comparadas com o comportamento humano. Humanos também são afetados por phishing; podem ser induzidos em erro; e podem agir sem compreender o contexto completo.

Vamos introduzir essas analogias no nosso processo de I&D. Sempre que lançamos um modelo, desenvolvemos um modelo, pensamos: como garantir que ele está realmente alinhado com os objetivos humanos? Como garantir que ele pode mesmo ajudar? Isto é algo que nos preocupa muito.

Além disso, há ainda problemas maiores, que dizem respeito ao mundo e à economia: como é que tudo vai mudar? Como é que cada pessoa consegue beneficiar dessa tecnologia? Estas questões não são apenas técnicas, e não podem ser resolvidas apenas pela OpenAI. Mas sim, eu penso muitas vezes, não só em empurrar o progresso tecnológico, mas também em garantir que ele gera impactos positivos que correspondam ao seu potencial.

Alex:
O problema é que parece uma corrida. O que acontece dentro destas paredes na sede da OpenAI também pode ser replicado rapidamente por muitos jogadores open source. E estes jogadores, em geral, tendem a ser mais fracos na segurança e em medidas de proteção.

Eu lembro-me de tu teres dito algo antes: “resultados criativos precisam de muitas pessoas fazerem muitas coisas certas; já resultados destrutivos podem precisar apenas de uma pessoa com intenção maliciosa”. Este é, pelo menos, o que eu mais temo. Porque é claramente uma corrida, e o progresso é rápido. Muitos dos teus pares já disseram que, se todos concordassem em parar, estariam dispostos a fazê-lo. Mas agora parece que não existe sinal de desacelerar essa corrida.

Então, esse retorno vale realmente o risco de assumir algo assim?

Greg Brockman:

Eu acho que sim, que o retorno vale a pena. Mas também acho que essa resposta ainda é demasiado grosseira, demasiado “tudo ou nada”.

Desde que a OpenAI foi fundada, nós continuámos a perguntar: que tipo de futuro é um bom futuro? Como é que esta tecnologia pode, de facto, melhorar as condições de todos?

Podes decompor esta questão em dois ângulos. Um é a perspetiva “centralizada”: acreditar que, para garantir que a tecnologia é segura, a melhor forma é desenvolvê-la apenas por um único ator. Assim, não há pressão competitiva; podes fazer tudo devagar, com cuidado, acertando as coisas, e só depois decidir como entregá-la a todos. Essa ideia é, claro, compreensível, mas em algum ponto do tempo é um plano difícil de aceitar.

A outra via — e é a que nós tendemos a seguir — é pensar a partir da “resiliência”. Ou seja, encará-la como um sistema aberto: há muitos participantes a impulsionar o desenvolvimento da tecnologia, mas o ponto principal não é apenas a tecnologia em si; é construir as infraestruturas sociais que nascem à volta dessa tecnologia, para que ela possa ser acomodada com mais segurança.

Pensa no desenvolvimento da eletricidade. A eletricidade também é produzida por muitas pessoas e instituições diferentes; ela também tem riscos e perigos. Mas, ao mesmo tempo, criámos várias camadas de infraestrutura de segurança em torno disso: padrões de segurança elétrica, normas diferentes de uso, e formas de regulamentação diferentes de acordo com escalas diferentes. Quando chega a uma escala muito grande, existem requisitos específicos de supervisão. Muitas pessoas conseguem usar a eletricidade de forma democratizada, e há inspetores e todo um conjunto de sistemas de apoio a operar.

E eu acho que a IA é parecida. O que vimos de facto é que, em torno da IA, tem de haver uma discussão social ampla. Se esta tecnologia realmente chegar e mudar a vida de todos, as pessoas têm de participar. Não pode ser apenas um pequeno grupo centralizado a avançar e a decidir tudo secretamente.

Por isso, para mim, esta é sempre uma questão central: de que forma é que esta tecnologia deve ser implementada? E aquilo em que acreditamos mesmo é num “ecossistema de resiliência” que se forma progressivamente em torno do desenvolvimento da tecnologia.

Alex:
Então, tu quer dizer que estamos no processo de “descolagem”, e que todos nós já estamos dentro disso. O CEO da Nvidia, Jensen Huang, disse recentemente que acha que a AGI já aconteceu. Estás de acordo?

Greg Brockman:
Eu acho que AGI tem definições diferentes para pessoas diferentes. E é verdade que muita gente acredita que, no que temos hoje, já se trata de AGI.

Isto pode ser debatido. Mas o ponto realmente interessante é que a tecnologia que temos hoje ainda é muito “não uniforme”, com quebras claramente visíveis.

Em muitas tarefas, como escrever código, já é absolutamente sobre-humana. A IA consegue — e reduz, de facto, bastante o atrito de criar coisas. Mas, ao mesmo tempo, ainda há coisas muito básicas que os humanos conseguem fazer com facilidade, e que a IA ainda tem dificuldade em fazer.

Onde é que traças a linha divisória? De certa forma, isso é mais uma “sensação”, uma avaliação de clima, do que uma questão que possa ser estritamente definida cientificamente neste momento.

Assim, para mim, eu acho que estamos claramente a passar por esse momento. Se tu me mostras hoje estes sistemas cinco anos atrás, eu diria: “Sim, isto é aquilo que estávamos a chamar daquela coisa.” Só que a realidade saiu muito diferente das nossas imaginações. E não se parece muito com qualquer forma que tivéssemos imaginado.

Por isso eu acho que precisamos de ajustar os nossos modelos mentais.

Alex:
Então, a tua ideia é que ainda não chegou?

Greg Brockman:
Eu diria que já chegou, talvez em 70%, 80%. Assim, eu acho que estamos mesmo muito perto.

E eu acredito que há uma coisa que é extremamente clara: nos próximos anos, vamos chegar à AGI. O desempenho pode continuar “irregular” — não vai ser totalmente suave, nem perfeito em todo o lado — mas o limite inferior do que consegue fazer tarefas vai ser empurrado para cima de forma muito alta. Quase para qualquer tarefa intelectual que tu tenhas de fazer no computador, a IA consegue.

Assim, agora eu tenho de dar uma resposta com um pouco de incerteza, porque aqui é algo como um “princípio de incerteza”. Podes discutir isso por definições diferentes. Mas segundo a minha definição pessoal, eu acho que estamos quase lá. Um pouco mais à frente e, com certeza, já lá estaremos.

Viragem crucial: assumir trabalho de 20% para 80%

Alex:

O que é que aconteceu exatamente em dezembro de 2025? Porque parece um ponto de viragem: a ideia de “fazer com que a máquina escreva código durante algumas horas sem ser interrompida” aparentemente deixou de ser uma ideia teórica e passou a ser algo que toda a gente começa a dizer: “Acho que posso confiar nela e deixar que continue a correr por um tempo.”

Então, nesse momento, o que é que aconteceu?

Greg Brockman:
Após o lançamento de um novo modelo nessa altura, a percentagem de tarefas que a IA consegue concluir aumentou de, aproximadamente, 20% do teu trabalho para 80% de uma só vez. É uma transformação extremamente grande. Porque deixou de ser apenas “uma ferramenta bastante boa” e passou a ser: tens de reorganizar o teu fluxo de trabalho em torno dessa IA.

No meu caso pessoal, também houve um momento bem típico e “sentido no corpo”. Ao longo destes anos, eu tenho um prompt de teste: pedir à IA para montar um website para mim. Esse site é algo que eu, na altura em que aprendi programação, construí com as minhas próprias mãos, e levou-me alguns meses.

Em 2025, ainda precisava de cerca de quatro horas e várias rondas de prompts de ida e volta para ficar minimamente decente. Mas em dezembro, eu só perguntei uma vez; a IA fez de uma só vez e ficou muito bem.

Alex:
Então como é que esses modelos conseguiram fazer esse salto?

Greg Brockman:
Uma grande parte da razão é que o modelo base ficou mais forte. A OpenAI tem estado a melhorar continuamente as suas técnicas de pré-treino. Nesse momento, pela primeira vez, nós começámos a ver um pouco do que iria acontecer no resto do ano. Mas não foi apenas um único avanço pontual. De forma mais exata, estamos a avançar de forma contínua em todas as dimensões de inovação.

Uma característica interessante destes modelos é que, de certa forma, tu sentes que surgem “saltos” repetidos. Mas, ao mesmo tempo, também parece uma evolução contínua. Não é que tenha passado de 0% para 80% de repente; é mais que passou de 20% para 80%. Por isso, podes dizer que, em algum sentido, ele só ficou melhor.

E eu acho que este tipo de progresso continuou a acontecer em cada pequena atualização posterior. Por exemplo, de 5.2 para 5.3. Eu tenho um engenheiro com quem trabalho muito de perto; antes, ele não conseguia fazer o modelo executar aquele tipo de trabalho de engenharia de sistemas “de base”, duro, por conta própria. Mas, depois da nova versão, o modelo já consegue pegar no documento de design dele, implementá-lo de facto, adicionar métricas de monitorização e observabilidade, correr profiler para análise de desempenho, e então otimizar continuamente até chegar ao resultado que ele originalmente esperava entregar ele mesmo.

Assim, eu diria que isto é mais um processo de “progresso lento e depois tudo muda ao mesmo tempo”. Mas tudo isso já estava previsto pelas capacidades que se estavam a manifestar naquele momento. No máximo dentro de um ano, muitas coisas — algumas até mais rápido — vão tornar-se extremamente fiáveis.

Alex:
Isto também te surpreendeu, de certa forma? Porque eu lembro-me de que, não há muito, tu tinhas dito numa entrevista que ferramentas de programação automática como o Codex, no início, eram apenas para programadores. Mas mais cedo nesta conversa tu também disseste que afinal qualquer pessoa pode usar este tipo de ferramenta.

O que é que te fez mudar de perspetiva?

Greg Brockman:
No fundo, eu sempre enquadrei o Codex no paradigma de “escrever código”. Afinal, no próprio nome existe “code”, e é natural interpretá-lo como ferramenta para programadores. E dentro da OpenAI, muitas pessoas são engenheiros de software — nós estamos a criar ferramentas para nós próprios, então faz todo o sentido pensar dessa forma.

Mas à medida que esta tecnologia foi evoluindo, começámos a perceber uma coisa: a tecnologia base que nós criámos, na maior parte das vezes, nem sequer é sobre “código”. Na essência, é sobre “resolver problemas”.

O seu núcleo é gerir contexto, montar um quadro de execução e pensar como é que a IA se integra no trabalho real e como é que efetivamente “termina as coisas”. E, quando isso se sustenta, mesmo em cenários de programação, isso significa, de repente, que qualquer pessoa pode obter esta capacidade. Porque tu realmente tens um sistema que pode executar tarefas por ti. Desde que tenhas uma visão e um objetivo a cumprir, se conseguires descrever claramente a tua intenção, a IA executa; consegue fazer.

Mas, então, isto leva-te a questionar: porque é que eu estou tão focado apenas na divisão “não-programação” ou “programação”? Há, na verdade, muito trabalho que é, na essência, uma habilidade mecânica. Por exemplo, folhas de cálculo Excel, fazer apresentações. Se a IA já tem contexto suficiente e inteligência “bruta” suficiente, hoje já consegue fazer isso muito bem.

Assim, se apenas o tornarmos mais fácil de aceder e mais amigável para pessoas, ele deixa de ser “Codex para programadores” e passa a ser “Codex para toda a gente”.

Alex:
E depois de vermos esta vaga de progresso evidente, surgiu rapidamente em Silicon Valley um outro fenómeno quase silencioso: Open Claw, certo? Ou, mais amplamente, o ecossistema tecnológico começou a confiar em IA exatamente do tipo que tu acabaste de descrever — por exemplo, entregar o controlo do desktop a um robô de IA, ou colocar um Mac mini, dar-lhe permissões de e-mail, calendário e ficheiros, e deixar que “assuma a vida” até certo ponto. Mais tarde, a OpenAI também contratou o fundador do Open Claw. Queres falar um pouco mais desta IA que “te ajuda a gerir a vida”? Contratar a equipa do Open Claw está por trás de que visão?

Greg Brockman:
Eu diria que o ponto mais central desta tecnologia é: perceber como ela se torna realmente útil. Perceber como é que as pessoas querem usá-la. Qual é a visão dos agentes de IA e de que forma é que isso entra na vida das pessoas. Estas são questões difíceis.

E uma coisa que eu tenho visto, repetidamente, ao longo destas várias gerações de evolução de tecnologia, é que as pessoas que estão profundamente dispostas a investir, cheias de curiosidade e com uma imaginação muito forte — essa capacidade é, por si só, muito real. E vai tornar-se uma capacidade cada vez mais valiosa na nova economia.

Peter, o fundador do Open Claw, é exatamente esse tipo de pessoa, na minha opinião: tem uma imaginação forte e um impulso de criação muito forte. Assim, de certa forma, isto tem a ver com uma tecnologia específica; mas, de outra forma, não é apenas um problema técnico. É sobre como inserir essas capacidades na vida das pessoas, encontrando o lugar certo onde elas se encaixam verdadeiramente.

Por isso, como um técnico, claro que isto é empolgante. Mas como alguém que realmente se preocupa com entregar valor prático aos utilizadores, também estamos a investir muito neste aspeto; estamos a investir imenso.

Alex:
Tu disseste recentemente uma frase bastante interessante sobre isso. Tu mencionaste que, quando começas a fazer com que estes agentes autónomos de IA trabalhem por ti, passas a ser o “CEO de uma frota de milhares de agentes” — e eles completam os teus objetivos, a tua visão e as tuas tarefas, enquanto tu não te enredas nos detalhes de como esses problemas são resolvidos.

Mas tu também disseste que, de certa forma, este novo modo de trabalho faz com que as pessoas sintam que estão a perder um certo “pulso” sobre o problema em si.

Greg Brockman:
Será que isso é uma boa coisa? Para mim, é uma situação de vantagens e desvantagens.

Assim, eu acho que aquilo que precisamos de fazer é, por um lado, reconhecer o poder que estas ferramentas trazem e, por outro, tentar mitigar as suas fraquezas. Por exemplo, aumentar a alavancagem das pessoas e dar-lhes mais capacidade de ação. Se tens uma visão e uma coisa que queres completar, podes mobilizar uma frota inteira de agentes para fazer isso por ti — isto é muito poderoso.

Mas se pensares no funcionamento do mundo, no final ainda há alguém que precisa ser responsável. Suponhamos que estás a fazer um website e que os teus agentes o estragam, e isso afeta os utilizadores. Estritamente falando, não é culpa dos agentes; é culpa tua. Por isso tens de te importar com isso.

Eu acho que qualquer pessoa que realmente queira usar estas ferramentas precisa reconhecer que a agência humana e a responsabilidade humana são partes centrais do sistema inteiro. Como é que as pessoas usam IA é, em si, algo fundamental.

Assim, eu acho que o ponto mais importante é: como utilizador desses agentes — e isto aplica-se também a nós dentro da OpenAI — tu não podes abrir mão da responsabilidade. Não podes apenas dizer: “a IA vai fazer isso sozinha”.

Alex:
Claro. Mas o que tu disseste agora foi sobre “sentir que estás a perder o pulso do problema”, e isso parece não ser a mesma coisa que responsabilidade.

Greg Brockman:
Para mim, essas duas coisas estão ligadas. O ponto é que, se tu és CEO, mas estás demasiado longe dos detalhes — por exemplo, estás a gerir uma equipa, a operar uma empresa, mas já perdeste a perceção do que acontece na linha de frente — normalmente isso não leva a bons resultados. O que eu quis dizer não é que “os humanos agora finalmente não precisam de saber de nada” seja algo que deva ser perseguido.

Obviamente, alguns detalhes podem ser confiados. Assim como quando contratas um empreiteiro geral para construir a tua casa: há muitos detalhes que talvez não precisas de vigiar pessoalmente porque confias que ele os vai resolver bem. Mas no fundo, se alguns detalhes críticos falharem, tu tens de te preocupar e tens de saber.

Assim, aqui existe uma diferença muito importante: tu não podes simplesmente dizer, “eu aceito perder esse tipo de perceção”. Pelo contrário, devemos dizer de forma ativa: eu ainda preciso manter essa perceção, para realmente compreender os pontos fortes e os pontos fracos do sistema.

E quando te afastas de tarefas mais baixas e mais mecânicas, a razão pela qual consegues fazer isso deve ser porque já estás em confiança com o sistema; certificaste que ele realmente faz as coisas bem.

Alex:
Sobre modelos, eu vou fazer uma última pergunta. Tu mencionaste um caminho de evolução de modelos: pré-treino, depois fine-tuning, depois reforço de aprendizagem, para o tornar melhor a resolver problemas passo a passo e a executar tarefas na internet.

E agora estamos numa fase em que, através desse processo, o modelo aprendeu a usar ferramentas. Se entendi corretamente, qual será o próximo passo dessa trajetória de evolução?

Greg Brockman:
Eu acho que o mundo em que estamos agora é um mundo em que as capacidades das máquinas estão a aprofundar e a expandir. Parte disso tem a ver com uso de ferramentas, mas ao mesmo tempo precisamos de fazer com que “as ferramentas” em si sejam suficientemente boas. Por exemplo, se a IA já consegue “operar o computador”, usando o desktop como um humano, em princípio ela consegue fazer qualquer coisa que tu consigas fazer.

Mas, em paralelo, precisamos fornecer muitas coisas de infraestrutura para as máquinas. Por exemplo, em ambientes empresariais: como implementar autenticação de identidade e gestão de permissões? Como fazer trilhas de auditoria e observabilidade? Para acompanhar o desenvolvimento das capacidades base dos modelos, há muitas tecnologias auxiliares que precisam ser construídas. E, no nível geral da direção, eu acho que o próximo incluirá coisas como “interfaces de voz muito naturais”. Ou seja, tu consegues falar naturalmente com o computador, ele ouve-te, compreende-te de verdade, realiza as coisas que precisas que sejam feitas e também dá recomendações valiosas.

Por exemplo, ele vai lembrar-te: “esta coisa em que tu estás a avançar agora ficou presa; o problema está aqui.” Ou quando tu acordas de manhã, ele vai dizer-te: “este é o teu resumo diário — quanto trabalho os teus agentes avançaram durante a noite.”

Talvez até já esteja a gerir um negócio por ti. Eu acho que este será um grande cenário de aplicação da tecnologia. A democratização do empreendedorismo vai acontecer. Ele pode dizer-te: “Aqui está o que falhou; há um cliente agora que está muito insatisfeito e quer falar com um humano. Melhor seres tu a resolver.” Coisas como essa vão acontecer.

E eu acho que a próxima fase também inclui: o teto dos objetivos que humanos conseguem desafiar vai continuar a ser elevado por esta tecnologia. Nós já vimos o início dessa tendência. O ponto que mais me excita é comparável, quase como uma analogia à 37.ª jogada da AlphaGo — aquela jogada é algo que um humano nunca escolheria por si, tem criatividade e mudou a compreensão de muitas pessoas sobre o jogo.

Isto vai acontecer em cada área. Vai acontecer em ciência, matemática, física, química. Vai acontecer em ciência dos materiais, biologia, medicina, descoberta de medicamentos. E até talvez em literatura, poesia e muitas outras áreas. Vai desbloquear novos espaços para a criatividade humana, para a compreensão e a conceção, de formas que nós ainda não conseguimos imaginar hoje.

Alex:
Mas, se os modelos já são tão fortes como tu estás a dizer, porque é que isto ainda não aconteceu de verdade?

Greg Brockman:
Eu acho que existe um “gap de atraso de capacidades”: há uma diferença grande entre as capacidades reais que o modelo tem e a forma como as pessoas o utilizam na prática. De alguma forma, até a forma como entendemos “o que está dentro do modelo” está a ser construída aos poucos.

Por isso eu acho que, mesmo que a tecnologia não continue a melhorar a partir de agora, ainda assim o mundo vai mudar muito — uma economia impulsionada por computação e por IA ainda vai chegar.

Mas existe também outra camada de razão: atualmente, o que nós fazemos melhor é treinar modelos para tarefas que podem ser “medidas”. No início, partimos de problemas de matemática e de programação, porque existia uma validação muito clara: a resposta está certa ou errada, e isso é fácil de determinar. E nos últimos tempos, para levar o modelo pouco a pouco para problemas mais abertos, nós conseguimos isso expandindo continuamente o “tipo de coisas que podem ser verificadas e avaliadas”.

Mas a própria IA pode ajudar a fazer isso. Se a IA for suficientemente inteligente e compreender bem a tarefa, tu podes dar-lhe um critério de avaliação e ela a

ALEX-8,09%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar