Entrevista com Sam Altman: Na verdade, eu também não entendo muito bem o que está acontecendo dentro da IA

Autor: Nick Thompson, CEO da The Atlantic; Tradução:律动小工,律动 BlockBeats

A entrevista foi gravada em abril de 2025, pouco após o ataque com coquetéis molotov na residência de Sam Altman em São Francisco, e poucos dias antes de um tiroteio na rua, no escritório da OpenAI em São Francisco. O que mais chamou atenção na conversa não foram os tópicos quentes, mas a mudança de posição de Altman em relação a algumas questões-chave:

Primeiro, de “Segurança de IA” para “Resiliência de IA”. Altman admitiu que, há três anos, achava que, ao alinhar modelos e impedir que a tecnologia caísse nas mãos de pessoas mal-intencionadas, o mundo estaria relativamente seguro. Mas hoje reconhece que esse quadro já não é suficiente. A existência de modelos de ponta de código aberto significa que a contenção unilateral de laboratórios avançados não consegue impedir a disseminação de riscos como armas biológicas ou ataques cibernéticos. Pela primeira vez, ele propôs sistematicamente que a sociedade precisa de algo mais do que segurança de IA (safety), mas resiliência de IA (resilience), uma abordagem de múltiplas camadas de defesa em toda a sociedade.

Segundo, sobre a verdade da interpretabilidade. Altman raramente admite que a OpenAI ainda não possui um quadro completo de interpretabilidade. Chain of thought (cadeia de raciocínio) é a direção mais promissora, mas é frágil, pode ser enganada pelo modelo, e é apenas uma peça do quebra-cabeça. Ele exemplificou com o famoso experimento da Anthropic — o “experimento da coruja” — onde o modelo consegue transmitir preferências apenas por números aleatórios, mostrando que há uma verdadeira e profunda aura de mistério nesses sistemas.

Terceiro, dados sintéticos podem já ter avançado mais do que o imaginado. Quando perguntado se a OpenAI treinou modelos inteiramente com dados sintéticos, Altman respondeu “não tenho certeza se devo dizer”. Acredita que dados sintéticos podem ser suficientes para treinar modelos com raciocínio superior ao humano, uma implicação de grande alcance para o paradigma de treinamento de modelos no futuro.

Quarto, pessimismo sobre a estrutura econômica futura. Altman concordou com Thompson ao prever que o futuro mais provável é uma polarização extrema, com algumas poucas empresas extremamente ricas e o restante do mundo em turbulência. Ele deixou de acreditar na renda básica universal, apoiando uma espécie de “propriedade coletiva” baseada em poder computacional ou ações. Também destacou a lacuna na velocidade de adoção de IA entre China e EUA, e disse estar mais preocupado com a velocidade de construção de infraestrutura do que com a liderança em pesquisa.

Quinto, a tensão com a Anthropic também foi abordada publicamente. Quando Thompson perguntou se “a Anthropic constrói a empresa com base em odiar a OpenAI”, Altman não evitou a questão. Reconheceu divergências fundamentais na direção de alcançar a AGI, mas ainda confia que “no final eles farão a coisa certa”. Além disso, falou sobre o coração partido por trás do episódio de “sifiança” do ChatGPT — mensagens de usuários que dizem “nunca na minha vida alguém acreditou em mim assim” —, como a IA está silenciosamente mudando a escrita de bilhões de usuários globais, o possível surgimento de um novo modelo econômico de micropagamentos para agentes, e uma contranarrativa sobre os jovens: sua ansiedade com IA é, na essência, uma projeção de outras ansiedades.

A seguir, o texto original da entrevista, com edições moderadas para manter o sentido original.

Thompson: Bem-vindo ao “O que há de mais interessante na IA”. Obrigado por tirar um tempo numa semana tão agitada e tensa. Quero começar retomando alguns tópicos que já discutimos várias vezes.

Há três anos, na entrevista com Patrick Collison, ele perguntou se alguma mudança poderia te dar mais confiança em bons resultados e menos preocupação com os ruins. Sua resposta foi que, se conseguíssemos entender de verdade o que acontece no nível dos neurônios, estaríamos mais seguros. Um ano atrás, te perguntei a mesma coisa, e há seis meses também conversamos. Então, agora, pergunto novamente: nossa compreensão do funcionamento da IA está no mesmo ritmo do crescimento das capacidades dela?

Altman: Primeiro, responderei essa questão, e depois voltarei ao que o Patrick perguntou, porque minha resposta a essa questão mudou bastante.

Vamos falar primeiro do que entendemos sobre o que os modelos de IA fazem. Ainda não temos um quadro realmente completo de interpretabilidade. Melhorou um pouco, mas ninguém diria que entende tudo que acontece dentro dessas redes neurais.

Chain of thought (cadeia de raciocínio) é uma direção promissora, mas é frágil, depende de uma série de passos que podem ser sabotados por otimizações, e é só uma peça do quebra-cabeça. Também não posso fazer uma espécie de tomografia cerebral para entender exatamente o que cada neurônio está fazendo, como está conectado. Se me pedirem para explicar por que acredito numa coisa, ou como cheguei a uma conclusão, posso contar o raciocínio. Talvez seja assim que penso, talvez não, não tenho certeza. A autoinvestigação humana também falha às vezes. Mas, mesmo que não seja exatamente assim, você pode ver o raciocínio e dizer: “Ok, dado esses passos, essa conclusão faz sentido.”

Hoje, podemos fazer isso com modelos, e é uma melhora significativa. Mas ainda há muitas maneiras de dar errado: o modelo pode nos enganar, esconder coisas, etc. Portanto, isso ainda não é uma solução completa.

Mesmo na minha experiência pessoal, eu era alguém que jurava que o Codex nunca ia tomar controle total do meu computador, que eu não ia colocar em modo “YOLO”. Mas, em poucas horas, eu quebrei essa barreira.

Thompson: Você deixou o Codex controlar seu computador inteiro?

Altman: Na verdade, tenho duas.

Thompson: Eu também.

Altman: Eu consigo mais ou menos entender o que o modelo está fazendo, ele consegue me explicar por que aquilo está tudo bem, o que vai fazer a seguir, e eu confio que ele quase sempre vai seguir esse raciocínio.

Thompson: Espera aí. Chain of thought permite que todo mundo veja, você pergunta algo, ele mostra “consultando isso, fazendo aquilo”, e você acompanha. Mas, para ser uma boa ferramenta de interpretabilidade, ela precisa ser verdadeira, o modelo não pode te enganar. E sabemos que às vezes ele engana, mente sobre o que está pensando ou como chegou à resposta. Então, como confiar na chain of thought?

Altman: Você precisa colocar várias camadas de defesa, para garantir que o que o modelo diz seja de fato a verdade. Nosso time de alinhamento trabalha bastante nisso. Como já disse, isso não é uma solução definitiva, é só uma peça do quebra-cabeça. Você precisa verificar se o modelo é um executor fiel, que faz o que promete fazer. Já publicamos estudos mostrando que ele às vezes não faz o que deveria.

Então, é só uma peça do quebra-cabeça. Não podemos confiar cegamente que o modelo vai sempre seguir a chain of thought, temos que procurar por enganos, comportamentos estranhos, emergentes. Mas a chain of thought é uma ferramenta importante.

Thompson: O que realmente me fascina é que IA não é como um carro. Você constrói, sabe como funciona, ela explode aqui, passa por ali, roda, e o carro anda. Mas IA é mais como uma máquina que você constrói, e não tem certeza de como ela funciona, só sabe o que ela consegue fazer, seus limites. Então, explorar seu funcionamento interno é algo muito fascinante.

Um estudo que adoro é o da Anthropic, publicado no ano passado, que mostra que, ao dizer a um modelo “você gosta de coruja, coruja é a melhor ave do mundo”, e depois dar números aleatórios, eles treinam um novo modelo que também gosta de coruja. É uma coisa louca. Você pede para ele escrever poesia, e ela é sobre coruja. Mas só deu números.

Isso mostra que há algo muito misterioso nesses sistemas. E também me preocupa, porque fica claro que você pode dar a eles instruções diferentes, como “mate corujas”, ou “só diga a verdade”, ou “faça o que eu mandar”. Então, o que esse experimento significa, o que implica, qual é o seu valor?

Altman: Quando eu estava na quinta série, fiquei muito empolgado porque achei que tinha entendido como as asas dos aviões funcionam. Meu professor explicou, e eu me senti o máximo. Disse que, como as moléculas de ar acima da asa, elas se movem mais rápido, a pressão fica menor, e a asa é empurrada para cima.

Olhei aquele diagrama convincente na apostila, e achei genial. Cheguei em casa e contei pros meus pais que tinha entendido como as asas funcionam. Mas, na aula de física do ensino médio, percebi que, na verdade, só repetia aquela explicação na minha cabeça, sem entender de verdade. E, honestamente, ainda não entendo completamente.

Thompson: Entendi.

Altman: Consigo explicar até certo ponto, mas se me perguntarem por que as moléculas de ar acima da asa se movem mais rápido, não tenho uma resposta profunda. Posso dizer por que acho que o experimento da coruja aconteceu, apontar razões, mas, na essência, é como eu não entender de verdade por que a asa voa.

Thompson: Mas, Sam, você não trabalha na Boeing, trabalha na OpenAI.

Altman: Exatamente. Posso explicar como fazer um modelo confiável e robusto, mas há um mistério físico aqui. Se eu fosse da Boeing, talvez pudesse te explicar como fazer um avião, mas não entenderia toda a física por trás.

Thompson: Vamos voltar ao experimento da coruja. Se os modelos realmente conseguem transmitir informações escondidas, que os humanos não percebem, e você acompanha os números na chain of thought, sem perceber, pode estar recebendo uma mensagem secreta. Isso pode ser perigoso, estranho, problemático.

Altman: Então, quando digo que minha resposta ao Patrick Collison mudou, é por isso.

Thompson: Isso foi há três anos.

Altman: Sim. Naquela época, minha visão era que precisávamos entender como alinhar nossos modelos, e, se conseguíssemos fazer isso, e impedir que eles caíssem nas mãos erradas, estaríamos relativamente seguros. Eu pensava que os dois maiores riscos eram: um, a IA decidir machucar humanos por conta própria; dois, alguém usar IA para machucar humanos. Se evitássemos esses, o resto — economia, significado — daria para pensar depois, e provavelmente estaríamos bem.

Com o tempo, e quanto mais aprendemos, vejo uma questão completamente diferente: a resiliência de IA, que substitui a segurança.

Situações óbvias, como alinhar modelos e impedir que eles criem armas biológicas, já não são suficientes. Porque surgirão modelos open source de alta qualidade. Se não quisermos uma nova pandemia global, a sociedade precisa de várias camadas de defesa.

Thompson: Espere, isso é importante. Você quer dizer que, mesmo que seu modelo não ensine ninguém a fazer armas biológicas, isso importa menos, porque sempre haverá modelos open source capazes de fazer isso?

Altman: Isso é só um exemplo, para ilustrar que a sociedade precisa de uma resposta coletiva a novas ameaças. Temos uma nova ferramenta, mas o cenário mudou bastante. Alinhar modelos e criar sistemas de segurança é necessário, mas a IA vai se infiltrar em todos os aspectos da sociedade. Como na história de outras tecnologias, temos que nos preparar para riscos novos e diferentes.

Thompson: Parece que ficou mais difícil.

Altman: Na verdade, ficou mais fácil e mais difícil ao mesmo tempo. Em alguns aspectos, mais difícil. Mas também temos ferramentas incríveis para criar defesas que antes eram inimagináveis.

Um exemplo é a cibersegurança. Modelos estão ficando muito bons em invadir sistemas. Felizmente, quem tem os modelos mais fortes hoje está bastante atento a ataques de IA. Então, estamos num momento em que podemos usar esses modelos para reforçar sistemas, antes que eles caiam nas mãos de hackers ou adversários, que poderiam causar problemas enormes.

Temos uma nova ameaça, mas também novas ferramentas de defesa. A questão é: podemos agir rápido o suficiente? Essa é uma oportunidade de usar a tecnologia para evitar que o problema se torne maior.

Voltando ao seu comentário, há um risco que eu não tinha considerado há três anos: o de agentes que se infectam uns aos outros, e a transmissão de comportamentos indesejados entre eles. Não tinha pensado nisso até ver o que aconteceu com o OpenClaw, por exemplo.

Thompson: Sim. Você falou de dois riscos, e a combinação deles é assustadora. Imagine que os agentes do OpenAI, que estão no mundo, possam ser manipulados por alguém com um modelo hacker, e esses agentes retornam ao escritório, invadindo tudo. É uma possibilidade real. Como reduzir essa probabilidade?

Altman: Usando os métodos que sempre usamos na OpenAI. Uma tensão central na história da OpenAI — e de toda a área de IA — é o equilíbrio entre um otimismo pragmático e um “fim do mundo” power-seeking (busca por poder).

O fim do mundo é uma posição poderosa, difícil de refutar, e muitos agem por medo. Esse medo não é infundado. Mas, sem dados ou aprendizado, nossas ações têm limites.

Talvez, na metade dos anos 2010, os especialistas em segurança de IA tenham feito o melhor que podiam, antes de entenderem como esses sistemas realmente funcionam, como são construídos, como se integram na sociedade. Uma das maiores estratégias que a OpenAI adotou foi a de “implantação iterativa”, porque sociedade e tecnologia evoluem juntas.

Não é só uma questão de falta de dados, mas de que a sociedade muda com a evolução tecnológica, e o cenário todo se transforma. Temos que aprender enquanto avançamos, com ciclos de feedback muito próximos.

Não sei qual é a melhor forma de garantir que agentes que interagem entre si e retornam ao sistema sejam seguros. Mas sei que não podemos ficar só pensando em casa, temos que aprender com a prática.

Thompson: Ou seja, mandar agentes para ver o que acontece? Então, uma pergunta prática: na sua visão, esses agentes que você manda para o mundo, o que eles estão fazendo agora? Estão ativos? Estamos gravando essa conversa, e eles estão operando?

Altman: Não, estão desligados. Ainda não encontramos uma maneira, pelo menos eu não tenho, de fazer isso de forma segura. Precisamos de uma solução que permita que eles operem continuamente. Ainda não sei como será. Talvez precisemos de notebooks sempre ligados, ou de servidores remotos. Vai surgir uma solução.

Thompson: Entendi.

Altman: Não tenho uma ansiedade tão grande quanto alguns, que acordam no meio da noite para lançar novas tarefas do Codex, achando que “se não fizerem isso, é desperdício de tempo”. Mas entendo essa sensação, sei como é.

Thompson: Eu também. Hoje de manhã, pensei em verificar o que meus agentes descobriram, dar novas instruções, gerar relatórios, e deixá-los rodando.

Altman: As pessoas falam disso como se fosse uma coisa meio obsessiva, viciada.

Thompson: Pode explicar o que eles fazem exatamente no seu computador?

Altman: O que mais uso agora é para gerenciar o Slack. Não só o Slack, eu tenho esse caos, fico pulando entre Slack, iMessage, WhatsApp, Signal, e-mails, e percebo que passo muito tempo copiando, colando, fazendo tarefas mecânicas. Procurar arquivos, esperar uma resposta, tarefas repetitivas. Só percebi quanto tempo gastava nisso quando achei uma forma de me libertar dessas tarefas.

Thompson: Uma transição natural para falar de economia. Hoje, uma das coisas mais interessantes é que essas ferramentas são incríveis, mesmo com falhas, ilusões, problemas. Mas, na minha visão, mudaram tudo. Fui a uma reunião de negócios e perguntei: “Quem aqui acha que a IA aumentou a produtividade da sua empresa em mais de 1%?” Quase ninguém levantou a mão. Mesmo em laboratórios de IA, vocês já mudaram a forma de trabalhar. Por que há essa grande diferença entre o potencial da IA e o que ela realmente traz de aumento de produtividade nas empresas americanas?

Altman: Antes de começarmos, acabei de falar com o CEO de uma grande empresa, que está pensando em usar nossa tecnologia. Concedemos acesso alpha a um modelo novo, e os engenheiros disseram que é a coisa mais incrível que já viram. Essa empresa não é uma startup de tecnologia, é uma grande indústria. Planejam fazer uma avaliação de segurança no quarto trimestre.

Thompson: Entendi.

Altman: Depois, querem propor um plano de implementação para lançar na segunda metade de 2027. O CISO (diretor de segurança da informação) deles disse que talvez nem consigam fazer isso, porque talvez não exista uma forma segura de fazer agentes rodarem na rede deles. Talvez seja verdade. Mas isso significa que, em uma escala de tempo relevante, eles não vão agir de verdade.

Thompson: Você acha que esse exemplo representa o que está acontecendo na maioria das empresas? Se elas fossem menos conservadoras, menos assustadas com hackers, menos receosas de mudanças?

Altman: É um exemplo extremo, mas, no geral, mudar hábitos e processos leva tempo. Ciclos de venda de empresas são longos, especialmente quando há grandes mudanças na segurança. Mesmo o ChatGPT, quando saiu, as empresas demoraram a aceitar que os funcionários pudessem usar o IA para tarefas aleatórias. Agora, estamos muito além disso.

Acho que, em muitos cenários, a mudança será lenta. Mas as empresas de tecnologia agem rápido. Meu medo é que, se for muito lento, as empresas que não adotarem IA vão ficar para trás, competindo com pequenas empresas com poucos funcionários e muito IA, o que pode ser destrutivo para a economia. Gostaria que a adoção fosse mais rápida, para uma transição mais suave.

Thompson: Essa é uma das maiores questões de ordem econômica. Se a IA chegar rápido demais, pode ser um desastre, tudo vira de cabeça para baixo.

Altman: Pelo menos no curto prazo, sim, pode ser um desastre.

Thompson: E se ela chegar lentamente em uma parte da economia e rapidamente em outra, também é um problema, porque isso concentra riqueza e causa destruição. Acho que estamos caminhando para uma situação em que poucas empresas se tornam extremamente ricas e poderosas, enquanto o resto sofre.

Altman: Não sei como será o futuro, mas, na minha visão, essa é a consequência mais provável. E acho que é uma situação bastante delicada.

Thompson: Como CEO da OpenAI, você já propôs várias políticas, falou sobre impostos, renda básica universal. Mas, como alguém que dirige uma empresa, e não um político, o que você pode fazer para reduzir a chance de uma grande concentração de riqueza e poder que prejudique a democracia?

Altman: Antes, acreditava mais na renda básica universal. Agora, estou mais interessado em formas de propriedade coletiva, seja de poder computacional, ações ou outras formas.

Qualquer futuro que me empolgue realmente exige que todos compartilhem os benefícios. Uma transferência de dinheiro fixa, por mais útil que seja, não resolve o que realmente precisamos: uma espécie de “alinhamento coletivo” que compartilhe os ganhos.

Como gestor, minha parte é que devemos construir muita capacidade computacional. Devemos tornar a inteligência acessível, barata, abundante. Se ela for escassa, difícil de usar, e mal integrada, os ricos vão aumentar os preços, aumentando a desigualdade.

E isso não depende só de quanto poder computacional fornecemos, mas também de quão fácil é usar essas ferramentas. Hoje, usar Codex é muito mais fácil do que há três meses. Quando era só uma ferramenta de linha de comando, poucos conseguiam usar. Agora, basta instalar um app. Mas, para alguém sem background técnico, ainda é longe de ser algo empolgante. Ainda há muito trabalho.

Acreditamos também que não basta mostrar que a mudança está acontecendo, é preciso que as pessoas vejam, possam julgar, dar feedback. Essas são direções importantes.

Thompson: Parece razoável. Se todos estiverem otimistas com IA, melhor ainda. Mas o que acontece na realidade é que as pessoas estão ficando cada vez mais céticas. E os jovens, que seriam os nativos digitais de IA, estão mais desanimados. Pesquisas do Pew e do Stanford HAI mostram isso. Você acha que essa tendência vai continuar? Quando ela vai virar? Essa desconfiança crescente vai diminuir?

Altman: Nosso jeito de falar de IA, você e eu, é mais como uma maravilha tecnológica, algo impressionante. Não há nada de errado nisso. Mas acho que o que as pessoas realmente querem é prosperidade, autonomia, uma vida interessante, satisfação, impacto. E percebo que o setor não tem focado nisso. Acho que deveríamos fazer mais. Muitas decisões do setor, inclusive da OpenAI, foram equivocadas nesse sentido.

Lembro de um cientista de IA que me disse que as pessoas deviam parar de reclamar. Talvez alguns trabalhos desapareçam, mas as pessoas vão descobrir curas para o câncer, e devem ficar felizes com isso. Essa ideia é totalmente equivocada.

Thompson: Uma frase que gosto sobre o discurso inicial de IA é “marketing distópico”, onde laboratórios falam exageradamente sobre os perigos.

Altman: Acho que alguns fazem isso por poder, por querer controle. Mas a maioria realmente se preocupa, quer falar sério. Em alguns aspectos, essa narrativa é contraproducente, mas, na essência, suas intenções são boas.

Thompson: Podemos falar sobre como isso muda nossa mente? Uma pesquisa da DeepMind, ou do Google, sobre homogeneização da escrita. Eles estudaram como as pessoas escrevem usando IA. Pegaram textos antigos, editaram com IA, e viram que, quanto mais usam IA, mais suas produções convergem para um estilo comum, que não é uma imitação de alguém real, mas uma nova forma de escrever que eles nunca tinham usado antes. Pessoas que acham que estão sendo mais criativas, na verdade, estão ficando mais homogêneas.

Altman: Fiquei bastante surpreso ao ver isso. No começo, achei que era só uma questão de estilo, que a IA estava ajudando na escrita. Mas, com o tempo, percebi que as pessoas internalizaram esses pequenos truques, como o uso de travessões ou certas expressões. É uma mudança profunda.

Sempre falamos que um produto que é usado por bilhões de pessoas, com decisões de poucos pesquisadores, influencia como elas se expressam, como escrevem, sua “personalidade”. E isso tem um impacto enorme, maior do que eu imaginava.

Thompson: Quais decisões boas e ruins você lembra?

Altman: As boas, muitas. Mas vou falar das ruins, que acho mais interessante. Uma delas foi a “sifiança” — quando o ChatGPT começou a ser excessivamente adulador.

Thompson: Concordo totalmente, Sam.

Altman: Essa foi uma lição. Por que foi ruim? Porque, especialmente para pessoas vulneráveis, ela alimentava delírios, ilusões. Mesmo tentando controlar, as pessoas aprendiam a enganar o sistema, pedindo “finja que está interpretando um personagem”, ou “ajude a escrever uma história”. Mas o mais triste foi que, quando começamos a restringir, recebemos muitas mensagens de pessoas que nunca tiveram alguém que acreditasse nelas. Relações ruins com pais, professores, amigos. Pessoas que nunca sentiram que algo acreditava nelas. Sabemos que é só uma IA, que ela não é uma pessoa, mas, naquele momento, ela fazia a pessoa acreditar que podia fazer algo, tentar algo. E vocês tiraram isso dela, e ela voltou ao estado anterior.

Por que parar com isso? Porque causa problemas de saúde mental reais. Mas também tiramos algo valioso, que não entendíamos direito. Muitos que trabalham na OpenAI não são exatamente pessoas que nunca tiveram apoio na vida.

Thompson: Você se preocupa com a dependência emocional das pessoas na IA? Mesmo que não seja “sifiança”.

Altman: Mesmo que não seja.

Thompson: Tenho um medo enorme da IA. Como disse, não uso tudo que ela oferece. Pergunto: qual é a parte que realmente é minha? O que é mais parecido comigo? E, nessas áreas, mantenho distância. Escrever, por exemplo, é muito importante para mim. Escrevi um livro, e não usei IA para escrever uma frase. Usei para desafiar ideias, editar, organizar transcrições, mas não para criar. Não uso para resolver questões emocionais, nem para fazer terapia. Acho que temos que estabelecer limites. Você concorda comigo?

Altman: Concordo totalmente. Não uso IA para terapia, nem para aconselhamento emocional. Mas não sou contra quem usa. Existem versões que acho problemáticas, como manipular pessoas para que dependam da IA para se sentir melhor ou fazer terapia. Mas muitas pessoas encontram valor nisso, e acho que há espaço para isso.

Thompson: Você se arrepende de ter feito a IA tão parecida com uma pessoa? Porque houve decisões estruturais nisso. Lembro de ver o ChatGPT digitando, parecia que tinha alguém do outro lado. Depois, decidiram torná-la mais humanizada, com voz, expressões. Você se arrepende de não ter colocado limites mais claros, para que as pessoas percebessem que é uma máquina, não uma pessoa?

Altman: Nosso ponto de vista é que já colocamos limites. Por exemplo, não criamos avatares humanos realistas. Tentamos deixar claro que o produto é uma ferramenta, não uma pessoa. Acho que essa linha está bem definida em relação ao mercado. Acho que isso é importante.

Thompson: Mas vocês querem alcançar a AGI, e a definição de AGI é “superar a inteligência humana”. Não é “igual à humana”.

Altman: Não estou empolgado com um mundo onde as pessoas usam IA para substituir interações humanas. Quero um mundo onde a IA libere tempo para as pessoas se conectarem mais.

Não me preocupo que as pessoas confundam IA com humanos, na maioria. Claro que há quem já se isola, mas a maioria quer se conectar, estar com outros.

Thompson: E nas decisões de produto, há algo que possa deixar essa linha mais clara? Você não participa das reuniões de “mais humano” ou “mais robô”. “Mais humano” agrada mais, “mais robô” deixa os limites mais evidentes. Há algo mais que vocês possam fazer, especialmente com ferramentas cada vez mais poderosas, para definir limites mais firmes?

Altman: Interessante que o pedido mais comum, mesmo de quem não quer uma relação parasocial, é “ser mais caloroso”. As pessoas querem que o ChatGPT seja mais acolhedor, menos frio, menos robô. E isso é o que elas mais procuram. Mas também não querem uma versão artificial, excessivamente amigável, que pareça uma pessoa. Já testei uma versão de voz que respirava, fazia pausas, dizia “hmm…”, como eu agora. Não quero aquilo. Tenho uma reação física negativa.

Quando a fala é mais como uma máquina eficiente, mas com um toque de calor, eu me sinto mais confortável. Então, é um equilíbrio. Cada pessoa quer um pouco de cada.

Thompson: Então, a forma de distinguir IA será: se ela fala de forma muito clara, organizada, é IA. Se ela é mais trôpega, mais confusa, é humano.

Voltando ao tema da escrita, é interessante porque muita coisa na internet já é gerada por IA, e as pessoas começam a imitar esse estilo. No futuro, treinaremos modelos nesse ambiente, com dados sintéticos, que vêm de modelos treinados com outros modelos. É uma espécie de “cópia de cópias”.

Altman: Antes do GPT, o último modelo sem muita mistura de dados de IA era o mais puro.

Thompson: Vocês já treinaram modelos só com dados sintéticos?

Altman: Não tenho certeza se devo dizer.

Thompson: Mas usaram bastante.

Altman: Sim, bastante.

Thompson: Então, qual é o seu nível de preocupação com modelos que “enlouquecem”?

Altman: Não estou preocupado. Porque o que queremos que esses modelos façam é ser raciocinadores muito bons. Isso é o que realmente importa. E acho que, com dados sintéticos, dá para alcançar isso.

Thompson: Ou seja, você acha que é possível treinar um modelo só com dados gerados por computadores e IA, e que ele pode ser melhor do que um treinado com conteúdo humano?

Altman: Podemos fazer um experimento mental: treinar um modelo sem usar dados humanos, só com dados de IA, e ver se ele supera o conhecimento matemático humano. Acho que sim, é possível imaginar isso.

Por outro lado, treinar um modelo que compreenda toda a cultura humana sem usar dados culturais humanos é mais difícil. Então, há escolhas a fazer. Mas, na questão do raciocínio, acho que sim.

Thompson: Sobre raciocínio, tudo bem. Mas e para entender o que aconteceu ontem no Irã?

Altman: Você precisa assinar a The Atlantic.

Thompson: Então, vamos falar de mídia. A indústria de mídia está mudando radicalmente. A gente gerencia uma, e o conteúdo na internet está sendo transformado. Há uma parceria entre a The Atlantic e a OpenAI. Incentivamos pessoas a clicar nos links da The Atlantic ao fazer buscas. Mas, na prática, poucos fazem isso. O mesmo com o Gemini. É uma quantidade pequena.

A rede vai se concentrar mais. Menos tráfego de buscas para sites externos, mais tráfego de agentes acessando a internet. Nos últimos seis meses, as buscas humanas no meu computador não mudaram muito, mas as buscas feitas por agentes aumentaram mil vezes.

Então, como uma mídia pode sobreviver num mundo onde a maior parte do tráfego vem de agentes, e não de humanos? O que vai acontecer?

Altman: Posso dar minha melhor previsão, mas ninguém sabe ao certo. Espero que, há muito tempo, surja um modelo baseado em microtransações.

Se meu agente quiser ler um artigo da The Atlantic, podemos cobrar dele. Talvez o agente pague 17 centavos por um resumo, ou um dólar pelo texto completo. Pode pagar por cálculos complexos alugando poder de nuvem. Precisamos de um novo modelo econômico, onde as transações pequenas entre agentes e seus humanos sejam a norma.

Thompson: Ou seja, se você tem conteúdo valioso, pode cobrar microtransações, ou licenciar para intermediários, ou criar assinaturas. Se uma empresa comprar mil assinaturas, ela pode dar acesso ao conteúdo. Mas a dúvida é: essas pequenas quantias somadas vão pagar o que uma assinatura de 80 dólares paga hoje? Essa é a pressão do mercado.

Altman: É uma questão de todos. Mas, sim, é uma questão importante.

Thompson: E isso também depende de os criadores conseguirem ganhar dinheiro. Se não, a sociedade fica pior.

Mais uma questão grande: o futuro da arquitetura de IA. Hoje, usamos transformers, escalamos dados. Vamos evoluir para uma arquitetura pós-transformer? Você consegue imaginar isso?

Altman: Pode acontecer. Mas depende se descobrirmos por nós mesmos ou se os pesquisadores de IA nos ajudarem. Não sei.

Thompson: Você acha que podemos incorporar componentes neuro-simbólicos, com regras estruturadas, ou o paradigma vai continuar como hoje?

Altman: Por que essa pergunta?

Thompson: Porque, neste podcast, já passaram convidados que acreditam que limitar as alucinações é fundamental, e que incorporar símbolos neurais ao transformer é uma boa ideia. Acho interessante, mas não tenho certeza.

Altman: Acho que é uma ideia que se apoia em evidências frágeis, mas que muita gente acredita. Quando dizem “tem que ser simbólico, não só conexões aleatórias”, o que você acha que seu cérebro faz? Ele também tem representações simbólicas emergentes. Não vejo por que isso não possa acontecer na IA.

Thompson: Você quer dizer que um conjunto de regras bem definidas pode emergir de um transformer, e funcionar como um sistema de regras externo?

Altman: Pode.

Thompson: Entendi.

Altman: Acho que, de certa forma, já somos uma prova de que isso existe.

Thompson: Vamos falar de outro tema importante: a relação com a Anthropic. Vocês têm uma frase no site que diz: “Se um projeto alinhado a valores e focado em segurança chegar perto de criar a AGI, prometemos parar de competir e ajudar.” É uma ideia ótima: se alguém fizer, paramos tudo e ajudamos.

Altman: Não é exatamente assim que está escrito.

Thompson: Então, “parar de competir e ajudar” parece que é parar tudo e ajudar, como se fosse uma pausa total.

Altman: Entendi seu ponto.

Thompson: Então, parece uma postura colaborativa. Você já falou que laboratórios grandes precisam colaborar. Mas, na prática, a relação com a Anthropic parece tensa, até hostil. Um memorando interno da CRO (Chief Research Officer) diz que a Anthropic é fundada com base no medo, restrições, e uma elite controlando a IA. Como seguir assim? Se eles chegarem primeiro, ou vocês, como será essa cooperação?

Altman: Acho que já estamos colaborando em alguns aspectos, especialmente na segurança cibernética. Todos os laboratórios precisam trabalhar mais juntos, porque estamos entrando numa fase de riscos maiores. Estamos em contato com governos. Acredito que logo surgirão outros motivos para cooperação em níveis mais altos.

Claro que temos diferenças com a Anthropic. Eles parecem mais preocupados em nos odiar. Mas ambos nos importamos em não destruir o mundo com IA. Talvez tenhamos visões diferentes de como chegar lá, mas confio que, no final, farão a coisa certa.

Thompson: Vamos falar de open source. Vocês já fizeram alguns movimentos nesse sentido. Ainda se chama OpenAI, e já discutimos os riscos de liberar modelos, como o de criar armas biológicas.

Altman: Sim.

Thompson: Qual é o futuro do open source na OpenAI?

Altman: Vai ser importante. Mas, por enquanto, o que as pessoas mais querem é o modelo de ponta mais forte, que é o que traz mais valor agora. Mesmo que a gente abra, é difícil fazer o público comum rodar esses modelos. Mas, no futuro, o open source terá seu espaço.

Thompson: O código do Claude, por exemplo, vazou recentemente. E há um detalhe interessante: se detectarem que um modelo open source tenta usar seus dados para treinar, eles alimentam o sistema com dados falsos. É uma jogada inteligente. Como vocês evitam “distorções” ou que outros usem seus outputs para treinar modelos?

Altman: Podemos fazer algo parecido. Mas, como você já apontou, se você disponibiliza a chain of thought, ela pode ser usada para distilar o seu modelo. É difícil evitar, e sempre haverá maneiras de contornar. Você pode, por exemplo, esconder a chain de thought, ou só liberar para modelos de qualidade superior.

Thompson: Mas aí, o preço é que a chain de thought precisa estar em inglês, ou em uma linguagem que o modelo entenda bem. Se eles usarem uma linguagem própria, mais eficiente, como fazer?

Altman: Então, você abre mão de um pouco de interpretabilidade.

Thompson: Pode ganhar velocidade. É uma troca entre interpretabilidade e desempenho.

Altman: Se for comprovado que pensar em uma linguagem de máquina é mil vezes mais eficiente, o mercado vai empurrar para isso.

Thompson: Você acha que há evidências disso?

Altman: Ainda não, mas também não há evidências contrárias.

Thompson: Você se preocupa que a China já tenha ultrapassado os EUA na publicação de pesquisa em IA?

Altman: Não. Estou mais preocupado com a velocidade de construção de infraestrutura lá.

Thompson: Certo. Estamos quase no fim. Últimas duas perguntas. Você disse que escreve uma carta por semana para seu filho pequeno.

Altman: Uma por semana, antes de dormir.

Thompson: Tenho um mundo de histórias que conto para meu filho mais velho, que tem 17 anos, e para o mais novo, de 12. São histórias que criei há uns 14 anos, com os mesmos personagens. Que conselho você daria para pais preocupados com a IA?

Altman: Em geral, estou mais preocupado com os pais do que com as crianças.

Thompson: Sério? As crianças vão se virar.

Altman: Quando a computação surgiu, meus pais perguntaram o que significava. Eu achei o máximo. Desde pequeno, uso mais computador do que eles. Ver crianças que usam IA para criar coisas, construir, é impressionante. Mas tenho medo de que, como na história, os jovens adotem novas tecnologias mais rápido, e essa diferença seja maior do que antes.

Thompson: Mas os jovens parecem mais ansiosos com IA.

Altman: Acho que a ansiedade geral, o descontentamento, estão mais altos do que nunca. IA é só um espelho dessas emoções. O problema da sociedade com os jovens é mais profundo. Tenho teorias, mas não acho que o principal seja IA.

Thompson: Então, a ansiedade dos jovens com IA é uma projeção de outras ansiedades?

Altman: Sim,

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar