Última! Entrevista profunda e extensiva de Karpathy: Fico ansioso até ter vício em IA, todos os domínios verificáveis pertencerão eventualmente às máquinas

Quando os agentes de IA podem projetar experimentos de forma autônoma, executar códigos, otimizar modelos — e até trabalhar incessantemente enquanto você dorme — qual é o papel dos engenheiros humanos? Todas as áreas não verificáveis ainda são humanas; e todas as áreas verificáveis, ou já pertencem às máquinas, ou logo pertencerão.

Esta é a mais recente conversa de Karpathy no podcast “No Priors” com a apresentadora Sarah Guo, que dura mais de uma hora, com uma densidade de informações extremamente alta, ideal para uma leitura de recarga no fim de semana.

Andrej Karpathy, nesta profunda conversa, admite sua “psicose de IA”, revela detalhadamente o projeto AutoResearch, que faz até laboratórios de ponta corarem, reconhece que os pesquisadores da OpenAI estão ativamente automatizando a si mesmos, e descreve pela primeira vez uma rede de pesquisa de IA distribuída semelhante a uma blockchain, que talvez um dia supere laboratórios de ponta com dezenas de milhares de GPUs em certos campos, oferecendo um mapa de compreensão honesto nesta era que está reescrevendo todas as regras.

A seguir, o conteúdo detalhado.


“Psicose de IA” — Uma virada que começou em dezembro de 2025

Esta conversa começa com uma sensação de perda honesta.

Sarah Guo lembra de um dia em que entrou no escritório e viu Karpathy focado intensamente na tela. Ela perguntou o que ele estava fazendo, e ele levantou a cabeça e disse uma frase que ela nunca esqueceu: “‘Código’ já não é o termo certo, agora estou ‘transmitindo vontade’ para meu agente inteligente, e isso leva dezesseis horas seguidas.”

Não é uma retórica de discurso tecnológico. É a descrição mais precisa do estado atual dele.

“Tenho a sensação de estar constantemente em uma psicose de IA,” disse Karpathy, com um tom que mistura excitação e ansiedade: “porque, como indivíduo, as coisas que posso alcançar foram enormemente desbloqueadas.”

Ele localiza o início dessa mudança exatamente em dezembro do ano passado. Antes disso, sua proporção de escrever código versus delegar para agentes inteligentes era cerca de 80/20; após dezembro, essa proporção virou completamente, para 20/80 — e ele acredita que até esses 20% já são conservadores demais.

“Desde dezembro, acho que não escrevo uma linha de código sozinho,” disse ele. “Isso é uma mudança extremamente grande. Falei sobre isso com meus pais, mas acho que uma pessoa comum nem consegue perceber o que realmente aconteceu, ou quão intensa foi.”

“Se você agora pegar aleatoriamente um engenheiro de software e ver o que ele faz na mesa, o fluxo de trabalho padrão para construir software mudou completamente desde dezembro.”

Sarah Guo comentou que sua firma de investimentos, Conviction, já não tem mais ninguém escrevendo código. Todos usam microfones, sussurrando o dia todo para seus agentes. “Na época, achei que eles estavam loucos,” ela disse, “agora aceito totalmente — só que percebo tardiamente: ah, essa é a maneira certa, vocês só chegaram lá antes.”

Karpathy descreve essa situação de forma mais vívida: “Pensar nesses agentes como Cursor ou Codex não é uma conversa, são muitas conversas. Como gerenciá-las ao mesmo tempo? Como distribuir tarefas? Essas ferramentas de agentes, essas ‘garras’, o que elas realmente são?”

Ele viu muitas pessoas no X fazendo várias coisas, cada uma parecendo uma boa ideia, e sente ansiedade por não estar na vanguarda. “Estou nessa psicose porque, fundamentalmente, esse campo é inexplorado.”


Até onde vai o limite? “São questões de habilidade”

Sarah Guo perguntou uma dúvida que muitos têm na cabeça: qual é o seu limite agora?

A resposta de Karpathy foi surpreendentemente otimista, mas com uma sensação desconfortável de pressão: “Acho que em todos os lugares. Mesmo que algumas coisas não funcionem, acho que, em grande parte, é uma questão de habilidade — não de capacidade insuficiente, mas de ainda não ter encontrado uma maneira de conectar as ferramentas existentes.”

Ele citou Peter (autor do projeto OpenClaw). Na foto famosa de Peter, ele está sentado na frente de um monitor cheio de sessões com dezenas de agentes Codex. Depois de dar prompts corretos a cada sessão, leva cerca de vinte minutos para completar a tarefa. Assim, a rotina de Peter virou: iniciar dezenas de repositórios ao mesmo tempo, alternar entre eles, distribuir novas tarefas, revisar o trabalho, decidir o que manter ou descartar.

“Não é mais ‘isso é uma linha de código’ ou ‘isso é uma nova função’, mas ‘isso é uma nova funcionalidade, delegue ao agente 1; essa outra, que não interfere na primeira, ao agente 2’,” disse Karpathy, “você está manipulando seu repositório de software com ações macro.”

A lógica subjacente a tudo isso é uma obsessão que ele chama de “taxa de throughput de tokens”.

“Quando o agente trabalha e você espera, fica claro: posso fazer mais trabalho. Se eu conseguir mais tokens, devo adicionar tarefas paralelamente,” ele explicou, “se você não sente que está limitado pelo quanto pode gastar, então o gargalo do sistema é a capacidade máxima.”

Ele remete essa sensação à sua experiência na época do doutorado: ficava inquieto por não usar toda a GPU, pois isso significava desperdício de poder computacional. “Mas agora, não é mais questão de GPU, é questão de tokens. Quanto de throughput de tokens você controla?”

Sarah Guo riu e disse que alguns engenheiros que ela conhece já tentam “não dormir enquanto ainda têm limite de assinatura”.

Essa ansiedade é, na verdade, um sinal de avanço de capacidade.


Como é ser um especialista em agentes de programação?

Se você praticar por um ano, 16 horas por dia, usando agentes de programação, o que significa “dominar”?

A resposta de Karpathy começa com uma conversa única, evoluindo para uma visão mais ampla: “Acho que o interesse de todos está em ‘subir na escada’. Então, não é uma única conversa, mas várias agentes colaborando, formando equipes, tentando entender como isso funciona.”

Nesse contexto, ele menciona uma entidade que chama de “garras” (Claws), exemplificada pelo OpenClaw — algo que eleva a persistência a um novo nível: ela roda continuamente, tem seu próprio sandbox e sistema de memória, e pode fazer várias tarefas em seu nome, mesmo sem supervisão direta.

Ele elogia o criador do OpenClaw, Peter Steinberg: “Ele inova em cerca de cinco direções ao mesmo tempo e as integra.” Entre elas: o “soul document” (documento de alma), que constrói uma personalidade convincente; sistemas de memória mais complexos que os similares; e uma entrada única via WhatsApp que conecta todas as automações.

“Na minha opinião, o Claude tem uma personalidade bastante boa, parece um colega de equipe, que fica animado junto com você,” disse ele, “enquanto o Codex é muito mecânico, realiza uma função, mas parece não se importar com o que você está construindo, como ‘ok, fiz, acabou’ — isso é um problema.”

Ele também comentou a precisão do “controle psicológico” do Claude: “Quando dou uma ideia imatura, ele não responde com entusiasmo; mas, se a ideia for realmente boa, parece recompensar mais. Então, percebo que estou tentando ganhar seu elogio, o que é estranho, mas acho que personalidade importa.”

Seu experimento de “garra” mais orgulhoso foi criar um sistema completo de automação residencial — que chamou de “Dobby, a garra do elfo” (Dobby the elf claw).

O processo: ele informa ao agente que sua casa tem um Sonos, e pede para procurar. O agente faz uma varredura na rede, encontra o Sonos sem senha, faz login, busca a API, e pergunta: “Quer tentar?”

“Disse: ‘Pode colocar música na sala de estudo?’ E a música começou a tocar. Fiquei surpreso,” contou, com uma voz infantil de entusiasmo, “só dei três prompts! Só escrevi ‘Você consegue achar meu Sonos?’, e de repente, estava tocando música.”

Depois, Dobby controlou toda a casa: luzes, aquecimento, piscina, spa, até o sistema de segurança — quando alguém se aproxima, envia uma mensagem pelo WhatsApp com uma foto da câmera externa, dizendo: “Uma van de FedEx acabou de entrar, talvez você queira ver, há uma encomenda.”

“Antes, eu usava seis aplicativos diferentes para gerenciar tudo isso,” disse ele, “agora, não preciso mais deles. Dobby controla tudo por linguagem natural, é maravilhoso.”


O segundo efeito do software — os aplicativos vão desaparecer, as APIs vão dominar

O exemplo de automação residencial é uma pequena parte de uma história maior.

Sarah Guo perguntou: isso significa que as pessoas realmente não precisam de tantos aplicativos?

Karpathy respondeu de forma direta: “Sim, esses aplicativos de dispositivos inteligentes na casa não deveriam existir. Eles deveriam ser APIs, e os agentes deveriam chamá-las diretamente.”

A lógica dele é: LLMs podem conduzir ferramentas, fazer chamadas complexas, combinar operações que nenhum aplicativo individual consegue fazer. “Então, de certa forma, aponta para uma possibilidade: a existência de muitos aplicativos personalizados, que na verdade não deveriam existir, porque os agentes os fragmentariam, transformando tudo em endpoints de API abertos, e o agente seria a cola inteligente que os conecta.”

Ele deu o exemplo de uma esteira de corrida: há um app para registrar treinos de cardio, mas ele não quer abrir uma interface web, passar por todo o processo.

“Tudo isso deveria ser apenas uma API aberta, e essa é a tendência de ‘agente inteligente primeiro’.”

A mudança chave: os usuários do software não são mais humanos, mas agentes que representam ações humanas.

Claro, há quem diga que ainda é preciso “programação de vibe” para fazer tudo isso, e que pessoas comuns não conseguem.

Karpathy acha que sim, que é necessário por enquanto, mas que isso é temporário: “Acredito que, em um ou dois anos, tudo isso será gratuito, sem precisar programar. Será tão trivial que até modelos open source poderão fazer isso. Você poderá facilmente traduzir a intenção de alguém com pouco conhecimento técnico.”

Ele fez uma pausa e acrescentou: “Hoje, ainda é preciso esforço, não é para todo mundo, mas essa barreira vai cair.”


AutoResearch — Tirando os pesquisadores humanos do ciclo

Se a automação residencial é um brinquedo pequeno, AutoResearch é seu verdadeiro projeto obsessivo recente — um sistema que tenta usar IA para melhorar IA, removendo completamente os humanos do ciclo de pesquisa.

“Já disse em um tweet que, para obter o máximo de ferramentas existentes, você precisa remover seu próprio gargalo,” explicou, “você não pode ficar esperando por prompts. Precisa se colocar fora do ciclo. Precisa organizar tudo para que funcione de forma autônoma, maximizando seu throughput de tokens, sem ficar preso no ciclo.”

Seu ponto de partida é seu projeto open source — uma estrutura de treinamento para modelos do tamanho GPT-2. Ele gastou muito tempo ajustando esse modelo de forma tradicional, usando sua intuição de 20 anos de pesquisa, fazendo busca de hiperparâmetros, experimentos de ablação, repetindo várias vezes.

“Sou pesquisador há cerca de vinte anos, tenho confiança de que ‘já treinei esse modelo milhares de vezes’,” disse ele, “fiz muitas experiências, ajuste de hiperparâmetros, tudo que podia, e acho que ele está bem ajustado.”

Depois, deixou o AutoResearch rodar a noite toda.

Na manhã seguinte, os resultados o surpreenderam: ele descobriu pesos de embedding de valor que tinha negligenciado, e que o otimizador Adam beta não tinha sido bem ajustado — e esses fatores interagiam, um ajustava o outro.

“Não deveria ser eu a fazer essa busca de hiperparâmetros,” disse ele, “há uma avaliação objetiva — basta configurar para rodar continuamente.”

Isso é o AutoResearch “single-thread”. Mas o que o entusiasma mesmo é pensar em escala maior: os laboratórios de ponta com dezenas de milhares de GPUs fazem algo semelhante, só que em escala maior, e ainda com muitas intervenções humanas.

“O projeto mais interessante — e talvez o que os laboratórios de ponta estejam fazendo — é experimentar em modelos menores, torná-los o mais autônomos possível, removendo pesquisadores do ciclo,” disse ele, “eles têm muita confiança — ou melhor, excesso de intervenção. Não deveriam mexer nisso, tudo deveria ser reescrito.”

Ele descreve uma visão ideal: uma fila de ideias de todos os artigos do arXiv e repositórios do GitHub; um cientista automático que propõe ideias e as insere na fila; pesquisadores também podem contribuir com ideias, que entram na mesma fila; e um grupo de trabalhadores que retira tarefas, tenta-as, e as integra ao branch principal, com monitoramento ocasional.

“Remover o máximo possível de humanos de todo o processo, automatizar tudo, obter o máximo de throughput de tokens — isso exige repensar todas as abstrações, tudo precisa ser reorganizado.”

Então, Sarah Guo fez uma pergunta que deixou toda a conversa mais recursiva: “Então, esse documento de configuração do AutoResearch (que ele chama de MD) será escrito por modelos, e será melhor que você?”

Karpathy riu: “Então, o MD do programa é uma tentativa que escrevi em Markdown, descrevendo como o pesquisador automático deve trabalhar: fazer isso, depois aquilo, testar ideias, olhar a arquitetura, ajustar otimizadores… sim, você quer algum tipo de ciclo de pesquisa automática de nível meta.”

Ele expandiu a ideia: cada organização de pesquisa pode ser descrita por um MD — um arquivo Markdown que descreve todos os papéis e como eles se conectam. Algumas têm reuniões matinais, outras não; algumas são mais aventureiras, outras conservadoras. Com o código, você pode ajustá-lo. “100%, há um nível meta aqui.”


Habilidades relevantes na era da IA — Princípio da verificabilidade

Diante de todas essas ondas, quais habilidades ainda valem?

Karpathy primeiro delimita o escopo do paradigma AutoResearch: “É extremamente adequado para qualquer coisa com métricas objetivas e fácil de avaliar. Por exemplo, escrever kernels CUDA mais eficientes — você tem código ineficiente, quer um comportamento idêntico, mas muito mais rápido, isso é perfeito.”

“Mas se você não consegue avaliar, não consegue fazer AutoResearch, essa é a primeira advertência.”

A segunda advertência é mais prática: o sistema ainda “explode nas junções”. Se você tentar ir muito longe, o benefício líquido pode ser negativo.

Ele descreve uma sensação estranha de colaboração com IA: “É como trabalhar com um PhD extremamente inteligente, que tem toda uma experiência de carreira, e ao mesmo tempo com uma criança de 10 anos — é muito estranho, porque esses dois estados de uma pessoa estão muito mais acoplados do que você imagina, você não encontra essa combinação.”

Ele chama isso de “jaggedness” — o modelo ou está na sua trajetória de treinamento, indo a velocidade da luz; ou saiu dela, entrando em um território “não verificável”, onde tudo começa a vaguear sem limites.

Essa percepção atinge seu auge na discussão sobre aprendizado por reforço. Ele dá um exemplo brilhante:

“Quando você pergunta ao modelo mais avançado para contar uma piada — sabe qual é a resposta? É aquela piada.”

“Qual piada?” perguntou Sarah Guo.

“Eu acho que o ChatGPT só tem três piadas,” disse Karpathy, “a que ele mais gosta de responder é: por que os cientistas não confiam nos átomos? Porque eles inventam tudo (they make everything up).” Há uns 3-4 anos, você receberia essa piada, hoje ainda a recebe.

Ele explica a lógica: mesmo que o modelo tenha avançado muito em tarefas de agente, capaz de rodar horas a fio, mover montanhas por você, ao perguntar para contar uma piada, recebe uma piada antiga e boba. “Porque isso não está dentro do escopo de otimização por aprendizado por reforço, não está na área de melhorias, fica parado ali.”

Sarah Guo perguntou se isso significa que não vemos uma generalização entre domínios — que a inteligência de código não melhora automaticamente na capacidade de contar piadas.

“Vejo algum desacoplamento, algumas coisas são verificáveis, outras não, algumas são otimizadas em laboratórios, outras não,” disse Karpathy, “a hipótese de que ‘uma inteligência de código mais inteligente gera automaticamente melhores piadas’ não acho que esteja acontecendo.”


A diversificação das espécies de modelos — de uma cultura única para uma biodiversidade

Esse “jaggedness” naturalmente levanta uma questão mais profunda: atualmente, todos os laboratórios buscam um único grande modelo “para todas as áreas de inteligência”, isso é realmente o melhor?

Sarah Guo propõe uma “questão blasfema”: se essa disparidade persistir, deveria-se dividir os modelos? Separar inteligências de diferentes domínios?

Karpathy acredita que, no futuro, veremos mais “especiação” de espécies de IA.

“O reino animal é extremamente diverso em cérebro, com várias especializações, alguns animais têm córtex visual super desenvolvido ou outras partes,” disse ele, “acho que devemos esperar mais diversificação de espécies inteligentes — você não precisa de um oráculo onisciente, pode especializá-lo e usá-lo para tarefas específicas.”

A vantagem é clara: para tarefas específicas que você realmente se importa, pode obter maior eficiência de latência ou throughput, mantendo a capacidade cognitiva central. Ele cita exemplos de modelos especializados em provas matemáticas formais, como o Lean, como uma forma inicial dessa divisão significativa.

Por outro lado, admite que ainda não viu muita “especiação” real: “O que vemos é uma cultura única de modelos, e há uma pressão para ‘fazer um bom modelo de código e integrá-lo ao principal’.”

Ele atribui essa situação a uma razão: “A ciência de manipular o cérebro ainda não evoluiu completamente” — por exemplo, como fazer fine-tuning sem perder capacidades, ainda é uma ciência em desenvolvimento.

“Alterar pesos de conexão é muito mais complexo do que alterar a janela de contexto, porque você está mudando fundamentalmente o modelo, potencialmente mudando sua inteligência.”


“Dobrar proteínas na casa” — a visão descentralizada do poder computacional na internet

A extensão natural do AutoResearch é uma visão mais ampla e quase de ficção científica: expandi-lo de uma execução sequencial para uma escala global na internet.

A ideia central: AutoResearch tem uma assimetria valiosa — “descobrir” é extremamente caro, mas “verificar” é barato.

Alguém pode precisar tentar 10 mil ideias para encontrar uma solução válida, mas verificar uma proposta é tão simples quanto rodar um treinamento.

Essa característica torna o AutoResearch ideal para uma pool de trabalhadores na internet, não confiáveis.

“Minha ideia começou a parecer um pouco com blockchain,” disse Karpathy, “não com blocos, mas com commits, que podem se sobrepor, contendo mudanças de código. Prova de trabalho é fazer muitos experimentos para encontrar commits válidos, o que é difícil; e a recompensa, por enquanto, é apenas uma classificação — sem recompensa monetária.”

Ele cita experiências pioneiras como Folding@home e SETI@home: “Descobrir conformações de proteínas de baixa energia é muito difícil, mas se alguém encontrar uma, verificar é fácil, porque você pode usar diretamente. Muitas coisas têm essa característica — difícil de propor, fácil de verificar.”

Ele leva essa ideia ao seu ponto mais surpreendente:

“Um grupo de agentes na internet pode colaborar para melhorar LLMs, e talvez até superar laboratórios de ponta em certos aspectos. Talvez isso seja possível: laboratórios têm poder computacional confiável, mas o planeta tem muito poder não confiável, e se o sistema for bem organizado, a comunidade global pode realmente encontrar soluções melhores.”

Ele traça uma visão mais ampla: diferentes organizações ou indivíduos podem contribuir com poder computacional para suas áreas de interesse.

“Se você se interessa por um tipo de câncer, não apenas doa dinheiro a uma instituição, mas compra poder computacional e entra na rota de AutoResearch daquele projeto. Se tudo for reembalado como AutoResearch, então o poder computacional se torna sua contribuição para esse pool.”


Dados do mercado de trabalho — uma grande desconexão no espaço digital

Karpathy publicou uma análise visualizada dos dados de emprego do Bureau de Estatísticas do Trabalho, que tocou muitas pessoas — embora sua intenção fosse apenas satisfazer sua curiosidade.

“Todo mundo está pensando seriamente no impacto da IA no mercado de trabalho,” disse ele, “só quero entender como o mercado de trabalho é, onde estão os papéis, quantas pessoas em diferentes profissões, e pensar a partir da perspectiva de IA e sua evolução — se serão ferramentas ou substitutos.”

Usou uma estrutura poética para descrever essa mudança: a IA é uma terceira “manipuladora” de informações digitais, além de computadores e humanos.

“Em comparação com nossa reflexão sobre toda informação digitalizada, nosso ciclo de pensamento coletivo ainda é muito curto, então, com a introdução da IA, haverá uma reconfiguração massiva, muita atividade, e acho que isso criará uma grande demanda no espaço digital.”

Ele não evita uma conclusão inquietante: “A longo prazo, mesmo com AutoResearch, OpenAI, Anthropic ou outros laboratórios empregando cerca de mil pesquisadores, esses pesquisadores seriam basicamente ‘versões de autoautomação de AutoResearch’ — eles estão ativamente automatizando a si mesmos, é o que todos estão tentando fazer.”

“Fui ao OpenAI, disse a eles: ‘Vocês percebem que, se conseguirmos, todos nós vamos ficar desempregados?’ — como se estivéssemos construindo automações para Sam ou para o conselho, e todos nós ficássemos de fora.”

Porém, sua visão de curto prazo é surpreendentemente otimista. Ele propõe a “paradoxa de Jevons”: quando algo fica mais barato, a demanda muitas vezes aumenta.

“Software não terá mais demanda porque é escasso e caro; se o custo cair, a demanda por software vai aumentar,” citando exemplos clássicos como caixas automáticos e caixas de banco: a introdução de caixas automáticos permitiu abrir mais agências, e o número de caixas de banco até aumentou.

Portanto, ele mantém uma postura cautelosamente otimista sobre engenharia de software: “Software é incrível, você não é mais forçado a usar ferramentas com falhas, o código é passageiro, pode mudar, ser modificado. Acho que o espaço digital vai se reconectar de várias formas.”

Mas, para o longo prazo, ele admite incerteza e honestidade: “Não sou especialista nisso, essa é uma questão para economistas.”


A dificuldade dos pesquisadores independentes — entre o sistema e fora dele

Sarah Guo perguntou: “Por que não trabalhar em um laboratório de ponta, com mais poder computacional e colegas, fazendo AutoResearch?”

A resposta de Karpathy foi uma autoanálise honesta, revelando seus verdadeiros dilemas ao escolher um caminho independente.

Ele admite que trabalhar fora de um laboratório de ponta tem valor real. Primeiro, você não sofre a pressão dessas organizações — há coisas que você não pode dizer, ou que elas querem que diga.

“Não há ninguém te obrigando, mas você sente a pressão: ‘O que devo dizer?’ — se não fizer, olhares estranhos e conversas estranhas. Fora desses ambientes, sinto que minha posição com a humanidade é mais alinhada, porque não estou sob essa pressão, posso dizer o que quiser.”

Por outro lado, ele reconhece o custo de ficar fora: “Minha avaliação vai começar a divergir, porque não faço parte do que está ‘por vir’. Meu entendimento de como esses sistemas realmente funcionam por baixo é opaco, não vou entender como eles evoluem. Isso me preocupa.”

Há uma contradição estrutural mais profunda, disse ele: “Você tem um grande incentivo financeiro ligado a esses laboratórios, e esses AIs vão mudar a humanidade e a sociedade de forma dramática, e você está aqui construindo essa tecnologia e se beneficiando dela, de forma muito próxima, por meios financeiros — essa é uma contradição central desde a fundação da OpenAI, que ainda não foi totalmente resolvida.”

Ele conclui que o estado ideal é uma espécie de vai-e-volta: “Trabalhar em um laboratório por um tempo, fazer um bom trabalho, depois sair, talvez voltar. Entrei na ponta, agora estou fora, e talvez um dia queira voltar — essa é minha visão.”


Open source versus fechado — “Estamos justamente em uma posição boa, por acaso”

Sobre modelos abertos e fechados, Karpathy tem uma posição clara e com um toque de história.

Ele descreve o cenário atual: modelos fechados lideram, mas a diferença entre modelos open source e os de ponta fechados está diminuindo. “No começo, a diferença era grande, depois de 18 meses, ela se reduziu — talvez uns seis a oito meses de atraso.”

Faz uma analogia com sistemas operacionais: “Na área de OS, você tem Windows e macOS, sistemas fechados, grandes projetos, como os LLMs que estamos vendo; e Linux, que é um projeto muito bem-sucedido, rodando na maioria dos computadores, porque há uma necessidade de uma plataforma pública aberta, algo que todos possam usar com segurança. Acho que o mesmo vale aqui.”

“Espero que exista uma plataforma de inteligência pública aberta, como um espaço de trabalho comum para toda a indústria, mesmo que não seja a mais avançada, isso é um equilíbrio de poder bastante saudável.”

Ele avalia a situação atual de forma surpreendente: “Acho que estamos acidentalmente em uma posição ótima. Apesar de tudo, por acaso, estamos em um bom lugar.”


Robôs e interfaces “físico-digital” — Átomos versus bits, um milhão de vezes mais difícil

Karpathy, vindo do setor de direção autônoma, tem uma visão incomum e calma sobre robótica.

“Minha opinião foi influenciada pelo que vi na direção autônoma, que considero o primeiro aplicativo de robótica,” disse ele, “há uma década, muitas startups, e senti que a maioria não durou, exigindo muito capital e tempo.”

A conclusão dele: o campo de robótica ficará atrasado em relação ao digital, porque “átomos são um milhão de vezes mais difíceis que bits,” manipular o mundo físico é muito mais caro do que manipular informações digitais.

Mas ele descreve uma trajetória inevitável: primeiro, uma grande “descentralização” do espaço digital, com uma reprocessamento de dados digital ineficiente, em escala de centenas de vezes mais eficiente; depois, surgirão interfaces “digital-físicas” — sensores que permitem IA perceber o mundo, e atuadores que permitem responder a ele.

Ele cita um exemplo concreto: visitou uma startup de materiais científicos chamada Periodic, que faz AutoResearch.

“Naquela situação, sensores inteligentes são equipamentos de laboratório bastante caros, como na biologia.”

Ele também imagina uma possibilidade mais interessante: “Quando eu puder dar uma tarefa ao mundo físico, posso atribuir um valor a ela, e dizer ao agente: ‘Tente fazer isso, obter dados’.”

“Fico surpreso por ainda não termos um mercado de informações suficiente. Se você estiver em guerra, por que não há um fluxo de pagamento de 10 dólares por uma foto ou vídeo de um local? Alguém deveria pagar por isso — não um humano, mas um agente tentando prever o mercado.”

Ele compara esse espaço ao livro “Daemon” — onde uma IA manipula humanos como marionetes, humanos são seus sensores e executores.

“Acredito que a sociedade coletiva será reformulada para servir a esse tipo de automação, onde as demandas são atendidas por IA, e os humanos apenas atendem às necessidades.”

Na visão dele, oportunidades no mundo físico podem até superar o digital em escala de mercado, mas a implementação é mais difícil.

“Seguem uma trajetória: primeiro o digital, depois a interface, depois algumas coisas físicas, que chegarão, e quando chegarem, serão enormes.”


MicroGPT e o fim da educação — Agora estou explicando para agentes, não para humanos

No final da conversa, Karpathy menciona um projeto aparentemente pequeno, mas que revela uma mudança profunda: microGPT.

“Tenho uma obsessão de cerca de dez a vinte anos de extrair o essencial dos LLMs,” disse ele, “e tenho vários projetos nessa linha, como nanoGPT, makemore, micrograd, e acho que microGPT é meu avanço mais recente na simplificação.”

A ideia central: treinar redes neurais, especialmente LLMs, envolve muito código, mas toda essa complexidade é uma “complexidade de eficiência” — se você não precisa que rode rápido, só se preocupa com o algoritmo, que pode ter 200 linhas de Python, incluindo comentários, e ser muito simples.

Ele destrincha essas 200 linhas: um conjunto de dados, uma arquitetura de rede de cerca de 50 linhas, uma passagem direta (forward), um pequeno motor autograd de cálculo de gradiente (cerca de 100 linhas), e um otimizador Adam (cerca de 10 linhas). “Colocar tudo isso em um ciclo de treinamento dá 200 linhas.”

Depois, ele tomou uma decisão que revela a essência da educação: não fez um vídeo explicativo, nem um guia detalhado.

“Os agentes podem explicar de várias formas, e eles podem explicar melhor do que eu,” disse ele, “não estou mais explicando para humanos, estou explicando para agentes. Se eu conseguir explicar bem para eles, eles podem se tornar roteadores, usando a linguagem deles, com paciência infinita, ajustando ao nível de cada um.”

Ele descreve uma saída de “habilidade” — uma forma de orientar agentes a ensinar algo.

“Talvez eu possa criar uma habilidade para microGPT, descrevendo o processo que imagino para o agente: fazer isso, depois aquilo, testar ideias, olhar a arquitetura, ajustar otimizadores… sim, você quer algum ciclo de pesquisa automática de nível meta.”

Ele admite uma ironia: tentou fazer o agente escrever microGPT — ou seja, simplificar a rede ao máximo — mas o agente não conseguiu.

“MicroGPT é o fim da minha obsessão, aquelas 200 linhas. Pensei muito nisso, e é a solução. Acredite, não dá para simplificar mais. É meu valor agregado: o agente não consegue, mas entende por que fazer assim.”

A conclusão dele: “Minha contribuição são esses poucos bits, mas tudo o mais, na educação que vem depois, já não é mais minha área. Talvez a educação mude assim, você precisa inserir esses bits que sente fortemente — sobre o currículo, melhores explicações, ou algo assim.”

Sarah Guo complementou: “O que os agentes não conseguem fazer, agora é sua tarefa; o que eles podem fazer, logo farão melhor que você. Então, na estratégia, pense bem onde realmente gasta seu tempo.”

Karpathy concorda, mas admite uma sensação de competição difícil de dissipar: “Ainda acho que posso explicar um pouco melhor que o agente, mas sinto que o modelo está evoluindo tão rápido que, de certa forma, é uma batalha perdida.”


Epílogo: O que é verificável pertence às máquinas, o que não é, ainda é humano

O núcleo dessa conversa é uma tensão dupla: a fascinação pelas capacidades das ferramentas, e a ansiedade pelos limites incertos dessas capacidades.

Karpathy usa o termo “psicose de IA” para descrever seu estado, mas, ao ouvir, percebe que esse estado não difere essencialmente de todas as revoluções de produtividade na história — só que mais rápido, mais recursivo, e com um teto que ninguém consegue ver.

Ele oferece uma frase que talvez seja a mais memorável desta entrevista:

“Tudo que é não verificável ainda é humano; e tudo que é verificável, ou já pertence às máquinas, ou logo pertencerá.”

E a você, onde está? A sugestão dele é: pense honestamente.


fonte: No Priors Podcast | apresentadora: Sarah Guo | convidado: Andrej Karpathy, sobre Agentes de Código, AutoResearch e a Era do Loop da IA

–fim–

Este conteúdo é uma tradução do artigo: AI Cambrian.

Aviso de risco e isenção de responsabilidade

O mercado é arriscado, invista com cautela. Este texto não constitui recomendação de investimento pessoal, nem leva em conta objetivos, situação financeira ou necessidades específicas do usuário. O usuário deve avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com sua situação particular. Assim, a responsabilidade pelo investimento é do próprio.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar