Fundador da DeepMind em entrevista exclusiva: Arquitetura de AGI, estado atual do Agente e as próximas descobertas científicas na próxima década

Título original do vídeo: Demis Hassabis: Agentes, AGI & A Próxima Grande Descoberta Científica

Fonte original do vídeo: Y Combinator
Tradução original: Deep潮 TechFlow

Introdução do editor

CEO da DeepMind do Google, vencedor do Nobel de Química Demis Hassabis, foi convidado pelo Y Combinator para falar sobre quais avanços-chave ainda estão por vir na direção da AGI, dar conselhos aos empreendedores sobre como manter a liderança, e onde pode surgir a próxima grande descoberta científica.

A avaliação mais prática para empreendedores de deep tech é que, se você iniciar hoje um projeto de deep tech com prazo de dez anos, deve incluir na sua estratégia a chegada da AGI. Além disso, ele revelou que a Isomorphic Labs (empresa de farmacêutica de IA derivada da DeepMind) está prestes a fazer um anúncio importante.

Citações de destaque

Rota e cronograma da AGI

·「As componentes tecnológicas existentes quase certamente farão parte da arquitetura final da AGI.」

·「Aprendizado contínuo, raciocínio de longo prazo, alguns aspectos da memória ainda não estão resolvidos; a AGI precisa de tudo isso.」

·「Se sua linha do tempo para a AGI é por volta de 2030, como a minha, e você começou um projeto de deep tech hoje, deve considerar que a AGI pode surgir no meio do caminho.」

Memória e janela de contexto

·「A janela de contexto é aproximadamente equivalente à memória de trabalho. A memória de trabalho humana tem em média sete dígitos, enquanto nós temos janelas de contexto de milhões ou até dezenas de milhões de tokens. Mas o problema é que colocamos tudo lá dentro, incluindo informações irrelevantes ou erradas, e essa abordagem é bastante grosseira atualmente.」

·「Se quisermos processar streams de vídeo em tempo real e armazenar todos os tokens, um milhão de tokens é suficiente para cerca de 20 minutos.」

Defeitos do raciocínio

·「Gosto de usar o Gemini para jogar xadrez. Às vezes ele percebe que uma jogada é ruim, mas não consegue encontrar uma alternativa melhor, então dá uma volta e faz a jogada ruim mesmo assim. Um sistema de raciocínio preciso não deveria fazer isso.」

·「Ele consegue resolver questões de nível medalha de ouro na IMO, mas ao reformular a pergunta, comete erros de matemática básica de escola primária. Parece que ainda falta algo na introspecção do seu próprio processo de pensamento.」

Agente e criatividade

·「Para alcançar a AGI, você precisa de um sistema que possa resolver problemas de forma proativa. Agent é o caminho, e acho que estamos apenas começando.」

·「Ainda não vi ninguém usando vibe coding para criar um jogo AAA que domine as paradas de aplicativos. Com o esforço atual, isso deve ser possível, mas ainda não aconteceu. Isso indica que falta alguma ferramenta ou fluxo de trabalho.」

Destilação e modelos pequenos

·「Nossa hipótese é que, após o lançamento de um modelo Pro de ponta, sua capacidade pode ser comprimida em um modelo muito pequeno, capaz de rodar em dispositivos de borda. Ainda não atingimos o limite teórico de densidade de informação.」

Descobertas científicas e o “Teste Einstein”

·「Às vezes chamo de ‘Teste Einstein’ a capacidade de treinar um sistema com conhecimentos de 1901 e fazê-lo derivar por conta própria os resultados de Einstein de 1905, incluindo a relatividade restrita. Se conseguir isso, esses sistemas estão próximos de inventar algo totalmente novo.」

·「Resolver um problema de prêmio Millennium já é uma conquista, mas mais difícil ainda é propor um novo conjunto de problemas de Millennium que sejam considerados profundos e dignos de uma vida de pesquisa pelos melhores matemáticos.」

Conselhos para empreendedores de deep tech

·「Buscar problemas difíceis e problemas simples é, na prática, bastante semelhante, só que de formas diferentes. A vida é curta, então é melhor focar naquelas coisas que, se você não fizer, ninguém fará.」

Caminho para a realização da AGI

Gary Tan: Você pensa na AGI há quase mais tempo que todo mundo. Com o paradigma atual, quanto de arquitetura final de AGI você acha que já temos? O que ainda falta fundamentalmente?

Demis Hassabis: Grande escala de pré-treinamento, RLHF, cadeia de raciocínio, tenho certeza de que farão parte da arquitetura final da AGI. Essas tecnologias já mostraram muito até hoje. Não consigo imaginar que, em dois anos, vamos descobrir que são um beco sem saída. Para mim, isso não faz sentido. Mas, além do que já temos, talvez falte uma ou duas coisas. Aprendizado contínuo, raciocínio de longo prazo, alguns aspectos da memória ainda não estão resolvidos.

A AGI precisa de tudo isso. Talvez com as tecnologias atuais e algumas inovações progressivas, seja possível expandir até lá, mas também pode faltar um ou dois pontos-chave. Não acho que mais de um ou dois. Minha avaliação pessoal é que a probabilidade de ainda existirem esses pontos críticos não resolvidos é de uns 50%. Então, na DeepMind, estamos avançando em duas frentes.

Gary Tan: Tenho lidado com muitos sistemas de agentes, e o que mais me impressiona é que, na base, eles usam o mesmo peso repetidamente. Então, o conceito de aprendizado contínuo é muito interessante, porque atualmente estamos basicamente colando as coisas com fita, como esses ciclos de “sonho noturno”, por exemplo.

Demis Hassabis: Exato, esses ciclos de sonho são bem legais. Já pensamos nisso na integração da memória situacional. Meu doutorado foi sobre como o hipocampo integra novas informações de forma elegante ao sistema de conhecimento existente. O cérebro faz isso muito bem.

Ele faz esse processo durante o sono, especialmente no sono REM, onde revisita experiências importantes para aprender com elas. Nosso primeiro programa Atari, o DQN (DeepMind, 2013, uma rede Q profunda que usou reforço profundo para alcançar nível humano em jogos de Atari), conseguiu dominar esses jogos principalmente por meio de experiência de replay.

Aprendemos isso da neurociência: repetir o caminho de sucesso várias vezes. Isso foi em 2013, na AI parece coisa antiga, mas foi fundamental na época.

Concordo com você, hoje estamos basicamente colando as coisas com fita. Colocamos tudo na janela de contexto. Parece errado. Mesmo que façamos isso com máquinas, não com cérebros biológicos, teoricamente poderíamos ter janelas de contexto de milhões ou dezenas de milhões de tokens, e memória perfeita, mas o custo de busca e recuperação ainda existe. Encontrar informações realmente relevantes no momento de decisão não é simples, mesmo que tudo esteja armazenado. Então, vejo espaço enorme para inovação na área de memória.

Gary Tan: Honestamente, uma janela de contexto de um milhão de tokens já é maior do que eu esperava, e dá para fazer muita coisa.

Demis Hassabis: Para a maioria dos cenários, sim, é suficiente. Mas pense: a janela de contexto é aproximadamente equivalente à memória de trabalho. A memória de trabalho humana tem em média sete dígitos, enquanto nossa janela de contexto pode chegar a milhões ou dezenas de milhões de tokens. O problema é que colocamos tudo lá, incluindo informações irrelevantes ou erradas, e essa abordagem é bastante grosseira. E, se você quiser processar streams de vídeo em tempo real, simplesmente armazenar tudo em uma janela de um milhão de tokens só dá para cerca de 20 minutos. Mas, se você quer que o sistema entenda sua vida de um ou dois meses, ainda está longe de ser suficiente.

Gary Tan: DeepMind sempre investiu pesado em reforço e busca. Essa filosofia está profundamente embutida na construção do Gemini? O reforço ainda é subestimado?

Demis Hassabis: Talvez sim, de fato. Essa área tem altos e baixos. Desde o primeiro dia na DeepMind, trabalhamos com sistemas de agentes. Todo o trabalho em Atari e AlphaGo, na essência, foi sobre agentes de reforço, sistemas que podem alcançar objetivos, tomar decisões, planejar por conta própria. Começamos no domínio de jogos, porque a complexidade era controlável, e depois evoluímos para jogos mais complexos, como AlphaStar, após AlphaGo, praticamente cobrimos todos os jogos possíveis.

A questão agora é: podemos generalizar esses modelos para criar modelos de mundo ou de linguagem, além de apenas jogos? Nos últimos anos, temos trabalhado nisso. Hoje, os principais modelos de pensamento e cadeia de raciocínio que eles usam são, na essência, uma retomada do que o AlphaGo começou.

Acho que muito do que fizemos na época é altamente relevante para o que fazemos hoje. Estamos revisitando essas ideias antigas, usando maior escala, de forma mais geral, incluindo métodos como busca de Monte Carlo (Monte Carlo tree search) e outras técnicas de reforço. Os conceitos de AlphaGo e AlphaZero estão extremamente relacionados aos modelos de base atuais, e acredito que grande parte do progresso nos próximos anos virá daí.

Destilação e modelos pequenos

Gary Tan: Agora, para sermos mais inteligentes, precisamos de modelos maiores, mas a destilação também evolui, e modelos menores podem ficar bastante rápidos. Seus modelos Flash são muito bons, atingem cerca de 95% do desempenho dos modelos de ponta, mas custam só uma décima parte. É isso mesmo?

Demis Hassabis: Acho que essa é uma das nossas principais vantagens. Primeiro, você precisa criar o maior modelo possível para alcançar capacidades de ponta. Uma das nossas maiores forças é que conseguimos rapidamente destilar e comprimir essas capacidades em modelos cada vez menores. A destilação foi uma invenção nossa, e ainda somos líderes mundiais nisso. Além disso, temos forte motivação de negócio para fazer isso. Somos provavelmente a maior plataforma de aplicações de IA do mundo.

Com o AI Overviews, AI Mode e Gemini, todos os produtos do Google, incluindo Maps, YouTube, etc., estão integrando Gemini ou tecnologias relacionadas. Isso envolve bilhões de usuários e dezenas de produtos com bilhões de usuários. Eles precisam de alta velocidade, eficiência, baixo custo e baixa latência. Isso nos motiva a otimizar ao máximo os modelos Flash e Flash-Lite, para que sejam extremamente eficientes, e espero que isso também beneficie os usuários em suas tarefas diárias.

Gary Tan: Tenho curiosidade até que ponto esses modelos menores podem ser realmente inteligentes. A destilação tem limites? Modelos de 50B ou 400B podem ser tão inteligentes quanto os maiores atuais?

Demis Hassabis: Não acho que atingimos o limite teórico de densidade de informação ainda, pelo menos ninguém sabe se isso existe. Talvez algum dia encontremos um teto de densidade, mas atualmente nossa hipótese é que, após o lançamento de um modelo Pro de ponta, sua capacidade pode ser comprimida em um modelo muito pequeno, capaz de rodar em dispositivos de borda, em cerca de seis meses a um ano.

Vocês podem ver isso no modelo Gemma, por exemplo, o Gemma 4, que tem desempenho muito forte na mesma escala. Isso tudo envolve muita destilação e otimizações de eficiência de modelos pequenos. Então, realmente, não vejo limites teóricos, estamos longe disso.

Gary Tan: Uma coisa absurda é que, atualmente, a quantidade de trabalho que engenheiros conseguem fazer é de 500 a 1000 vezes maior do que há seis meses. Aqui na sala, alguns estão fazendo o equivalente a um engenheiro do Google dos anos 2000, mil vezes mais trabalho. Steve Yegge já comentou isso.

Demis Hassabis: Acho isso empolgante. Modelos menores têm muitas aplicações. Uma delas é o custo baixo e a velocidade alta, que trazem benefícios. Em tarefas de codificação ou outras, você consegue iterar mais rápido, especialmente ao colaborar com sistemas. Sistemas rápidos, mesmo que não sejam de ponta, com 90-95% do desempenho, já são suficientes, e a velocidade de iteração traz um retorno muito maior do que esses 5-10% de diferença.

Outro grande benefício é rodar esses modelos em dispositivos de borda, não só por eficiência, mas por privacidade e segurança. Pense em dispositivos que lidam com informações altamente pessoais, ou robôs domésticos. Você vai querer que eles rodem localmente um modelo eficiente e potente, deixando tarefas mais complexas para a nuvem. Processar áudio e vídeo localmente, manter os dados na ponta, pode ser o estado final ideal.

Memória e raciocínio

Gary Tan: Voltando à memória e ao contexto. Os modelos atuais são sem estado. Com aprendizado contínuo, como seria a experiência do desenvolvedor? Como você orientaria esses sistemas?

Demis Hassabis: Essa é uma questão muito interessante. A falta de aprendizado contínuo é uma grande limitação atual dos agentes. Os agentes atuais são úteis em partes específicas de uma tarefa, podem ser combinados para fazer coisas legais, mas não se adaptam bem ao ambiente específico em que estão. Essa é a razão de ainda não serem “autônomos” de verdade; eles precisam aprender o seu cenário particular. Para alcançar inteligência geral, esse problema precisa ser resolvido.

Gary Tan: E quanto ao raciocínio? Como estão as coisas? Os sistemas atuais têm cadeias de raciocínio fortes, mas ainda cometem erros que um estudante inteligente não cometeria. O que precisa mudar? Quais avanços você espera?

Demis Hassabis: Ainda há muito espaço para inovação na forma de pensar. O que fazemos é bastante rudimentar e grosseiro. Pode melhorar muito, por exemplo, monitorando o processo de cadeia de raciocínio e intervindo durante o raciocínio. Acho que, tanto nossos sistemas quanto os concorrentes, às vezes pensam demais, entram em ciclos viciosos.

Gosto de usar o Gemini para jogar xadrez como exemplo. Todos os modelos de base avançados são ruins em xadrez, o que é interessante.

Observar suas trajetórias de raciocínio é valioso, porque xadrez é um domínio bem compreendido. Consigo rapidamente perceber se eles estão se desviando, se o raciocínio é válido. O que vemos é que, às vezes, eles consideram uma jogada ruim, percebem que é ruim, mas não encontram uma alternativa melhor, então fazem a jogada ruim mesmo assim. Um sistema de raciocínio preciso não deveria fazer isso.

Essa grande lacuna ainda existe, mas consertar isso pode exigir só uma ou duas mudanças. Por isso, você vê o que chamam de “inteligência serrilhada” (jagged intelligence): ela consegue resolver problemas de nível medalha de ouro na IMO, mas, ao reformular a pergunta, comete erros de matemática básica. Parece que ainda falta algo na introspecção do seu próprio processo de pensamento.

Capacidade real do agente

Gary Tan: Agentes são um tema amplo. Alguns dizem que é só hype. Eu acho que estamos apenas começando. Na sua avaliação, qual é a verdadeira capacidade dos agentes na DeepMind? Quanto da propaganda é real?

Demis Hassabis: Concordo, estamos no começo. Para alcançar a AGI, é preciso de um sistema que possa resolver problemas de forma proativa. Sempre soubemos disso. Agent é o caminho, e acho que estamos apenas começando.

Temos explorado bastante como fazer os agentes colaborarem melhor no trabalho. Muitos aqui também. Como integrar agentes ao fluxo de trabalho, fazer com que eles não sejam só um complemento, mas que realmente façam tarefas fundamentais. Ainda estamos na fase de experimentação. Talvez nos últimos dois ou três meses tenhamos começado a encontrar cenários realmente valiosos. A tecnologia já chegou a um ponto em que não é mais só demonstração de brinquedo, mas realmente traz valor para seu tempo e eficiência.

Vejo muitas pessoas iniciando dezenas de agentes e deixando-os rodar por horas, mas ainda não tenho certeza se o resultado compensa o esforço.

Ainda não vimos alguém usando vibe coding para criar um jogo AAA que domine as paradas de aplicativos. Eu mesmo já criei alguns protótipos, e muitos aqui também. Consigo fazer um protótipo de “Theme Park” em meia hora, enquanto aos 17 anos levei seis meses para fazer o mesmo.

Tenho a sensação de que, se você dedicar um verão inteiro, pode criar algo realmente incrível. Mas ainda assim, é preciso talento, criatividade, alma no produto. Você precisa incorporar esses elementos em qualquer coisa que construa. Na verdade, ainda não há um jogo de sucesso que venda mais de dez milhões de cópias feito por um pequeno time, com as ferramentas atuais isso deveria ser possível. Então, falta alguma coisa, talvez no fluxo de trabalho, nas ferramentas. Espero ver esses resultados nos próximos 6 a 12 meses.

Gary Tan: Em que grau tudo isso será automatizado? Acho que não será tudo de uma vez. O caminho mais provável é que, primeiro, as pessoas atinjam mil vezes mais eficiência, e depois usem essas ferramentas para criar aplicativos e jogos de sucesso, e só então a automação de outros processos acontecerá.

Demis Hassabis: Exatamente, esse é o primeiro passo.

Gary Tan: Também é verdade que alguns já estão fazendo isso, mas não querem admitir o quanto os agentes ajudaram.

Demis Hassabis: Pode ser. Mas quero falar sobre criatividade. Sempre uso o AlphaGo como exemplo, especialmente a jogada 37 da segunda partida. Para mim, esse momento foi um divisor de águas, e foi por isso que comecei projetos como o AlphaFold. Voltando de Seul, começamos a trabalhar no AlphaFold no dia seguinte, há dez anos. Fui a Coreia para celebrar o décimo aniversário do AlphaGo.

Mas só fazer a jogada 37 não é suficiente. É impressionante, útil, mas será que esse sistema consegue inventar o próprio jogo de Go? Se você der uma descrição de alto nível, como “um jogo que pode ser aprendido em cinco minutos, mas que leva uma vida para dominar, com estética elegante, e que pode ser jogado em uma tarde”, o sistema consegue retornar com o resultado “Go”? Hoje, esse nível de raciocínio ainda não é possível. Por quê?

Gary Tan: Talvez alguém na sala consiga fazer isso.

Demis Hassabis: Se alguém conseguir, a resposta não é que o sistema não tem capacidade, mas que estamos usando de forma errada. Talvez essa seja a resposta certa. Talvez os sistemas atuais já tenham essa capacidade, só precisam de um criador genial para impulsioná-los, dar alma ao projeto, e esse criador precisa estar altamente integrado às ferramentas. Se você passar o dia e a noite usando essas ferramentas, com criatividade profunda, talvez consiga criar algo além da imaginação.

Código aberto e modelos multimodais

Gary Tan: Mudando de assunto, sobre open source. O lançamento do Gemma permite que modelos muito poderosos rodem localmente. Como você vê isso? IA vai se tornar algo que o usuário controla, e não só na nuvem? Isso mudará quem pode construir produtos com esses modelos?

Demis Hassabis: Somos apoiadores firmes de open source e ciência aberta. O AlphaFold foi totalmente aberto e gratuito. Nosso trabalho científico continua sendo publicado em periódicos de ponta. Quanto ao Gemma, queremos criar modelos líderes de mercado na mesma escala. Já tivemos cerca de 40 milhões de downloads em duas semanas e meia após o lançamento.

Acho importante que exista uma forte presença de tecnologia ocidental no open source. Os modelos chineses são excelentes e lideram atualmente, mas acreditamos que o Gemma é altamente competitivo na mesma escala.

Temos um problema de recursos: ninguém tem capacidade de computação sobrando para treinar dois modelos de ponta ao mesmo tempo. Nossa decisão atual é: modelos de borda para Android, óculos, robôs, etc., devem ser abertos, pois uma vez implantados nos dispositivos, eles ficam expostos. Melhor abrir tudo de uma vez. Temos uma estratégia de abertura unificada em nível nanométrico, que faz sentido na estratégia geral.

Gary Tan: Antes de você entrar, mostrei uma demonstração do meu sistema operacional de IA, onde posso interagir com o Gemini por voz. Ainda estou nervoso, mas funcionou. O Gemini foi construído desde o início como multimodal. Já usei muitos modelos, mas a interação por voz com ferramentas, com compreensão de contexto, é incomparável.

Demis Hassabis: Exato. Uma vantagem do Gemini que ainda não foi totalmente reconhecida é que desde o começo foi construído de forma multimodal. Isso torna o início mais difícil do que só fazer texto, mas acreditamos que, a longo prazo, trará grandes benefícios, e já estamos começando a colher esses frutos.

Por exemplo, no campo de modelos de mundo, construímos o Genie (modelo de ambiente de interação generativa da DeepMind) sobre o Gemini. No robótica, o Gemini Robotics será baseado em modelos multimodais, e nossa vantagem nessa área se tornará uma barreira de entrada. Também estamos usando cada vez mais o Gemini no Waymo (empresa de direção autônoma do Alphabet).

Imagine um assistente digital que te acompanha no mundo real, talvez no seu celular ou óculos, que precisa entender o ambiente físico ao seu redor. Nosso sistema é muito forte nisso. Continuaremos investindo nessa direção, e acredito que nossa liderança nessas questões será grande.

Gary Tan: O custo do raciocínio está caindo rapidamente. Quando o raciocínio se tornar quase gratuito, o que será possível? Sua equipe vai mudar seu foco de otimização?

Demis Hassabis: Não tenho certeza de que o raciocínio será realmente gratuito, pois há a paradoxa de Jevons (Jevons’ Paradox), que diz que melhorias de eficiência podem aumentar o consumo total. Acho que, no final, todo mundo vai usar toda a capacidade computacional disponível.

Podemos imaginar milhões de agentes colaborando, ou um pequeno grupo de agentes pensando em várias direções ao mesmo tempo e integrando os resultados. Estamos experimentando essas abordagens, e tudo isso consumirá recursos de raciocínio.

Na área de energia, se resolvermos problemas como fusão nuclear controlada, supercondutividade em temperatura ambiente, ou baterias de alta eficiência, podemos chegar a custos de energia quase zero. Mas, na fabricação de chips, ainda há gargalos físicos, que provavelmente vão durar décadas. Portanto, o limite de capacidade de raciocínio continuará existindo, e precisaremos usar esses recursos de forma eficiente.

Próxima Descoberta Científica

Gary Tan: Felizmente, modelos menores estão ficando mais inteligentes. Muitos fundadores de biotecnologia e ciências da vida na sala. O AlphaFold 3 já superou proteínas e se expandiu para moléculas biológicas mais amplas. Quanto falta para modelar sistemas celulares completos? É uma questão de nível de dificuldade totalmente diferente?

Demis Hassabis: O progresso da Isomorphic Labs tem sido excelente. O AlphaFold é só uma etapa no processo de descoberta de medicamentos. Estamos trabalhando em pesquisa bioquímica relacionada, como projetar compostos com propriedades corretas, e em breve teremos anúncios importantes.

Nosso objetivo final é criar uma célula virtual completa, um simulador de célula funcional, onde você possa aplicar perturbações, e que produza resultados próximos aos experimentais, com aplicações práticas. Você poderá pular etapas de busca, gerar dados sintéticos em grande quantidade para treinar outros modelos, e fazer previsões sobre o comportamento de células reais.

Acredito que levará cerca de dez anos para criar uma célula virtual completa. Estamos começando pelo núcleo celular, que é relativamente autossuficiente. O segredo é encontrar uma fatia de complexidade adequada, que seja auto-contida, e que possamos aproximar com precisão sua entrada e saída, focando nesse subsistema. O núcleo celular é um bom ponto de partida.

Outro problema é a escassez de dados. Conversei com top cientistas de microscopia eletrônica e outras técnicas de imagem. Se pudermos fazer imagens de células vivas sem matá-las, isso seria revolucionário, pois transformaria o problema em uma questão de visão, que já sabemos como resolver.

Porém, até agora, não há tecnologia capaz de fazer imagens de células vivas em resolução nanométrica sem destruí-las. Conseguimos imagens estáticas de alta resolução, o que é empolgante, mas ainda não é suficiente para um sistema de visão completo.

Existem duas abordagens: uma é hardware e dados, a outra é construir simuladores mais avançados para modelar esses sistemas dinâmicos.

Gary Tan: Você não vê só biologia. Materiais, descoberta de fármacos, clima, matemática — se tivesse que fazer uma classificação, quais áreas serão mais transformadas nos próximos cinco anos?

Demis Hassabis: Cada área é empolgante, e é por isso que minha paixão por ciência e AI é tão grande. Sempre acreditei que IA será a ferramenta definitiva para avançar na ciência, na medicina, na compreensão do universo.

Nossa missão, inicialmente, era em duas etapas: primeiro, resolver a inteligência, criar a AGI; segundo, usar essa inteligência para resolver todas as outras questões. Depois, ajustamos a formulação, porque alguém perguntou se realmente pretendíamos resolver tudo.

E a resposta é sim. É exatamente isso. Agora, as pessoas começam a entender o que isso significa. Especificamente, quero dizer que queremos resolver o que chamo de “problemas de raiz” na ciência, aqueles que, uma vez resolvidos, desbloqueiam novas áreas de descoberta. O AlphaFold é um protótipo do que queremos fazer.

Mais de três milhões de pesquisadores no mundo usam o AlphaFold. Ouvi de executivos de farmacêuticas que, no futuro, quase todos os medicamentos passarão por etapas de descoberta usando AlphaFold. Nos orgulhamos disso, é o impacto que esperamos da IA. Mas isso é só o começo.

Não consigo imaginar uma área científica ou de engenharia que a IA não possa ajudar. As áreas que você mencionou estão na fase “AlphaFold 1”, com resultados promissores, mas ainda sem o grande desafio. Nos próximos dois anos, veremos avanços em materiais, matemática, e muitas outras áreas.

Gary Tan: Parece uma espécie de Prometeu, dando à humanidade uma capacidade totalmente nova.

Demis Hassabis: Exatamente. Mas, como na história de Prometeu, devemos ser cautelosos com o uso dessa capacidade, onde ela será aplicada, e com o risco de uso indevido das mesmas ferramentas.

Experiências de sucesso

Gary Tan: Muitos aqui tentam fundar empresas que usam IA na ciência. Na sua opinião, qual a diferença entre startups de ponta e aquelas que só colocam uma camada de API em modelos básicos, se autodenominando “IA para Ciência”?

Demis Hassabis: Pensando bem, se eu estivesse na sua posição, assistindo ao Y Combinator, como eu agiria? Uma coisa é prever a direção da tecnologia de IA, o que é difícil. Mas acredito que há uma grande oportunidade em cruzar IA com outro campo de deep tech. Essa interseção, seja em materiais, medicina ou outras ciências difíceis, especialmente envolvendo o mundo atômico, não terá atalhos nos próximos anos. Essas áreas não serão dominadas por uma atualização de modelo de base. Se você quer uma direção defensiva, essa é a minha recomendação.

Sempre gostei de deep tech. Coisas duradouras e valiosas não são fáceis. Desde 2010, quando começamos, a IA era deep tech — investidores diziam “isso não vai dar certo”, a academia achava que era uma moda fracassada dos anos 90.

Mas, se você acredita na sua ideia — por que ela será diferente desta vez? Qual sua combinação única de background? Idealmente, você é especialista em aprendizado de máquina e aplicações, ou consegue montar uma equipe fundadora assim. Nesse caso, há um potencial enorme de impacto e valor a ser criado.

Gary Tan: Essa informação é valiosa. Uma coisa que funciona parece óbvia, mas antes de acontecer, todo mundo duvida.

Demis Hassabis: Claro, por isso é importante fazer o que realmente te apaixona. Para mim, é IA. Desde pequeno, decidi que essa seria minha contribuição mais impactante. E isso se confirmou, embora talvez tenha sido prematuro, 50 anos antes do tempo.

E também é o que acho mais divertido. Mesmo hoje, se estivéssemos numa garagem, ainda tentaria continuar. Talvez voltasse para a academia, mas encontraria uma forma de seguir em frente.

Gary Tan: AlphaFold é um exemplo de uma aposta certa. O que faz um campo científico ser propício a uma inovação como essa? Existe algum padrão, como uma função objetivo específica?

Demis Hassabis: Preciso escrever isso algum dia. Uma lição que aprendi com AlphaGo, AlphaFold e outros projetos Alpha é que eles funcionam melhor quando:

Primeiro, o problema tem um espaço de busca combinatória enorme, quanto maior, melhor — a ponto de nenhuma busca exaustiva ou algoritmo especial resolver. Os espaços de jogadas de Go e as conformações de proteínas superam em muito o número de átomos do universo. Segundo, é importante definir claramente a função objetivo, como minimizar energia livre de proteínas ou ganhar no xadrez, para que o sistema possa fazer otimização por gradiente. Ter um simulador ou dados suficientes também ajuda, para gerar exemplos de treinamento.

Se esses três fatores estiverem presentes, as técnicas atuais podem avançar bastante, encontrando a “agulha no palheiro”. Na descoberta de medicamentos, é a mesma lógica: encontrar uma molécula que cure uma doença sem efeitos colaterais, dentro das leis físicas. AlphaFold mostrou que esses sistemas podem explorar vastos espaços de busca para encontrar essas agulhas.

Gary Tan: Gostaria de elevar o nível. Discutimos que a humanidade usou esses métodos para criar o AlphaFold, mas há também um meta nível: usamos IA para explorar hipóteses possíveis. Quanto falta para que sistemas de IA possam fazer raciocínio científico de verdade, e não só reconhecimento de padrões de dados?

Demis Hassabis: Acho que estamos bem próximos. Estamos desenvolvendo sistemas generalistas. Temos um chamado AI co-scientist, e algoritmos como o AlphaEvolve, que vão além do Gemini básico. Todos os laboratórios de ponta estão explorando essa direção.

Porém, até agora, não vi uma descoberta científica realmente importante feita por esses sistemas. Mas acho que está chegando. Pode estar relacionada à criatividade, a uma ruptura nos limites do conhecimento. Nesse nível, não é mais só reconhecimento de padrão, porque não há padrão para reconhecer. É mais uma forma de raciocínio por analogia, que esses sistemas ainda não possuem, ou que ainda não usamos corretamente.

Uma métrica que uso na ciência é: o sistema consegue propor uma hipótese realmente interessante, e não só testar uma hipótese existente? Porque validar uma hipótese também é uma conquista, como provar a hipótese de Riemann ou resolver um problema de Millennium. Mas talvez estejamos a poucos anos de fazer isso.

Mais difícil ainda é propor um novo conjunto de problemas de Millennium, considerados profundos por matemáticos de ponta, que valham uma vida de pesquisa. Acho que isso é um nível acima, e ainda não sabemos como fazer. Mas não vejo isso como magia. Acredito que esses sistemas podem fazer, e talvez só falte uma ou duas coisas.

Um método de avaliação que proponho é o “Teste Einstein”: treinar um sistema com conhecimentos de 1901 e ver se ele consegue derivar, de forma autônoma, as descobertas de Einstein de 1905, incluindo a relatividade restrita. Acho que devemos realmente fazer esse teste, repetir várias vezes, até conseguir. Quando isso acontecer, esses sistemas estarão próximos de inventar algo totalmente novo.

Recomendações para empreendedores

Gary Tan: Última questão. Muitos aqui têm background técnico profundo e querem criar algo do tamanho de vocês. Vocês são uma das maiores organizações de pesquisa em IA. Como alguém que já esteve na linha de frente da pesquisa de AGI, há algo que vocês sabem agora e que gostariam de ter sabido aos 25 anos?

Demis Hassabis: Já discutimos parte disso. Você vai perceber que buscar problemas difíceis e problemas simples é, na prática, bastante semelhante, só que de formas diferentes. Cada um tem suas dificuldades. Mas a vida é curta, e é melhor dedicar sua energia àquelas coisas que, se você não fizer, ninguém fará. Use esse critério para escolher.

Outro ponto é que, nos próximos anos, a combinação de diferentes áreas será mais comum. IA vai facilitar a integração entre elas.

Por fim, depende da sua linha do tempo para a AGI. A minha é por volta de 2030. Se você começar um projeto de deep tech hoje, provavelmente levará uma década. Então, deve planejar a chegada da AGI no meio do caminho. O que isso significa? Não necessariamente algo ruim, mas você precisa pensar nisso. Seu projeto pode usar AGI? Como ela vai interagir com seu projeto?

Voltando ao exemplo do AlphaFold e de sistemas de IA geral, posso imaginar que sistemas como Gemini, Claude ou similares usarão sistemas especializados como o AlphaFold como ferramentas acessadas por API. Não acho que faremos tudo em um único sistema gigante.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar