Recentemente estou a ler um livro de 165 páginas. O autor, Leopold Aschenbrenner, previu com precisão as tendências atuais da IA há dois anos atrás.


Ele foi despedido da OpenAI em abril de 2024, e em junho escreveu este livro, "Situational Awareness", que na sua essência é um documento de captação de recursos.
Em setembro, fundou o seu próprio fundo de hedge. Este fundo cresceu de mais de 200 milhões de dólares em um ano para 5,5 bilhões, um aumento de 24 vezes.
O retorno líquido no primeiro semestre de 2025 foi de 47%.
À medida que lia, comecei a questionar: com que direito?
Com que direito um rapaz de 22 anos consegue, em 2024, descrever o mundo de hoje?
Consegue ver o futuro porque está na sala onde ele está a ser criado.
No seu círculo em São Francisco, na equipa de Superalignment da OpenAI, trabalhando diretamente sob o chefe de cientistas Ilya Sutskever.
Este livro é, na verdade, uma homenagem a Ilya.
Cada frase que escreveu há dois anos, hoje, ao olhar para trás, quase se concretizou uma a uma.
Ele disse que, no curto prazo, o que mais falta na IA não são algoritmos, mas poder computacional, memória HBM, centros de dados, eletricidade.
Ele afirmou que o verdadeiro gargalo está escondido na embalagem avançada CoWoS.
Disse que a rede elétrica dos EUA será a primeira a travar a todos.
Previu que surgirá um "cluster de um trilhão de dólares".
Mais tarde, esses pontos de vista tornaram-se manchetes.
A OpenAI nomeou esse cluster de Stargate.
Mas tudo isso ainda é apenas um aperitivo.
No livro, ele escreve uma frase:
"Em 2027, a AGI (Inteligência Artificial Geral) chegará."
A lógica é a seguinte: nos últimos quatro anos, a IA evoluiu de um "pré-escolar" GPT-2 para um "estudante do ensino médio inteligente" GPT-4.
Daqui a mais quatro anos, ele diz, a IA será capaz de substituir investigadores humanos, treinando ela própria a IA.
Uma vez que a IA possa estudar a si mesma, ela completará em um ano as iterações de algoritmos que os humanos levariam uma década.
A "explosão de inteligência" começará nesse momento.
Até lá, os humanos já não entenderão o que a IA está a fazer.
O código que ela escreve, as decisões que toma.
Como podemos saber se ela não está a enganar-nos?
Leopold apresenta três soluções no livro.
1. Supervisão fraca e forte.
Usar uma IA com capacidades menores, que os humanos ainda conseguem entender, para supervisionar uma IA forte, muito superior.
A aposta é que a IA mais fraca ainda consegue detectar se a mais forte está a fazer maldade.
Leopold é coautor deste artigo.
2. Debate entre IA.
Fazer várias IA discutirem entre si, desafiar umas às outras, revelar erros.
Os humanos apenas atuam como juízes silenciosos, usando as inconsistências para identificar a mentira.
3. Interpretabilidade mecânica.
Durante o treino, remover os parâmetros perigosos.
Depois, abrir a "cabeça" da IA para ver o que ela realmente está a pensar.
Criar um "detector de mentiras de IA", procurando a "direção da verdade" no seu interior.
Leopold também admite que esta é uma tarefa de nível moonshot, extremamente difícil.
Ao chegar aqui, percebi por que ele terminou com uma foto de Oppenheimer.
Ele está a escrever como se fosse a nova fase do Projeto Manhattan.
Ele mesmo admite que essas três estratégias, no fundo, são apenas "uma tentativa de improvisar".
Nenhuma resolve realmente o problema.
São apenas apostas de que a humanidade aguentará até que o desafio de alinhamento seja resolvido por IA, por si só.
O que estamos a fazer agora não é "resolver a segurança da IA", mas "esperar que a IA resolva a segurança da IA por nós".
Parece uma relação amorosa que não está bem.
Sabemos que há algo errado, mas ainda assim apostamos que ela vai mudar.
Voltando ao investimento, a parte mais valiosa deste livro não é o ano específico de 2027 para a AGI.
A margem de erro é grande: pode ser um ano mais tarde ou meio ano mais cedo.
O mais valioso é a explicação clara de toda a cadeia de gargalos na indústria de IA ao longo de uma década:
Eletricidade > Embalagem avançada / HBM > Poder computacional > Algoritmos > Aplicações.
Quanto mais acima, mais escasso; quanto mais abaixo, mais competitivo.
Leopold mesmo, com dinheiro de verdade, verificou isso pessoalmente no mercado aberto.
Ao fechar o livro, pensei:
Alguns livros, se lidos um ano antes, podem mudar a vida.
Ainda bem, que agora ainda não é tarde.
"See you in the desert, friend."
Ver original
post-image
post-image
post-image
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar