Recentemente estou a ler um livro de 165 páginas. O autor Leopold Aschenbrenner, que há dois anos previu com precisão as tendências atuais do AI.


Ele foi despedido da OpenAI em abril de 2024, e em junho escreveu este livro "Situational Awareness", que na essência é um documento de captação de recursos.
Em setembro, abriu o seu próprio fundo de hedge. Este fundo cresceu de mais de 200 milhões de dólares em um ano para 5,5 bilhões, um aumento de 24 vezes.
O retorno líquido no primeiro semestre de 2025 foi de 47%.
À medida que lia, comecei a questionar: com que direito?
Com que direito um rapaz de 22 anos consegue, em 2024, escrever sobre o mundo de hoje?
Consegue ver o futuro porque está na sala onde ele está a ser criado.
No círculo de São Francisco, na equipa Superalignment da OpenAI, trabalhando diretamente sob o chefe de ciência Ilya Sutskever.
Este livro é uma homenagem a Ilya.
Cada frase que escreveu há dois anos, hoje, ao reler, quase todas se concretizaram.
Ele disse que, no curto prazo, o que mais falta ao AI não são algoritmos, mas poder computacional, memória HBM, centros de dados, eletricidade.
Ele afirmou que o verdadeiro gargalo está na embalagem avançada CoWoS.
Disse que a rede elétrica dos EUA será a primeira a travar a todos.
Previu que surgirá um "cluster de trilhões de dólares".
Mais tarde, esses pontos de vista tornaram-se manchetes.
A OpenAI nomeou esse cluster Stargate.
Na segunda metade de 2025, ele discretamente investiu em minas de Bitcoin.
Não porque acreditasse na valorização da moeda, mas porque percebeu que as fábricas de mineração já possuíam contratos de eletricidade, centros de dados prontos, sistemas de refrigeração de alta potência.
Os recursos escassos na era do AI, como minas de Bitcoin, já estavam disponíveis.
Os mineiros passarão a ser os proprietários de capacidade de cálculo de AI.
A sua lógica:
Primeiro, o AI falta eletricidade.
Segundo, quem controla a eletricidade é o mais escasso.
Terceiro, aqueles que já controlam a eletricidade, mas são desprezados pelo mercado, são as minas de ouro.
Mas tudo isso ainda é apenas um aperitivo.
No livro, ele escreve uma frase:
Até 2027, chegará a AGI (Inteligência Artificial Geral).
A lógica é assim. Nos últimos quatro anos, o AI evoluiu de um "pré-escolar" GPT-2 para um "estudante do ensino médio inteligente" GPT-4.
Daqui a mais quatro anos, ele diz, o AI será capaz de substituir pesquisadores humanos, treinando a si próprio.
Uma vez que o AI possa estudar a si mesmo, a década de avanços algoritmos humanos será concluída em um ano.
A "explosão de inteligência" começará nesse momento.
Até lá, os humanos não entenderão mais o que o AI está a fazer.
O código que escreve, as decisões que toma.
Como podemos saber se ele não está a enganar-nos?
Leopold, no livro, apresenta três soluções.
1. Supervisão fraca e forte.
Usar um AI mais fraco, mas compreensível pelos humanos, para supervisionar o AI mais forte e superior.
Apostar que o AI mais fraco consegue detectar se o mais forte está a fazer maldade.
Leopold é coautor deste artigo.
2. Debate entre AIs.
Fazer com que vários AIs se confrontem, apontando erros, revelando mentiras.
Os humanos apenas atuam como juízes silenciosos, usando as inconsistências para identificar o mentiroso.
3. Interpretabilidade mecânica.
Durante o treino, remover parâmetros perigosos.
Depois, abrir a "cabeça" do AI para ver o que ele realmente está a pensar.
Criar um "detector de mentiras de AI", procurando a "verdade" no seu interior.
Leopold também admite que essa é uma tarefa de nível moonshot, extremamente difícil.
Ao chegar aqui, percebi por que ele terminou com uma foto de Oppenheimer.
Ele vê isso como uma nova versão do Projeto Manhattan.
Ele mesmo admite que essas três estratégias, no fundo, são apenas "gambiarras".
Nenhuma resolve realmente o problema.
Apenas apostam que a humanidade aguentará até que o problema de alinhamento seja resolvido por AI, por si só.
O que estamos a fazer agora não é "resolver a segurança do AI", mas "esperar que o AI resolva a segurança do AI por nós".
Parece uma relação amorosa que não está a correr bem?
Sabemos que há algo errado, mas ainda assim apostamos que ele vai mudar.
Voltando ao investimento, a parte mais valiosa deste livro não é o ano específico de 2027 para a AGI.
A margem de erro é grande, pode ser um ano mais tarde ou meio ano mais cedo.
O mais valioso é que explica claramente toda a cadeia de gargalos na indústria de AI ao longo de uma década:
Eletricidade > Embalagem avançada / HBM > Poder de cálculo > Algoritmos > Aplicações.
Quanto mais acima, mais escasso; quanto mais abaixo, mais competitivo.
Leopold mesmo, com dinheiro real, verificou isso na prática, no mercado aberto.
Ao fechar o livro, pensei:
Alguns livros, se lidos um ano antes, podem mudar a vida.
Ainda bem, que agora não é tarde.
“See you in the desert, friend.”
BTC-1,3%
Ver original
post-image
post-image
post-image
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 1
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
GateUser-e7da0219
· 1h atrás
Oh
Ver originalResponder0
  • Fixar