Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Recentemente estou a ler um livro de 165 páginas. O autor Leopold Aschenbrenner, que há dois anos previu com precisão as tendências atuais do AI.
Ele foi despedido da OpenAI em abril de 2024, e em junho escreveu este livro "Situational Awareness", que na essência é um documento de captação de recursos.
Em setembro, abriu o seu próprio fundo de hedge. Este fundo cresceu de mais de 200 milhões de dólares em um ano para 5,5 bilhões, um aumento de 24 vezes.
O retorno líquido no primeiro semestre de 2025 foi de 47%.
À medida que lia, comecei a questionar: com que direito?
Com que direito um rapaz de 22 anos consegue, em 2024, escrever sobre o mundo de hoje?
Consegue ver o futuro porque está na sala onde ele está a ser criado.
No círculo de São Francisco, na equipa Superalignment da OpenAI, trabalhando diretamente sob o chefe de ciência Ilya Sutskever.
Este livro é uma homenagem a Ilya.
Cada frase que escreveu há dois anos, hoje, ao reler, quase todas se concretizaram.
Ele disse que, no curto prazo, o que mais falta ao AI não são algoritmos, mas poder computacional, memória HBM, centros de dados, eletricidade.
Ele afirmou que o verdadeiro gargalo está na embalagem avançada CoWoS.
Disse que a rede elétrica dos EUA será a primeira a travar a todos.
Previu que surgirá um "cluster de trilhões de dólares".
Mais tarde, esses pontos de vista tornaram-se manchetes.
A OpenAI nomeou esse cluster Stargate.
Na segunda metade de 2025, ele discretamente investiu em minas de Bitcoin.
Não porque acreditasse na valorização da moeda, mas porque percebeu que as fábricas de mineração já possuíam contratos de eletricidade, centros de dados prontos, sistemas de refrigeração de alta potência.
Os recursos escassos na era do AI, como minas de Bitcoin, já estavam disponíveis.
Os mineiros passarão a ser os proprietários de capacidade de cálculo de AI.
A sua lógica:
Primeiro, o AI falta eletricidade.
Segundo, quem controla a eletricidade é o mais escasso.
Terceiro, aqueles que já controlam a eletricidade, mas são desprezados pelo mercado, são as minas de ouro.
Mas tudo isso ainda é apenas um aperitivo.
No livro, ele escreve uma frase:
Até 2027, chegará a AGI (Inteligência Artificial Geral).
A lógica é assim. Nos últimos quatro anos, o AI evoluiu de um "pré-escolar" GPT-2 para um "estudante do ensino médio inteligente" GPT-4.
Daqui a mais quatro anos, ele diz, o AI será capaz de substituir pesquisadores humanos, treinando a si próprio.
Uma vez que o AI possa estudar a si mesmo, a década de avanços algoritmos humanos será concluída em um ano.
A "explosão de inteligência" começará nesse momento.
Até lá, os humanos não entenderão mais o que o AI está a fazer.
O código que escreve, as decisões que toma.
Como podemos saber se ele não está a enganar-nos?
Leopold, no livro, apresenta três soluções.
1. Supervisão fraca e forte.
Usar um AI mais fraco, mas compreensível pelos humanos, para supervisionar o AI mais forte e superior.
Apostar que o AI mais fraco consegue detectar se o mais forte está a fazer maldade.
Leopold é coautor deste artigo.
2. Debate entre AIs.
Fazer com que vários AIs se confrontem, apontando erros, revelando mentiras.
Os humanos apenas atuam como juízes silenciosos, usando as inconsistências para identificar o mentiroso.
3. Interpretabilidade mecânica.
Durante o treino, remover parâmetros perigosos.
Depois, abrir a "cabeça" do AI para ver o que ele realmente está a pensar.
Criar um "detector de mentiras de AI", procurando a "verdade" no seu interior.
Leopold também admite que essa é uma tarefa de nível moonshot, extremamente difícil.
Ao chegar aqui, percebi por que ele terminou com uma foto de Oppenheimer.
Ele vê isso como uma nova versão do Projeto Manhattan.
Ele mesmo admite que essas três estratégias, no fundo, são apenas "gambiarras".
Nenhuma resolve realmente o problema.
Apenas apostam que a humanidade aguentará até que o problema de alinhamento seja resolvido por AI, por si só.
O que estamos a fazer agora não é "resolver a segurança do AI", mas "esperar que o AI resolva a segurança do AI por nós".
Parece uma relação amorosa que não está a correr bem?
Sabemos que há algo errado, mas ainda assim apostamos que ele vai mudar.
Voltando ao investimento, a parte mais valiosa deste livro não é o ano específico de 2027 para a AGI.
A margem de erro é grande, pode ser um ano mais tarde ou meio ano mais cedo.
O mais valioso é que explica claramente toda a cadeia de gargalos na indústria de AI ao longo de uma década:
Eletricidade > Embalagem avançada / HBM > Poder de cálculo > Algoritmos > Aplicações.
Quanto mais acima, mais escasso; quanto mais abaixo, mais competitivo.
Leopold mesmo, com dinheiro real, verificou isso na prática, no mercado aberto.
Ao fechar o livro, pensei:
Alguns livros, se lidos um ano antes, podem mudar a vida.
Ainda bem, que agora não é tarde.
“See you in the desert, friend.”