Título original: Sam Altman e o Capitalismo do Apocalipse
Autor original: 动察 Beating
Fonte original:
Reprodução: Mars Finance
Em 2016, The New Yorker escreveu um perfil sobre Sam Altman, intitulado “O Destino de Sam Altman”. Na época, ele tinha 31 anos e já era o CEO do Y Combinator, o incubador mais influente do Vale do Silício.
O artigo menciona um detalhe: Altman gosta de velocidade, possui cinco carros esportivos e gosta de alugar aviões para pilotar. Ele disse ao jornalista que tem duas malas, uma delas sempre pronta para fugir.
Ele também preparou armas, ouro, iodeto de potássio (para proteção contra radiação nuclear), antibióticos, baterias, água, máscaras de gás de nível militar israelense, e possui uma propriedade na Big Sur, na Califórnia, de onde pode decolar de avião para se refugiar.
Dez anos depois, Altman tornou-se aquele que mais se dedica a criar o apocalipse e a vender a arca de Noé. Ao mesmo tempo que alerta o mundo de que a IA pode destruir a humanidade, acelera esse processo; afirma que não faz isso por dinheiro, enquanto constrói um império de investimentos pessoais avaliado em 2 bilhões de dólares; apela à regulamentação, enquanto elimina todos que tentam frear seu avanço.
Mais do que um louco esquizofrênico ou um gênio sem escrúpulos, ele é, na verdade, o produto mais padrão e bem-sucedido da grande máquina do Vale do Silício. Sua “missão” é transformar a ansiedade coletiva da humanidade em seu cetro e coroa.
O apocalipse é um ótimo negócio
O modelo de negócio de Altman é simples: transformar uma atividade comum em uma cruzada sagrada pela sobrevivência da humanidade.
Ele começou a praticar essa estratégia ainda na época do YC. Transformou o YC, que inicialmente era uma pequena oficina que dava alguns milhares de dólares a startups iniciais, em um império de empreendedorismo. Criou um laboratório de pesquisa, financiando projetos grandiosos que não geravam lucro imediato. Disse ao jornalista que o objetivo do YC é apoiar “todos os setores importantes”.
Quando chegou à OpenAI, levou essa estratégia ao extremo. Vendeu uma visão de mundo englobando: “Fim do mundo pela IA + plano de salvação”.
Ele é especialmente hábil em retratar os “riscos de extinção” trazidos pela IA. Assinou uma carta com mais de cem cientistas, comparando os riscos da IA aos de uma guerra nuclear. Testemunhando no Senado, afirmou: “Sentimos um pouco de medo do potencial da IA — e as pessoas deveriam ficar felizes com isso.” Sugerindo que esse medo é, na verdade, um alerta útil.
Cada uma dessas declarações vira manchete e faz publicidade gratuita à OpenAI. Essa estratégia de criar medo cuidadosamente calibrado é a alavanca de atenção mais eficiente. Uma tecnologia que “aumenta a eficiência” versus uma que “pode destruir a humanidade” — qual delas excita mais o capital e a mídia? A resposta é óbvia.
Quanto à parte de salvação, ele já tem um produto pronto: o Worldcoin. Quando o medo é implantado na consciência pública, vender soluções se torna natural. Usando uma esfera prateada do tamanho de uma bola de basquete para escanear íris globalmente, alegando que é para distribuir dinheiro às pessoas na era da IA. A história é convincente, mas essa prática de trocar dados biométricos por dinheiro rapidamente despertou a atenção de vários governos. Quatorze países, incluindo Quênia, Espanha, Brasil, Índia e Colômbia, suspenderam ou investigaram o Worldcoin por questões de privacidade.
Para Altman, talvez isso nem importe. O que realmente importa é que, com esse projeto, conseguiu se posicionar como “a única pessoa com uma solução”.
Vender medo e esperança em pacote é o modelo de negócio mais eficiente desta era.
Regulação é minha arma, não minha prisão
Como um que vive dizendo que o fim do mundo está próximo faz negócios? A resposta de Altman é: transformar a regulação na sua arma.
Em maio de 2023, ele foi pela primeira vez ao Congresso dos EUA testemunhar. Ao contrário de outros CEOs de tecnologia, não reclamou da regulação, mas pediu: “Regulamentem-nos.” Propôs um sistema de licenças para IA, onde apenas empresas com licença poderiam desenvolver modelos avançados. Assim, mostrou-se um líder responsável, mas, na prática, a OpenAI, na época, liderava tecnicamente. Uma regulamentação rígida e de alta barreira serviria, na verdade, para bloquear potenciais concorrentes.
Com o tempo, especialmente quando Google, Anthropic e a comunidade open source começaram a avançar, a narrativa de Altman sobre regulação mudou. Ele passou a defender que regulações excessivas, especialmente a obrigatoriedade de revisões antes do lançamento, poderiam sufocar a inovação — uma “catástrofe”.
Hoje, a regulação deixou de ser uma barreira de proteção e virou um obstáculo.
Quando está na frente, pede regulação para manter a vantagem; quando perde espaço, clama por liberdade para avançar. Tentou até estender sua influência ao topo da cadeia de produção de chips, propondo um plano de US$ 7 trilhões, apoiado por fundos soberanos como o dos Emirados Árabes, com o objetivo de remodelar o mercado global de semicondutores. Isso vai muito além do papel de um CEO comum, mais parece o de um visionário ambicioso de moldar o cenário mundial.
Por trás de tudo isso, está a rápida transformação da OpenAI de uma organização sem fins lucrativos para uma gigante comercial. Fundada em 2015 com a missão de “garantir que a AGI beneficie toda a humanidade de forma segura”, em 2019 criou uma subsidiária de “lucro limitado”. Em 2024, descobriu-se que a frase “de forma segura” foi silenciosamente removida de sua declaração de missão. Apesar de manter a estrutura de “lucro limitado”, a velocidade de comercialização acelerou. A receita explodiu, de dezenas de milhões de dólares em 2022 para mais de 10 bilhões em 2024, elevando sua avaliação de US$ 29 bilhões para trilhões.
Quando alguém começa a falar de destino da humanidade, é bom verificar onde seu dinheiro está.
Construção de personagem: o privilégio do líder carismático
Em 17 de novembro de 2023, Altman foi demitido pelo conselho que ele mesmo escolheu, sob a alegação de “falta de transparência na comunicação com o conselho”.
Nos cinco dias seguintes, mais do que uma disputa empresarial, foi uma espécie de referendo de crenças. O CEO Greg Brockman renunciou; 95% dos funcionários, mais de 700 pessoas, assinaram uma carta pedindo a saída do conselho, ameaçando migrar para a Microsoft; Satya Nadella, CEO da Microsoft, declarou que estaria sempre disposto a contratar Altman. No final, Altman retornou ao cargo, reestabelecendo sua autoridade e expulsando quase todos os membros do conselho que o contestaram.
Como um CEO considerado “não transparente” pelo conselho conseguiu retornar ileso e ainda ampliar seu poder?
Helen Tona, ex-membro do conselho, revelou detalhes: Altman ocultou seu controle sobre o fundo de investimento de OpenAI; mentiu várias vezes sobre os processos de segurança; e, na verdade, o conselho só soube do lançamento do ChatGPT pelo Twitter. Essas acusações, por si só, já seriam suficientes para derrubá-lo várias vezes.
Mas Altman não foi afetado. Porque ele não é um CEO comum: é um “líder carismático”.
Esse conceito, criado pelo sociólogo Max Weber há um século, diz que há uma autoridade que não vem do cargo ou da lei, mas do “charme pessoal extraordinário” do líder. Seus seguidores acreditam nele não porque ele fez algo certo, mas porque ele é quem é. Essa crença é irracional. Quando o líder erra ou é desafiado, a primeira reação dos seguidores não é duvidar dele, mas atacar o desafiante.
Os funcionários da OpenAI agem assim. Não confiam na justiça dos procedimentos do conselho, mas na “missão” que Altman representa. Acham que o conselho está “atrasando o progresso humano”.
Após sua reintegração, a equipe de segurança da OpenAI foi rapidamente dissolvida. O cientista-chefe, Ilya Sutskever, que liderou a demissão de Altman, também saiu. Em maio de 2024, Jan Leike, chefe da equipe de segurança, renunciou no Twitter, dizendo: “Para lançar produtos brilhantes, a cultura e os processos de segurança da empresa foram sacrificados.”
Diante de um “líder carismático”, fatos, processos e segurança perdem importância. O que importa é a fé.
Os profetas da linha de produção
Sam Altman é apenas o mais recente e bem-sucedido produto da linha de produção de “profetas” do Vale do Silício.
Nessa mesma linha, há muitos nomes conhecidos.
Por exemplo, Elon Musk. Em 2014, dizia que “IA é uma invocação do demônio”. Mas sua Tesla é, na verdade, a maior empresa de robótica e IA do mundo, com cenários de aplicação extremamente complexos. Após romper com Altman, em 2023, fundou a xAI, assumindo uma postura de confronto. Em um ano, a xAI já valia mais de 20 bilhões de dólares. Ele alerta para o “demônio” que criou, enquanto constrói outro. Essa narrativa dual, de ameaça e salvação, é idêntica à de Altman.
Outro exemplo é Mark Zuckerberg. Nos últimos anos, apostou tudo na meta do metaverso, gastando quase 90 bilhões de dólares, só para descobrir que era um fracasso. Logo mudou de estratégia, passando a focar em AGI. Em 2025, anunciou a criação de um “Laboratório de Superinteligência”, recrutando talentos. Assim como Altman, trabalha uma narrativa de grande escala, com investimentos astronômicos, assumindo o papel de salvador da humanidade.
E Peter Thiel, mentor de Altman, é mais um arquiteto dessa linha. Investe em empresas que pregam “singularidade tecnológica” e “imortalidade”, compra terras na Nova Zelândia e constrói bunkers do apocalipse. Obteve cidadania em apenas 12 dias. Sua empresa, Palantir, é uma das maiores do mundo em monitoramento de dados, atendendo governos e forças armadas. Em operações militares contra o Irã, em 2026, a plataforma de IA da Palantir foi o cérebro que integrou dados de satélites, interceptações e drones, identificando alvos e coordenando ações de eliminação.
Cada um deles desempenha um papel duplo: alertar para o fim do mundo e impulsionar sua chegada. Não é uma personalidade dividida, mas uma estratégia de negócios validada pelo mercado. Criam e vendem ansiedade estrutural para capturar atenção, capital e poder. São produto e criadores do sistema, os “vilões por trás da grande narrativa”.
O Vale do Silício deixou de ser apenas um centro de tecnologia; é uma fábrica de “mitos modernos”.
Por que essa estratégia funciona sempre?
A cada poucos anos, uma nova geração de “profetas” surge, com uma narrativa grandiosa de fim do mundo e redenção, conquistando capital, mídia e público. Essa estratégia se repete e funciona repetidamente, pois ataca vulnerabilidades específicas da cognição humana.
Primeiro: gerenciar o ritmo do medo, não apenas criá-lo.
Os riscos da IA são reais, mas podem ser discutidos com frieza. Esses atores escolhem apresentar o medo de forma dramática, controlando cuidadosamente o ritmo da liberação de ansiedade.
Quando gerar medo, quando oferecer esperança, quando elevar o alerta — tudo é planejado. O medo é combustível, mas o timing e a forma de acender a chama são a verdadeira técnica.
Segundo: transformar a incompreensibilidade da tecnologia em fonte de autoridade.
A IA é uma caixa preta totalmente opaca para a maioria. Quando algo tão complexo que não pode ser totalmente entendido surge, as pessoas tendem a delegar a explicação aos “que mais entendem”. Eles entenderam isso profundamente e transformaram em vantagem estrutural: quanto mais misteriosa, perigosa e além da compreensão comum eles descrevem a IA, mais insubstituíveis se tornam.
Essa lógica é auto reforçadora. Qualquer dúvida externa é automaticamente desconsiderada, pois quem questiona “não entende o suficiente”. Reguladores não entendem de tecnologia, portanto suas avaliações não são confiáveis; acadêmicos que não trabalharam na linha de frente também não têm credibilidade. Assim, só eles podem julgar a si mesmos.
Terceiro: substituir “interesses” por “significado”, levando seguidores a abandonarem a crítica.
Essa é a camada mais difícil de detectar, mas também a mais duradoura. Eles vendem não apenas um produto ou emprego, mas uma narrativa de grande significado cósmico: você está decidindo o destino da humanidade. Uma vez aceita, essa narrativa faz com que os seguidores abandonem o julgamento independente. Porque, diante de uma missão que envolve “sobrevivência humana”, questionar as motivações do líder é parecer um obstáculo à história. Assim, entregam sua capacidade de crítica, entendendo isso como uma escolha nobre.
Juntando esses três passos, fica claro por que esse sistema é tão difícil de ser derrubado. Ele não depende de mentiras, mas de uma compreensão precisa da estrutura cognitiva humana. Primeiro, cria um medo que não pode ser ignorado; depois, monopoliza sua interpretação; por fim, usa o “significado” para transformar você no seu mais fiel propagador.
Dentro desse sistema, Altman é o modelo mais bem-sucedido até agora.
Quem é o seu destino?
Altman sempre afirmou que não possui ações da OpenAI, recebendo apenas um salário simbólico, sustentando sua narrativa de “trabalhar por amor”.
Porém, a Bloomberg, em 2024, calculou seu patrimônio pessoal em cerca de 2 bilhões de dólares, principalmente provenientes de investimentos feitos nos últimos dez anos. Investiu na Stripe, que teria retornado bilhões; na Reddit, que também lhe trouxe lucros; e na empresa de fusão nuclear Helion, apostando na energia do futuro. Segundo ele, a energia é a chave para o futuro da IA, e seu investimento na Helion mostra que ele está de fato interessado nisso, mesmo que diga que evita negociações diretas.
Embora não tenha participação direta na OpenAI, construiu um império de investimentos centrado nele. Cada grande discurso sobre o futuro da humanidade reforça esse império.
E agora, ao revisitar seu antigo kit de fuga do apocalipse — com armas, ouro, antibióticos e uma propriedade na Big Sur — talvez haja uma nova compreensão: ele nunca escondeu isso. O kit é real, a fortaleza é real, sua obsessão pelo fim do mundo também é. Mas ele é, ao mesmo tempo, aquele que mais trabalha para que o apocalipse aconteça. Essas duas coisas não se excluem, pois, na lógica dele, o fim do mundo não precisa ser evitado, só precisa ser antecipado. Ele quer ser o único a ver o futuro claramente e estar preparado para ele.
Seja preparando uma fuga material ou construindo um império financeiro ao redor da OpenAI, no fundo, tudo é uma mesma estratégia: garantir, no futuro incerto que ele mesmo impulsiona, um lugar de vitória para si.
Em fevereiro de 2026, pouco depois de afirmar que “IA não deve ser usada na guerra”, assinou um contrato com o Pentágono. Isso não é hipocrisia, é a essência do seu modelo de negócio. A postura moral é parte do produto, o contrato comercial é a fonte de lucro. Precisa atuar como um salvador compassivo e um profeta do apocalipse ao mesmo tempo, pois só assim sua narrativa faz sentido, e seu “destino” fica claro.
O verdadeiro perigo nunca foi a IA, mas aqueles que acreditam ter o direito de definir o destino da humanidade.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Sam Altman e o capitalismo do apocalipse
Título original: Sam Altman e o Capitalismo do Apocalipse
Autor original: 动察 Beating
Fonte original:
Reprodução: Mars Finance
Em 2016, The New Yorker escreveu um perfil sobre Sam Altman, intitulado “O Destino de Sam Altman”. Na época, ele tinha 31 anos e já era o CEO do Y Combinator, o incubador mais influente do Vale do Silício.
O artigo menciona um detalhe: Altman gosta de velocidade, possui cinco carros esportivos e gosta de alugar aviões para pilotar. Ele disse ao jornalista que tem duas malas, uma delas sempre pronta para fugir.
Ele também preparou armas, ouro, iodeto de potássio (para proteção contra radiação nuclear), antibióticos, baterias, água, máscaras de gás de nível militar israelense, e possui uma propriedade na Big Sur, na Califórnia, de onde pode decolar de avião para se refugiar.
Dez anos depois, Altman tornou-se aquele que mais se dedica a criar o apocalipse e a vender a arca de Noé. Ao mesmo tempo que alerta o mundo de que a IA pode destruir a humanidade, acelera esse processo; afirma que não faz isso por dinheiro, enquanto constrói um império de investimentos pessoais avaliado em 2 bilhões de dólares; apela à regulamentação, enquanto elimina todos que tentam frear seu avanço.
Mais do que um louco esquizofrênico ou um gênio sem escrúpulos, ele é, na verdade, o produto mais padrão e bem-sucedido da grande máquina do Vale do Silício. Sua “missão” é transformar a ansiedade coletiva da humanidade em seu cetro e coroa.
O apocalipse é um ótimo negócio
O modelo de negócio de Altman é simples: transformar uma atividade comum em uma cruzada sagrada pela sobrevivência da humanidade.
Ele começou a praticar essa estratégia ainda na época do YC. Transformou o YC, que inicialmente era uma pequena oficina que dava alguns milhares de dólares a startups iniciais, em um império de empreendedorismo. Criou um laboratório de pesquisa, financiando projetos grandiosos que não geravam lucro imediato. Disse ao jornalista que o objetivo do YC é apoiar “todos os setores importantes”.
Quando chegou à OpenAI, levou essa estratégia ao extremo. Vendeu uma visão de mundo englobando: “Fim do mundo pela IA + plano de salvação”.
Ele é especialmente hábil em retratar os “riscos de extinção” trazidos pela IA. Assinou uma carta com mais de cem cientistas, comparando os riscos da IA aos de uma guerra nuclear. Testemunhando no Senado, afirmou: “Sentimos um pouco de medo do potencial da IA — e as pessoas deveriam ficar felizes com isso.” Sugerindo que esse medo é, na verdade, um alerta útil.
Cada uma dessas declarações vira manchete e faz publicidade gratuita à OpenAI. Essa estratégia de criar medo cuidadosamente calibrado é a alavanca de atenção mais eficiente. Uma tecnologia que “aumenta a eficiência” versus uma que “pode destruir a humanidade” — qual delas excita mais o capital e a mídia? A resposta é óbvia.
Quanto à parte de salvação, ele já tem um produto pronto: o Worldcoin. Quando o medo é implantado na consciência pública, vender soluções se torna natural. Usando uma esfera prateada do tamanho de uma bola de basquete para escanear íris globalmente, alegando que é para distribuir dinheiro às pessoas na era da IA. A história é convincente, mas essa prática de trocar dados biométricos por dinheiro rapidamente despertou a atenção de vários governos. Quatorze países, incluindo Quênia, Espanha, Brasil, Índia e Colômbia, suspenderam ou investigaram o Worldcoin por questões de privacidade.
Para Altman, talvez isso nem importe. O que realmente importa é que, com esse projeto, conseguiu se posicionar como “a única pessoa com uma solução”.
Vender medo e esperança em pacote é o modelo de negócio mais eficiente desta era.
Regulação é minha arma, não minha prisão
Como um que vive dizendo que o fim do mundo está próximo faz negócios? A resposta de Altman é: transformar a regulação na sua arma.
Em maio de 2023, ele foi pela primeira vez ao Congresso dos EUA testemunhar. Ao contrário de outros CEOs de tecnologia, não reclamou da regulação, mas pediu: “Regulamentem-nos.” Propôs um sistema de licenças para IA, onde apenas empresas com licença poderiam desenvolver modelos avançados. Assim, mostrou-se um líder responsável, mas, na prática, a OpenAI, na época, liderava tecnicamente. Uma regulamentação rígida e de alta barreira serviria, na verdade, para bloquear potenciais concorrentes.
Com o tempo, especialmente quando Google, Anthropic e a comunidade open source começaram a avançar, a narrativa de Altman sobre regulação mudou. Ele passou a defender que regulações excessivas, especialmente a obrigatoriedade de revisões antes do lançamento, poderiam sufocar a inovação — uma “catástrofe”.
Hoje, a regulação deixou de ser uma barreira de proteção e virou um obstáculo.
Quando está na frente, pede regulação para manter a vantagem; quando perde espaço, clama por liberdade para avançar. Tentou até estender sua influência ao topo da cadeia de produção de chips, propondo um plano de US$ 7 trilhões, apoiado por fundos soberanos como o dos Emirados Árabes, com o objetivo de remodelar o mercado global de semicondutores. Isso vai muito além do papel de um CEO comum, mais parece o de um visionário ambicioso de moldar o cenário mundial.
Por trás de tudo isso, está a rápida transformação da OpenAI de uma organização sem fins lucrativos para uma gigante comercial. Fundada em 2015 com a missão de “garantir que a AGI beneficie toda a humanidade de forma segura”, em 2019 criou uma subsidiária de “lucro limitado”. Em 2024, descobriu-se que a frase “de forma segura” foi silenciosamente removida de sua declaração de missão. Apesar de manter a estrutura de “lucro limitado”, a velocidade de comercialização acelerou. A receita explodiu, de dezenas de milhões de dólares em 2022 para mais de 10 bilhões em 2024, elevando sua avaliação de US$ 29 bilhões para trilhões.
Quando alguém começa a falar de destino da humanidade, é bom verificar onde seu dinheiro está.
Construção de personagem: o privilégio do líder carismático
Em 17 de novembro de 2023, Altman foi demitido pelo conselho que ele mesmo escolheu, sob a alegação de “falta de transparência na comunicação com o conselho”.
Nos cinco dias seguintes, mais do que uma disputa empresarial, foi uma espécie de referendo de crenças. O CEO Greg Brockman renunciou; 95% dos funcionários, mais de 700 pessoas, assinaram uma carta pedindo a saída do conselho, ameaçando migrar para a Microsoft; Satya Nadella, CEO da Microsoft, declarou que estaria sempre disposto a contratar Altman. No final, Altman retornou ao cargo, reestabelecendo sua autoridade e expulsando quase todos os membros do conselho que o contestaram.
Como um CEO considerado “não transparente” pelo conselho conseguiu retornar ileso e ainda ampliar seu poder?
Helen Tona, ex-membro do conselho, revelou detalhes: Altman ocultou seu controle sobre o fundo de investimento de OpenAI; mentiu várias vezes sobre os processos de segurança; e, na verdade, o conselho só soube do lançamento do ChatGPT pelo Twitter. Essas acusações, por si só, já seriam suficientes para derrubá-lo várias vezes.
Mas Altman não foi afetado. Porque ele não é um CEO comum: é um “líder carismático”.
Esse conceito, criado pelo sociólogo Max Weber há um século, diz que há uma autoridade que não vem do cargo ou da lei, mas do “charme pessoal extraordinário” do líder. Seus seguidores acreditam nele não porque ele fez algo certo, mas porque ele é quem é. Essa crença é irracional. Quando o líder erra ou é desafiado, a primeira reação dos seguidores não é duvidar dele, mas atacar o desafiante.
Os funcionários da OpenAI agem assim. Não confiam na justiça dos procedimentos do conselho, mas na “missão” que Altman representa. Acham que o conselho está “atrasando o progresso humano”.
Após sua reintegração, a equipe de segurança da OpenAI foi rapidamente dissolvida. O cientista-chefe, Ilya Sutskever, que liderou a demissão de Altman, também saiu. Em maio de 2024, Jan Leike, chefe da equipe de segurança, renunciou no Twitter, dizendo: “Para lançar produtos brilhantes, a cultura e os processos de segurança da empresa foram sacrificados.”
Diante de um “líder carismático”, fatos, processos e segurança perdem importância. O que importa é a fé.
Os profetas da linha de produção
Sam Altman é apenas o mais recente e bem-sucedido produto da linha de produção de “profetas” do Vale do Silício.
Nessa mesma linha, há muitos nomes conhecidos.
Por exemplo, Elon Musk. Em 2014, dizia que “IA é uma invocação do demônio”. Mas sua Tesla é, na verdade, a maior empresa de robótica e IA do mundo, com cenários de aplicação extremamente complexos. Após romper com Altman, em 2023, fundou a xAI, assumindo uma postura de confronto. Em um ano, a xAI já valia mais de 20 bilhões de dólares. Ele alerta para o “demônio” que criou, enquanto constrói outro. Essa narrativa dual, de ameaça e salvação, é idêntica à de Altman.
Outro exemplo é Mark Zuckerberg. Nos últimos anos, apostou tudo na meta do metaverso, gastando quase 90 bilhões de dólares, só para descobrir que era um fracasso. Logo mudou de estratégia, passando a focar em AGI. Em 2025, anunciou a criação de um “Laboratório de Superinteligência”, recrutando talentos. Assim como Altman, trabalha uma narrativa de grande escala, com investimentos astronômicos, assumindo o papel de salvador da humanidade.
E Peter Thiel, mentor de Altman, é mais um arquiteto dessa linha. Investe em empresas que pregam “singularidade tecnológica” e “imortalidade”, compra terras na Nova Zelândia e constrói bunkers do apocalipse. Obteve cidadania em apenas 12 dias. Sua empresa, Palantir, é uma das maiores do mundo em monitoramento de dados, atendendo governos e forças armadas. Em operações militares contra o Irã, em 2026, a plataforma de IA da Palantir foi o cérebro que integrou dados de satélites, interceptações e drones, identificando alvos e coordenando ações de eliminação.
Cada um deles desempenha um papel duplo: alertar para o fim do mundo e impulsionar sua chegada. Não é uma personalidade dividida, mas uma estratégia de negócios validada pelo mercado. Criam e vendem ansiedade estrutural para capturar atenção, capital e poder. São produto e criadores do sistema, os “vilões por trás da grande narrativa”.
O Vale do Silício deixou de ser apenas um centro de tecnologia; é uma fábrica de “mitos modernos”.
Por que essa estratégia funciona sempre?
A cada poucos anos, uma nova geração de “profetas” surge, com uma narrativa grandiosa de fim do mundo e redenção, conquistando capital, mídia e público. Essa estratégia se repete e funciona repetidamente, pois ataca vulnerabilidades específicas da cognição humana.
Primeiro: gerenciar o ritmo do medo, não apenas criá-lo.
Os riscos da IA são reais, mas podem ser discutidos com frieza. Esses atores escolhem apresentar o medo de forma dramática, controlando cuidadosamente o ritmo da liberação de ansiedade.
Quando gerar medo, quando oferecer esperança, quando elevar o alerta — tudo é planejado. O medo é combustível, mas o timing e a forma de acender a chama são a verdadeira técnica.
Segundo: transformar a incompreensibilidade da tecnologia em fonte de autoridade.
A IA é uma caixa preta totalmente opaca para a maioria. Quando algo tão complexo que não pode ser totalmente entendido surge, as pessoas tendem a delegar a explicação aos “que mais entendem”. Eles entenderam isso profundamente e transformaram em vantagem estrutural: quanto mais misteriosa, perigosa e além da compreensão comum eles descrevem a IA, mais insubstituíveis se tornam.
Essa lógica é auto reforçadora. Qualquer dúvida externa é automaticamente desconsiderada, pois quem questiona “não entende o suficiente”. Reguladores não entendem de tecnologia, portanto suas avaliações não são confiáveis; acadêmicos que não trabalharam na linha de frente também não têm credibilidade. Assim, só eles podem julgar a si mesmos.
Terceiro: substituir “interesses” por “significado”, levando seguidores a abandonarem a crítica.
Essa é a camada mais difícil de detectar, mas também a mais duradoura. Eles vendem não apenas um produto ou emprego, mas uma narrativa de grande significado cósmico: você está decidindo o destino da humanidade. Uma vez aceita, essa narrativa faz com que os seguidores abandonem o julgamento independente. Porque, diante de uma missão que envolve “sobrevivência humana”, questionar as motivações do líder é parecer um obstáculo à história. Assim, entregam sua capacidade de crítica, entendendo isso como uma escolha nobre.
Juntando esses três passos, fica claro por que esse sistema é tão difícil de ser derrubado. Ele não depende de mentiras, mas de uma compreensão precisa da estrutura cognitiva humana. Primeiro, cria um medo que não pode ser ignorado; depois, monopoliza sua interpretação; por fim, usa o “significado” para transformar você no seu mais fiel propagador.
Dentro desse sistema, Altman é o modelo mais bem-sucedido até agora.
Quem é o seu destino?
Altman sempre afirmou que não possui ações da OpenAI, recebendo apenas um salário simbólico, sustentando sua narrativa de “trabalhar por amor”.
Porém, a Bloomberg, em 2024, calculou seu patrimônio pessoal em cerca de 2 bilhões de dólares, principalmente provenientes de investimentos feitos nos últimos dez anos. Investiu na Stripe, que teria retornado bilhões; na Reddit, que também lhe trouxe lucros; e na empresa de fusão nuclear Helion, apostando na energia do futuro. Segundo ele, a energia é a chave para o futuro da IA, e seu investimento na Helion mostra que ele está de fato interessado nisso, mesmo que diga que evita negociações diretas.
Embora não tenha participação direta na OpenAI, construiu um império de investimentos centrado nele. Cada grande discurso sobre o futuro da humanidade reforça esse império.
E agora, ao revisitar seu antigo kit de fuga do apocalipse — com armas, ouro, antibióticos e uma propriedade na Big Sur — talvez haja uma nova compreensão: ele nunca escondeu isso. O kit é real, a fortaleza é real, sua obsessão pelo fim do mundo também é. Mas ele é, ao mesmo tempo, aquele que mais trabalha para que o apocalipse aconteça. Essas duas coisas não se excluem, pois, na lógica dele, o fim do mundo não precisa ser evitado, só precisa ser antecipado. Ele quer ser o único a ver o futuro claramente e estar preparado para ele.
Seja preparando uma fuga material ou construindo um império financeiro ao redor da OpenAI, no fundo, tudo é uma mesma estratégia: garantir, no futuro incerto que ele mesmo impulsiona, um lugar de vitória para si.
Em fevereiro de 2026, pouco depois de afirmar que “IA não deve ser usada na guerra”, assinou um contrato com o Pentágono. Isso não é hipocrisia, é a essência do seu modelo de negócio. A postura moral é parte do produto, o contrato comercial é a fonte de lucro. Precisa atuar como um salvador compassivo e um profeta do apocalipse ao mesmo tempo, pois só assim sua narrativa faz sentido, e seu “destino” fica claro.
O verdadeiro perigo nunca foi a IA, mas aqueles que acreditam ter o direito de definir o destino da humanidade.