Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
«The New Yorker» investigação aprofundada: Por que os insiders da OpenAI consideram Altman como não confiável?
Autor do texto original: Xiao Bing, Deep Tide TechFlow
No outono de 2023, o cientista-chefe da OpenAI, Ilya Sutskever, sentou-se em frente ao computador e concluiu um documento de 70 páginas.
Este documento foi reunido a partir de registos de mensagens do Slack, arquivos de comunicações de RH e atas de reuniões internas, apenas para responder a uma questão: Sam Altman, a pessoa que gere provavelmente a tecnologia mais perigosa da história da humanidade, pode ou não ser confiável?
A resposta dada por Sutskever, escrita na primeira página do documento, na primeira linha, tem como título de lista: “Sam demonstra consistentemente um padrão de comportamento…”
Primeiro: Mentir.
Dois anos e meio depois, hoje, a jornalista investigativa Ronan Farrow e Andrew Marantz publicaram uma reportagem de investigação extremamente longa na The New Yorker. Entrevistaram mais de 100 pessoas envolvidas, obtiveram memorandos internos que nunca tinham sido divulgados antes e também cadernos privados com mais de 200 páginas deixados por Dario Amodei, fundador da Anthropic, durante o período dele na OpenAI. A história construída a partir desses documentos é bem mais feia do que o “drama de bastidores” de 2023: como a OpenAI passou, passo a passo, de uma organização sem fins lucrativos criada para a segurança da humanidade a uma máquina comercial, e quase cada uma das barreiras de segurança foi desmontada à mão pelo mesmo indivíduo.
A conclusão de Amodei nos seus cadernos é ainda mais direta: “O problema da OpenAI é o próprio Sam.”
A configuração do “pecado original” da OpenAI
Para compreender o peso desta reportagem, é preciso primeiro esclarecer o que torna esta empresa tão especial.
Em 2015, Altman e um grupo de elites de Silicon Valley fizeram algo quase sem precedentes na história do comércio: usar uma organização sem fins lucrativos para desenvolver uma tecnologia que pode ser a mais poderosa da história da humanidade. As responsabilidades do conselho de administração estavam escritas de forma muito clara: a segurança vem primeiro do que o sucesso da empresa, e até antes da sobrevivência da empresa. Em termos simples, se um dia a IA da OpenAI se tornar perigosa, o conselho tem a obrigação de encerrar esta empresa com as próprias mãos.
Toda a arquitetura assentava num pressuposto: quem controla a AGI tem de ser uma pessoa extremamente honesta.
E se esse pressuposto estiver errado?
A bomba central da reportagem é esse documento de 70 páginas. Sutskever não jogava jogos de escritório; era um dos cientistas de IA mais destacados do mundo. Mas em 2023, ele tornou-se cada vez mais convencido de uma coisa: Altman tem continuado a dizer mentiras aos executivos e ao conselho de administração.
Um exemplo concreto: em dezembro de 2022, numa reunião do conselho, Altman garantiu que várias funcionalidades do GPT-4 prestes a ser lançado já tinham passado análises de segurança. O membro do conselho Toner exigiu ver os documentos de aprovação; ao verificar, descobriu-se que as duas funcionalidades mais controversas (ajuste fino personalizado para utilizadores e implementação de um assistente pessoal) não tinham sequer sido aprovadas por um painel de segurança.
Aconteceu algo ainda mais absurdo na Índia. Um funcionário denunciou a outro membro do conselho o “incidente de violação”: a Microsoft não tinha concluído a análise de segurança necessária e mesmo assim lançou antecipadamente uma versão inicial do ChatGPT na Índia.
Sutskever também registou outra coisa nos memorandos: Altman disse à ex-CTO Mira Murati que o processo de aprovação de segurança não era tão importante, pois o conselheiro jurídico geral da empresa já teria aprovado. Murati foi confirmar com o conselheiro jurídico geral, e ele respondeu: “Não sei de onde o Sam tirou essa impressão.”
Os 200 páginas de notas privadas de Amodei
Os documentos de Sutskever parecem uma acusação de um promotor. As mais de 200 páginas de anotações deixadas por Amodei parecem mais o diário de uma testemunha ocular no local do crime.
Durante os anos em que Amodei trabalhou na OpenAI como responsável por segurança, viu com os próprios olhos a empresa recuar, passo a passo, sob pressão comercial. Nos seus apontamentos, ele registou um detalhe-chave do caso do investimento da Microsoft em 2019: ele havia inserido nos estatutos da OpenAI uma cláusula de “fusão e assistência”, segundo a qual, se outra empresa encontrasse um caminho de AGI mais seguro, a OpenAI deveria parar de competir e passar a ajudar essa empresa. Esta foi a garantia de segurança que ele mais valorizou no conjunto de toda a transação.
Quando a assinatura estava quase a acontecer, Amodei descobriu uma coisa: a Microsoft conseguiu um direito de veto sobre essa cláusula. O que significa? Mesmo que, um dia, algum concorrente encontrasse um caminho melhor, uma única frase da Microsoft seria suficiente para bloquear a obrigação de assistência da OpenAI. A cláusula ainda estava no papel, mas desde o dia da assinatura tornou-se papel sem valor.
Amodei deixou mais tarde a OpenAI e fundou a Anthropic. A competição entre as duas empresas tem por base uma divergência fundamental sobre “como a IA deve ser desenvolvida”.
A promessa desaparecida de 20% de capacidade de computação
Há um detalhe na reportagem que arrepia ao ser lido: sobre a “equipa de alinhamento super” da OpenAI.
Em meados de 2023, Altman contactou por e-mail um estudante de doutoramento na Berkeley a estudar “alinhamento enganador” (a IA se faz de boa nos testes e depois, na implementação, faz o que lhe convém). Ele disse que estava muito preocupado com esse problema e que estava a considerar criar um prémio global de investigação de 1 mil milhões de dólares. O doutorando ficou muito motivado, tirou licença da universidade e juntou-se à OpenAI.
Depois, Altman mudou de ideias: sem prémios externos, criou uma “equipa de super alinhamento” dentro da empresa. A empresa anunciou em tom alto que iria atribuir “20% da capacidade de computação já existente” a esta equipa, com um valor potencial superior a 1 mil milhões de dólares. A redação do anúncio era extremamente séria, dizendo que, se o problema de alinhamento não fosse resolvido, a AGI poderia levar à “perda de poder por parte da humanidade, ou até mesmo à extinção da humanidade”.
Jan Leike, que foi nomeado para liderar esta equipa, disse depois aos jornalistas que a própria promessa era uma ferramenta muito eficaz de “retenção de talentos”.
E na prática? Quatro pessoas que trabalhavam nesta equipa ou que tinham contacto muito próximo com ela disseram que a capacidade de computação efetivamente atribuída era apenas de 1% a 2% da capacidade total da empresa, e ainda por cima a hardware mais antiga. Esta equipa foi mais tarde dissolvida, com a missão por cumprir.
Quando os jornalistas pediram para entrevistar pessoas responsáveis na OpenAI pela investigação de “segurança existencial”, a reação de relações públicas da empresa foi quase ridícula: “Isso não é uma coisa… que exista de facto.”
Altman, por sua vez, mostrou-se tranquilo. Ele disse aos jornalistas que a sua “intuição não está muito em sintonia com muitas das coisas tradicionais de segurança em IA”, e que a OpenAI ainda iria fazer “projetos de segurança, ou pelo menos projetos que tenham alguma ligação com segurança”.
O CFO posto de lado e o IPO que se aproxima
A reportagem da The New Yorker é apenas metade das más notícias deste dia. No mesmo dia, a The Information revelou outra notícia de grande impacto: o CFO da OpenAI, Sarah Friar, teve sérias divergências com Altman.
Em privado, Friar disse aos colegas que achava que a OpenAI ainda não estava pronta para abrir capital este ano. Dois motivos: a carga de trabalho de natureza processual e organizacional a cumprir era demasiado grande, e o risco financeiro decorrente das despesas de capacidade de computação de 600 mil milhões de dólares em 5 anos prometidas por Altman era demasiado elevado. Ela chegou até a não ter certeza de que o crescimento das receitas da OpenAI conseguiria sustentar estas promessas.
Mas Altman queria acelerar para o IPO já no quarto trimestre deste ano.
Ainda mais inverosímil: Friar já não reportava diretamente a Altman. Desde agosto de 2025, passou a reportar a Fidji Simo (CEO dos negócios de aplicações da OpenAI). E Simo pediu baixa médica na semana passada por motivos de saúde. Analise este cenário: uma empresa a apostar num IPO, com CEO e CFO com divergências fundamentais; o CFO não reporta ao CEO; e o superior do CFO ainda está de baixa.
Mesmo executivos dentro da Microsoft não aguentaram e disseram que Altman “distorce os factos, quebra promessas e vai derrubando acordos que já tinham sido feitos”. Um executivo da Microsoft chegou a dizer: “Acho que existe uma certa probabilidade de que, no fim, ele seja lembrado como um aldrabão ao nível de Bernie Madoff ou SBF.”
O retrato de “homem de duas faces” de Altman
Um ex-membro do conselho de administração da OpenAI descreveu para os jornalistas duas características que Altman traz consigo. Esta passagem pode ser o retrato mais duro de personagens em toda a reportagem.
O conselheiro disse que Altman tem uma combinação de traços extremamente rara: em cada interação cara a cara, ele tem uma vontade muito forte de agradar o outro e ser apreciado por esse mesmo. Ao mesmo tempo, ele tem uma indiferença quase doentia em relação às consequências que a mentira aos outros pode causar.
As duas características presentes na mesma pessoa são extremamente raras. Mas, para um vendedor, é o talento mais perfeito.
A reportagem tem uma boa metáfora: Jobs era conhecido pelo seu “campo de distorção da realidade”; ele fazia com que o mundo acreditasse na sua visão. Mas até mesmo Jobs nunca disse aos clientes: “Se não comprarem o meu leitor de MP3, as pessoas de quem vocês gostam vão morrer.”
Altman disse algo semelhante, sobre IA.
Um problema de índole de um CEO, por que é um risco para todos
Se Altman fosse apenas o CEO de uma empresa de tecnologia comum, essas acusações seriam, no máximo, uma mexeriqueira empresarial interessante. Mas a OpenAI não é uma empresa comum.
Pela sua própria definição, ela está a desenvolver uma tecnologia que pode ser a mais poderosa da história da humanidade. Pode remodelar a economia global e os mercados de trabalho (a própria OpenAI acabou de publicar um white paper de políticas sobre o problema do desemprego causado pela IA), e também pode ser usada para fabricar armas biológicas em grande escala ou para lançar ataques cibernéticos.
Todas as barreiras de segurança não passaram de fachada. A missão sem fins lucrativos do fundador deu lugar à corrida ao IPO. O antigo cientista-chefe e o antigo responsável de segurança determinaram que o CEO é “não confiável”. Os parceiros comparam o CEO a SBF. Nesse contexto, com que direito é que este CEO decide unilateralmente quando lançar um modelo de IA que pode mudar o destino da humanidade?
Gary Marcus (professor de IA na New York University e defensor de longa data da segurança em IA) escreveu uma frase depois de ler a reportagem: se algum modelo futuro da OpenAI conseguisse criar armas biológicas em larga escala ou lançar ataques cibernéticos catastróficos, confiaria verdadeiramente que uma única pessoa, Altman, decidisse se deve ou não ser lançado?
A resposta da OpenAI à The New Yorker foi, pelo contrário, concisa: “A maior parte deste artigo está a revirar eventos já noticiados; por meio de descrições anónimas e de anedotas seletivas, as fontes obviamente têm intenções pessoais.”
É um estilo muito “Altman” de responder: não aborda acusações específicas, não nega a veracidade dos memorandos, apenas questiona as motivações.
Num cadáver sem fins lucrativos, cresce uma árvore de fazer dinheiro
Os dez anos da OpenAI, contados como um esboço de história, seriam mais ou menos assim:
Um grupo de idealistas preocupados com riscos de IA cria uma organização sem fins lucrativos orientada por missão. A organização realiza avanços tecnológicos extraordinários. Os avanços atraem grandes volumes de capital. O capital exige retorno. A missão começa a ceder. A equipa de segurança é dissolvida. Os questionadores são limpos. A estrutura sem fins lucrativos é transformada numa entidade com fins lucrativos. Antes, o conselho de administração que tinha poder para encerrar a empresa estava cheio de aliados do CEO. Antes, a empresa tinha prometido usar 20% da capacidade de computação para proteger a segurança da humanidade; agora, os responsáveis por relações públicas dizem que “não é uma coisa que exista de facto”.
O protagonista da história, mais de uma centena de pessoas que estiveram no centro dos acontecimentos, dá-lhe o mesmo rótulo: “Não está constrangido pela verdade.”
Ele está prestes a levar esta empresa a abrir capital (IPO), com uma avaliação superior a 850 mil milhões de dólares.
As informações deste artigo são compiladas a partir de reportagens públicas de várias media, como The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, etc.