Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
«The New Yorker» investigação aprofundada: Por que os insiders da OpenAI consideram Altman não confiável?
Numa carcaça sem fins lucrativos, cresceu uma árvore que dá dinheiro.
Redigido por: Xiao Bing, Deep Tide TechFlow
No outono de 2023, o principal cientista da OpenAI, Ilya Sutskever, sentou-se em frente a um computador e concluiu um documento com 70 páginas.
Este documento foi compilado com base em registos de mensagens do Slack, dossiês de comunicação de RH e atas de reuniões internas, apenas para responder a uma questão: Sam Altman, o homem que controla uma das tecnologias potencialmente mais perigosas da história da humanidade, pode ser confiado?
A resposta apresentada por Sutskever, escrita na primeira página do documento, na primeira linha, traz como título da lista: “Sam demonstra um padrão consistente de comportamento…”
Primeira entrada: Mente.
Dois anos e meio depois, hoje, os jornalistas investigativos Ronan Farrow e Andrew Marantz publicaram no The New Yorker uma reportagem de investigação extremamente longa. Entrevistaram mais de 100 pessoas envolvidas, obtiveram memorandos internos que nunca tinham sido divulgados antes e também anotações privadas com mais de 200 páginas deixadas por Dario Amodei, fundador da Anthropic, durante o período em que esteve na OpenAI. A história montada a partir desses documentos é ainda mais repugnante do que o “jogo de intrigas” de 2023: como é que a OpenAI, de uma organização sem fins lucrativos criada para a segurança dos seres humanos, se foi transformando passo a passo numa máquina comercial — e quase cada uma das barreiras de segurança foi desmontada à mão pelo mesmo homem.
A conclusão de Amodei nas suas anotações é ainda mais direta: “O problema da OpenAI é o próprio Sam.”
A “culpa original” da OpenAI
Para compreender o peso desta reportagem, é preciso primeiro esclarecer o quão especial é esta empresa.
Em 2015, Altman e um grupo de elites de Silicon Valley fizeram algo que quase não tem precedentes na história do capitalismo: usar uma organização sem fins lucrativos para desenvolver uma tecnologia que poderá ser a mais poderosa da história da humanidade. As responsabilidades do conselho estão descritas de forma muito clara: a segurança em primeiro lugar, acima do sucesso da empresa e até acima da sua sobrevivência. Em poucas palavras: se um dia a IA da OpenAI se tornasse perigosa, o conselho teria a obrigação de encerrar esta empresa com as próprias mãos.
Toda a arquitetura assenta numa premissa: a pessoa que controla a AGI tem de ser extremamente honesta.
E se a aposta falhar?
A bomba central da reportagem é esse documento com 70 páginas. Sutskever não joga política de escritório; é um dos cientistas de IA de topo no mundo. Mas em 2023, passou a estar cada vez mais convencido de uma coisa: Altman tem vindo a contar mentiras continuamente a executivos e ao conselho.
Um exemplo concreto: em dezembro de 2022, Altman garantiu numa reunião do conselho que várias funcionalidades do GPT-4 que estavam prestes a ser lançadas tinham já passado por análises de segurança. O membro do conselho Toner pediu para ver os documentos de aprovação e descobriu que duas das funcionalidades mais controversas (ajuste fino personalizado do utilizador e implementação de um assistente pessoal) nem sequer tinham recebido aprovação nos painéis de segurança.
O que aconteceu a seguir foi ainda mais inverosímil e ocorreu na Índia. Um funcionário denunciou a outro membro do conselho o “desrespeito” em questão: a Microsoft não tinha concluído as análises de segurança necessárias e mesmo assim publicou antecipadamente uma versão inicial do ChatGPT na Índia.
Sutskever registou ainda outra coisa no memorando: Altman terá dito ao antigo CTO, Mira Murati, que o processo de aprovação de segurança não era assim tão importante e que o principal consultor jurídico da empresa já tinha dado a sua aprovação. Murati foi confirmar com o principal consultor jurídico; a resposta foi: “Não sei de onde Sam tirou essa impressão.”
Anotações privadas com 200 páginas de Amodei
O documento de Sutskever tem o aspeto de uma acusação do Ministério Público. As mais de 200 páginas de anotações deixadas por Amodei são mais parecidas com um diário escrito por uma testemunha no local do crime.
Nos anos em que Amodei trabalhou na OpenAI como responsável pela segurança, viu com os próprios olhos como a empresa recuou passo a passo sob pressão comercial. Nas suas anotações, registou um detalhe-chave do caso de investimento da Microsoft em 2019: teria inserido nos estatutos da OpenAI uma cláusula de “fusão e assistência”, em linhas gerais, segundo a qual, se outra empresa encontrasse um caminho de AGI mais seguro, a OpenAI deveria deixar de competir e passar a ajudar essa empresa. Esta foi a garantia de segurança que ele mais valorizou em todo o acordo.
Quando o contrato estava prestes a ser assinado, Amodei descobriu uma coisa: a Microsoft tinha obtido direito de veto sobre essa cláusula. O que significa isso? Mesmo que, um dia, um concorrente encontrasse um caminho melhor, bastaria uma frase da Microsoft para bloquear a obrigação de assistência da OpenAI. A cláusula continuava no papel, mas desde o dia em que foi assinada passou a ser papel sem valor.
Mais tarde, Amodei saiu da OpenAI e fundou a Anthropic. A concorrência entre as duas empresas assenta, no nível mais profundo, em divergências fundamentais sobre “como a IA deve ser desenvolvida”.
A promessa desaparecida de 20% da capacidade de computação
Há um detalhe na reportagem que, ao terminar de ler, arrepia a nuca — relacionado com a “equipa super-alinhada” da OpenAI.
Em meados de 2023, Altman contactou por e-mail um estudante de doutoramento na Berkeley a pesquisar “alinhamento enganoso” (a IA finge ser dócil nos testes e, na implementação real, faz o que lhe apetece). Disse que estava muito preocupado com esse problema e que estava a considerar criar um prémio global de investigação de 1.000 milhões de dólares. O estudante ficou bastante encorajado, tirou uma dispensa e juntou-se à OpenAI.
Depois, Altman mudou de ideias: deixou de haver prémios externos e passou a criar, dentro da empresa, uma “equipa super-alinhada”. A empresa anunciou, em tom elevado, que iria atribuir a essa equipa “20% da capacidade de computação já existente”, cujo valor potencial ultrapassaria 10 00 milhões de dólares. As palavras do comunicado eram extremamente sérias, dizendo que, se o problema de alinhamento não fosse resolvido, a AGI poderia levar a “privação de poder por parte da humanidade, até mesmo à extinção da humanidade”.
Jan Leike, a pessoa nomeada para liderar esta equipa, disse mais tarde aos jornalistas que esta promessa, por si só, era uma ferramenta muito eficaz de “retenção de talentos”.
E quanto à realidade? Quatro pessoas que trabalhavam nesta equipa ou tinham contacto próximo com ela disseram que, na prática, a capacidade de computação atribuída era apenas de 1% a 2% da capacidade total da empresa, e ainda com hardware dos mais antigos. A equipa acabou por ser dissolvida, sem concluir a missão.
Quando os jornalistas pediram entrevistas com pessoas responsáveis pela investigação de “segurança existencial” na OpenAI, a reação de relações públicas da empresa foi, no mínimo, ridícula: “Isso não é… uma coisa que exista, na realidade.”
Altman, por seu lado, foi sereno. Disse aos jornalistas que a sua “intuição não se alinha muito com muitos aspetos do que é considerado segurança tradicional de IA” e que a OpenAI ainda iria fazer “projetos de segurança, ou pelo menos projetos com algo a ver com segurança”.
O CFO afastado e o IPO a caminho
A reportagem do The New Yorker foi apenas metade das más notícias desse dia. No mesmo dia, o The Information avançou mais uma grande novidade: surgiu uma rutura séria entre o CFO da OpenAI, Sarah Friar, e Altman.
Friar terá contado, em privado, a colegas que achava que a OpenAI ainda não estava preparada para abrir capital este ano. Duas razões: o volume de trabalho processual e organizacional a concluir era demasiado grande e os riscos financeiros associados ao plano de gastos de 5 anos e 6000 mil milhões de dólares em capacidade de computação prometido por Altman eram demasiado elevados. Ela até não tinha a certeza de que o crescimento da receita da OpenAI aguentasse essas promessas.
Mas Altman queria avançar com um IPO já no quarto trimestre deste ano.
O mais inverosímil ainda é que Friar já não se reportava diretamente a Altman. Desde agosto de 2025, passou a reportar-se a Fidji Simo (CEO de negócios de aplicações da OpenAI). E Simo tinha acabado de tirar uma baixa médica por motivos de saúde na semana anterior. Agora pense nesta situação: uma empresa a preparar-se para avançar com um IPO; existe uma divergência fundamental entre o CEO e o CFO; o CFO não se reporta ao CEO; e ainda por cima o superior do CFO está em baixa.
Até executivos dentro da Microsoft já não aguentaram e disseram que Altman “distorce factos, desdiz-se e vai continuamente deitando por terra acordos já alcançados”. Um executivo da Microsoft chegou a dizer isto: “Acho que existe uma probabilidade considerável de ele acabar por ser lembrado como um burlão ao nível de Bernie Madoff ou SBF.”
O retrato de “duas faces” de Altman
Um antigo membro do conselho da OpenAI descreveu aos jornalistas duas características de Altman. Esta passagem pode ser o esboço mais duro de personagem de toda a reportagem.
Esse conselheiro disse que Altman tem uma combinação extremamente rara de traços: em cada conversa presencial, tem uma necessidade intensa de agradar à outra pessoa e de ser apreciado por ela. Ao mesmo tempo, tem uma indiferença quase psicopática em relação às consequências que a mentira para os outros pode causar.
Dois traços ao mesmo tempo na mesma pessoa é extremamente raro. Mas para um vendedor, é um dom perfeito.
A reportagem usa uma metáfora certeira: Jobs era conhecido pela “força de distorção da realidade”, conseguia fazer o mundo acreditar na sua visão. Mas mesmo Jobs nunca disse aos clientes: “Se não comprarem o meu leitor de MP3, as pessoas de quem vocês gostam vão morrer.”
Altman disse algo semelhante, sobre IA.
Um problema de caráter de um CEO — porque é que esse problema é risco para toda a gente
Se Altman fosse apenas CEO de uma empresa tecnológica comum, essas acusações, no máximo, seriam uma excelente mexerica empresarial. Mas a OpenAI não é uma empresa comum.
Pelas suas próprias palavras, está a desenvolver uma tecnologia que pode ser a mais poderosa da história da humanidade. Pode remodelar a economia global e os mercados de trabalho (a OpenAI acabou de publicar um white paper de políticas sobre o problema do desemprego causado pela IA), e também pode ser usada para fabricar armas biológicas em larga escala ou lançar ataques cibernéticos.
Todas as barreiras de segurança deixaram de existir. A missão sem fins lucrativos dos fundadores foi cedendo lugar à corrida ao IPO. O antigo principal cientista e o antigo responsável pela segurança concluíram que o CEO é “não confiável”. Os parceiros comparam o CEO a SBF. Nestas circunstâncias, com que base é que este CEO decide unilateralmente quando publicar um modelo de IA que pode mudar o destino da humanidade?
Gary Marcus (professor de IA na New York University e um defensor de longa data da segurança em IA) escreveu uma frase após ler a reportagem: se algum futuro modelo da OpenAI conseguir fabricar armas biológicas em larga escala ou lançar ataques cibernéticos catastróficos, confiaria mesmo que a decisão de Altman, sozinho, determine se deve ser publicado?
A resposta da OpenAI à reportagem do The New Yorker, por outro lado, foi concisa: “Grande parte deste artigo está a recontar acontecimentos que já foram noticiados, com formulações anónimas e anedotas seletivas; as fontes, obviamente, têm objetivos pessoais.”
É um tipo de resposta muito à maneira de Altman: não responde a acusações específicas, não contesta a veracidade dos memorandos e apenas questiona as motivações.
Numa carcaça sem fins lucrativos, cresceu uma árvore que dá dinheiro
Os 10 anos da OpenAI, se contados como um esboço de enredo, seriam assim:
Um grupo de idealistas preocupados com os riscos da IA cria uma organização sem fins lucrativos orientada por missão. A organização faz avanços tecnológicos extraordinários. As descobertas atraem grandes quantias de capital. O capital exige retorno. A missão começa a ceder. A equipa de segurança é dissolvida. Os que questionam são limpos. A estrutura sem fins lucrativos é transformada numa entidade com fins lucrativos. O conselho, que antes tinha poder para encerrar a empresa, agora está cheio de aliados do CEO. A empresa que antes prometia dedicar 20% da capacidade de computação para proteger a segurança dos seres humanos, e cuja área de relações públicas agora diz “isso não é uma coisa que exista de forma real”.
O protagonista da história, mais de cem pessoas que viveram tudo em primeira mão, deu-lhe o mesmo rótulo: “não está sujeito à verdade”.
Agora, ele prepara-se para levar esta empresa a abrir capital, com uma avaliação superior a 8500 mil milhões de dólares.
A informação deste artigo foi compilada com base em reportagens públicas de vários órgãos de comunicação social, incluindo The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider e The Information.