«The New Yorker» investigação aprofundada: Por que os insiders da OpenAI consideram Altman não confiável?

Autor original: Xiao Bing, Profundidade TechFlow

No outono de 2023, o principal cientista da OpenAI, Ilya Sutskever, sentou-se em frente ao computador e concluiu um documento de 70 páginas.

Este documento organiza registos de mensagens do Slack, dossiês de comunicações de RH e atas de reuniões internas, tudo para responder a uma única questão: Sam Altman, o homem que controla possivelmente a tecnologia mais perigosa da história da humanidade, pode realmente ser confiado?

A resposta dada por Sutskever está escrita na primeira página do documento, na primeira linha; o título da lista é «Sam demonstra um padrão consistente de comportamento …»

Primeira: Está a mentir.

Dois anos e meio depois, hoje, o jornalista Ronan Farrow e Andrew Marantz publicaram no «The New Yorker» uma reportagem de investigação extraordinariamente longa. Entrevistaram mais de 100 pessoas envolvidas, obtiveram memorandos internos nunca antes divulgados e ainda as mais de 200 páginas de notas privadas deixadas pelo fundador da Anthropic, Dario Amodei, durante o período em que esteve na OpenAI. A história montada a partir destes documentos é ainda mais feia do que a «intriga palaciana» de 2023: como a OpenAI, que começou como uma organização sem fins lucrativos criada para a segurança humana, se transformou passo a passo numa máquina de negócios — e praticamente todas as barreiras de segurança foram retiradas, uma a uma, com as próprias mãos da mesma pessoa.

A conclusão de Amodei nas suas notas é mais direta ainda: «O problema da OpenAI é o próprio Sam.»

A definição do «pecado original» da OpenAI

Para compreender o peso desta reportagem, é preciso primeiro esclarecer o quão especial é esta empresa.

Em 2015, Altman e um grupo de elites do Vale do Silício fizeram algo que quase não tem precedentes na história do negócio: usar uma organização sem fins lucrativos para desenvolver a tecnologia potencialmente mais poderosa da história da humanidade. As responsabilidades do conselho de administração estão descritas de forma bem clara: a segurança vem primeiro do que o sucesso da empresa, e até antes do seu próprio sobreviver. Em termos simples: se um dia a IA da OpenAI se tornar perigosa, o conselho tem a obrigação de encerrar a empresa com as próprias mãos.

Toda a arquitetura está apostada num pressuposto: as pessoas que controlam a AGI têm de ser extremamente honestas.

E se a aposta estiver errada?

A bomba central da reportagem é aquele documento de 70 páginas. Sutskever não joga política de escritório; é um dos cientistas de IA mais bem posicionados a nível mundial. Mas em 2023, passou a ter cada vez mais certeza de uma coisa: Altman vem continuamente a contar mentiras aos executivos e ao conselho.

Um exemplo concreto: em dezembro de 2022, numa reunião do conselho, Altman garantiu que múltiplas funcionalidades do GPT-4 que estava prestes a ser lançado já tinham passado por uma avaliação de segurança. O membro do conselho Toner pediu para ver os documentos de aprovação, mas descobriu que duas das funções mais controversas (afinação personalizada para utilizadores e implementação de assistente pessoal) simplesmente não tinham recebido aprovação do painel de segurança.

O caso mais absurdo aconteceu na Índia. Um funcionário denunciou a outro membro do conselho «aquela violação»: a Microsoft não tinha concluído as avaliações de segurança necessárias e, mesmo assim, publicou antecipadamente uma versão inicial do ChatGPT na Índia.

Sutskever registou ainda outra coisa nas suas notas/memorandos: Altman disse ao ex-CTO Mira Murati que o processo de aprovação de segurança não era tão importante, pois o consultor jurídico geral da empresa já tinha aprovado. Murati foi confirmar com o consultor jurídico geral; a resposta foi: «Não sei de onde o Sam tirou essa impressão.»

As notas privadas de 200 páginas de Amodei

O documento de Sutskever parece uma acusação de um promotor. As mais de 200 páginas de notas deixadas por Amodei são ainda mais parecidas com um diário escrito por uma testemunha no local do crime.

Nos anos em que Amodei trabalhou na OpenAI como responsável pela segurança, viu com os próprios olhos a empresa recuar, passo a passo, sob pressão comercial. Nas suas notas, registou um detalhe-chave do caso de investimento da Microsoft em 2019: ele tinha inserido nos estatutos da OpenAI uma cláusula de «fusão e assistência», com a ideia de que, se outra empresa encontrasse um caminho de AGI mais seguro, a OpenAI deveria deixar de competir e passar a ajudar essa empresa. Esta era a garantia de segurança que ele valorizava mais em toda a negociação.

Quando a negociação estava prestes a ser assinada, Amodei descobriu uma coisa: a Microsoft obteve um direito de veto sobre esta cláusula. O que é que isto significa? Mesmo que um dia algum concorrente encontrasse um caminho melhor, uma frase da Microsoft poderia bloquear a obrigação de assistência da OpenAI. A cláusula ainda estava no papel, mas desde o dia em que foi assinada passou a ser letra morta.

Mais tarde, Amodei deixou a OpenAI e fundou a Anthropic. A concorrência entre as duas empresas assenta numa divergência fundamental sobre «como a IA deve ser desenvolvida».

O compromisso desaparecido dos 20% de capacidade de computação

Há um detalhe na reportagem que arrepia a espinha ao terminar a leitura, sobre a «equipa de super-alinhamento» da OpenAI.

Em meados de 2023, Altman contactou por e-mail um estudante de doutoramento que pesquisava «alinhamento enganador» na Berkeley (a IA finge ser boazinha nos testes e, depois de ser implantada, faz a sua própria coisa). Disse que estava extremamente preocupado com este problema e que estava a considerar criar um prémio global de investigação de 1.000 milhões de dólares. O doutorando ficou muito entusiasmado, interrompeu os estudos e juntou-se à OpenAI.

Então Altman mudou de ideia: em vez de prémios externos, criou dentro da empresa uma «equipa de super-alinhamento». A empresa anunciou em grande escala que vai atribuir a esta equipa «20% da capacidade de computação já existente», com um valor potencial superior a 1.000 milhões de dólares. A redacção do anúncio era extremamente solene: dizia que, se o problema do alinhamento não fosse resolvido, a AGI poderia levar à «privação de poder dos seres humanos, até mesmo ao extermínio da humanidade».

Jan Leike, que foi nomeado para liderar esta equipa, disse mais tarde aos jornalistas que este compromisso em si era uma «ferramenta eficaz de retenção de talentos».

E a realidade? Quatro pessoas que trabalhavam nesta equipa ou tinham contacto muito próximo com ela disseram que, na prática, a capacidade de computação atribuída era apenas de 1% a 2% do total, e ainda por cima com hardware dos mais antigos. Esta equipa foi mais tarde dissolvida; a missão não foi concluída.

Quando o jornalista pediu para entrevistar pessoas responsáveis pela investigação de «segurança existencial» na OpenAI, a resposta das relações públicas da empresa foi tão ridícula quanto cómica: «Isso não é… uma coisa que exista realmente.»

Altman, por sua vez, pareceu tranquilo. Disse ao jornalista que a sua «intuição não combina muito com muitos dos tópicos tradicionais de segurança da IA», e que a OpenAI ainda vai fazer «projectos de segurança, ou pelo menos projectos que toquem em segurança».

O CFO marginalizado e o IPO que se aproxima

A reportagem do «The New Yorker» é apenas metade das más notícias deste dia. No mesmo dia, a «The Information» avançou outra notícia sensacional: houve uma séria divergência entre o CFO da OpenAI, Sarah Friar, e Altman.

Friar contou em privado aos colegas que ela achava que a OpenAI ainda não estava preparada para abrir capital este ano. Duas razões: a quantidade de trabalho processual e organizacional a cumprir era demasiado grande; e o risco financeiro associado aos gastos de capacidade de computação de 600B de dólares ao longo de 5 anos prometidos por Altman era demasiado elevado. Ela disse até que não tinha a certeza de que o crescimento das receitas da OpenAI aguentaria essas promessas.

Mas Altman quer avançar com o IPO já no quarto trimestre deste ano.

Ainda mais estranho: Friar deixou de se reportar diretamente a Altman. A partir de agosto de 2025, passou a reportar a Fidji Simo (CEO de negócios de aplicações da OpenAI). E Simo tinha estado recentemente de baixa por motivos de saúde na semana passada. Vale a pena pensar neste cenário: uma empresa a atacar um IPO, com CEO e CFO em discordância fundamental; o CFO não se reporta ao CEO; e o superior do CFO ainda estava de baixa.

Até gestores dentro da própria Microsoft não aguentaram e disseram que Altman «distorce os factos, muda de ideia e volta atrás repetidamente em acordos que já tinham sido fechados». Um gestor da Microsoft chegou a dizer: «Acho que ele tem uma certa probabilidade de, no fim, ser lembrado como um vigarista no nível de Bernie Madoff ou SBF.»

O retrato de «dupla face» de Altman

Um ex-membro do conselho de administração da OpenAI descreveu ao jornalista as duas características que existem em Altman. Este trecho pode ser o retrato mais duro de uma figura na reportagem inteira.

O conselheiro disse que Altman tem uma combinação de traços extremamente rara: ele demonstra um desejo muito forte de agradar e ser apreciado por quem está à sua frente em cada conversa presencial. Ao mesmo tempo, em relação às consequências de enganar os outros, tem uma indiferença quase psicopática.

Ter dois traços ao mesmo tempo numa só pessoa é extremamente raro. Mas para um vendedor, este é o dom mais perfeito.

A reportagem tem uma boa metáfora: Jobs é conhecido pelo «campo de distorção da realidade», capaz de fazer o mundo acreditar na sua visão. Mas mesmo Jobs nunca disse aos clientes: «Se não comprarem o meu leitor de MP3, a pessoa que vocês amam vai morrer.»

Altman disse algo semelhante, sobre IA.

Um problema de carácter de um CEO — por que é um risco de todos

Se Altman fosse apenas o CEO de uma empresa de tecnologia comum, estas acusações seriam, no máximo, uma excelente fofoca empresarial. Mas a OpenAI não é comum.

Segundo a sua própria descrição, está a desenvolver a tecnologia potencialmente mais poderosa da história da humanidade. É capaz de remodelar a economia global e os mercados de trabalho (a própria OpenAI acabou de publicar um white paper de políticas sobre o problema do desemprego causado pela IA), e também pode ser usada para fabricar armas bioquímicas em larga escala ou lançar ataques cibernéticos.

Todas as barreiras de segurança deixaram de existir na prática. A missão sem fins lucrativos do fundador foi substituída pela corrida ao IPO. O antigo cientista-chefe e o antigo responsável pela segurança concluíram que o CEO é «não confiável». Os parceiros comparam o CEO a SBF. Nestas circunstâncias, com que direito é que este CEO decide unilateralmente quando lançar um modelo de IA que pode mudar o destino da humanidade?

Gary Marcus (professor de IA na Universidade de Nova Iorque e defensor de longa data da segurança da IA) escreveu uma frase após ler a reportagem: «Se algum futuro modelo da OpenAI for capaz de fabricar armas bioquímicas em larga escala ou lançar ataques cibernéticos catastróficos, você está realmente à vontade para deixar Altman sozinho decidir se deve ser lançado ou não?»

A resposta da OpenAI ao «The New Yorker» foi, no entanto, concisa: «A maior parte deste artigo está a reciclar acontecimentos já reportados, com linguagem anónima e anedotas selectivas; as fontes obviamente têm objectivos pessoais.»

Uma resposta muito no estilo de Altman: não responde a acusações específicas, não nega a veracidade dos memorandos, apenas questiona as motivações.

Num corpo de uma organização sem fins lucrativos, cresce uma árvore de dinheiro

O “enredo” dos dez anos da OpenAI, escrito como um esquema de história, seria assim:

Um grupo de idealistas preocupados com os riscos da IA criou uma organização sem fins lucrativos orientada por uma missão. A organização fez avanços tecnológicos extraordinários. Os avanços atraíram enormes quantias de capital. O capital precisa de retorno. A missão começou a ceder caminho. A equipa de segurança foi dissolvida. Os questionadores foram limpos/afastados. A estrutura sem fins lucrativos foi transformada numa entidade com fins lucrativos. Antes, quem tinha o poder de encerrar a empresa era um conselho de administração; agora, está cheio de aliados do CEO. Antes, a empresa tinha prometido dedicar 20% de capacidade de computação para proteger a segurança humana; agora, os seus responsáveis de comunicação dizem que «não é uma coisa que exista na prática».

O protagonista da história — mais de cem pessoas que viveram aquilo em primeira mão — dá-lhe o mesmo rótulo: «não está vinculado à verdade».

Ele está prestes a levar esta empresa ao IPO, com uma avaliação superior a 850 mil milhões de dólares.

Este artigo combina informações de reportagens públicas de vários meios de comunicação, incluindo o «The New Yorker», Semafor, Tech Brew, Gizmodo, Business Insider e The Information.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar