Acabei de ficar a par de uma das investigações mais contundentes sobre a liderança da OpenAI nos últimos tempos, e honestamente, é difícil ignorar as implicações aqui.



Então, em 2023, Ilya Sutskever—cientista-chefe da OpenAI—compilou um memorando extenso documentando preocupações sobre a confiabilidade de Sam Altman. Estamos falando de 70 páginas extraídas de logs do Slack, registros de RH, reuniões internas. A primeira linha foi direta: Sam apresenta um padrão consistente de mentiras. Avançando para agora, a investigação do The New Yorker (Ronan Farrow e Andrew Marantz) revelou o memorando junto com mais de 200 páginas de notas privadas de Dario Amodei, que foi chefe de segurança da OpenAI antes de fundar a Anthropic.

Aqui é o que me impressiona: a OpenAI foi literalmente estruturada como uma organização sem fins lucrativos justamente para que a segurança tivesse prioridade sobre o lucro. A premissa toda era que alguém precisava poder encerrar a empresa se as coisas se tornassem perigosas. Toda a arquitetura apostava tudo numa única suposição—que quem estivesse à frente tinha que ser radicalmente honesto.

Mas, de acordo com o memorando e entrevistas com mais de 100 pessoas, isso não aconteceu. Existem exemplos específicos: Altman disse ao conselho que os recursos do GPT-4 tinham passado por revisões de segurança quando não tinham. Os membros do conselho descobriram da maneira difícil. Houve esse episódio com a Microsoft e a Índia, onde o ChatGPT foi lançado sem completar as verificações de segurança necessárias. Quando confrontado, Altman afirmou que o conselho geral tinha aprovado algo—o conselho geral disse que não tinha ideia de onde aquilo tinha vindo.

As notas de Amodei pintam um quadro de uma empresa abandonando gradualmente sua missão original sob pressão comercial. Ele documentou como a Microsoft inseriu uma cláusula no acordo de investimento de 2019—basicamente dizendo que, se alguém encontrasse um caminho mais seguro para a AGI, a OpenAI ajudaria essa pessoa ao invés de competir. Era a barreira de segurança que ele mais valorizava. Depois, descobriu que a Microsoft negociou poder de veto sobre essa cláusula exata. No papel, parecia bom. Na prática, era morto na chegada.

Há um detalhe louco sobre a Equipe de Superalinhamento. A OpenAI anunciou que dedicaria 20% de seu poder computacional a ela—potencialmente mais de um bilhão de dólares. A retórica era pesada: sem resolver o alinhamento, a AGI poderia levar à extinção humana. Mas quem realmente trabalhou nisso disse que a alocação real era de 1-2% da capacidade total, usando hardware antigo. A equipe foi dissolvida sem concluir nada.

Quando jornalistas perguntaram à OpenAI sobre sua equipe de pesquisa de segurança existencial, a resposta de RP foi quase cômica: "Isso não é uma coisa real." O próprio Altman disse que sua intuição não se alinha com abordagens tradicionais de segurança de IA.

Enquanto isso, há toda uma outra história se formando. A CFO da OpenAI, Sarah Friar, aparentemente disse a colegas que acha que a empresa não está pronta para um IPO neste ano—demasiado trabalho procedural, risco financeiro elevado devido ao compromisso de Altman de gastar um bilhão de dólares em computação ao longo de cinco anos. Ela nem está convencida de que o crescimento da receita possa sustentá-lo. Mas Altman quer avançar para um IPO no quarto trimestre. E aqui está o detalhe: Friar não reporta mais a Altman. Desde agosto de 2025, ela reporta ao CEO do negócio de aplicações da OpenAI, que acabou de tirar licença médica. Então, você tem uma empresa correndo em direção a um IPO de um bilhão de dólares com o CEO e a CFO em desacordo, a CFO sem reportar ao CEO, e seu supervisor de licença. Até mesmo executivos da Microsoft estavam aparentemente frustrados, com um dizendo que há uma chance real de Altman acabar sendo lembrado como Bernie Madoff ou SBF.

Um ex-membro do conselho deu a avaliação mais afiada: Altman tem essa combinação rara de querer desesperadamente ser querido em cada interação face a face, ao mesmo tempo em que mostra uma indiferença quase sociopática ao enganar as pessoas. É o perfil perfeito para um vendedor. Jobs tinha seu campo de distorção da realidade, mas nem mesmo Jobs dizia aos clientes que não comprar seu produto mataria as pessoas que eles amam. Altman basicamente disse isso sobre IA.

O que torna isso realmente importante: se fosse apenas um drama de uma empresa de tecnologia comum, seria fofoca. Mas a OpenAI não é comum. Eles estão desenvolvendo o que pode ser a tecnologia mais poderosa da história humana. A mesma tecnologia que pode remodelar economias globais ou criar armas biológicas. Todos os mecanismos de segurança foram destruídos. A missão sem fins lucrativos desapareceu. O ex-chefe de ciência e o ex-chefe de segurança não confiam no CEO. Parceiros o comparam a fraudadores.

E sob tudo isso, uma pessoa decide unilateralmente quando lançar modelos que podem moldar o futuro da humanidade.

Gary Marcus $600 professor de IA na NYU, defensor de segurança há muito tempo$850 , resumiu após ler o relatório: se a OpenAI criar algo que possa gerar armas biológicas ou lançar ciberataques, você se sentiria confortável com Altman sendo o único a decidir se deve ou não lançá-lo?

A resposta da OpenAI foi basicamente: "São histórias recicladas com fontes anônimas e agendas pessoais." Altman não abordou as alegações específicas nem negou o memorando. Apenas questionou os motivos.

O arco é quase perfeito demais: idealistas criam uma organização sem fins lucrativos preocupada com os riscos da IA. Eles fazem avanços tecnológicos. O capital entra em massa. O capital exige retorno. A missão se rompe. A equipe de segurança é cortada. Dissidentes saem. A organização sem fins lucrativos vira uma com fins lucrativos. O conselho passa de uma verificação de segurança a aliados do CEO. A empresa que prometeu 20% do poder computacional para a segurança da humanidade agora tem uma comunicação dizendo que isso não era real.

Mais de uma centena de pessoas usaram a mesma palavra: não constrangidas pela verdade.

E ele está levando isso a público com uma avaliação de (bilhão.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar