Acabei de ler uma investigação que saiu ontem no The New Yorker que deixou muita gente em choque. Ronan Farrow e Andrew Marantz entrevistaram mais de 100 pessoas, conseguiram memorandos internos nunca divulgados e até 200+ páginas de anotações pessoais de Dario Amodei (fundador da Anthropic, que saiu da OpenAI). O resultado é basicamente uma bomba.



Tudo começa com um documento de 70 páginas que Ilya Sutskever, o cientista-chefe da OpenAI, compilou no outono de 2023. Ele juntou mensagens do Slack, comunicações com RH, atas de reuniões. Objetivo? Responder uma pergunta simples: Sam Altman, que controla possivelmente a tecnologia mais perigosa da história, pode ser confiável? A resposta de Sutskever na primeira linha: Sam demonstra um padrão consistente de... mentiras.

Os exemplos são bem específicos. Em dezembro de 2022, Altman garantiu ao conselho que funcionalidades do GPT-4 já tinham passado por revisão de segurança. Quando pediram os documentos de aprovação, descobriram que duas das mais controversas (ajuste personalizado e implantação de assistente pessoal) nunca foram aprovadas. Depois teve o caso da Índia, onde Microsoft lançou ChatGPT antes das revisões de segurança terminarem. Sutskever também anotou que Altman teria dito à CTO Mira Murati que o processo de segurança não era tão importante porque o conselheiro jurídico já tinha aprovado. Quando Murati conferiu com o conselheiro jurídico? Ele respondeu: "Não faço ideia de onde Sam tirou isso".

Mas o mais gelado é sobre a equipe de "superalinhamento". Em meados de 2023, Altman contactou um estudante de Berkeley pesquisando alinhamento de IA, super preocupado com o problema, falando em um prêmio de pesquisa de 1 bilhão de dólares. O cara saiu da faculdade, entrou na OpenAI. Aí Altman muda de ideia: cria uma equipe interna em vez de prêmios, e anuncia publicamente que vai dedicar 20% da capacidade de computação da empresa (potencial de mais de 1 bilhão). Linguagem extremamente séria, falando em "extinção humana" se o alinhamento não fosse resolvido.

Na realidade? Quatro pessoas que trabalharam lá dizem que foi alocado só 1-2% da capacidade total, com hardware antigo. A equipe foi desmantelada sem completar nada. Quando jornalistas pediram para entrevistar responsáveis pela pesquisa de "segurança existencial", a resposta da assessoria de imprensa foi: "Isso não é uma coisa que realmente existe".

E tem mais. Sarah Friar, CFO da OpenAI, discordou seriamente com Altman sobre o IPO. Ela acha que não tá pronto ainda - muita burocracia pendente e o risco da promessa de Altman de gastar 600 bilhões em capacidade de computação é muito alto. Mas Altman quer acelerar pro Q4 deste ano. O absurdo? Friar não relata mais direto pra Altman. Desde agosto de 2025 relata pro Fidji Simo, CEO de negócios de apps. E Simo tá de licença médica desde semana passada.

Um ex-membro do conselho descreveu Altman assim: ele tem desejo extremo de agradar em interações cara a cara, mas ao mesmo tempo uma indiferença quase sociopática com as consequências de enganar. Raro demais essa combinação. Mas pra um vendedor? É o dom perfeito. Até executivos da Microsoft não aguentam mais, dizendo que Altman "distorceu fatos, quebrou promessas e constantemente revogou acordos". Um chegou a comparar com Bernie Madoff ou SBF.

Agora, por que isso importa tanto? Porque OpenAI não é uma empresa de tech normal. Tá desenvolvendo tecnologia capaz de reestruturar a economia global, criar armas bioquímicas em escala ou lançar ataques cibernéticos. Todos os mecanismos de segurança são basicamente formais agora. A missão sem fins lucrativos virou corrida pro IPO. O ex-cientista-chefe considera Altman inconfiável. O responsável por segurança saiu e fundou Anthropic por divergências fundamentais sobre como IA deveria ser desenvolvida.

Gary Marcus, professor de IA em NYU, escreveu depois: se um futuro modelo da OpenAI conseguir criar armas bioquímicas ou ataques cibernéticos catastróficos, você realmente se sente seguro deixando Altman decidir sozinho se libera ou não?

A resposta da OpenAI? Basicamente ignorou as acusações específicas, não negou os memorandos, só questionou motivos das fontes. Altman não respondeu diretamente.

Dez anos da OpenAI em um parágrafo: grupo de idealistas cria ONG preocupada com riscos de IA, consegue avanços notáveis, atrai capital massivo, capital exige retorno, missão cede espaço, equipe de segurança desmantelada, dissidentes expulsos, estrutura sem fins lucrativos vira entidade lucrativa, conselho que podia encerrar a empresa agora tá cheio de aliados do CEO. Mais de cem testemunhas usaram o mesmo rótulo pro protagonista: "não é restringido pela verdade". E agora tá indo pro IPO com avaliação acima de 850 bilhões.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar