Acabei de ler algo que me deixou bastante desconcertado. The New Yorker acaba de publicar uma investigação massiva onde jornalistas como Ronan Farrow obtiveram documentos internos da OpenAI que revelam um padrão preocupante: aparentemente Sam Altman tem mentido sistematicamente ao conselho de administração e aos executivos sobre questões críticas de segurança.



O ponto de partida é brutal. Ilya Sutskever, o principal cientista da OpenAI, compilou um documento de 70 páginas há alguns anos baseado em mensagens do Slack, comunicações de RH e atas de reuniões. Sua conclusão na primeira linha: Sam demonstra um padrão consistente de mentir. Um exemplo concreto que aparece na investigação: em dezembro de 2022, Altman garantiu ao conselho que várias funções do GPT-4 tinham passado por revisão de segurança. Quando solicitaram ver os documentos de aprovação, descobriram que duas das características mais controversas nunca foram revisadas pelo painel de segurança.

Mas o que realmente me chamou a atenção foi o que encontraram nas notas pessoais de Dario Amodei, fundador da Anthropic e ex-responsável de segurança na OpenAI. Mais de 200 páginas onde documenta como a empresa foi recuando passo a passo sob pressão comercial. Um detalhe chave: quando a Microsoft investiu em 2019, negociou uma cláusula de 'fusão e assistência' que supostamente garantia que, se outro concorrente encontrasse uma rota mais segura para a AGI, a OpenAI deveria ajudar. Parece bem na teoria. O problema é que a Microsoft também obteve direito de veto sobre essa mesma cláusula, o que a transformou numa promessa vazia desde o dia da assinatura.

Há algo que soa quase absurdo, mas é completamente real: a equipe de 'superalinhamento' da OpenAI. Altman anunciou publicamente que dedicariam 20% da capacidade de computação existente à pesquisa de alinhamento de IA, com um valor potencial superior a um bilhão de dólares. Foi um anúncio sério, mencionando riscos de extinção humana e tudo mais. Mas quando jornalistas falaram com quatro pessoas que trabalharam nessa equipe, a realidade era diferente: a potência de computação alocada era de apenas entre 1% e 2% do total, além de hardware antigo. A equipe foi dissolvida sem completar sua missão.

Enquanto isso, a CFO da OpenAI, Sarah Friar, tinha sérias divergências com Altman sobre uma possível IPO. Friar acredita que a empresa não está pronta para abrir capital este ano, considerando a quantidade de trabalho pendente e os riscos financeiros do compromisso de Altman de gastar 600 bilhões em capacidade de computação em cinco anos. Mas aqui está o estranho: Friar já não reporta diretamente a Altman, agora reporta a Fidji Simo, que acaba de tirar licença por motivos de saúde. Uma empresa se preparando para uma IPO com essas dinâmicas internas é, bem, complicada.

Um ex-membro do conselho descreveu Altman com duas características simultâneas: um desejo genuíno de agradar em cada interação face a face, mas ao mesmo tempo uma indiferença quase sociopática às consequências de enganar os outros. Essa combinação, segundo o relatório, é rara em pessoas, mas perfeita para um vendedor.

O que me preocupa é que isso não é apenas fofoca corporativa. A OpenAI está desenvolvendo o que eles mesmos descrevem como possivelmente a tecnologia mais poderosa da história humana. Tecnologia que poderia reconfigurar a economia, criar armas bioquímicas em escala, ou realizar ataques cibernéticos. E as salvaguardas de segurança que supostamente protegiam contra esses riscos foram desmanteladas. O ex-cientista principal e o ex-responsável de segurança consideram o CEO pouco confiável. Os executivos da Microsoft o comparam com SBF.

A resposta da OpenAI ao The New Yorker foi minimizadora: disseram que o artigo reiterava eventos já reportados usando afirmações anônimas. Altman não respondeu às acusações específicas, apenas questionou os motivos das fontes.

Dez anos da OpenAI resumidos: um grupo de idealistas cria uma organização sem fins lucrativos para proteger a humanidade dos riscos da IA. Conquistas extraordinárias são alcançadas. O capital chega em massa. A missão começa a ceder. A equipe de segurança é dissolvida. Os críticos desaparecem. A estrutura sem fins lucrativos se transforma em uma entidade com fins lucrativos. O conselho que tinha poder para fechar a empresa agora está cheio de aliados do CEO. A empresa que prometia dedicar 20% de sua potência para proteger a segurança humana agora tem porta-vozes dizendo que a pesquisa sobre segurança existencial 'não é algo que realmente exista'.

E o protagonista dessa história está prestes a levar a OpenAI a uma IPO com uma avaliação superior a 850 bilhões de dólares. Centenas de testemunhas oculares lhe deram a mesma etiqueta: não está sujeito à verdade.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar