Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
OpenAI grande escândalo exposto Ilya filmou secretamente 70 páginas de documentos, comprovando que Ultraman mentiu
Hoje, a revista “The New Yorker” publicou uma reportagem de investigação com a duração de 18 meses, revelando pela primeira vez um memorando interno de 70 páginas compilado por Ilya Sutskever, cientista-chefe da OpenAI, no outono de 2023, bem como mais de 200 páginas de anotações privadas guardadas durante anos pelo cofundador da Anthropic, Dario Amodei.
Estes documentos nunca antes divulgados apontam para a mesma conclusão: Sam Altman segue um padrão de “mentiras” consistente.
Isto não é uma simples luta pelo poder dentro de uma empresa. Quando se considera que a IA pode ser “a invenção mais perigosa da história da humanidade”, e quando uma empresa afirma querer “assegurar que a AGI beneficie toda a humanidade”, o problema de integridade do líder deixa de ser assunto privado e passa a ser uma questão pública de todos.
A APPSO, com base no texto original do “The New Yorker”, reestrutura e apresenta esta crise de integridade que abalou Silicon Valley.
É uma história sobre poder, mentiras e o futuro da IA.
A APPSO destaca os pontos:
O duplo padrão de Altman:
Ilya Sutskever submeteu ao conselho de administração um conjunto secreto de 70 páginas, acusando Altman de “mentir de forma contínua”
O conselho despediu Altman por ele “não comunicar com franqueza suficiente”, mas apenas 5 dias depois foi forçado a reintegrá-lo
Funcionários chamaram a este episódio “The Blip” (o desaparecimento e o regresso ao estilo Marvel)
Altman foi acusado de ter acordos exclusivos a dois níveis com gigantes como a Microsoft e a Amazon
Crise de segurança:
A OpenAI dissolveu a equipa de Super Alinhamento, comprometendo-se com 20% do poder de computação, que na prática só foi disponibilizado em 1% a 2%
A empresa mudou de uma organização sem fins lucrativos para uma empresa com fins lucrativos, com uma avaliação de mais de um bilião de dólares
Um acordo de 50B de dólares para infraestruturas de IA com regimes do Médio Oriente
Abertura de tecnologia às forças militares, para aplicação da lei sobre imigração, vigilância e armas autónomas
Jogo de poder:
O investimento pessoal de Altman em 400+ empresas, com relações financeiras complexas com ex-namorados
Foi noticiado que investidores foram impedidos de investir concorrentes
A transição de “altruísmo eficaz” para “aceleracionismo eficaz”
Relação próxima com Trump, doando 1 milhão de dólares para o fundo de tomada de posse
Um memorando de 70 páginas sobre integridade
No outono de 2023, Ilya Sutskever fez algo extremamente raro em Silicon Valley: fotografou documentos internos da empresa com um telemóvel, compilou um memorando de 70 páginas e enviou-o a membros do conselho de administração.
Porque é que ele fez isso? Porque não tinha coragem de deixar rastos num equipamento da empresa.
O memorando foi enviado de forma “mensagens de desaparecimento”, garantindo que ninguém o veria. Um membro do conselho de administração que recebeu o memorando relembra: “Ele ficou aterrorizado.”
O documento, que nunca foi divulgado na íntegra, começa com uma lista: “Sam exhibits a consistent pattern of…”
Primeiro ponto: Mentir.
Aquele que diz mentiras.
Não é “um problema de estilo de comunicação”, não é “excesso de otimismo”, não é “uma característica de liderança orientada por visão”. São apenas duas palavras: mentir.
Quem escreveu este memorando tinha, em 2019, presidido a um casamento de Greg Brockman no escritório da OpenAI, com um braço robótico a servir de estafeta para entregar as alianças. Ele tinha Altman e Brockman como amigos.
Mas em 2023, quando Sutskever acreditava que a AGI estava prestes a chegar, ele disse a outro membro do conselho de administração: “Eu não acho que Sam deva ser a pessoa com o dedo no botão.”
Outras anotações privadas com 200 páginas
Dario Amodei deixou a OpenAI para fundar a Anthropic. Antes disso, manteve durante anos anotações privadas sobre Altman e Brockman.
Mais de 200 páginas de documentos relacionados circulavam em Silicon Valley, sem nunca terem sido divulgadas.
Numa dessas, Amodei escreveu: as palavras de Altman “quase certamente são bullshit”.
Isto não é um ataque malicioso de um concorrente. Antes de Amodei se juntar à OpenAI em 2015, Altman tinha jantado sozinho com ele numa ocasião na Índia. Nesse jantar, Altman garantiu-lhe que a OpenAI se concentraria na segurança: “Talvez não imediatamente, mas o mais depressa possível.”
Amodei registou o compromisso de Altman nas anotações. Depois, passou anos a registar como esses compromissos foram sendo quebrados um a um.
O título das anotações é “My Experience with OpenAI”. O subtítulo é: “Private: Do Not Share”.
Cinco dias de golpe e contragolpe
Em 17 de novembro de 2023, Altman assistia a uma corrida de F1 em Las Vegas. Sutskever convidou-o para uma chamada de vídeo e leu uma breve declaração: ele já não era funcionário da OpenAI.
O conselho publicou um comunicado, com formulação cuidadosa: o despedimento de Altman deveu-se ao facto de ele não ter sido “o bastante franco na comunicação”.
A Microsoft tinha investido 13 mil milhões de dólares; foi apenas alguns minutos antes do despedimento de Altman que soube da notícia. Depois, o CEO Satya Nadella disse: “Estou muito surpreendido; não consigo obter isto de ninguém.”
Reid Hoffman começou a telefonar para investigar: “Eu não sei que porra aconteceu. Estamos à procura de corrupção, assédio sexual, mas não encontrámos nada.”
Depois, começou a retaliação.
A mansão de 27 milhões de dólares de Altman transformou-se numa “governação no exílio”. O especialista em crise de comunicação Chris Lehane juntou-se ao processo, com um lema vindo de Mike Tyson: “Toda a gente tem um plano até levar uma chapada.”
Lehane instou Altman a lançar uma campanha agressiva nas redes sociais. O cofundador da Airbnb, Brian Chesky, manteve contacto com a jornalista de tecnologia Kara Swisher, transmitindo críticas ao conselho.
Todas as noites às 18h, Altman pausava a “sala de guerra” para fazer um ciclo de cocktails Negroni. “Precisas de te acalmar”, relembra ele, “porque o que tem de acontecer, vai acontecer.”
Mas os registos das suas chamadas mostram que ele telefonava mais de 12 horas por dia.
A empresa de investimento Thrive suspendeu um investimento previamente planeado, insinuando que apenas com o regresso de Altman é que o negócio seria concluído. Assim, os funcionários conseguiriam receber a liquidação de milhões de dólares em capital próprio.
Uma carta pública a exigir o regresso de Altman circulou internamente. Algumas pessoas hesitantes que assinaram receberam telefonemas e mensagens de colegas, pedindo-lhes que reconsiderassem. No fim, a maioria dos funcionários da OpenAI ameaçou seguir Altman e sair.
O conselho foi encurralado. Helen Toner disse: “Control Z, esta é uma opção”, anulando o despedimento. “Ou então outra opção é a empresa se desintegrar.”
Até Mira Murati, por fim, assinou a carta. Ela tinha fornecido a Sutskever material para o memorando.
Anna, a esposa de Brockman, encontrou Sutskever no escritório e pediu-lhe que reconsiderasse. “Tu és uma boa pessoa; tu podes resolver isto”, disse ela.
Mais tarde, Sutskever explicou em depoimento em tribunal: “Eu acho que, se seguíssemos a rota em que Sam não regressa, a OpenAI seria destruída.”
Numa noite, Altman tomou Ambien, foi acordado pelo marido Oliver Mulherin, que lhe disse que Sutskever tinha vacilado e que pediam a Altman que falasse com o conselho. “Acordei nesse estado de névoa do Ambien, totalmente perdido. Eu pensei: agora não consigo falar com o conselho”, disse Altman.
Numa série de telefonemas cada vez mais tensos, Altman exigiu que os membros do conselho que o tinham despedido apresentassem a demissão.
Em menos de cinco dias, Altman voltou.
Sutskever, Toner e McCauley perderam as suas cadeiras no conselho. O único membro original do conselho que permaneceu foi Adam D’Angelo, fundador da Quora.
Como condição de saída, os membros do conselho que pediram para sair exigiram uma investigação às acusações contra Altman. Exigiram também que um novo conselho conseguisse supervisionar de forma independente a investigação externa.
Mas dois dos novos membros, o ex-reitor de Harvard Lawrence Summers e o ex-CTO do Facebook Bret Taylor, foram escolhidos após negociações muito próximas com Altman.
“Tu aceitas fazer isto?”, Altman mandou uma mensagem a Nadella: “Bret, Larry Summers, Adam no conselho; eu como CEO; e depois Bret trata da investigação.”
Os funcionários, agora, chamam este momento de “Blip”, o episódio em filmes da Marvel em que um personagem desaparece da existência e depois volta. Mas o mundo já tinha mudado profundamente por causa da ausência deles.
Uma investigação que não saiu nos relatórios
Uma das condições dos membros do conselho que se demitiram foi que tinha de haver uma investigação independente.
A OpenAI contratou a firma WilmerHale, que tinha conduzido investigações internas da Enron e da WorldCom.
Mas seis pessoas próximas da investigação disseram que esta investigação parecia ter sido desenhada para limitar a transparência.
Alguns investigadores não contactaram inicialmente figuras importantes da empresa. Um funcionário contactou Summers e Taylor para apresentar uma queixa: “Eles só se interessavam pelo que aconteceu durante o drama do conselho, não pela história de integridade”, recorda o funcionário, dizendo como se sentiu na entrevista.
Outros não estavam dispostos a partilhar as suas preocupações sobre Altman, porque achavam que não havia proteções de anonimato suficientes. “Tudo apontava para o resultado que eles queriam encontrar: a absolvição”, disse um funcionário.
O objetivo das investigações corporativas é conferir legitimidade. Em empresas privadas, os resultados às vezes não são escritos, o que pode limitar responsabilidades. Mas em casos de escândalo público, normalmente espera-se uma transparência maior.
Antes de Travis Kalanick sair da Uber em 2017, o conselho contratou uma empresa externa para publicar ao público um resumo de 13 páginas.
Tendo em conta o estatuto 501©(3) da OpenAI e a natureza altamente mediática dos despedimentos, muitos executivos esperavam ver resultados de investigação detalhados.
Em março de 2024, a OpenAI anunciou ter absolvido Altman, mas não publicou um relatório. A empresa disponibilizou no website cerca de 800 palavras, reconhecendo “uma rutura na confiança”.
As pessoas envolvidas na investigação disseram: não foi publicado um relatório porque, na realidade, não havia relatório a escrever.
Os resultados ficaram limitados a um briefing oral, partilhado com Summers e Taylor.
“A investigação não concluiu que Sam é um George Washington da integridade”, disse uma pessoa próxima da investigação. “Mas parecia não tratar o problema de integridade como o núcleo do motivo pelo qual Altman foi despedido. Em vez disso, dedicou grande parte dos esforços a encontrar uma conduta criminal clara. A partir daí, a investigação concluiu que ele pode continuar como CEO.”
Pouco depois, Altman voltou a juntar-se ao conselho. Tinha sido afastado do conselho quando foi despedido.
A decisão de não produzir um relatório escrito teria sido baseada em recomendações dos advogados privados de Summers e Taylor.
Muitos ex-funcionários e funcionários atuais da OpenAI disseram que ficaram chocados com a falta de divulgação.
Altman disse que acreditava que todos os membros do conselho que foram convidados para se juntarem após o seu regresso tinham recebido um briefing oral. “Isto é uma mentira total”, disse uma pessoa que conhecia diretamente o caso.
Alguns membros do conselho disseram que as dúvidas contínuas sobre a completude do relatório poderiam levar a “ser necessária mais uma investigação”.
Colapso sistémico das promessas de segurança
O compromisso central quando a OpenAI foi criada era este: se a IA pode ser “a invenção mais perigosa da história da humanidade”, então a segurança tem de vir antes de tudo.
Na primavera de 2023, a OpenAI anunciou a criação de uma “equipa de Super Alinhamento”, liderada por Jan Leike e Sutskever. A empresa prometeu investir “20% do poder de computação que já obtemos” nessa equipa, um valor potencial superior a 1 mil milhões de dólares.
Esse compromisso evaporou.
Quatro pessoas que trabalhavam na equipa ou colaboravam de forma muito próxima disseram que os recursos reais ficavam entre 1% e 2% do poder de computação da empresa.
E ainda, um investigador da equipa disse: “A maior parte do poder de computação para super alinhamento é na verdade usada nos clusters mais antigos, com os piores chips.”
Os investigadores acreditavam que o melhor hardware era reservado para atividades que geram receitas.
Leike reclamou com a então CTO Mira Murati, mas ela disse-lhe para não voltar a levantar o assunto. O compromisso nunca foi realista.
Numa reunião em dezembro de 2022, Altman garantiu ao conselho que as várias funcionalidades do modelo GPT-4 que estava prestes a ser lançado tinham sido aprovadas pelo grupo de segurança.
A membro do conselho Helen Toner exigiu documentação. Ela descobriu que as funcionalidades mais controversas — uma que permitia aos utilizadores “ajustar” o modelo para tarefas específicas, e outra que o permitia implantar como assistente pessoal — na prática não tinham sido aprovadas.
Quando McCauley deixou a reunião, um funcionário puxou-a de lado e perguntou se ela sabia da “violação” na Índia. Numa série de briefings de várias horas com o conselho, Altman não mencionou que a Microsoft tinha lançado uma versão inicial do ChatGPT na Índia, sem concluir as revisões de segurança necessárias.
“Foi completamente ignorado”, disse Jacob Hilton, investigador da OpenAI na altura.
Em 2023, a empresa preparava-se para lançar o modelo GPT-4 Turbo. Segundo a descrição detalhada do memorando de Sutskever, Altman terá dito a Murati que aquele modelo não precisava de aprovação de segurança, citando a opinião do conselheiro jurídico geral da empresa, Jason Kwon.
Mas quando ela perguntou ao Kwon no Slack, ele respondeu: “Bem… estou confusa de onde Sam tirou esta impressão.”
Depois do lançamento do GPT-4, Leike enviou um e-mail aos membros do conselho. “A OpenAI já desviou do caminho na sua missão”, escreveu. “Colocámos produtos e receitas acima de tudo; depois, capacidades de IA, investigação e expansão; e alinhamento e segurança vêm em terceiro lugar.”
Ele continuou: “Outras empresas, como a Google, estão a aprender. Devem implantá-lo mais depressa e ignorar problemas de segurança.”
A equipa de Super Alinhamento foi dissolvida em 2024, sem cumprir a sua missão. Sutskever e Leike demitiram-se.
Leike escreveu no X: “A cultura e os processos de segurança foram substituídos por produtos brilhantes.”
Pouco depois, a equipa preparada para AGI — encarregada de preparar a sociedade para o impacto da IA avançada — também foi dissolvida.
Quando a empresa foi solicitada a descrever de forma breve as “atividades mais importantes” nos seus formulários de divulgação recentes do IRS, o conceito de segurança apareceu na resposta a versões anteriores, mas não foi listado desta vez.
A OpenAI disse que a sua “missão não mudou” e acrescentou: “Continuamos a investir e a evoluir o nosso trabalho em segurança e continuaremos a fazer mudanças organizacionais.”
O Future of Life Institute é um think tank cujos princípios de segurança Altman tinha endossado. O instituto atribui uma classificação à “segurança existencial” de cada uma das principais empresas de IA.
Nos resultados mais recentes, a OpenAI recebeu um F.
Com justiça, para além da Anthropic (D) e da Google DeepMind (D-), todas as outras principais empresas também receberam F.
“Tenho a sensação de que não está alinhado com muitas das coisas tradicionais de segurança em IA”, disse Altman. Ele insiste que continua a dar prioridade a estas questões, mas quando foi pressionado para detalhes específicos, respondeu de forma vaga: “Continuaremos a executar projetos de segurança, ou pelo menos projetos adjacentes à segurança.”
Quando um jornalista pediu uma entrevista com investigadores dentro da empresa que trabalham em segurança existencial, a forma de responder que Altman tinha descrito antes — o tipo de questão que poderia significar “apagar as luzes para todos nós” — deixou uma pessoa da OpenAI visivelmente confusa.
“O que quer dizer com segurança existencial?”, respondeu ele, “não é, por exemplo, uma coisa…”. Jogo perigoso de dinheiro e poder no Médio Oriente
2017, verão: Altman, numa reunião com responsáveis de inteligência dos EUA, afirmou que a China tinha iniciado um “projeto de Manhattan para a AGI” e que a OpenAI precisava de dezenas de mil milhões de dólares de financiamento oficial para conseguir acompanhar.
Quando lhe pediram evidências, Altman disse: “Ouvi falar de algumas coisas.”
Era a primeira vez, em várias reuniões em que ele avançou esse tipo de afirmação. Numa dessas reuniões, depois, ele disse a um responsável de inteligência que seguiria com evidências.
Ele nunca o fez.
O responsável concluiu, após investigar o projeto na China, que não havia evidência de que existisse. “Isto foi apenas usado como argumento de venda.”
Altman disse que não se lembrava de ter descrito os esforços de Pequim desta forma.
Mas a comparação com “Manhattan” continuou a ser usada. Segundo entrevistados e registos da época, em 2017, Brockman apresentou uma contraproposta: a OpenAI podia enriquecer deixando as grandes potências, incluindo a China e a Rússia, competirem entre si, talvez lançando um leilão entre elas.
O consultor de políticas e ética Page Hedley recorda que a ideia parecia: “A arma nuclear funcionou; por que não a IA?”
Ele ficou chocado. “O pressuposto é que eles não refutariam ‘Estamos a falar de uma tecnologia potencialmente destrutiva sem precedentes. O que acontece se a vendermos a Putin?’”
Brockman sustentou que nunca considerou seriamente fazer “um leilão oficial” de modelos de IA. Um representante da OpenAI disse: “Ideias sobre que tipo de enquadramentos potenciais poderiam incentivar a cooperação entre países foram discutidas em níveis elevados — algo semelhante a um posto espacial internacional para a IA. Tentar descrevê-lo como sendo mais do que isso é completamente absurdo.”
As reuniões de brainstorming frequentemente geram ideias excêntricas. Hedley esperava que esta ideia — que foi apelidada de “plano nacional” — fosse abandonada.
Em vez disso, segundo vários participantes e documentos da época, executivos da OpenAI pareciam ficar cada vez mais entusiasmados.
O responsável de políticas Jack Clark disse na altura que o objetivo de Brockman era “basicamente criar um dilema do prisioneiro, em que todos os países precisariam de nos financiar” e que isso “tornaria implicitamente um pouco perigoso não nos financiar”.
Um investigador júnior recorda que, quando o plano foi descrito com detalhe numa reunião da empresa, pensou: “Isto é completamente uma loucura.”
Os executivos chegaram a discutir essa abordagem com pelo menos um potencial doador. Mas mais tarde nesse mesmo mês, após várias conversas com funcionários sobre demissões, o plano foi abandonado.
“Ele perderia funcionários”, disse Hedley. “E eu sinto que isso pesava mais nas contas do Sam do que ‘não é uma boa ideia porque pode levar à guerra entre grandes potências’.”
Dinheiro e poder no Médio Oriente
O objetivo inicial de angariação de fundos de Altman era a Arábia Saudita.
Ele conheceu pela primeira vez o príncipe herdeiro Mohammed bin Salman num jantar no hotel Fairmont, em São Francisco, em 2016. Depois disso, Hedley recorda que Altman se referiu ao príncipe herdeiro como “um amigo”.
Em setembro de 2018, as anotações de Hedley mostram que Altman disse: “Estou a considerar se vamos obter centenas de milhares de milhões de dólares do Saudi PIF (Public Investment Fund).”
No mês seguinte, foi noticiado que, por ordem de bin Salman, uma equipa de assassinos matou o jornalista do “Washington Post” Jamal Khashoggi e esquartejou o corpo com um instrumento de osso.
Uma semana depois, foi anunciado que Altman se juntava ao conselho consultivo da Neom — a “cidade do futuro” que bin Salman quer construir no deserto.
“Sam, tu não podes estar neste conselho”, relembra Clark, que agora trabalha na Anthropic, a dizer a Altman. Ele defendeu inicialmente a sua participação, dizendo a Clark que Jared Kushner lhe tinha garantido que os sauditas “não fizeram isto”.
Altman não se lembra disso. Kushner disse que não contactaram na altura.
À medida que o papel de bin Salman se tornava mais claro, Altman deixou o conselho da Neom. Mas nos bastidores, um consultor de políticas que Altman procurava aconselhamento recorda que ele tratou isso como um revés temporário, perguntando se ainda podia obter dinheiro de bin Salman.
“O problema não é ‘isto é mau ou não?’, disse o consultor. “É ‘se fizermos isto, quais serão as consequências? Haverá problemas de controlo de exportações? Haverá sanções? Por exemplo, consigo safar-me?’”
Nessa altura, Altman já tinha apontado para outra fonte de dinheiro: os Emirados Árabes Unidos.
No outono de 2023, Altman começou discretamente a recrutar novos talentos para um plano que acabou por ser conhecido como ChipCo. Os países do Golfo forneceriam centenas de milhares de milhões de dólares para construir grandes fábricas de microchips e centros de dados, alguns dos quais no Médio Oriente.
Altman vendeu papéis de liderança a Alexandr Wang (atual responsável da Meta AI), dizendo-lhe que o fundador da Amazon, Jeff Bezos, poderia liderar a nova empresa. Altman procurou contribuições avultadas dos Emirados Árabes Unidos.
“Pelo que entendi, o assunto aconteceu sem que qualquer membro do conselho soubesse”, disse um membro do conselho.
O investigador James Bradbury, a quem Altman tentou recrutar, recorda que recusou. “A minha reação imediata foi ‘isto vai funcionar, mas não sei se quero que funcione’”, disse ele.
As capacidades de IA podem vir a substituir rapidamente o petróleo ou o urânio enriquecido — tornando-se o recurso que define o equilíbrio do poder global. Altman disse que o poder de computação é “a moeda do futuro”.
Normalmente, não é muito importante onde ficam os centros de dados. Mas muitos responsáveis de segurança nacional dos Estados Unidos estão inquietos com a centralização de infraestruturas avançadas de IA em Estados autoritários do Golfo.
A infraestrutura de telecomunicações dos Emirados depende fortemente de hardware da Huawei, a gigante tecnológica chinesa com ligações oficiais. Foi noticiado que os Emirados já forneceram ao Governo de Pequim acesso a tecnologia dos EUA.
Os serviços de inteligência receiam que microchips americanos avançados enviados para os Emirados possam ser usados por engenheiros chineses.
Os centros de dados no Médio Oriente também são mais vulneráveis a ataques militares. Nas últimas semanas, o Irão bombardeou centros de dados americanos no Bahrein e nos Emirados.
Após a despedimento de Altman, a pessoa em que ele mais confiava era Chesky, um dos cofundadores da Airbnb e um dos seus apoios mais leais. No ano seguinte, numa reunião de alumni do Y Combinator, Chesky fez uma apresentação improvisada que acabou por durar duas horas.
“Pareceu uma sessão de terapia de grupo”, disse. A ideia era: o teu instinto para como gerir a empresa que fundaste é o melhor; qualquer pessoa que te diga que não é assim está a fazer-te gaslighting.
“Tu não estás louco, mesmo que as pessoas que trabalham contigo te digam que estás louco”, disse Chesky.
Paul Graham deu um nome para esta atitude provocadora num post no blogue sobre o discurso: o “Founder Mode” (modo de fundador).
Desde o Blip, Altman tem estado no modo de fundador.
Em fevereiro de 2024, o “Wall Street Journal” publicou uma descrição da visão de ChipCo por parte de Altman. Ele imaginou como uma entidade conjunta financiada por investimentos de 5 a 7 biliões de dólares.
“fk it why not 8”, tweetou ele.
É assim que muitos funcionários ficaram a conhecer o plano. “Toda a gente está a pensar ‘espera… o quê?’”, recorda Leike.
Numa reunião interna, Altman insistiu que as equipas de segurança tinham “sido avisadas”. Leike mandou-lhe mensagens para que não desse a entender erradamente que o trabalho tinha sido aprovado.
No período de Biden, Altman explorou obter autorização de segurança para se juntar a discussões políticas confidenciais sobre IA. O pessoal da Rand que ajudou a coordenar o processo expressou preocupações.
“Ele estava ativamente a arrecadar ‘dezenas de milhares de milhões de dólares’ de fontes de governos estrangeiros”, escreveu uma das pessoas. “Os Emirados deram-lhe recentemente um carro. (Presumo que seja um carro muito bom.)”
A pessoa continuou: “A única pessoa que me consigo lembrar que teve este tipo de relação financeira estrangeira na escala é Jared Kushner, e a recomendação do decisor é que ele não deveria receber licenças.”
Altman acabou por sair do processo.
“Ele está a empurrar estas relações de transações, principalmente com os Emirados; isto soou muitos alarmes para algumas de nós”, disse-nos um alto responsável que esteve em conversas com Altman. “Muitos dos oficiais não o confiam 100%.”
Quando lhe perguntaram sobre presentes de Tahnoon, Altman respondeu: “Eu não vou especificar quais presentes ele me deu. Mas ele, e outros líderes do mundo… deram-me presentes.” E acrescentou: “Há uma política padrão para mim: qualquer presente de qualquer potencial parceiro comercial é divulgado à empresa.”
Altman tinha pelo menos dois supercarros: um Koenigsegg Regera totalmente branco, avaliado em cerca de 2 milhões de dólares, e um McLaren F1 vermelho, avaliado em cerca de 20 milhões de dólares.
Em 2024, alguém viu Altman a conduzir a Regera através de Napa. Alguns segundos de vídeo apareceram nas redes sociais: Altman sentado num assento tipo balde baixo, olhando para fora através das janelas da máquina branca e brilhante.
Um investidor de tecnologia aliado de Musk publicou o vídeo no X, escrevendo: “Vou agora fundar uma organização sem fins lucrativos.”
Em 2024, Altman levou dois funcionários da OpenAI a visitar o iate super luxuoso Maryah de 250 milhões de dólares, do xeque Tahnoon. Sendo um dos maiores barcos desse tipo no mundo, Maryah tem um heliponto, um clube noturno, um cinema e um clube de praia.
Os funcionários de Altman ficaram claramente desconfortáveis com a segurança armada de Tahnoon; pelo menos uma pessoa contou depois a colegas que a experiência foi inquietante.
Altman chamou mais tarde Tahnoon no X de “querido amigo privado”.
Biden acabou por recusar a aprovação. “Nós não vamos construir microchips avançados nos Emirados”, disse um responsável do Departamento de Comércio a Altman.
Quatro dias antes da tomada de posse de Trump, o “Wall Street Journal” noticiou que Tahnoon pagou 500 milhões de dólares à família Trump em troca de participação em ações na empresa de criptomoedas dela.
No dia seguinte, Altman falou em chamada de 25 minutos com Trump para discutir uma versão da declaração de ChipCo, com a temporização alinhada para que Trump pudesse reivindicar o mérito.
No dia seguinte à posse de Trump, Altman subiu ao púlpito na sala Roosevelt para anunciar Stargate, uma joint venture de 500 mil milhões de dólares destinada a criar uma vasta rede de infraestruturas de IA nos EUA.
Em maio, os EUA revogaram as restrições de exportação de Biden sobre tecnologia de IA. Altman e Trump foram ao encontro da família real saudita para falar com Mohammed bin Salman.
Nessa altura, mais ou menos, os sauditas anunciaram uma grande empresa de IA apoiada pelo Estado no reino, com dezenas de biliões de dólares para parcerias internacionais.
Cerca de uma semana depois, Altman traçou planos para expandir a Stargate para os Emirados. A empresa planeia construir um parque de centros de dados em Abu Dhabi, com uma área sete vezes maior do que o Central Park, consumindo energia equivalente ao consumo de energia da cidade de Miami.
“Na verdade, estamos a construir um portal, a partir do qual chamamos verdadeiramente alienígenas”, disse-nos um antigo executivo da OpenAI. “O portal existe agora nos EUA e na China; o Sam está a adicionar um no Médio Oriente.”
Ele continuou: “Eu acho que é muito importante compreender o quão aterrador isto é. É a coisa mais imprudente que já foi feita.”
Um “mentir” como sem fins lucrativos
Ao criar a OpenAI como uma organização sem fins lucrativos, o seu conselho de administração tem a responsabilidade de colocar a segurança da humanidade acima do sucesso da empresa — e até acima da sua própria sobrevivência.
A empresa aceita doações de caridade. Alguns ex-funcionários disseram-nos que se juntaram ao projeto porque acreditavam nas garantias de uma organização sem fins lucrativos e da sua missão elevada — até com cortes salariais.
Mas registos internos indicam que, desde cedo, já antes de 2017, os fundadores tinham dúvidas privadas sobre a estrutura sem fins lucrativos.
Brockman, cofundador de Altman, escreveu no diário: “Não podemos dizer que estamos comprometidos com uma organização sem fins lucrativos… se daqui a três meses formos uma B-Corp, isso é mentira.”
Desde então, a OpenAI foi reestruturada como entidade com fins lucrativos.
No início do período em que Altman era CEO, ele anunciou que a OpenAI criaria uma empresa de “lucros limitados” que seria detida por uma organização sem fins lucrativos. Essa estrutura de empresa “bizantina” não existia obviamente antes de Altman ter desenhado o plano.
Durante a transição, membros do conselho como Holden Karnofsky se opuseram, afirmando que a organização sem fins lucrativos era seriamente subestimada. “Eu não posso fazer isto de forma sincera”, disse Karnofsky (cunhado de Amodei).
De acordo com anotações da época, ele votou contra. Contudo, depois de os advogados do conselho dizerem que a sua objeção “poderia ser um sinal de que uma investigação adicional se justificava”, o seu voto foi registado como abstenção — obviamente sem o seu consentimento, o que poderia equivaler a falsificação de registos comerciais.
A OpenAI disse-nos que alguns funcionários recordam que Karnofsky se absteve, e forneceram atas de reuniões em que o voto dele seria abstenção.
No ano passado, em outubro, a OpenAI “reestruturou-se” como uma entidade com fins lucrativos. A empresa promovia a organização sem fins lucrativos associada — agora chamada OpenAI Foundation — como uma das organizações sem fins lucrativos “mais ricas em recursos” da história.
Mas agora, ela é uma parte interessada em 26% da empresa, e os seus membros no conselho de administração, exceto por um, também são membros de conselhos com fins lucrativos.
Em testemunho no Congresso, Altman foi questionado sobre se tinha ganho “muito dinheiro”. Ele respondeu: “Eu não tinha participação acionista na OpenAI… faço isto porque adoro”. Uma resposta prudente, dada a forma como ele teve participação indireta via Y.C. Fund.
Isto ainda é tecnicamente verdade. Mas algumas pessoas, incluindo Altman, dizem-nos que isso pode mudar em breve.
“Os investidores dizem: ‘eu preciso saber que vais continuar quando as coisas ficarem difíceis’”, disse Altman, mas acrescentou que não houve “discussões ativas”.
De acordo com depoimento em tribunal, Brockman aparenta ter ações avaliadas em cerca de 20 mil milhões de dólares. A participação de Altman seria provavelmente ainda maior.
Ainda assim, ele diz-nos que o dinheiro não é o principal motivo. Um ex-funcionário relembra que ele disse: “Eu não me importo com dinheiro. Eu preocupo-me mais com poder.”
A guerra de difamação dos concorrentes
Na competição brutal por domínio em IA, críticas substantivas a Altman e esforços de oposição sem escrúpulos acabam misturados — e os concorrentes transformam a vida pessoal dele em arma.
O intermediário ligado diretamente a Musk, pelo menos em um caso pago por Musk, espalhou dezenas de páginas de pesquisas sensacionalistas e não verificadas contra Altman, refletindo um estilo de vigilância alargado: empresas de fachada, contactos pessoais e entrevistas sobre alegados “trabalhadores do sexo” em bares gays.
Durante a nossa reportagem, várias pessoas dentro de empresas concorrentes sugeriram-nos que a perseguição sexual de Altman envolvia menores: é uma narrativa que persiste em Silicon Valley, mas parece não ser verdadeira.
Passámos meses a investigar isso, fizemos dezenas de entrevistas e não encontrámos qualquer evidência para suportar a alegação.
Musk continua a condenar Altman publicamente, chamando-o de “Altman mentiroso” e “Sam mentiroso”. (Quando Altman reclamou no X sobre um Tesla que ele tinha encomendado, Musk respondeu: “Tu roubaste uma organização sem fins lucrativos.”)
No entanto, em Washington, Altman parece ter ultrapassado Musk. Musk gastou mais de 250 milhões de dólares para ajudar Trump a ser eleito e trabalhou na Casa Branca por alguns meses. Depois, Musk saiu de Washington, prejudicando a relação com Trump no processo.
Altman é agora um dos magnatas mais preferidos por Trump, chegando a acompanhá-lo numa visita ao Castelo de Windsor com a família real britânica. Altman e Trump falam algumas vezes por ano.
“Tu podes, por exemplo, telefonar para ele”, disse Altman. “Não é como ‘amigo’. Mas sim: se eu precisar de falar com ele sobre qualquer coisa, eu falo.”
Quando Trump organizou uma jantar com líderes da tecnologia na Casa Branca no ano passado, Musk esteve obviamente ausente; Altman estava sentado frente a frente com o presidente.
“Sam, tu és um grande líder”, disse Trump. “O que tu me disseste antes era absolutamente inacreditável.”
O perigo real da IA
Porque é que tudo isto é importante?
A IA já tem aplicações que salvam vidas, da investigação médica a avisos meteorológicos. Altman apoiou o crescimento da OpenAI com promessas de futuros extremamente abundantes.
Mas o perigo já não é apenas fantasia.
A IA já foi implantada em operações militares em todo o mundo. Investigadores documentaram a capacidade de identificar rapidamente agentes de guerra química.
A OpenAI enfrenta sete processos por mortes não naturais, acusando o ChatGPT de ter levado a vários suicídios e a um homicídio. Num dos homicídios, os registos da conversa indicam que o sistema alimentou delírios paranóicos de um homem: ele acreditava que a mãe, de 83 anos, o vigiava e tentava envenená-lo. Pouco depois, ele agrediu e estrangulou-a e depois esfaqueou-se a si próprio.
A OpenAI está a lutar contra esses processos e afirma continuar a melhorar as medidas de proteção dos seus modelos.
A IA pode, em breve, provocar interrupções graves no mercado de trabalho — e talvez eliminar milhões de empregos.
A economia dos EUA está cada vez mais dependente de poucas empresas de IA com alavancagem elevada; muitos especialistas, incluindo às vezes Altman, avisam que o setor está numa bolha.
“Alguém vai perder montantes inacreditáveis”, disse ele aos jornalistas no ano passado.
A OpenAI é uma das startups que mais queimou dinheiro na história, dependendo de parceiros que contraem quantias enormes de capital emprestado. Um membro do conselho disse-nos: “A forma como a empresa se alavanca financeiramente é agora ao mesmo tempo arriscada e assustadora.”
A OpenAI contestou isso.
Se a bolha rebentar, não estará apenas uma empresa em risco.
Uma questão de confiança
Ao longo dos anos, Altman apoiou o Partido Democrata. “Tenho grandes dúvidas de que ditadores poderosos contem histórias de medo para unir forças contra os fracos”, disse-nos. “Isso é uma coisa de judeus, não é uma coisa de pessoas LGBT.”
Em 2016, ele apoiou Hillary Clinton, chamando Trump de “uma ameaça sem precedentes para os EUA”. Em 2020, doou para campanhas do Partido Democrata e para a vitória de Biden.
Durante o período de Biden, Altman reuniu-se com a Casa Branca pelo menos seis vezes. Ajudou a formular uma extensa ordem executiva que estabeleceu os primeiros testes federais de segurança para IA e outras salvaguardas.
Quando Biden assinou, Altman chamou-lhe “um bom começo”.
Em 2024, com a queda das sondagens de Biden, a linguagem de Altman começou a mudar. “Independentemente do que acontecer com esta eleição, os EUA vão ficar bem”, disse.
Após a vitória de Trump, Altman doou 1 milhão de dólares ao seu fundo de tomada de posse e depois tirou uma selfie com Jake e Logan Paul, influenciadores, na cerimónia.
No X, no seu estilo habitual de letras minúsculas, Altman escreveu: “Uma observação mais atenta de @potus nas últimas semanas realmente mudou a minha perspetiva sobre ele (espero que eu tenha feito mais pensamento independente…).”
No primeiro dia da presidência, Trump revogou a ordem executiva de Biden sobre IA.
“Ele encontrou uma forma eficaz de executar as suas ordens para Trump”, disse-nos um alto responsável do período de Biden ao falar de Altman.
Do Y Combinator à OpenAI: um padrão
O tempo de Altman no Y Combinator ajudou-o a criar um padrão para o que ele fazia na OpenAI.
Em 2018, alguns parceiros do Y.C. ficaram tão frustrados com as ações de Altman que procuraram Graham para reclamar. Graham e a sua esposa, Jessica Livingston, fundadora do Y.C., tiveram aparentemente uma conversa franca com Altman.
Depois disso, Graham começou a contar às pessoas que, embora Altman tivesse concordado em sair da empresa, ele resistia na prática.
Altman disse a alguns parceiros do Y.C. que renunciaria ao cargo de presidente, mas que se manteria como chairman.
Em maio de 2019, um post no blogue anunciando um novo presidente do Y.C. incluía um asterisco: “Sam está a transitar para chairman do YC.”
Alguns meses depois, o post foi editado para “Sam Altman saiu de qualquer cargo formal no YC”. Depois, a frase foi completamente removida.
Ainda assim, até 2021, um documento da SEC continuava a listar Altman como chairman do Y Combinator.
Altman diz que só soube disto muito mais tarde.
Ao longo dos anos, Altman insistiu publicamente — e também em depoimento recente — que nunca tinha sido despedido do Y.C. Ele disse-nos que não resistiu à saída.
Graham escreveu no Twitter que “não queríamos que ele saísse, só escolhemos” entre Y.C. e OpenAI. Num comunicado, Graham disse-nos: “Nós não temos poderes legais para despedir ninguém. O que podemos fazer é exercer pressão moral.”
Mas, em privado, foi inequívoco: Altman tinha sido afastado por falta de confiança por parte dos parceiros do Y.C.
A descrição deste período de Altman no Y Combinator baseia-se em discussões com vários fundadores e parceiros do Y.C., bem como em materiais da época. Tudo isso aponta para que a separação não foi totalmente de mão dada.
Numa ocasião, Graham disse aos colegas do Y.C. que, antes de ele ser removido, “Sam estava a mentir para todos nós”.
A arte da persuasão
Altman não é um génio técnico. Segundo muitas pessoas no seu círculo, ele não tem conhecimentos profundos e generalizados em codificação ou em machine learning. Vários engenheiros recordam que ele fez mau uso ou confundiu termos técnicos básicos.
Ele construiu a OpenAI, em grande parte, aproveitando o dinheiro e o talento técnico de outras pessoas.
Isso não o torna único. Isso torna-o um empresário.
Mais notável é a sua capacidade de convencer engenheiros prudentes, investidores e o público cético em tecnologia a acreditarem que as suas prioridades são a mesma coisa — mesmo que estejam em desacordo com outras —, que é o que importa.
Quando estas pessoas tentam bloquear os próximos passos dele, ele encontra frequentemente palavras para neutralizá-las, pelo menos temporariamente. Normalmente, quando elas perdem a paciência, ele já conseguiu o que precisava.
“A estrutura que ele montou — no papel, para o limitar no futuro —”, diz o ex-investigador da OpenAI Wainwright. “Mas quando o futuro chega e o momento de estar preso à estrutura, ele dissolve essa estrutura.”
“Ele é inacreditavelmente persuasivo. É tipo truques de pensamento Jedi”, diz um executivo de tecnologia que trabalhou com Altman. “Ele é o nível seguinte.”
Na pesquisa de alinhamento, um cenário clássico de hipótese envolve um “confronto de vontades” entre humanos e uma IA de alta capacidade. Num concurso desses, os investigadores normalmente assumem que a IA vai vencer, tal como um mestre de nível superior derrotaria uma criança no xadrez.
Ao ver Altman ultrapassar as pessoas à volta durante o Blip, este executivo continua, como se estivesse a assistir “a uma rutura de AGI fora da caixa”.
Em quem devemos acreditar?
Entrevistámos mais de 100 pessoas com conhecimento em primeira mão sobre como Altman conduz os negócios: funcionários atuais e antigos da OpenAI e membros do conselho; convidados e funcionários em vários imóveis de Altman; colegas e concorrentes; amigos e inimigos; e algumas pessoas que, dada a cultura mercenária em Silicon Valley, fizeram ambos.
Algumas pessoas defenderam o instinto comercial de Altman e refutaram os seus adversários, especialmente Sutskever e Amodei, vistos como cobiçadores falhados do seu lugar.
Outros descrevem-nos como cientistas fáceis de enganar e distraídos, ou como “apocalípticos” histéricos, atormentados pela fantasia de que o software que estão a construir vai, de algum modo, ganhar vida e matá-los.
Um ex-membro do conselho, Yoon, acredita que Altman não é “um vilão maquiavélico”, mas sim “incapaz” — ao ponto de ser capaz de persuadir a si próprio da realidade em constante mudança das suas falas de vendas.
“Ele está demasiado imerso nas suas próprias crenças sobre si”, diz ela. “Então, aquilo que ele faz, se vives no mundo real, não faz sentido. Mas ele não vive no mundo real.”
Ainda assim, a maioria das pessoas que entrevistámos concorda com o julgamento de Sutskever e Amodei: Altman tem uma vontade de poder implacável, e mesmo entre empresários que colocam o nome num vaivém espacial, ele distingue-se.
“Ele não está vinculado à verdade”, dizem membros do conselho. “Ele tem dois traços que quase nunca vi em duas pessoas ao mesmo tempo. O primeiro é um desejo intenso de agradar — ser apreciado em qualquer interação. O segundo é quase ausência de atenção aos resultados de enganar alguém, como se isso fosse anti-social.”
Este membro do conselho não é a única pessoa que usa “anti-social” de forma espontânea.
Um dos colegas de Altman nos primeiros grupos do Y Combinator era Aaron Swartz: um programador brilhante mas em dificuldades que se suicidou em 2013 e que hoje é lembrado em muitos círculos tecnológicos como uma espécie de santo.
Pouco antes de morrer, Swartz expressou preocupações a alguns amigos sobre Altman. “Tu tens de perceber que Sam nunca pode ser confiável”, disse ele a um amigo. “Ele é um anti-social. Ele fará qualquer coisa.”
Vários altos executivos da Microsoft disseram que, apesar de Nadella ser fiel há muito tempo, a relação da empresa com Altman se tornou tensa.
“Ele distorce, altera, renegocia, viola acordos”, disse um.
Este ano, a OpenAI reafirmou a exclusividade da Microsoft como fornecedor de cloud “sem estado” — ou seja, sem memória — para os seus modelos. No mesmo dia, anunciou um acordo de 70k de dólares que torna a Amazon no distribuidor exclusivo da sua plataforma empresarial de agentes de IA.
Embora continue a ser possível revender, executivos da Microsoft acreditam que os planos da OpenAI podem conflituar com exclusividades anteriores.
A OpenAI insiste que o acordo com a Amazon não viola contratos anteriores; um representante da Microsoft disse que a empresa “acredita que a OpenAI compreende e respeita” as suas obrigações legais.
Um alto executivo da Microsoft disse que, sobre Altman: “Eu acho que há uma pequena mas real hipótese de que, no fim, ele seja lembrado como um aldrabão do nível de Bernie Madoff ou Sam Bankman-Fried.”
No que a OpenAI está a apostar
A premissa para a criação da OpenAI é que a IA pode ser a invenção mais poderosa — e também a mais perigosa — da história da humanidade. Por isso, seria necessário uma estrutura de empresa incomum.
O CEO tem de ser alguém com integridade extraordinária.
Segundo Sutskever, “qualquer pessoa que esteja comprometida em construir tecnologia que pode alterar a civilização carrega um peso enorme e tem responsabilidade sem precedentes”.
Mas “no fim, as pessoas que acabam nesses cargos são normalmente algum tipo de personalidade interessada em poder — um político, alguém que gosta disso”.
Numa das anotações, ele parece preocupar-se ao delegar a tecnologia a alguém “que simplesmente diz às pessoas aquilo que elas querem ouvir”.
Se o CEO da OpenAI for provado não confiável, o conselho de administração — com seis membros — tem o poder de o despedir.
Alguns membros, incluindo especialistas em políticas de IA Helen Toner e a empresária Tasha McCauley, receberam o memorando como confirmação de algo que já acreditavam: Altman delegou o futuro da humanidade a terceiros, mas não pode ser confiado.
Nos telefonemas tensos após o despedimento, o conselho instou Altman a admitir um padrão de engano.
“isto foi uma bagunça do caralho”, ele repetia, segundo as pessoas na chamada. “Eu não consigo mudar a minha personalidade.”
Altman diz que não se lembra desta conversa. “O que eu acho que eu quis dizer foi ‘eu tentei de ser uma força de união’, disse ele. E acrescentou que essa característica é o que lhe permite liderar uma empresa extremamente bem-sucedida.
Ele atribuiu a crítica a uma tendência — especialmente no início da sua carreira — de “evitar conflitos demais”.
Mas um membro do conselho ofereceu uma explicação diferente: “Isso significa: ‘eu tenho um traço que me permite mentir às pessoas, e não vou parar’.”
O que levou os colegas a despedir Altman foi sensacionalismo e desavenças pessoais, ou tinham razão: que ele não pode ser confiável?
Em fevereiro de 2024, falámos de novo com Altman. Ele estava vestido com um suéter verde-escuro e jeans, sentado diante de uma fotografia de um rover lunar da NASA. Escondeu uma perna por baixo de si e depois colocou-a sobre o braço da cadeira.
Disse-nos que, no passado, o principal defeito dele como gestor era o desejo de evitar conflitos. “Agora, eu estou muito disposto a despedir pessoas rapidamente”, disse. “Eu estou feliz em dizer: ‘vamos apostar neste rumo’.” Qualquer funcionário que não goste das suas escolhas precisa de “sair”.
Ele estava ainda mais otimista sobre o futuro do que em qualquer outro momento. “A minha definição de vitória é que as pessoas enlouquecem e fazem upgrade, enlouquecem com o futuro de ficção científica — e tudo o que nós, todos nós, sonhamos se torna real”, disse. “Em termos de esperança pela humanidade e das metas que eu espero que todos nós alcancemos, sou extremamente ambicioso. Eu sou uma pessoa estranhamente pouco ambiciosa a nível pessoal.”
Por vezes, parece ter percebido isso. “Ninguém acredita que tu fazes isto apenas porque é divertido”, disse. “Tu fazes isto por poder ou por outra coisa qualquer.”
Mesmo as pessoas mais próximas de Altman têm dificuldade em saber onde termina o seu “esperança para a humanidade” e onde começa a ambição.
A sua maior vantagem sempre foi a capacidade de fazer grupos muito diferentes acreditarem que o que ele quer e o que eles precisam é a mesma coisa.
Ele aproveitou um momento histórico único, em que o público tinha uma postura mais cautelosa em relação ao setor de tecnologia, e grande parte dos investigadores capazes de construir AGI temiam levar isso para a existência.
A resposta de Altman foi um movimento que nenhum outro “vendedor” tinha conseguido aperfeiçoar: ele usou linguagem apocalíptica para explicar como a AGI destruiria todos nós. Assim, porque é que ele — ele mesmo — deveria ser a pessoa a construí-la.
Talvez seja uma obra-prima premeditada. Talvez ele esteja a tatear e a encontrar vantagem.
Seja qual for o caso, funcionou.
Agora, a questão é: em que é que nós, todos nós, estamos a apostar?