Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI gros scandale révélé : Ilya a secrètement photographié 70 pages de documents, prouvant qu'Ultraman ment
Aujourd’hui, The New Yorker a publié un reportage d’enquête qui a duré 18 mois, révélant pour la première fois un mémo interne de 70 pages compilé par le scientifique en chef d’OpenAI, Ilya Sutskever, à l’automne 2023, ainsi que plus de 200 pages de notes privées conservées depuis des années par le cofondateur d’Anthropic, Dario Amodei.
Ces documents jamais rendus publics pointent vers la même conclusion : Sam Altman présente un schéma de conduite consistant à « mentir de façon répétée ».
Ce n’est pas une simple querelle interne de l’entreprise. Quand l’IA pourrait être « l’invention la plus dangereuse de toute l’histoire de l’humanité » et qu’une entreprise affirme vouloir « faire en sorte que l’AGI profite à toute l’humanité », les questions d’intégrité de ceux qui tiennent le gouvernail ne relèvent plus de la sphère privée : elles deviennent un enjeu public pour tout le monde.
APPSO, à partir du texte original de The New Yorker, reconstitue et met en lumière cette crise de confiance qui a secoué la Silicon Valley.
C’est une histoire de pouvoir, de mensonges et de l’avenir de l’IA.
APPSO met en avant :
La double norme d’Altman :
Ilya Sutskever soumet au conseil d’administration un dossier secret de 70 pages, accusant Altman de « mentir en continu »
Le conseil d’administration le renvoie pour un manque de franchise dans sa communication, mais 5 jours plus tard, il est contraint de le réintégrer
Des employés qualifient l’épisode de « The Blip » (disparition et retour façon Marvel)
Altman aurait été impliqué dans des controverses liées à des accords d’exclusivité doubles avec de grands acteurs tels que Microsoft et Amazon
Crise de sécurité :
OpenAI dissout l’équipe de super-alignement, et promet que 20% de la puissance de calcul iraient à ce projet, mais en réalité, elle n’en recevrait que 1 à 2%
Passage d’une structure à but non lucratif à une structure à but lucratif, avec une valorisation pouvant atteindre des milliers de milliards
Accord d’infrastructures d’IA d’un montant de 50B de dollars avec des régimes du Moyen-Orient
Ouverture de la technologie aux forces armées, utilisée pour l’application de la loi en matière d’immigration, la surveillance et des armes autonomes
Jeux de pouvoir :
Investissements personnels d’Altman dans 400+ sociétés, avec des relations financières complexes avec ses ex-petits amis
Des investisseurs auraient été amenés à geler leurs investissements dans des concurrents
Passage de « l’altruisme efficace » à « l’accélérationnisme efficace »
Relations étroites avec Trump, avec un don de 1 million de dollars à un fonds d’investiture
Un mémo de 70 pages sur la question de l’intégrité
À l’automne 2023, Ilya Sutskever a fait quelque chose d’extrêmement rare à la Silicon Valley : il a pris des photos avec son téléphone de documents internes de l’entreprise, a compilé un mémo de 70 pages et l’a envoyé aux membres du conseil d’administration.
Pourquoi voler des photos ? Parce qu’il n’osait pas laisser de traces sur les équipements de l’entreprise.
Le mémo a été envoyé de la manière des « messages qui disparaissent », afin de s’assurer que personne ne puisse le voir. Un membre du conseil d’administration qui l’a reçu se souvient : « Il était terrorisé. »
Ce document, qui n’a jamais été publié intégralement, commence par une liste : « Sam exhibits a consistent pattern of… »
Premier point : Mensonge.
Dire des mensonges.
Ce n’est pas un « problème de style de communication », ce n’est pas « un excès d’optimisme », ce n’est pas « une caractéristique d’un leader visionnaire ». Ce sont deux mots : mentir.
L’auteur de ce mémo avait, en 2019, présidé le mariage de Greg Brockman dans les bureaux d’OpenAI, avec un bras robotisé servant de livreur de bagues. Il avait fait de Altman et Brockman des amis.
Mais en 2023, lorsque Sutskever est persuadé que l’AGI est sur le point d’arriver, il dit à un autre membre du conseil : « Je ne pense pas que Sam devrait être la personne dont le doigt est sur le bouton. »
Un autre mémo privé de 200 pages
Après avoir quitté OpenAI, Dario Amodei a cofondé Anthropic. Avant cela, il a conservé pendant des années des notes privées concernant Altman et Brockman.
Plus de 200 pages de documents pertinents circulent en Silicon Valley et n’ont jamais été divulgués officiellement.
Dans l’un de ces documents, Amodei écrit : la parole d’Altman « est presque certainement du bullshit ».
Ce n’est pas une attaque malveillante de la part d’un concurrent. Avant que Amodei ne rejoigne OpenAI en 2015, Altman avait dîné avec lui, un tête-à-tête, dans un restaurant en Inde. À ce dîner, Altman lui a promis : OpenAI se concentrerait sur la sécurité — « peut-être pas tout de suite, mais le plus rapidement possible ».
Amodei a consigné cette promesse d’Altman dans ses notes. Puis, pendant des années, il a noté comment ces promesses ont été brisées une à une.
Le titre du mémo est « My Experience with OpenAI », et le sous-titre : « Private: Do Not Share ».
Coup d’État et contre-coup d’État en cinq jours
Le 17 novembre 2023, Altman regarde une course de F1 à Las Vegas. Sutskever l’invite en visioconférence et lit une brève déclaration : il n’est plus employé d’OpenAI.
Le conseil d’administration publie un communiqué, avec des termes prudents : le renvoi d’Altman est dû au fait qu’il « n’a pas été suffisamment franc dans sa communication ».
Microsoft a investi 13 milliards de dollars ; ce n’est que quelques minutes avant le renvoi d’Altman que l’entreprise a appris la nouvelle. Le PDG Satya Nadella dira ensuite : « J’ai été profondément choqué. Je ne peux rien demander à personne. »
Reid Hoffman commence à appeler pour enquêter : « Je ne sais pas ce qui se passe, bordel. On cherche de la fraude, des agressions sexuelles, mais on n’a rien trouvé. »
Puis la riposte commence.
La somptueuse demeure d’Altman de 27 millions de dollars se transforme en « gouvernement en exil ». Le spécialiste de la communication de crise Chris Lehane rejoint l’équipe ; sa devise vient de Mike Tyson : « Chacun a un plan, jusqu’à ce qu’il prenne un coup de poing. »
Lehane exhorte Altman à lancer une offensive agressive sur les réseaux sociaux. Brian Chesky, cofondateur d’Airbnb, reste en contact avec la journaliste technologique Kara Swisher et transmet des critiques au conseil d’administration.
Chaque soir à 18 heures, Altman suspend le « war room » (salle de guerre), puis enchaîne avec une tournée de cocktails Negroni. « Il faut se calmer », se souvient-il. « Ce qui doit arriver arrive. »
Mais ses relevés d’appels montrent qu’il téléphonait plus de 12 heures par jour.
La société d’investissement Thrive suspend l’investissement prévu, laissant entendre que la transaction ne se fera que si Altman revient. Les employés, eux, peuvent ainsi obtenir des millions de dollars sous forme de liquidations d’actions.
Une lettre ouverte demandant le retour d’Altman circule en interne. Certains signataires hésitants reçoivent des appels et des messages implorant de la part de collègues. Finalement, la majorité des employés d’OpenAI menace de suivre Altman en quittant l’entreprise.
Le conseil est acculé. Helen Toner dit : « Control Z, c’est une option », et annule le renvoi. « Ou alors l’autre option, c’est que l’entreprise se brise. »
Même Mira Murati finit par signer la lettre. Elle avait fourni à Sutskever du matériel de mémo.
Anna, la femme de Brockman, retrouve Sutskever au bureau et le supplie de reconsidérer sa position. « Tu es une bonne personne, tu peux réparer ça », dit-elle.
Plus tard, Sutskever explique devant le tribunal : « Je pense que si nous empruntons la voie où Sam ne revient pas, OpenAI sera détruit. »
Dans la soirée, Altman prend des somnifères Ambien. Son mari, Oliver Mulherin, le réveille en lui disant que Sutskever s’est ravisé : les gens demandent à Altman de parler au conseil d’administration. « Je me suis réveillé dans ce brouillard fou d’Ambien, complètement perdu. Je me suis dit : maintenant, je ne peux pas parler au conseil d’administration », raconte Altman.
Dans une série d’appels de plus en plus tendus, Altman exige que les membres du conseil d’administration qui l’ont renvoyé démissionnent.
Moins de cinq jours plus tard, Altman est réintégré.
Sutskever, Toner et McCauley perdent leurs sièges au conseil. Les seuls membres du conseil restants, parmi ceux d’origine, sont Adam D’Angelo, fondateur de Quora.
En guise de conditions de sortie, les membres du conseil qui quittent l’entreprise exigent une enquête sur les accusations portées contre Altman. Ils demandent également que le nouveau conseil soit en mesure de superviser indépendamment l’enquête externe.
Mais deux nouveaux membres, Lawrence Summers, ancien président de Harvard, et Bret Taylor, ancien CTO de Facebook, ont été sélectionnés après des concertations très proches avec Altman.
« Tu acceptes de faire ça ? », envoie Altman à Nadella par SMS. « Bret, Larry Summers, Adam en tant qu’administrateurs, moi comme CEO, puis Bret s’occupe de l’enquête. »
Aujourd’hui, les employés décrivent ce moment comme un « Blip », comme l’épisode dans les films Marvel où un personnage disparaît puis réapparaît. Mais le monde a déjà été profondément transformé par leur absence.
Une enquête sans rapport
Parmi les conditions des membres du conseil qui démissionnent : il doit y avoir une enquête indépendante.
OpenAI engage le cabinet WilmerHale, celui qui avait mené des enquêtes internes sur Enron et WorldCom.
Mais six personnes proches du déroulement de l’enquête affirment que cette enquête semble avoir été conçue pour limiter la transparence.
Certains enquêteurs n’ont d’abord pas contacté des personnes importantes au sein de l’entreprise. Un employé contacte Summers et Taylor pour se plaindre. « Ils ne s’intéressaient qu’à ce qui s’est passé pendant le théâtre autour du conseil d’administration, pas à l’historique de son intégrité », se rappelle cet employé après l’entretien.
D’autres hésitaient à partager leurs inquiétudes concernant Altman, car ils estimaient que la protection anonyme n’était pas suffisante. « Tout mène à la conclusion qu’ils veulent obtenir : le verdict de non-culpabilité », dit un employé.
Le but d’une enquête d’entreprise est de lui donner une légitimité. Dans le cadre d’une société privée, les conclusions ne sont parfois pas consignées par écrit, ce qui limite la responsabilité. Mais dans les cas d’un scandale relevant du domaine public, on attend généralement un niveau de transparence plus élevé.
Avant que Travis Kalanick ne quitte Uber en 2017, le conseil avait mandaté une société externe pour publier un résumé de 13 pages à destination du public.
Compte tenu du statut 501©(3) d’OpenAI et du caractère très médiatisé du renvoi, de nombreux dirigeants s’attendaient à voir des résultats d’enquête détaillés.
En mars 2024, OpenAI annonce qu’Altman est disculpé, mais sans publier de rapport. Sur son site, l’entreprise fournit environ 800 mots, reconnaissant un « manque de confiance » (« trust has broken »).
Selon des personnes impliquées dans l’enquête : il n’y aurait tout simplement pas de rapport parce qu’aucun rapport n’a été rédigé.
Les résultats d’enquête se limitent à un briefing oral, partagé avec Summers et Taylor.
« L’enquête ne conclut pas que Sam est un George Washington de l’intégrité », dit une personne proche de l’enquête. « Mais il semble que la question de l’intégrité n’ait pas été traitée comme un élément central derrière le renvoi d’Altman ; la majeure partie de l’effort a été consacrée à rechercher un comportement criminel clairement établi. Sur cette base, l’enquête conclut qu’il peut continuer en tant que CEO. »
Peu de temps après, Altman réintègre le conseil. Lorsqu’il a été renvoyé, il avait été expulsé du conseil.
La décision de ne pas produire de rapport écrit découle des conseils des avocats privés de Summers et Taylor.
De nombreux anciens et actuels employés d’OpenAI disent qu’ils ont été choqués par le manque de divulgation.
Altman affirme qu’il pense que tous les membres du conseil qui ont rejoint après son retour ont reçu un briefing oral. « C’est un mensonge total », dit une personne qui connaît directement la situation.
Certains membres du conseil disent que les questions persistantes sur l’exhaustivité du rapport pourraient conduire à une « nouvelle enquête ».
Effondrement systémique des engagements de sécurité
L’engagement central lors de la création d’OpenAI : si l’IA est potentiellement « l’invention la plus dangereuse de toute l’histoire de l’humanité », alors la sécurité doit passer avant tout.
Au printemps 2023, OpenAI annonce la création de « l’équipe de super-alignement », dirigée par Jan Leike et Sutskever. L’entreprise promet d’y allouer « 20% de la puissance de calcul que nous avons obtenue jusqu’ici », dont la valeur potentielle dépasserait 1 milliard de dollars.
Ce engagement s’est évaporé.
Quatre personnes travaillant pour cette équipe ou collaborant étroitement avec elle disent que les ressources réelles se situent entre 1% et 2% de la puissance de calcul de l’entreprise.
Et un chercheur de l’équipe dit : « La majeure partie de la puissance de super-alignement se trouve en réalité sur les clusters les plus anciens, avec les pires puces. »
Les chercheurs pensent que le meilleur matériel est conservé pour des activités génératrices de revenus.
Leike se plaint à l’époque auprès du CTO de l’époque, Mira Murati, mais elle lui dit d’arrêter d’en parler : cet engagement n’a jamais été réaliste.
Lors d’une réunion en décembre 2022, Altman assure le conseil que diverses fonctionnalités du futur modèle GPT-4 ont reçu l’approbation du groupe de sécurité.
Le membre du conseil Helen Toner exige des documents. Elle découvre que deux des fonctionnalités les plus controversées — la capacité pour les utilisateurs de « fine-tuner » le modèle pour des tâches spécifiques, et la capacité de le déployer comme assistant personnel — n’ont en réalité jamais reçu l’approbation.
Quand McCauley quitte la réunion, un employé l’écarte et lui demande s’il savait quelque chose au sujet de la « violation » en Inde. Lors des longues briefings avec le conseil, Altman n’avait pas mentionné que Microsoft avait publié une version précoce de ChatGPT en Inde sans avoir mené les évaluations de sécurité requises.
« C’était totalement ignoré », dit Jacob Hilton, un chercheur d’OpenAI à l’époque.
En 2023, l’entreprise prépare le lancement du modèle GPT-4 Turbo. D’après la description détaillée du mémo de Sutskever, Altman aurait manifestement dit à Murati que ce modèle n’avait pas besoin d’approbation de sécurité, citant les propos du conseiller juridique général de l’entreprise, Jason Kwon.
Mais lorsque Murati le demande sur Slack, Kwon répond : « Euh… je suis… perplexe, d’où Sam tient cette impression. »
Après la sortie de GPT-4, Leike envoie un e-mail aux membres du conseil : « OpenAI a dévié de sa mission. Nous plaçons le produit et le revenu au-dessus de tout ; ensuite viennent les capacités d’IA, la recherche et l’expansion ; l’alignement et la sécurité passent au troisième rang. »
Il poursuit : « D’autres entreprises, comme Google, apprennent : elles devraient déployer plus vite et ignorer les problèmes de sécurité. »
L’équipe de super-alignement est dissoute en 2024 sans avoir accompli sa mission. Sutskever et Leike démissionnent.
Leike écrit sur X : « La culture et les processus de sécurité ont cédé la place à un produit brillant. »
Peu de temps après, l’équipe de préparation à l’AGI — chargée de faire en sorte que la société se prépare aux impacts de l’IA avancée — est également dissoute.
Quand l’entreprise est invitée à décrire brièvement ses « activités les plus importantes » sur les formulaires récents divulgués à l’IRS, le concept de sécurité, qui apparaissait dans les réponses à des formulaires antérieurs, n’est pas listé.
OpenAI dit que « la mission n’a pas changé » et ajoute : « Nous continuons d’investir et de développer nos travaux en matière de sécurité, et nous continuerons les transformations organisationnelles. »
Le Future of Life Institute est un think tank dont les principes de sécurité ont été soutenus par Altman. L’institution attribue une note de « sécurité existentielle » à chaque grande entreprise d’IA.
Sur le relevé le plus récent, OpenAI obtient un F.
À titre juste, en dehors d’Anthropic (D) et de Google DeepMind (D-), toutes les autres grandes entreprises ont également obtenu un F.
« Je sens que ça ne correspond pas à beaucoup des éléments classiques de sécurité en matière d’IA », dit Altman. Il insiste en affirmant qu’il continue de donner la priorité à ces enjeux ; mais lorsqu’on lui demande des détails précis, il devient évasif : « Nous continuons de mener des projets de sécurité, ou au moins des projets adjacents à la sécurité. »
Quand un journaliste demande à interviewer des chercheurs internes travaillant sur la sécurité existentielle, Altman aurait dit qu’un scénario possible impliquant « le fait que nous éteignions tous nos lumières » laisse une personne représentant OpenAI visiblement perplexe.
« Quand vous dites sécurité existentielle, ça veut dire quoi ? » répond-il. « Ce n’est pas… par exemple, quelque chose. »
Jeux dangereux de géopolitique
En été 2017, lors d’une réunion avec des responsables du renseignement américains, Altman affirme que la Chine a lancé un « projet Manhattan pour l’AGI » et qu’OpenAI aurait besoin de plusieurs milliards de dollars de financement officiel pour rester à la hauteur.
Lorsqu’on lui demande des preuves, Altman dit : « J’ai entendu parler de certaines choses. »
C’est la première de plusieurs réunions où il avance cette affirmation. Après l’une d’elles, il dit à un responsable du renseignement qu’il ferait un suivi pour fournir des preuves.
Il ne l’a jamais fait.
Après enquête sur le projet chinois, le responsable conclut : aucune preuve ne permet d’établir qu’il existe. « Ce n’est qu’un argument de vente. »
Altman dit qu’il ne se souvient pas avoir décrit de cette façon les efforts de Pékin.
Mais l’analogie du « projet Manhattan » reste utilisée. D’après les personnes interrogées et les enregistrements de l’époque, en 2017, Brockman a proposé un contre-projet : OpenAI pourrait s’enrichir en mettant en concurrence les grandes puissances — y compris la Chine et la Russie — et peut-être lancer un appel d’offres entre elles.
Le conseiller en politique et en éthique Page Hedley se souvient que l’idée ressemblait à : « La dissuasion nucléaire a fonctionné ; pourquoi l’IA ne fonctionnerait pas ? »
Il est choqué : « Le postulat, c’est : ils n’opposent pas d’objection, “on parle peut-être de la technologie la plus destructrice jamais vue ; et si on la vendait à Poutine ?” »
Brockman affirme qu’il n’a jamais considéré sérieusement une vente aux enchères officielle de modèles d’IA. Un représentant d’OpenAI dit : « Des idées sur les cadres potentiels susceptibles d’encourager la coopération entre États ont été discutées au plus haut niveau, comme un “AI space station” international. Essayer d’en faire plus que ça est totalement absurde. »
Les réunions de brainstorming produisent souvent des idées décalées. Hedley espérait que cette idée, baptisée « plan national », serait abandonnée.
Au contraire, selon plusieurs participants et documents de l’époque, les dirigeants d’OpenAI semblent y être de plus en plus enthousiastes.
À l’époque, Jack Clark, responsable des politiques publiques, dit que l’objectif de Brockman est de « créer essentiellement un dilemme du prisonnier, où tous les pays doivent nous donner de l’argent », et « rendre implicitement un peu dangereux le fait de ne pas nous donner d’argent ».
Un jeune chercheur se souvient que lorsque ce plan a été décrit en détail dans une réunion d’entreprise, il a pensé : « C’est complètement, putain, cinglé. »
Les dirigeants ont au moins discuté de cette approche avec un potentiel donateur. Mais plus tard dans le même mois, après que plusieurs employés aient parlé de démissionner, le plan a été abandonné.
« Il perdrait des employés », dit Hedley. « Je pense que, dans les calculs de Sam, ce poids-là a toujours été plus important que “ce n’est pas une bonne idée, parce que ça pourrait conduire à une guerre entre grandes puissances”. »
Argent et pouvoir au Moyen-Orient
L’objectif de collecte de fonds d’Altman était d’abord l’Arabie saoudite.
Il a rencontré pour la première fois le prince héritier Mohammed bin Salman lors d’un dîner à l’hôtel Fairmont de San Francisco en 2016. Ensuite, Hedley se souvient qu’Altman qualifiait le prince héritier de « ami ».
En septembre 2018, les notes de Hedley indiquent qu’Altman dit : « Je réfléchis à savoir si on peut récupérer des centaines de milliards de dollars du Saudi PIF (Public Investment Fund). »
Le mois suivant, selon les rapports, une équipe d’assassinat aurait tué le journaliste du Washington Post Jamal Khashoggi sur ordre de bin Salman, puis aurait démantelé son corps avec une scie à os.
Une semaine plus tard, il est annoncé qu’Altman rejoint le conseil consultatif de Neom, « la ville du futur » que bin Salman souhaite construire dans le désert.
« Sam, tu ne peux pas siéger à ce conseil », se souvient Clark, aujourd’hui chez Anthropic, en racontant ce qu’il a dit à Altman. Pour défendre d’abord sa participation, il a affirmé à Clark que Jared Kushner lui avait garanti que les Saoudiens « n’avaient pas fait ça ».
Altman ne se souvient pas de cet épisode. Kushner dit qu’ils n’avaient pas de contact à l’époque.
À mesure que le rôle de bin Salman devenait plus clair, Altman quitte le conseil de Neom. Mais dans les coulisses, un conseiller en politique publique auquel Altman demande des avis se souvient qu’il a traité cette situation comme un revers temporaire et lui a demandé s’il pouvait toujours obtenir de l’argent de bin Salman.
« Le problème n’est pas : “est-ce que c’est mal ou pas ?” », dit le conseiller. « Mais plutôt : “si on fait ça, quelles conséquences ? Est-ce qu’il y a un problème de contrôle des exportations ? Des sanctions ? Par exemple, est-ce que je peux m’en sortir ?” »
À ce moment-là, Altman avait déjà repéré une autre source de liquidités : les Émirats arabes unis.
À l’automne 2023, Altman commence à recruter discrètement de nouvelles personnes pour un projet, finalement connu sous le nom de ChipCo. Les États du Golfe fourniraient des centaines de milliards de dollars pour construire d’immenses usines de microprocesseurs et des centres de données, dont certains seraient situés au Moyen-Orient.
Altman vend un rôle de leader à Alexandr Wang (aujourd’hui responsable de Meta AI), lui disant que Jeff Bezos, fondateur d’Amazon, pourrait diriger cette nouvelle entreprise. Altman sollicite de gros financements auprès des Émiratis.
« Ma compréhension, c’est que toute l’affaire s’est faite sans que le moindre membre du conseil n’en soit informé », dit un membre du conseil.
Le chercheur James Bradbury que voulait recruter Altman se souvient avoir refusé. « Ma première réaction, c’était : “ça va réussir, mais je ne sais pas si je veux qu’elle réussisse” », dit-il.
Les capacités d’IA pourraient bientôt remplacer le pétrole ou l’uranium enrichi en tant que ressource déterminante de l’équilibre des puissances mondiales. Altman affirme que la puissance de calcul est « la monnaie du futur ».
En général, l’endroit où se trouvent les centres de données importe peut-être moins. Mais de nombreux responsables américains de la sécurité nationale s’inquiètent de la concentration d’infrastructures d’IA avancée dans des États autoritaires du Golfe.
Les infrastructures télécoms des Émirats dépendent fortement du matériel de Huawei, ce géant chinois de la tech ayant des liens avec les autorités officielles. Selon des rapports, les Émirats ont déjà divulgué des technologies américaines à Pékin.
Les services de renseignement craignent que des microprocesseurs américains avancés envoyés aux Émirats soient utilisés par des ingénieurs chinois.
Les centres de données au Moyen-Orient sont également plus exposés aux frappes militaires. Ces dernières semaines, l’Iran a bombardé des centres de données américains à Bahreïn et aux Émirats.
Après le renvoi d’Altman, la personne sur laquelle il comptait le plus était Chesky, cofondateur d’Airbnb et l’un de ses soutiens les plus fidèles. L’année suivante, lors d’un rassemblement d’anciens de Y Combinator, Chesky a donné une intervention improvisée qui a finalement duré deux heures.
« Ça ressemblait à une sorte de thérapie de groupe », dit-il. Le point clé : votre intuition pour savoir comment gérer l’entreprise que vous avez créée est la meilleure intuition. Toute personne qui vous dit le contraire vous fait du gaslighting.
« Vous n’êtes pas fou, même si les gens qui travaillent pour vous vous disent que vous êtes fou », dit Chesky.
Paul Graham, dans un billet de blog sur cette intervention, a donné un nom à cette attitude provocatrice : le mode fondateur.
Depuis Blip, Altman est en mode fondateur.
En février 2024, le Wall Street Journal publie une description de la vision de ChipCo par Altman. Il imagine une entité conjointe financée par des investissements de 50 à 70 trillions de dollars.
« fk it why not 8 », tweete-t-il.
C’est une façon dont beaucoup d’employés ont appris l’existence du plan. « Tout le monde se disait : “Attendez, quoi ?” », se souvient Leike.
Lors d’une réunion interne, Altman insiste que l’équipe de sécurité a été « informée ». Leike lui envoie ensuite un message pour l’exhorter à ne pas suggérer à tort que ce travail avait été approuvé.
À l’époque de Biden, Altman explore l’obtention d’une autorisation de sécurité pour rejoindre les discussions sur des politiques relatives à l’IA confidentielles. Un employé de la RAND, chargé d’aider à coordonner le processus, exprime des inquiétudes.
« Il faisait en permanence des efforts actifs pour collecter, depuis l’étranger, “des milliers de milliards” », écrit l’un d’eux. « Les Émirats lui ont récemment offert une voiture. (Je suppose que c’était une très bonne voiture.) »
Le même employé poursuit : « La seule personne que je connaisse ayant vécu des relations financières étrangères d’une ampleur pareille, c’est Jared Kushner. Et selon le conseiller en arbitrage, il ne devrait pas recevoir d’autorisation. »
Altman finit par se retirer du processus.
« Il poussait ces relations de transaction, principalement avec les Émiratis, et pour certains d’entre nous, ça a déclenché énormément de signaux d’alarme », nous dit un haut responsable qui a participé à des échanges avec Altman. « Une grande partie des officiels ne lui fait pas entièrement confiance. »
Interrogé sur des cadeaux venant de Tahnoon, Altman dit : « Je ne vais pas préciser quels cadeaux il m’a offerts. Mais lui et d’autres dirigeants du monde… m’ont fait des cadeaux. » Il ajoute : « Nous avons une politique standard qui s’applique à moi : chaque cadeau reçu de n’importe quel partenaire commercial potentiel doit être divulgué à l’entreprise. »
Altman possède au moins deux supercars : une Koenigsegg Regera entièrement blanche, évaluée à environ 2 millions de dollars, et une McLaren F1 rouge, évaluée à environ 20 millions de dollars.
En 2024, on aurait vu Altman conduire la Regera à travers Napa. Quelques secondes de vidéo apparaissent sur les réseaux sociaux : Altman est assis dans un siège baquet bas, regardant à l’extérieur à travers les fenêtres de la machine blanche et brillante.
Un investisseur tech allié à Musk publie la vidéo sur X et écrit : « La prochaine étape, je vais créer une organisation à but non lucratif. »
En 2024, Altman emmène deux employés d’OpenAI rendre visite au cheikh Tahnoon à bord de son yacht de 250 millions de dollars, Maryah. L’un des plus grands yachts de ce type au monde, Maryah dispose d’une plateforme pour hélicoptère, d’un club, d’un cinéma et d’un beach club.
Les employés d’Altman semblent manifestement mal à l’aise avec la sécurité armée de Tahnoon ; au moins un d’entre eux le raconte ensuite à des collègues, en disant que l’expérience le mettait mal à l’aise.
Plus tard, Altman décrit Tahnoon sur X comme un « cher ami privé ».
Biden finit par refuser l’approbation. « Nous ne construirons pas de puces avancées aux Émirats », dit un responsable du ministère du Commerce à Altman.
Quatre jours avant l’investiture de Trump, le Wall Street Journal rapporte que Tahnoon a versé 500 millions de dollars à la famille Trump en échange d’une participation dans sa société de cryptomonnaies.
Le lendemain, Altman passe un appel de 25 minutes avec Trump, discutant d’une version annoncée de ChipCo, avec un timing permettant à Trump de s’en attribuer le mérite.
Le deuxième jour de la présidence de Trump, Altman se tient dans la salle Roosevelt et annonce Stargate, une coentreprise de 500 milliards de dollars visant à construire un vaste réseau d’infrastructures d’IA aux États-Unis.
En mai, les États-Unis retirent les restrictions d’exportation imposées par Biden aux technologies d’IA. Altman et Trump se rendent ensuite auprès de la famille royale saoudienne pour rencontrer bin Salman.
À peu près au même moment, les Saoudiens annoncent le lancement d’une grande entreprise d’IA soutenue par l’État dans le royaume, avec des milliards destinés à des partenariats internationaux.
Environ une semaine plus tard, Altman élabore un plan visant à étendre Stargate aux Émirats. L’entreprise prévoit un parc de centres de données à Abou Dhabi, d’une superficie sept fois celle de Central Park, consommant environ la même quantité d’électricité que la ville de Miami.
« La vérité, c’est que nous construisons un portail, depuis lequel nous invoquons vraiment des extraterrestres. » dit un ancien dirigeant d’OpenAI. « Le portail existe actuellement aux États-Unis et en Chine ; Sam en ajoute un au Moyen-Orient. »
Il ajoute : « Je pense qu’il est très important de comprendre à quel point cela est effrayant. C’est la chose la plus imprudente qui ait déjà été faite. »
Mensonges à but non lucratif
En tant qu’organisation à but non lucratif, OpenAI a un conseil d’administration chargé de placer la sécurité de l’humanité au-dessus du succès de l’entreprise, voire de sa survie.
L’entreprise accepte des dons caritatifs. Certains anciens employés nous disent qu’ils se sont joints parce qu’on leur a garanti la vocation d’une organisation à but non lucratif et sa mission élevée, y compris en acceptant une baisse de salaire.
Mais des documents internes montrent que dès 2017, les fondateurs nourrissaient en privé des doutes concernant la structure à but non lucratif.
Dans son journal, Brockman, cofondateur d’Altman, écrit : « Impossible de dire que nous sommes engagés envers le but non lucratif… si, dans trois mois, on fait du B-Corp, ce serait un mensonge. »
OpenAI s’est ensuite restructurée en entité à but lucratif.
Au début du mandat d’Altman en tant que CEO, il annonce qu’OpenAI créera une société « à profits plafonnés », dont l’organisation à but non lucratif détiendrait la propriété. Cette structure de société à la manière de Byzance n’existait clairement pas avant la conception d’Altman.
Durant la transition, un membre du conseil, Holden Karnofsky, s’y oppose, estimant que la partie à but non lucratif était gravement sous-évaluée. « Je ne peux pas faire ça de bonne foi », dit Karnofsky (beau-frère d’Amodei).
Selon des notes de la même période, il a voté contre. Cependant, après que les avocats du conseil disent que son opposition « pourrait être un signe de besoin de davantage d’enquête sur la légalité », son vote est enregistré comme une abstention, manifestement sans son accord : une falsification potentielle des registres commerciaux.
OpenAI nous dit que plusieurs employés se souviennent de l’abstention de Karnofsky et fournissent des procès-verbaux de réunion enregistrant son vote comme une abstention.
En octobre dernier, OpenAI s’est « restructurée » en entité à but lucratif. La société met en avant la structure à but non lucratif associée, maintenant appelée la OpenAI Foundation, qui est présentée comme l’une des organisations à but non lucratif « les plus riches en ressources » de l’histoire.
Mais désormais, elle est un détenteur d’intérêts de 26% de la société, et ses membres au conseil — à une exception près — sont aussi des membres de conseils d’administration à but lucratif.
Lors d’un témoignage devant le Congrès, on demande à Altman s’il a gagné « beaucoup d’argent ». Il répond : « Je n’ai pas de participation dans OpenAI… je le fais parce que je l’aime. » Une réponse prudente, compte tenu du fait qu’il détient indirectement des participations via le fonds Y.C.
Techniquement, c’est encore vrai. Mais plusieurs personnes, dont Altman, nous disent que cela pourrait changer rapidement.
« Les investisseurs disent : je dois savoir si tu tiendras bon quand les choses seront difficiles », dit Altman, mais il précise qu’il n’y a eu « aucune discussion active ».
D’après les témoignages judiciaires, Brockman détient apparemment des actions d’une valeur d’environ 20 milliards de dollars. La part d’Altman serait probablement plus élevée.
Quoi qu’il en soit, il nous dit que son objectif principal n’est pas d’être motivé par la richesse. Un ancien employé se souvient qu’il lui a dit : « Je me fiche de l’argent. Ce qui m’importe, c’est le pouvoir. »
La guerre de diffamation des concurrents
Dans une compétition impitoyable pour la domination de l’IA, les critiques substantielles d’Altman se mêlent aux efforts des opposants sans scrupules ; et des concurrents ont transformé la vie personnelle d’Altman en armes.
Un intermédiaire étroitement lié à Musk, au moins dans un cas rémunéré par Musk, a diffusé des dizaines de pages de recherche d’opposition sensationnaliste et non vérifiée, reflétant une surveillance étendue : des sociétés écrans, des contacts personnels, des interviews de « prétendus travailleurs du sexe » dans des bars gays.
Au cours de notre enquête, plusieurs personnes au sein des sociétés concurrentes nous laissent entendre qu’Altman poursuivait sexuellement des mineurs : c’est un récit persistant dans la Silicon Valley, mais il semble ne pas être vrai.
Nous avons passé des mois à vérifier cette allégation, réalisé des dizaines d’entretiens : nous n’avons trouvé aucune preuve pour l’étayer.
Musk continue de pourfendre Altman en public, le qualifiant de « menteur Altman » et de « menteur Sam ». (Quand Altman se plaint sur X d’une commande de Tesla, Musk répond : « Tu as volé une organisation à but non lucratif. »)
Cependant, à Washington, Altman semble avoir dépassé Musk. Musk a dépensé plus de 250 millions de dollars pour aider Trump à être réélu, et a travaillé à la Maison-Blanche pendant plusieurs mois. Puis Musk est reparti, au cours de cette période il a abîmé ses relations avec Trump.
Altman est maintenant l’un des magnats préférés de Trump ; il a même accompagné Trump lors de la visite de la famille royale britannique au château de Windsor. Altman et Trump se parlent plusieurs fois par an.
« Vous pouvez, par exemple, lui téléphoner », dit Altman. « Ce n’est pas… des potes. Mais oui : si j’ai besoin de discuter avec lui de quelque chose, je le ferai. »
L’an dernier, lors d’un dîner de leaders de la tech à la Maison-Blanche, Musk était manifestement absent ; Altman était assis en face du président.
« Sam, vous êtes un grand leader », dit Trump. « Ce que vous m’avez dit avant m’a absolument sidéré. »
Le danger réel de l’IA
Pourquoi tout cela compte-t-il ?
L’IA a effectivement déjà des applications qui sauvent des vies, de la recherche médicale aux alertes météo. Altman a soutenu la croissance d’OpenAI avec des promesses d’un avenir ultra-riche.
Mais le danger n’est plus une pure fiction.
L’IA est déjà déployée dans des opérations militaires partout dans le monde. Des chercheurs ont documenté sa capacité à identifier rapidement des agents de guerre chimique.
OpenAI fait face à sept procès pour décès anormal, accusant ChatGPT d’avoir incité plusieurs suicides et un meurtre. Dans les logs de conversation d’une affaire de meurtre, l’IA encourage les délires paranoïaques d’un homme, persuadé que sa mère de 83 ans le surveillait et cherchait à l’empoisonner. Peu après, il l’a frappée puis étranglée, et s’est ensuite poignardé.
OpenAI lutte contre ces poursuites et affirme continuer à améliorer les dispositifs de protection de ses modèles.
L’IA pourrait bientôt entraîner de graves perturbations sur le marché du travail, voire supprimer des millions d’emplois.
L’économie américaine dépend de plus en plus d’un petit nombre d’entreprises d’IA à fort effet de levier ; de nombreux experts, y compris parfois Altman, avertissent que l’industrie est dans une bulle.
« Il y a des gens qui subissent des pertes colossales », a-t-il déclaré aux journalistes l’an dernier.
OpenAI est l’une des startups qui brûle le plus vite de l’argent de l’histoire, et dépend de partenaires financés par d’énormes sommes empruntées. Un membre du conseil nous dit : « Le mode de financement par levier financier que l’entreprise utilise aujourd’hui est à la fois risqué et effrayant. »
OpenAI conteste cela.
Si la bulle éclate, ce n’est pas seulement une entreprise qui risque d’en pâtir.
Une question de confiance
Pendant des années, Altman a soutenu les démocrates. « Je doute fortement que des dictateurs puissants racontent des histoires de peur pour s’unir contre les plus faibles », nous a-t-il dit. « C’est une affaire juive, pas une affaire gay. »
En 2016, il soutient Hillary Clinton, qualifiant Trump de « menace sans précédent pour l’Amérique ». En 2020, il fait des dons à des fonds liés aux démocrates et à la victoire de Biden.
À l’époque de Biden, Altman a rencontré au moins six fois l’administration de la Maison-Blanche. Il a aidé à rédiger un long décret administratif, établissant le tout premier test fédéral de sécurité de l’IA et d’autres garde-fous.
Au moment où Biden signe, Altman le qualifie de « bon début ».
En 2024, alors que les sondages de Biden se dégradent, le discours d’Altman commence à changer. « Je pense que, quelle que soit l’issue de cette élection, les États-Unis s’en sortiront », dit-il.
Après la victoire de Trump, Altman fait un don de 1 million de dollars au fonds d’investiture, puis se filme en selfie avec les influenceurs Jake et Logan Paul lors de la cérémonie.
Sur X, dans son style de minuscules habituel, Altman écrit : « En regardant @potus de plus près, récemment, ça a vraiment changé ma perception de lui (j’aurais aimé réfléchir davantage par moi-même…). »
Dès le premier jour de la présidence, Trump abroge le décret administratif de Biden sur l’IA.
« Il a trouvé une manière efficace pour Trump d’exécuter ses ordres », dit un haut responsable de l’époque de Biden au sujet d’Altman.
De Y Combinator à OpenAI : le modèle
Le passage d’Altman chez Y Combinator a servi à établir le modèle de son comportement à OpenAI.
En 2018, plusieurs partenaires de Y.C. sont tellement frustrés par le comportement d’Altman qu’ils vont voir Graham pour se plaindre. Graham, avec sa femme et fondatrice de Y.C., Jessica Livingston, a manifestement eu une conversation franche avec Altman.
Après cela, Graham commence à dire aux gens qu’Altman accepte de quitter l’entreprise, mais qu’il résiste en pratique.
Altman dit à certains partenaires de Y.C. qu’il démissionnera de son poste de président, mais qu’il deviendra président du conseil.
En mai 2019, un billet de blog annonçant un nouveau président de Y.C. comporte un astérisque : « Sam passe en transition vers le rôle de président du conseil de Y.C. »
Quelques mois plus tard, ce billet est édité en « Sam Altman a quitté tout poste officiel chez YC » ; ensuite, cette phrase est totalement supprimée.
Malgré tout, jusqu’en 2021, un document de la Securities and Exchange Commission continue de lister Altman comme président du conseil de Y Combinator.
Altman dit qu’il n’a appris cette situation que bien plus tard.
Altman a longtemps soutenu publiquement — et dans ses témoignages récents — qu’il n’a jamais été licencié par Y.C. Il dit qu’il n’a pas résisté à son départ.
Sur Twitter, Graham dit : « Nous ne voulions pas qu’il parte, juste qu’il choisisse » entre Y.C. et OpenAI. Dans une déclaration, Graham nous dit : « Nous n’avons aucun pouvoir légal de licencier qui que ce soit. Tout ce qu’on peut faire, c’est exercer une pression morale. »
Mais en privé, il est clair qu’il dit que la raison pour laquelle Altman a été retiré est due à la défiance des partenaires de Y.C.
Cette description d’Altman à l’époque de Y Combinator repose sur des discussions avec plusieurs fondateurs et partenaires de Y.C., ainsi que sur des documents de l’époque : tout indique que la séparation n’a pas été totalement réciproque.
Une fois, Graham dit à un collègue de Y.C. qu’avant son retrait, « Sam a menti à nous tous ».
L’art de convaincre
Altman n’est pas un génie technique. Selon plusieurs personnes de son entourage, il manque de connaissances approfondies dans le codage ou l’apprentissage automatique. Plusieurs ingénieurs se souviennent de lui lorsqu’il a mal utilisé ou confondu des termes techniques fondamentaux.
Il a construit OpenAI en grande partie en s’appuyant sur l’argent des autres et sur le talent technique d’autrui.
Cela ne le rend pas unique. Cela fait de lui un homme d’affaires.
Ce qui est plus remarquable, c’est sa capacité à convaincre des ingénieurs prudents, des investisseurs et même le public sceptique à propos de la technologie de croire que ses priorités étaient les bonnes, même si elles étaient mutuellement incompatibles.
Quand ces personnes tentaient de bloquer ses prochaines actions, il trouvait souvent des mots capables de les neutraliser, au moins temporairement ; et généralement, quand elles perdaient patience, il avait déjà obtenu ce dont il avait besoin.
« La structure qu’il a mise en place, sur le papier, devait contraindre son avenir », dit l’ancien chercheur d’OpenAI Wainwright. « Mais quand le futur arrive et qu’il est soumis à ces contraintes, il abolit cette structure. »
« Il est incroyablement convaincant. Comme… des techniques de mentalité de Jedi », dit un cadre technologique qui a travaillé avec Altman. « Il est carrément au niveau supérieur. »
En recherche d’alignement, une scène d’hypothèse classique implique une compétition de volonté entre les humains et une IA très compétente. Dans ce type de scénario, les chercheurs pensent généralement que l’IA gagnera — comme un grand maître qui battrait un enfant aux échecs.
En voyant Altman surpasser les gens autour de lui pendant Blip, ce cadre poursuit : comme regarder « un saut d’AGI qui brise la boîte ».
Qui faut-il croire ?
Nous avons interrogé plus de 100 personnes qui avaient une connaissance directe de la façon dont Altman mène ses affaires : des employés et des membres du conseil actuels et anciens d’OpenAI ; des invités et du personnel de ses différents biens immobiliers ; ses collègues et ses concurrents ; ses amis et ses ennemis — et plusieurs personnes, du fait de la culture mercenaire de la Silicon Valley, qui ont été les deux.
Certains ont défendu l’instinct commercial d’Altman et ont réfuté ses concurrents, notamment Sutskever et Amodei, décrits comme des prétendants échoués à sa place.
D’autres les décrivent comme des scientifiques faciles à tromper, distraits, ou encore comme des « prophètes de l’apocalypse » hystériques, hantés par l’illusion que le logiciel qu’ils construisent d’une manière ou d’une autre les tuera.
L’ancien membre du conseil Yoon pense qu’Altman « n’est pas ce vilain machiavélique », mais qu’il est allé jusqu’au point de « l’incompétence », au point de parvenir à se convaincre par un discours commercial de la réalité en constante évolution.
« Il est trop plongé dans ses propres croyances narcissiques », dit-elle. « Donc ce qu’il fait, si vous vivez dans le monde réel, n’a aucun sens. Mais il ne vit pas dans le monde réel. »
Cependant, la plupart des personnes que nous avons interrogées s’accordent avec les jugements de Sutskever et Amodei : Altman a une volonté de pouvoir impitoyable, qui même chez les magnats — ceux qui mettent leur nom sur des vaisseaux spatiaux — le rend différent.
« Il n’est pas contraint par la vérité », nous dit un membre du conseil. « Il a deux caractéristiques qu’on voit presque jamais chez une même personne. La première : un désir intense de plaire, d’être aimé dans n’importe quelle interaction. La seconde : un manque quasi antisocial d’attention aux conséquences possibles du fait de tromper quelqu’un. »
Ce membre du conseil n’est pas le seul à utiliser, de lui-même, le mot « antisocial ».
Un camarade d’Altman, au début de Y Combinator, s’appelait Aaron Swartz : un programmeur talentueux, mais en détresse, décédé par suicide en 2013, désormais mémorisé dans beaucoup de milieux tech comme une sorte de saint.
Peu de temps avant sa mort, Swartz a exprimé à plusieurs amis ses inquiétudes concernant Altman. « Il faut que tu comprennes que Sam ne peut jamais être digne de confiance », lui dit-il. « C’est un antisocial. Il ferait n’importe quoi. »
Plusieurs hauts dirigeants de Microsoft affirment que, malgré la loyauté durable de Nadella, la relation entre l’entreprise et Altman s’est fortement tendue.
« Il déforme, il tord, il renégocie, il viole des accords », dit l’un d’eux.
Plus tôt cette année, OpenAI a réaffirmé que Microsoft était son fournisseur exclusif de cloud « sans état », ou « sans mémoire », pour ses modèles. Le même jour, elle annonce une transaction de 70k de dollars, faisant de l’entreprise Amazon le distributeur exclusif pour sa plateforme d’agents d’IA.
Même si les reventes sont autorisées, les dirigeants de Microsoft estiment que les plans d’OpenAI pourraient entrer en conflit avec l’exclusivité de Microsoft.
OpenAI insiste en disant que la transaction avec Amazon ne viole pas les contrats initiaux. Un représentant de Microsoft dit que l’entreprise « croit qu’OpenAI comprend et respecte » ses obligations juridiques.
Les hauts dirigeants de Microsoft disent au sujet d’Altman : « Je pense qu’il y a une petite mais réelle chance qu’il soit finalement retenu comme un escroc de la trempe de Bernie Madoff ou Sam Bankman-Fried. »
Dans quoi OpenAI parie
L’hypothèse fondatrice d’OpenAI : l’IA peut être l’invention la plus puissante — et peut-être la plus dangereuse — de l’histoire humaine. D’où la nécessité d’une structure d’entreprise inhabituelle.
Le CEO doit être une personne d’une intégrité exceptionnelle.
Selon Sutskever, « quiconque s’engage à construire cette technologie qui changera la civilisation porte un fardeau lourd et des responsabilités sans précédent ».
Mais « les personnes qui finissent généralement à ces postes sont un certain type : celles qui s’intéressent au pouvoir, qui sont des politiciens, qui aiment ça ».
Dans l’un des mémo, il semble craindre de confier la technologie à quelqu’un qui « ne fait que dire aux gens ce qu’ils ont envie d’entendre ».
Si le CEO d’OpenAI s’avère peu fiable, le conseil — composé de six membres — a le pouvoir de le renvoyer.
Certains membres, dont Helen Toner, spécialiste des politiques d’IA, et l’entrepreneure Tasha McCauley, ont reçu le mémo comme une confirmation de ce qu’ils croyaient déjà : le rôle d’Altman consiste à déléguer l’avenir de l’humanité à autrui, mais on ne peut pas lui faire confiance.
Dans les appels tendus qui suivent son renvoi, le conseil exhorte Altman à reconnaître un schéma de tromperie.
« Ça a vraiment tout foutu en l’air », répète-t-il, selon les personnes présentes à l’appel. « Je ne peux pas changer ma personnalité. »
Altman dit qu’il ne se souvient pas de cet échange. « Je dirais que j’essayais d’être une force d’unité », nous dit-il, et il ajoute que ce trait de caractère lui permet de diriger une entreprise extrêmement prospère.
Il attribue ses critiques à une tendance : « éviter les conflits » — surtout au début de sa carrière.
Mais un membre du conseil propose une autre explication : « Ça veut dire : “J’ai cette qualité de mentir aux gens, je ne vais pas arrêter.” »
Et les collègues qui ont conduit Altman à être renvoyé : étaient-ils alarmistes et animés par une rancœur personnelle, ou avaient-ils raison, dans le sens où on ne peut pas lui faire confiance ?
En février 2024, nous avons de nouveau parlé avec Altman. Il porte un pull vert foncé et un jean, assis devant une photo d’un rover lunaire de la NASA. Il replie une jambe sous lui, puis la fait retomber sur l’accoudoir de la chaise.
Il nous dit qu’avant, son principal défaut en tant que manager était son désir d’éviter les conflits. « Maintenant, je suis très heureux de renvoyer des gens rapidement », nous dit-il. « Je suis très content de dire : “On va parier dans cette direction.” » Tout employé qui n’aime pas ses choix doit « partir ».
Il est plus optimiste sur l’avenir qu’à aucun moment. « Ma définition de la victoire, c’est que les gens se lancent dans une escalade folle, un futur de science-fiction complètement déchaîné où tout ce qui est imaginaire pour nous tous devient vrai », dit-il. « En ce qui concerne mon espoir pour l’humanité et les objectifs que j’attends que nous atteignions tous, je suis très ambitieux. Je trouve ça étrange : je n’ai presque pas d’ambition personnelle. »
Parfois, il semble en être conscient : « Personne ne croit que vous faites ça juste parce que c’est amusant », dit-il. « Vous le faites pour le pouvoir, ou autre chose. »
Même ceux qui sont proches d’Altman ont du mal à savoir où se termine son « espoir pour l’humanité » et où commence son ambition.
Son plus grand atout a toujours été sa capacité à faire croire à des groupes très différents que ce qu’il veut et ce dont ils ont besoin, c’est la même chose.
Il a exploité un moment historique unique, où le public avait une vision prudente du battage du secteur technologique, et où la plupart des chercheurs capables de construire l’AGI craignaient de l’amener dans l’existence.
La réponse d’Altman a été un acte que personne d’autre n’avait perfectionné en tant que vendeur : il a utilisé le vocabulaire de la fin du monde pour expliquer comment l’AGI détruirait tout le monde. Et donc : pourquoi c’est lui qui devrait la construire.
Peut-être est-ce un chef-d’œuvre prémédité. Peut-être est-ce qu’il cherche son avantage.
Dans tous les cas, ça a fonctionné.
La question maintenant est : en quoi, nous tous, parions ?