Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
« The New Yorker » enquête approfondie : pourquoi les proches d’OpenAI considèrent-ils Altman comme peu fiable ?
Sur le corps sans vie d’une organisation à but non lucratif, pousse un arbre à argent.
Rédaction : Xiao Bing, Deep Tide TechFlow
À l’automne 2023, le directeur scientifique d’OpenAI, Ilya Sutskever, est assis devant un ordinateur et termine un document de 70 pages.
Ce document compile des échanges provenant de Slack, des dossiers de communication RH et des comptes rendus de réunions internes, le tout pour répondre à une seule question : Sam Altman, celui qui contrôle peut-être la technologie la plus dangereuse de l’histoire de l’humanité, peut-il vraiment être digne de confiance ?
La réponse de Sutskever, écrite dans la toute première ligne de la première page du document, a pour titre de liste : « Sam adopte un schéma de comportements cohérents… »
Premier point : Mentir.
Deux ans et demi plus tard, aujourd’hui, le journaliste d’investigation Ronan Farrow et Andrew Marantz publient dans le magazine The New Yorker un article d’enquête exceptionnellement long. Ils ont interrogé plus de 100 personnes impliquées, mis la main sur des mémos internes jamais divulgués auparavant, ainsi que sur plus de 200 pages de notes privées laissées par Dario Amodei, fondateur d’Anthropic, durant son époque chez OpenAI. L’histoire reconstituée à partir de ces documents est bien plus laide que le « coup de théâtre » de 2023 : comment OpenAI, qui était à l’origine une organisation à but non lucratif créée pour la sécurité de l’humanité, est devenue progressivement une machine commerciale, et presque chaque garde-fou en matière de sécurité a été démonté, une par une, par la même personne de sa propre main.
La conclusion d’Amodei dans ses notes est encore plus directe : « Le problème d’OpenAI, c’est Sam lui-même. »
Le « péché originel » d’OpenAI
Pour comprendre le poids de cet article, il faut d’abord clarifier à quel point cette entreprise est particulière.
En 2015, Altman et un groupe d’élites de la Silicon Valley ont fait quelque chose qui n’a presque aucun précédent dans l’histoire du commerce : utiliser une organisation à but non lucratif pour développer une technologie qui pourrait être la plus puissante jamais créée dans l’histoire de l’humanité. Les responsabilités du conseil d’administration étaient écrites noir sur blanc : la sécurité doit passer avant le succès de l’entreprise, voire même avant sa survie. En clair, si un jour l’IA d’OpenAI devenait dangereuse, le conseil d’administration aurait l’obligation de fermer la société lui-même.
L’ensemble de l’architecture repose sur une hypothèse : la personne qui gère l’AGI doit être incroyablement honnête.
Et si cette hypothèse était fausse ?
La bombe centrale de l’article, c’est justement ce document de 70 pages. Sutskever ne joue pas aux jeux politiques au bureau : c’est l’un des scientifiques de l’IA les plus éminents au monde. Mais en 2023, il en vient de plus en plus à être convaincu d’une chose : Altman raconte en continu des mensonges aux cadres et au conseil d’administration.
Un exemple concret : en décembre 2022, lors d’une réunion du conseil d’administration, Altman garantit que plusieurs fonctionnalités de GPT-4 qui devaient bientôt être lancées avaient déjà été soumises à une revue de sécurité. Le membre du conseil Toner exige de voir les documents d’approbation. En examinant ces documents, ils découvrent que deux des fonctionnalités les plus controversées (le fine-tuning personnalisé et le déploiement d’un assistant personnel) n’avaient tout simplement jamais obtenu l’approbation du « tableau de sécurité ».
Les choses deviennent encore plus invraisemblables en Inde. Un employé dénonce auprès d’un autre membre du conseil « cette violation » : Microsoft n’aurait pas terminé les revues de sécurité nécessaires, et aurait publié plus tôt en Inde une version initiale de ChatGPT.
Sutskever note aussi une autre chose dans un mémo : Altman aurait dit à l’ancienne CTO Mira Murati que le processus d’approbation de la sécurité n’avait pas tant d’importance, puisque le conseiller juridique général de la société l’avait déjà approuvé. Murati se rend alors auprès du conseiller juridique général pour confirmer, et celui-ci répond : « Je ne sais pas d’où Sam tient cette impression. »
Les 200 pages de notes privées d’Amodei
Les documents de Sutskever ressemblent à un acte d’accusation de procureur. Les plus de 200 pages de notes laissées par Amodei ressemblent davantage aux notes d’un témoin oculaire, écrites sur les lieux du crime.
Pendant les années où Amodei occupait le poste de responsable de la sécurité chez OpenAI, il a vu de ses propres yeux l’entreprise reculer pas à pas sous la pression commerciale. Dans ses notes, il consigne un détail clé de l’affaire d’investissement de Microsoft en 2019 : il avait glissé dans les statuts d’OpenAI une clause de « fusion et assistance », dont l’idée générale était que si une autre société trouvait une voie plus sûre vers l’AGI, OpenAI devait arrêter la concurrence et se tourner vers l’aide à cette société. C’était, pour lui, la garantie de sécurité la plus importante de tout le deal.
Au moment où la transaction était sur le point d’être signée, Amodei découvre un point : Microsoft avait obtenu un droit de veto sur cette clause. Que signifie cela ? Même le jour où un concurrent découvrirait une meilleure voie, Microsoft pourrait, d’un simple mot, faire obstacle à l’obligation d’assistance d’OpenAI. La clause existait encore sur le papier, mais à partir du jour où on a apposé la signature, elle n’était plus qu’un chiffon de papier.
Amodei quitte ensuite OpenAI et fonde Anthropic. Entre les deux entreprises, la rivalité repose sur un désaccord fondamental : « comment l’IA devrait être développée ».
L’engagement de 20% de puissance de calcul qui a disparu
L’article comporte un détail qui donne la chair de poule, à propos de la « super équipe d’alignement » d’OpenAI.
Vers la mi-2023, Altman contacte par e-mail un étudiant doctorant de l’université de Berkeley qui travaille sur l’« alignement trompeur » (l’IA se comporte gentiment pendant les tests, puis fait son propre truc une fois déployée). Il dit qu’il est très préoccupé par ce problème et qu’il envisage de créer un prix mondial de 1 milliard de dollars pour la recherche. Le doctorant est très encouragé, suspend ses études et rejoint OpenAI.
Puis Altman change d’avis : plus de prix externe, et création en interne d’une « super équipe d’alignement ». L’entreprise annonce haut et fort qu’elle allouera à cette équipe « 20% de la puissance de calcul existante », dont la valeur potentielle dépasserait 1 milliard de dollars. Le communiqué est d’une gravité extrême : si le problème d’alignement n’obtient pas de solution, l’AGI pourrait conduire à « la privation de pouvoir des humains, voire l’extinction de l’humanité ».
Jan Leike, nommé pour diriger cette équipe, a ensuite confié aux journalistes que cet engagement lui-même était un outil d’« ancrage des talents » très efficace.
Et dans la réalité ? Quatre personnes qui travaillent dans cette équipe ou qui la côtoient de très près disent que la puissance de calcul réellement allouée n’est que de 1% à 2% de la puissance de calcul totale de l’entreprise, et qui plus est avec du matériel parmi les plus anciens. Cette équipe a ensuite été dissoute, la mission n’ayant pas été accomplie.
Quand le journaliste demande à interviewer des personnes en charge de la recherche sur la « sécurité existentielle » chez OpenAI, la réaction des relations publiques de l’entreprise prête à sourire, mais aussi à pleurer : « Ce n’est pas quelque chose… qui existe réellement. »
Altman, lui, fait preuve de calme. Il dit au journaliste que son « intuition ne s’accorde pas tout à fait avec beaucoup de choses de la sécurité de l’IA traditionnelle », et qu’OpenAI continuera de faire des « projets de sécurité, ou au moins des projets qui touchent à la sécurité ».
Le directeur financier écarté et l’IPO imminente
Le reportage du The New Yorker n’est que la moitié de la mauvaise nouvelle de cette journée. Le même jour, The Information révèle un autre scoop majeur : le CFO d’OpenAI, Sarah Friar, est en grave désaccord avec Altman.
En privé, Friar dit à des collègues qu’elle estime qu’OpenAI n’est pas encore prête à être introduite en bourse cette année. Deux raisons : la charge de travail en matière de procédures et d’organisation à accomplir est trop lourde, et le risque financier lié aux dépenses de puissance de calcul de 5 ans et 600 milliards de dollars promises par Altman est trop élevé. Elle n’est même pas sûre que la croissance des revenus d’OpenAI tienne face à ces engagements.
Mais Altman veut lancer une accélération vers l’IPO dès le quatrième trimestre de cette année.
Le plus invraisemblable, c’est que Friar ne dépend plus directement d’Altman. Depuis août 2025, elle rend compte à Fidji Simo (CEO des activités applicatives d’OpenAI). Or, Simo a pris un arrêt maladie la semaine dernière pour des raisons de santé. À vous de voir la situation : une entreprise en train d’accélérer son IPO, avec un CEO et un CFO en désaccord fondamental ; le CFO ne rend pas compte au CEO ; et le supérieur hiérarchique du CFO est en arrêt.
Même des cadres internes chez Microsoft n’en pouvaient plus. Ils disent qu’Altman « déforme les faits, rompt ses engagements et cesse de remettre en cause les accords déjà conclus ». Un cadre de Microsoft a même déclaré : « Je pense qu’il a une certaine probabilité d’être finalement retenu comme un escroc du niveau de Bernie Madoff ou SBF. »
Le portrait d’Altman, « homme à double visage »
Un ancien membre du conseil d’administration d’OpenAI décrit aux journalistes deux qualités chez Altman. Ce passage est peut-être le portrait de personnage le plus dur de l’article entier.
Ce membre du conseil dit qu’Altman possède une combinaison de qualités extrêmement rare : à chaque échange en face à face, il désire ardemment plaire à son interlocuteur et être apprécié de celui-ci. En même temps, il a un mépris presque psychopathe pour les conséquences que pourrait entraîner la tromperie d’autrui.
Avoir ces deux qualités chez une seule et même personne est extrêmement rare. Mais pour un vendeur, c’est le talent le plus parfait.
L’article emploie une métaphore bien trouvée : Jobs est connu pour sa « distorsion du champ du réel » ; il parvient à faire croire au monde entier en sa vision. Mais même Jobs n’a jamais dit à ses clients : « Si vous n’achetez pas mon lecteur MP3, les gens que vous aimez mourront. »
Altman a tenu des propos similaires, au sujet de l’IA.
Un problème d’éthique d’un CEO : pourquoi c’est un risque pour tout le monde
Si Altman n’était que le CEO d’une entreprise technologique ordinaire, ces accusations n’auraient tout au plus été des potins commerciaux passionnants. Mais OpenAI n’est pas une entreprise ordinaire.
Selon ses propres affirmations, elle développe une technologie qui pourrait être la plus puissante de l’histoire de l’humanité. Elle peut remodeler l’économie mondiale et les marchés du travail (OpenAI vient de publier un livre blanc de politique sur les questions de chômage liées à l’IA), et elle peut aussi être utilisée pour fabriquer des armes biochimiques à grande échelle ou lancer des attaques informatiques.
Tous les garde-fous en matière de sécurité sont devenus du vent. La mission non lucrative des fondateurs a cédé la place à l’objectif d’accélérer l’IPO. L’ancien directeur scientifique et l’ancien responsable de la sécurité ont tous conclu que le CEO est « non fiable ». Les partenaires comparent le CEO à SBF. Dans ce contexte, pourquoi ce CEO aurait-il le droit de décider unilatéralement quand publier des modèles d’IA susceptibles de changer le destin de l’humanité ?
Gary Marcus (professeur d’IA à l’université de New York, et ardent défenseur de la sécurité de l’IA depuis longtemps) a écrit une phrase après avoir lu l’article : si un futur modèle d’OpenAI peut créer des armes biochimiques à grande échelle ou lancer des cyberattaques catastrophiques, êtes-vous vraiment prêt à laisser Altman seul décider de publier ou non ?
La réponse d’OpenAI au The New Yorker est, elle, concise : « La majeure partie de cet article fait le tour d’événements déjà rapportés, via des formulations anonymes et des anecdotes choisies ; les sources semblent manifestement avoir des objectifs personnels. »
Une réponse très « à la Altman » : ne pas répondre à des accusations précises, ne pas nier l’authenticité des mémos, mais mettre en cause les motivations.
Sur le corps sans vie d’une organisation à but non lucratif, pousse un arbre à argent
La décennie d’OpenAI, écrite sous forme d’esquisse d’histoire, donnerait ceci :
Un groupe d’idé alistes préoccupés par les risques liés à l’IA crée une organisation à but non lucratif axée sur sa mission. L’organisation réalise des percées technologiques extraordinaires. Ces percées attirent d’énormes capitaux. Les capitaux exigent un retour. La mission commence à être laissée de côté. L’équipe de sécurité est dissoute. Les personnes qui remettent en cause la situation sont purgées. L’architecture à but non lucratif est transformée en entité lucrative. Le conseil d’administration, qui avait autrefois le pouvoir de fermer la société, est désormais rempli d’alliés du CEO. La société qui avait autrefois promis de consacrer 20% de puissance de calcul à protéger la sécurité de l’humanité, et dont aujourd’hui les responsables communication disent : « Ce n’est pas une chose qui existe réellement ».
Le protagoniste de l’histoire, plus d’une centaine de personnes témoins de l’intérieur, lui apposent la même étiquette : « non contraint par la vérité ».
Il s’apprête à faire entrer cette entreprise en bourse, avec une valorisation supérieure à 850B de dollars.
Le contenu de cet article est une synthèse d’articles publics de plusieurs médias, dont The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, et d’autres.