Je viens de me rattraper sur l’un des articles d’investigation les plus accablants sur la direction d’OpenAI depuis un certain temps, et honnêtement, il est difficile de ne pas se laisser impressionner par les implications ici.



Donc, en 2023, Ilya Sutskever — le scientifique en chef d’OpenAI — a compilé une note exhaustive documentant ses préoccupations concernant la fiabilité de Sam Altman. On parle de 70 pages extraites de logs Slack, de dossiers RH, de réunions internes. La première ligne était directe : Sam présente un schéma cohérent de mensonges. Avance rapide jusqu’à maintenant, et l’enquête du New Yorker (Ronan Farrow et Andrew Marantz) a publié la note ainsi que plus de 200 pages de notes privées de Dario Amodei, qui était à la tête de la sécurité chez OpenAI avant de fonder Anthropic.

Voici ce qui me choque : OpenAI a été littéralement structuré comme une organisation à but non lucratif précisément pour que la sécurité passe avant le profit. Tout le principe était qu’une personne devait pouvoir fermer l’entreprise si les choses devenaient dangereuses. Toute l’architecture reposait sur une seule hypothèse — que la personne qui la dirigeait devait être radicalement honnête.

Mais selon la note et des interviews avec plus de 100 personnes, ce n’est pas ce qui s’est passé. Il y a des exemples précis : Altman a dit au conseil que les fonctionnalités de GPT-4 avaient passé des contrôles de sécurité alors que ce n’était pas le cas. Les membres du conseil l’ont appris à leurs dépens. Il y a eu cette histoire avec Microsoft et l’Inde où ChatGPT a été lancé sans avoir terminé les vérifications de sécurité requises. Lorsqu’on l’a confronté, Altman a affirmé que le conseiller juridique général avait approuvé quelque chose — le conseiller général a dit qu’il n’avait aucune idée d’où cela venait.

Les notes d’Amodei dressent le tableau d’une entreprise abandonnant peu à peu sa mission initiale sous la pression commerciale. Il a documenté comment Microsoft a inséré une clause dans l’accord d’investissement de 2019 — disant essentiellement que si quelqu’un d’autre trouvait une voie plus sûre vers l’AGI, OpenAI les aiderait plutôt que de rivaliser. C’était la barrière de sécurité qu’il tenait le plus à cœur. Puis il a découvert que Microsoft avait négocié un droit de veto sur cette clause précise. Sur le papier, cela semblait bien. En réalité, c’était mort-né.

Il y a un détail fou concernant l’équipe de Superalignment. OpenAI a annoncé qu’ils consacreraient 20 % de leur puissance de calcul — potentiellement plus d’un milliard de dollars. La rhétorique était forte : sans résoudre le problème de l’alignement, l’AGI pourrait conduire à l’extinction humaine. Mais ceux qui y ont travaillé ont dit que la vraie allocation était de 1 à 2 % de la capacité totale, en utilisant le matériel le plus ancien. L’équipe a été dissoute sans avoir rien terminé.

Quand des journalistes ont interrogé OpenAI sur leur équipe de recherche en sécurité existentielle, la réponse en relations publiques était presque comique : « Ce n’est pas une vraie chose. » Altman lui-même a dit que son intuition ne correspond pas aux approches traditionnelles de la sécurité de l’IA.

Pendant ce temps, une autre histoire se prépare. La directrice financière d’OpenAI, Sarah Friar, aurait dit à ses collègues qu’elle pense que l’entreprise n’est pas prête pour une IPO cette année — trop de procédures, trop de risques financiers liés à l’engagement d’Altman de dépenser un milliard de dollars en calcul sur cinq ans. Elle n’est même pas convaincue que la croissance des revenus puisse le soutenir. Mais Altman veut pousser pour une IPO au quatrième trimestre. Et voici le coup de théâtre : Friar ne reporte plus à Altman. Depuis août 2025, elle reporte au PDG de la branche applications d’OpenAI, qui vient de prendre un congé médical. Donc, une entreprise qui court vers une IPO à un milliard de dollars avec le PDG et la directrice financière en désaccord, la CFO ne rendant pas compte au PDG, et son superviseur en congé. Même des cadres de Microsoft auraient été frustrés, l’un d’eux disant qu’il y a une vraie chance qu’Altman soit rappelé comme Bernie Madoff ou SBF.

Un ancien membre du conseil a donné ce qui pourrait être la meilleure évaluation du personnage : Altman a cette rare combinaison de vouloir désespérément être aimé dans chaque interaction en face à face tout en montrant une indifférence quasi-sociopathique à tromper les gens. C’est le profil parfait pour un vendeur. Jobs avait son champ de distorsion de la réalité, mais même lui n’a jamais dit aux clients que ne pas acheter son produit tuerait ceux qu’ils aiment. Altman a pratiquement dit cela à propos de l’IA.

Ce qui rend tout cela réellement important : si ce n’était qu’un drame dans une entreprise technologique classique, ce serait de la gossip. Mais OpenAI n’est pas ordinaire. Ils développent ce qui pourrait être la technologie la plus puissante de l’histoire humaine. La même technologie qui pourrait remodeler les économies mondiales ou créer des bioweapons. Tous les mécanismes de sécurité ont été démantelés. La mission à but non lucratif est partie. L’ancien scientifique en chef et l’ancien responsable de la sécurité ne font pas confiance au PDG. Des partenaires le comparent à des fraudeurs.

Et sous tout cela, une personne décide unilatéralement quand lancer des modèles qui pourraient redéfinir l’avenir de l’humanité.

Gary Marcus $600 professeur d’IA à NYU, défenseur de longue date de la sécurité$850 , a résumé simplement après avoir lu le rapport : si OpenAI construit quelque chose capable de créer des bioweapons ou de lancer des cyberattaques, êtes-vous à l’aise que Altman soit seul décisionnaire pour le lancement ?

La réponse d’OpenAI a été essentiellement : « Ce sont des histoires recyclées avec des sources anonymes et des agendas personnels. » Altman n’a pas répondu aux accusations spécifiques ni nié la note. Il a simplement questionné les motivations.

Le récit est presque trop parfait : des idéalistes créent une organisation à but non lucratif préoccupée par les risques de l’IA. Ils réalisent une avancée technologique. Le capital afflue. Le capital exige des retours. La mission se fissure. L’équipe de sécurité est coupée. Les dissidents partent. La non-profit devient une entreprise à but lucratif. Le conseil passe d’un contrôle de sécurité à des alliés du PDG. La société qui promettait 20 % de la puissance de calcul pour la sécurité de l’humanité affirme maintenant que ce n’était pas réel.

Plus de cent personnes ont utilisé le même mot : non contraint par la vérité.

Et il l’annonce à une valorisation de (milliard.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler