Je viens de lire quelque chose qui m'a laissé assez déconcerté. The New Yorker vient de publier une enquête massive où des journalistes comme Ronan Farrow ont obtenu des documents internes d'OpenAI révélant un schéma préoccupant : apparemment, Sam Altman a menti systématiquement au conseil d'administration et aux cadres sur des questions critiques de sécurité.



Le point de départ est brutal. Ilya Sutskever, le principal scientifique d'OpenAI, a compilé un document de 70 pages il y a quelques années basé sur des messages Slack, des communications RH et des procès-verbaux de réunions. Sa conclusion en première ligne : Sam montre un schéma cohérent de mensonges. Un exemple concret mentionné dans l’enquête : en décembre 2022, Altman a assuré au conseil que plusieurs fonctionnalités de GPT-4 avaient passé une revue de sécurité. Lorsqu'ils ont demandé à voir les documents d’approbation, ils ont découvert que deux des caractéristiques les plus controversées n’avaient jamais été examinées par le panel de sécurité.

Mais ce qui m’a vraiment frappé, c’est ce qu’ils ont trouvé dans les notes personnelles de Dario Amodei, fondateur d’Anthropic et ancien responsable de la sécurité chez OpenAI. Plus de 200 pages où il documente comment l’entreprise reculait étape par étape sous la pression commerciale. Un détail clé : lorsque Microsoft a investi en 2019, ils ont négocié une clause de « fusion et assistance » qui garantissait que si un autre concurrent trouvait une voie plus sûre vers l’AGI, OpenAI devrait aider. Ça sonne bien sur le papier. Le problème, c’est que Microsoft a aussi obtenu un droit de veto sur cette même clause, ce qui en a fait une promesse vide dès le jour de la signature.

Il y a quelque chose qui paraît presque absurde mais qui est totalement réel : l’équipe de « superalignement » d’OpenAI. Altman a annoncé publiquement qu’ils consacreraient 20 % de leur capacité de calcul existante à la recherche sur l’alignement de l’IA, avec une valeur potentielle supérieure à un milliard de dollars. C’était une annonce sérieuse, évoquant des risques d’extinction humaine et tout ça. Mais quand des journalistes ont parlé à quatre personnes ayant travaillé dans cette équipe, la réalité était différente : la puissance de calcul allouée représentait seulement entre 1 % et 2 % du total, en plus d’être du matériel ancien. L’équipe a été dissoute sans avoir accompli sa mission.

Pendant ce temps, la CFO d’OpenAI, Sarah Friar, avait de graves divergences avec Altman concernant une éventuelle IPO. Friar pense que l’entreprise n’est pas prête à entrer en bourse cette année, compte tenu de la quantité de travail restant et des risques financiers liés à l’engagement d’Altman de dépenser 600 milliards en capacité de calcul en cinq ans. Mais voici le truc étrange : Friar ne reporte plus directement à Altman, mais à Fidji Simo, qui vient de prendre un congé pour raisons de santé. Une entreprise se préparant à une IPO avec de telles dynamiques internes, c’est, disons, compliqué.

Un ancien membre du conseil a décrit Altman avec deux traits simultanés : un désir sincère de plaire à chaque interaction en face à face, mais en même temps une indifférence presque sociopathique face aux conséquences de mentir aux autres. Selon le rapport, cette combinaison est rare chez les personnes mais parfaite pour un vendeur.

Ce qui m’inquiète, c’est que ce n’est pas seulement du gossip d’entreprise. OpenAI développe ce qu’ils décrivent eux-mêmes comme peut-être la technologie la plus puissante de l’histoire humaine. Une technologie qui pourrait reconfigurer l’économie, créer des armes biochimiques à grande échelle, ou lancer des attaques cybernétiques. Et les garde-fous de sécurité censés protéger contre ces risques ont été démantelés. L’ancien scientifique principal et l’ancien responsable de la sécurité considèrent le PDG comme peu fiable. Les cadres de Microsoft le comparent à SBF.

La réponse d’OpenAI à The New Yorker a été minimisatrice : ils ont dit que l’article reprend des événements déjà rapportés en utilisant des affirmations anonymes. Altman n’a pas répondu aux accusations spécifiques, il a seulement mis en doute les motivations des sources.

Dix ans d’OpenAI résumés : un groupe d’idéalistes crée une organisation à but non lucratif pour protéger l’humanité des risques liés à l’IA. Ils réalisent des avancées extraordinaires. Le capital afflue massivement. La mission commence à céder. L’équipe de sécurité est dissoute. Les critiques disparaissent. La structure à but non lucratif se transforme en entité à but lucratif. Le conseil qui avait le pouvoir de fermer l’entreprise est désormais rempli d’alliés du CEO. La société qui promettait de consacrer 20 % de sa puissance à la sécurité humaine a maintenant des porte-parole disant que la recherche sur la sécurité existentielle « n’est pas vraiment quelque chose qui existe ».

Et le protagoniste de cette histoire est sur le point de faire entrer OpenAI en IPO avec une valorisation supérieure à 850 milliards de dollars. Des centaines de témoins oculaires lui ont donné la même étiquette : il n’est pas soumis à la vérité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler