Je lisais récemment un livre de 165 pages. L’auteur, Leopold Aschenbrenner, avait prédit avec précision deux ans auparavant la tendance actuelle de l’IA.


En avril 2024, il a été licencié par OpenAI, et en juin, il a écrit ce livre « Situational Awareness », essentiellement un document de levée de fonds.
En septembre, il a lancé son propre fonds de couverture. La taille de ce fonds est passée d’un peu plus de 200 millions de dollars en un an à 5,5 milliards, soit quatorze fois plus.
Le premier semestre 2025 a enregistré un rendement net de 47 %.
En lisant, je me suis mis à me demander : sur quoi se base-t-il ?
Comment un jeune de 22 ans peut-il, en 2024, écrire sur le monde d’aujourd’hui ?
Pouvoir voir l’avenir, c’est parce qu’il se tient dans la pièce où il est en train d’être créé.
Dans son cercle à San Francisco, dans l’équipe Superalignment d’OpenAI, il travaille directement sous le chef scientifique Ilya Sutskever.
Ce livre lui est dédié à Ilya.
Chaque phrase qu’il a écrite il y a deux ans, aujourd’hui, en regardant en arrière, s’est presque toutes réalisées.
Il dit que, à court terme, ce qui manque le plus à l’IA, ce n’est pas l’algorithme, mais la puissance de calcul, la mémoire HBM, les centres de données, l’électricité.
Il affirme que le véritable goulot d’étranglement se cache dans l’emballage avancé CoWoS.
Il dit que le réseau électrique américain deviendra la première barrière à tout le monde.
Il prévoit l’émergence d’un « cluster d’un billion de dollars ». Plus tard, tous ces points de vue sont devenus des gros titres.
OpenAI a nommé ce cluster Stargate.
Mais ce n’est encore que l’apéritif. Il écrit dans le livre une phrase :
« En 2027, l’AGI (Intelligence Artificielle Générale) arrivera. »
La logique est la suivante : ces quatre dernières années, l’IA est passée d’un « enfant d’âge préscolaire » GPT-2 à un « lycéen intelligent » GPT-4.
Dans quatre ans, il dit, l’IA pourra remplacer les chercheurs humains, en s’entraînant elle-même.
Une fois que l’IA pourra s’étudier elle-même, elle pourra réaliser en un an ce que les humains mettent dix ans à faire en itérations d’algorithmes.
L’« explosion d’intelligence » commencera à ce moment-là.
À ce moment, l’humanité ne comprendra plus ce que l’IA fait.
Le code qu’elle écrit, les décisions qu’elle prend.
Comment savoir si elle ne nous trompe pas ?
Leopold propose dans le livre trois remèdes.
1. Faible supervision renforcée.
Utiliser une IA moins puissante, mais compréhensible par l’humain, pour superviser une IA beaucoup plus forte.
Le pari est que cette IA plus faible pourra encore déjouer la mauvaise intention de la plus forte.
Leopold lui-même est co-auteur de cette étude.
2. Débats entre IA.
Faire en sorte que plusieurs IA se confrontent, se critiquent, se dénoncent mutuellement.
L’humain n’est qu’un arbitre silencieux, utilisant leurs incohérences pour démasquer celui qui ment.
3. Explicabilité mécanique.
Pendant l’entraînement, retirer d’abord les paramètres dangereux.
Puis ouvrir directement la « boîte noire » de l’IA pour voir ce qu’elle pense vraiment.
Créer un « détecteur de mensonges » pour trouver la « vérité intérieure » de l’IA.
Leopold lui-même dit que cette voie est un défi de niveau moonshot.
En lisant cela, j’ai compris pourquoi il a choisi la photo de groupe d’Oppenheimer pour conclure.
Il voit cela comme le nouveau Manhattan Project.
Il admet aussi que ces trois approches, combinées, ne sont en réalité que des « bricolages ».
Aucune ne résout vraiment le problème.
C’est simplement un pari que l’humanité pourra attendre que le problème d’alignement soit externalisé à l’IA elle-même.
Ce que nous faisons maintenant, ce n’est pas « nous avons résolu la sécurité de l’IA », mais « nous espérons que l’IA résoudra la sécurité de l’IA pour nous ».
On dirait presque qu’on parle d’une relation amoureuse un peu bancale, non ?
On sait que quelque chose ne va pas, mais on parie qu’il changera.
Revenons à l’investissement. La partie la plus précieuse de ce livre n’est pas tant la date précise de « 2027 AGI ».
L’erreur possible est grande, peut-être un an en retard, ou six mois en avance.
Ce qui a le plus de valeur, c’est d’avoir expliqué clairement tout le niveau de goulot d’étranglement de l’industrie de l’IA sur une décennie :
Électricité > Emballage avancé / HBM > Puissance de calcul > Algorithmes > Applications.
Plus on monte, plus c’est rare, plus on descend, plus c’est saturé.
Leopold lui-même a vérifié cela concrètement, avec de l’argent réel, sur le marché public.
En fermant ce livre, je me suis dit :
Certains livres, si on les lit un an plus tôt, peuvent changer la vie.
Heureusement, ce n’est pas encore trop tard.
« See you in the desert, friend. »
Voir l'original
post-image
post-image
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler