Je lisais récemment un livre de 165 pages. L’auteur, Leopold Aschenbrenner, avait prédit avec précision il y a deux ans la tendance actuelle du développement de l’IA.


En avril 2024, il a été licencié par OpenAI, et en juin, il a écrit ce livre « Situational Awareness », essentiellement un document de levée de fonds.
En septembre, il a lancé son propre fonds de couverture. Ce fonds a vu sa taille passer de plus de 200 millions de dollars en un an à 5,5 milliards, soit une multiplication par 24.
Le premier semestre 2025, il a obtenu un rendement net de 47 %.
En lisant, je me suis mis à me demander : sur quoi se base-t-il ?
Comment un jeune de 22 ans peut-il, en 2024, écrire sur le monde d’aujourd’hui ?
Pouvoir voir l’avenir, c’est parce qu’il se tient dans la pièce où cet avenir est en train d’être créé.
Dans son cercle à San Francisco, dans l’équipe Superalignment d’OpenAI, il travaille directement sous le chef scientifique Ilya Sutskever.
Ce livre est, en quelque sorte, un hommage à Ilya.
Chaque phrase qu’il a écrite il y a deux ans, aujourd’hui, se réalise presque une à une.
Il dit que, à court terme, ce qui manque le plus à l’IA, ce n’est pas l’algorithme, mais la puissance de calcul, la mémoire HBM, les centres de données, l’électricité.
Il affirme que le vrai goulot d’étranglement se cache dans l’emballage avancé CoWoS.
Il dit que le réseau électrique américain deviendra la première barrière qui bloquera tout le monde.
Il prévoit l’émergence d’un « cluster d’un billion de dollars ». Plus tard, ces idées sont toutes devenues des gros titres.
OpenAI a nommé ce cluster Stargate.
Au second semestre 2025, il a discrètement investi dans des mines de bitcoins.
Ce n’est pas parce qu’il croit au prix du bitcoin, mais parce qu’il a repéré que les usines de minage disposent déjà de contrats d’électricité, de sites de centres de données, de refroidissement haute puissance.
Les choses rares à l’ère de l’IA, les mines de bitcoin les ont déjà toutes.
Les mineurs vont devenir les propriétaires de la puissance de calcul IA.
Sa logique :
Premier niveau, l’IA manque d’électricité.
Deuxième niveau, ceux qui détiennent l’électricité sont les plus rares.
Troisième niveau, ceux qui détiennent déjà l’électricité mais sont sous-estimés par le marché sont des mines d’or.
Mais tout cela n’est encore qu’un apéritif. Il écrit dans le livre une phrase :
En 2027, l’AGI (Intelligence Artificielle Générale) arrivera.
La logique est la suivante : ces quatre dernières années, l’IA est passée d’un « enfant de maternelle » GPT-2 à un « lycéen intelligent » GPT-4.
Dans quatre ans, il dit, l’IA pourra remplacer les chercheurs humains, et entraîner elle-même ses propres IA.
Une fois que l’IA pourra s’étudier elle-même, la décennie d’itérations algorithmiques humaines sera bouclée en un an.
L’« explosion de l’intelligence » commencera à ce moment-là.
À ce moment-là, l’humanité ne comprendra plus ce que fait l’IA.
Le code qu’elle écrit, les décisions qu’elle prend.
Comment savoir si elle ne nous ment pas ?
Dans son livre, Leopold propose trois remèdes.
1. Faible supervision renforcée. Utiliser une IA moins puissante, mais compréhensible par l’humain, pour superviser cette IA beaucoup plus forte.
Le pari : que la plus faible pourra encore déceler les mauvaises intentions de la plus forte.
Leopold lui-même est co-auteur de cette étude.
2. Débats entre IA. Faire en sorte que plusieurs IA se confrontent, se critiquent, se dénoncent mutuellement.
L’humain n’est qu’un arbitre silencieux, utilisant leurs incohérences pour démasquer le menteur.
3. Explicabilité mécanique. Lors de l’entraînement, retirer d’abord les paramètres dangereux.
Puis ouvrir directement la « boîte noire » de l’IA pour voir ce qu’elle pense vraiment.
Créer un « détecteur de mensonges » IA, pour trouver la « vérité intérieure ».
Leopold lui-même dit que cette voie est un défi de niveau moonshot.
En lisant cela, j’ai compris pourquoi il a choisi de conclure avec une photo d’Oppenheimer.
Il voit cela comme le nouveau Manhattan Project.
Il admet lui-même que ces trois stratégies, combinées, ne sont en réalité que des « bricolages ».
Aucune ne résout vraiment le problème.
C’est simplement un pari que l’humanité pourra tenir jusqu’au jour où le défi d’alignement sera externalisé à l’IA elle-même.
Ce que nous faisons maintenant, ce n’est pas « résoudre la sécurité de l’IA », mais « espérer que l’IA résoudra la sécurité de l’IA » à notre place.
On dirait presque une relation amoureuse un peu bancale, non ?
On sait que quelque chose ne va pas, mais on parie qu’il changera.
Revenons à l’investissement. La partie la plus précieuse de ce livre, ce n’est pas tant la date précise de 2027 pour l’AGI.
L’erreur est grande, elle peut être d’un an en plus ou en moins.
Ce qui a le plus de valeur, c’est d’avoir expliqué clairement tout le niveau de goulots d’étranglement de l’industrie de l’IA sur une décennie :
Électricité > Emballage avancé / HBM > Puissance de calcul > Algorithmes > Applications.
Plus on monte, plus c’est rare ; plus on descend, plus c’est saturé.
Leopold lui-même a vérifié cela concrètement, avec de l’argent réel, sur le marché public.
En fermant le livre, je me suis dit :
Certains livres, si on les lit un an plus tôt, peuvent changer le destin.
Heureusement, ce n’est pas encore trop tard.
« See you in the desert, friend. »
BTC0,13%
Voir l'original
post-image
post-image
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 1
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
GateUser-e7da0219
· Il y a 7h
Oh
Voir l'originalRépondre0
  • Épingler