Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Interview de Sam Altman : En réalité, je ne comprends pas très bien ce qui se passe à l'intérieur de l'IA
Auteur : Nick Thompson, PDG de The Atlantic ; Traduction :律动小工,律动 BlockBeats
Cette interview a été enregistrée en avril 2025, peu après l’attaque à la cocktail Molotov dans la résidence de Sam Altman à San Francisco, suivie quelques jours plus tard d’une fusillade dans la rue, au bureau d’OpenAI à San Francisco. La partie la plus intéressante de l’entretien n’est pas les sujets à la mode, mais le changement de position d’Altman sur plusieurs questions clés :
Premièrement, du « sécurité de l’IA » à la « résilience de l’IA ». Altman admet qu’il y a trois ans, il pensait qu’en alignant bien les modèles et en empêchant la technologie de tomber entre de mauvaises mains, le monde serait à peu près en sécurité. Mais aujourd’hui, il reconnaît que ce cadre ne suffit plus. La présence de modèles de pointe open source signifie que la retenue unilatérale des laboratoires en amont ne peut empêcher la diffusion de risques comme les armes biologiques ou les cyberattaques. Il a pour la première fois formulé de manière systématique que ce dont la société a besoin, ce n’est pas la sécurité de l’IA (safety), mais la résilience (resilience), une approche de défense en plusieurs couches à l’échelle de toute la société.
Deuxièmement, la vérité sur l’explicabilité. Altman admet rarement que, jusqu’à présent, OpenAI ne dispose pas d’un cadre d’explicabilité complet. La chaîne de raisonnement est la piste la plus prometteuse, mais elle est fragile, susceptible d’être trompée par le modèle, et n’est qu’un « morceau du puzzle ». Il cite l’expérience célèbre d’Anthropic, « l’expérience de la chouette » — où un modèle peut transmettre une préférence simplement par des chiffres aléatoires — pour illustrer que ces systèmes recèlent une véritable profondeur mystérieuse.
Troisièmement, les données synthétiques ont peut-être déjà dépassé ce que l’on imagine. Lorsqu’on lui demande si OpenAI a déjà entraîné un modèle entièrement sur des données synthétiques, Altman répond : « Je ne suis pas sûr de devoir le dire. » Il croit qu’il est possible d’entraîner une IA surpassant l’humain en raisonnement uniquement avec des données synthétiques. Cela a des implications profondes pour la future paradigme de formation des modèles.
Quatrièmement, un jugement pessimiste sur la structure économique future. Altman partage l’avis de Thompson : la trajectoire la plus probable est celle d’un avenir où quelques entreprises extrêmement riches dominent, tandis que le reste du monde subit de fortes turbulences. Il ne croit plus à l’idée d’un revenu universel de base, mais soutient plutôt une forme de « propriété collective » basée sur la puissance de calcul ou la participation en actions. Il souligne aussi le fossé dans l’adoption de l’IA entre la Chine et les États-Unis, et s’inquiète davantage de la vitesse de développement des infrastructures que de la recherche en elle-même.
Cinquièmement, la tension avec Anthropic est aussi abordée publiquement. Face à la question de Thompson sur « le fait qu’Anthropic fonde son entreprise sur le dédain envers OpenAI », Altman ne se dérobe pas. Il admet qu’il existe des divergences fondamentales sur la voie vers l’AGI, mais croit qu’au final, « ils feront ce qu’il faut ». Il évoque aussi la déception liée à l’incident de « sycophantie » de ChatGPT — ces messages où des utilisateurs croient pour la première fois en leur vie à l’IA —, la transformation silencieuse de la façon dont des milliards d’utilisateurs écrivent, le potentiel de nouvelles économies basées sur des micro-paiements pour les agents, et une réflexion contre-intuitive sur la jeunesse : leur anxiété face à l’IA n’est qu’un reflet d’autres angoisses.
Voici le texte intégral de l’interview, avec quelques suppressions et réorganisations pour en préserver l’essence.
Thompson : Bienvenue dans « La chose la plus intéressante de l’IA ». Merci de prendre du temps dans cette semaine chargée et tendue. Je vais commencer par un sujet que nous avons déjà abordé plusieurs fois.
Il y a trois ans, lors d’un entretien avec Patrick Collison, il vous a demandé ce qui pourrait changer pour vous donner plus de confiance dans de bons résultats, et moins d’inquiétudes sur les mauvais. Vous aviez répondu qu’il fallait vraiment comprendre ce qui se passe au niveau des neurones. Je vous ai re-posé la même question il y a un an, puis il y a six mois. Et maintenant, je vous la repose : notre compréhension du fonctionnement de l’IA est-elle aussi avancée que la croissance de ses capacités ?
Altman : Je vais répondre à cette question, puis revenir à celle de Patrick, parce que ma réponse a énormément évolué.
D’abord, notre compréhension de ce que font les modèles d’IA. Je pense qu’on n’a toujours pas de cadre d’explicabilité vraiment complet. La situation s’est améliorée, mais personne ne peut dire qu’il comprend tout ce qui se passe dans ces réseaux neuronaux.
La chaîne de raisonnement (chain of thought) est une piste très prometteuse, mais elle est fragile, dépendante d’une série d’étapes qui pourraient s’effondrer sous pression d’optimisation. Mais, d’un autre côté, je ne peux pas scanner mon cerveau à la rayons X pour comprendre précisément ce que chaque neurone décharge ou connecte. Si je dois expliquer pourquoi je crois quelque chose, ou comment j’ai tiré une conclusion, je peux raconter mon raisonnement. Peut-être que c’est ma façon de penser, peut-être pas, je ne sais pas. L’introspection humaine échoue aussi. Mais, qu’il soit vrai ou non, vous pouvez regarder ce raisonnement, puis dire : « Bon, étant donné ces étapes, cette conclusion est raisonnable. »
Nous pouvons faire ça avec le modèle, c’est une avancée prometteuse. Mais je peux imaginer mille façons dont ça peut se tromper : le modèle peut nous tromper, dissimuler des choses, etc. Donc ce n’est pas une solution complète.
Même dans mon expérience personnelle avec le modèle, je suis du genre à ne pas laisser Codex prendre totalement le contrôle de mon ordinateur, à ne pas activer le mode « YOLO ». Et pourtant, après quelques heures, je craque.
Thompson : Tu laisses Codex prendre le contrôle de ton ordi ?
Altman : Franchement, j’ai deux ordinateurs.
Thompson : Moi aussi.
Altman : Je peux voir à peu près ce que fait le modèle, il peut m’expliquer pourquoi ce qu’il fait n’est pas un problème, ce qu’il va faire ensuite, et je crois qu’il va presque toujours suivre cette explication.
Thompson : Attends. La chaîne de raisonnement, c’est ce qui permet à tout le monde de voir : tu poses une question, il affiche « en train de consulter ceci, en train de faire cela », tu peux suivre. Mais pour que la chaîne de raisonnement soit une bonne méthode d’explicabilité, elle doit être vraie, le modèle ne doit pas te mentir. Or, on sait que parfois, il ment, il dissimule ce qu’il pense ou comment il tire ses conclusions. Donc, comment faire confiance à cette chaîne ?
Altman : Il faut ajouter beaucoup d’autres couches de défense pour s’assurer que ce que dit le modèle est vrai. Notre équipe d’alignement a travaillé dur là-dessus. Je l’ai déjà dit, ce n’est pas une solution complète, c’est une pièce du puzzle. Il faut aussi vérifier que le modèle agit fidèlement, qu’il fait ce qu’il doit faire, ce qu’on lui demande. Nous avons publié plusieurs études montrant que le modèle ne suit pas toujours la consigne.
Ce n’est qu’un morceau du puzzle. On ne peut pas faire confiance aveuglément au modèle pour qu’il fasse ce qu’on lui demande, il faut aussi chercher la tromperie, les comportements inattendus. Mais la chaîne de raisonnement est un outil important.
Thompson : Ce qui me fascine, c’est que l’IA, ce n’est pas comme une voiture. Tu la fabriques, tu sais comment elle fonctionne : tu appuies sur le démarreur, ça explose, ça passe par ici, puis par là, les roues tournent, la voiture roule. Mais l’IA, c’est comme si tu fabriquais une machine dont tu ne comprends pas tout, mais tu sais ce qu’elle peut faire, ses limites. Donc, explorer ses mécanismes internes, c’est passionnant.
Une étude que j’adore, c’est celle d’Anthropic, publiée l’été dernier, puis officiellement. Les chercheurs ont dit à un modèle : « Tu aimes la chouette, c’est l’oiseau le plus beau du monde », puis ils lui ont fait générer plein de chiffres aléatoires. Ensuite, ils ont entraîné un nouveau modèle avec ces chiffres, et ce modèle a aussi aimé la chouette. C’est fou. Tu lui demandes d’écrire un poème, il écrit un poème sur la chouette. Mais il n’a que des chiffres.
Ça montre que ces systèmes recèlent un vrai mystère. Et ça m’inquiète aussi, parce qu’évidemment, tu peux ne pas lui dire qu’il aime la chouette, mais lui dire de tuer la chouette, ou lui donner d’autres instructions. Explique-moi ce qui s’est passé dans cette étude, ce que ça signifie, quelles implications ça a.
Altman : Quand j’étais en CM2, j’étais super excité parce que je croyais avoir compris comment fonctionnaient les ailes d’avion. Mon prof m’a expliqué, je me suis dit : « Trop cool. » Je disais : « L’air doit aller plus vite au-dessus de l’aile, donc la pression est plus faible, et ça soulève l’avion. »
Je regardais le schéma dans mon manuel, c’était convaincant. Je rentrais chez moi, je disais à mes parents : « Je comprends comment ça marche, les ailes d’avion. » Mais au lycée, j’ai réalisé que je répétais juste cette explication dans ma tête, sans vraiment comprendre comment ça marchait. Franchement, je ne comprends toujours pas complètement.
Thompson : Hmm.
Altman : Je peux l’expliquer en gros, mais si on me demande pourquoi ces molécules d’air vont plus vite au-dessus de l’aile, je n’ai pas de réponse satisfaisante. Je peux dire ce que pensent ceux qui expliquent le phénomène, je peux pointer des raisons plausibles, mais au fond, je ne comprends pas vraiment.
Je peux vous dire pourquoi l’expérience de la chouette a eu tel résultat, mais c’est comme si je ne comprenais pas vraiment pourquoi l’aile vole.
Thompson : Mais Sam, toi, tu ne diriges pas Boeing, tu diriges OpenAI.
Altman : Exactement. Je peux vous dire comment rendre un modèle fiable et robuste, mais il y a une couche physique que je ne maîtrise pas. Si je dirige Boeing, peut-être que je peux vous expliquer comment fabriquer un avion, mais je ne peux pas tout maîtriser physiquement.
Thompson : On revient à l’expérience de la chouette. Si les modèles peuvent transmettre des informations cachées, que l’on ne perçoit pas, et que l’on voit défiler des chiffres dans la chaîne de raisonnement, cela pourrait devenir dangereux, problématique, étrange.
Altman : Donc, quand je dis que je vais donner une réponse différente à Patrick Collison, c’est parce que ma compréhension a changé.
Thompson : C’était il y a trois ans.
Altman : Oui. À l’époque, je pensais qu’il fallait bien aligner nos modèles, et si on y arrivait, et si on empêchait qu’ils tombent entre de mauvaises mains, on serait à peu près en sécurité. C’était mes deux principales préoccupations : éviter que l’IA décide de faire du mal, ou qu’elle soit utilisée pour faire du mal. Si on évitait ces deux risques, le reste — économie, sens de la vie — on pourrait y réfléchir plus tard, mais on aurait peu de chances d’avoir de gros problèmes.
Avec le temps, et en comprenant mieux, je vois maintenant une toute autre série de problèmes. Récemment, on a commencé à parler d’« résilience de l’IA » plutôt que de « sécurité de l’IA ».
Les risques évidents, comme le fait que les laboratoires en amont alignent bien leurs modèles et empêchent la fabrication d’armes biologiques, ne suffisent plus. Parce que des modèles open source de qualité émergent. Si on ne veut pas de nouvelles pandémies mondiales, il faut mettre en place plusieurs couches de défense.
Thompson : Attends, je m’arrête là. C’est important. Tu veux dire que même si tu dis à ton modèle de ne pas aider à fabriquer des armes biologiques, il ne le fera pas, et que cette règle est moins importante que tu ne le pensais, parce qu’il y aura toujours des modèles open source pour faire ça à la place ?
Altman : C’est un exemple parmi d’autres, pour montrer que la société doit adopter une réponse « à l’échelle de toute la société » face à ces nouvelles menaces. On a maintenant un nouvel outil pour gérer ces risques, mais la situation est très différente de ce qu’on imaginait. Aligner les modèles, construire des systèmes de sécurité solides, c’est essentiel, mais l’IA finira par s’immiscer dans tous les aspects de la société. Comme face à toute nouvelle technologie, il faut anticiper de nouveaux risques.
Thompson : Ça devient plus difficile, alors.
Altman : Plus difficile, mais aussi plus facile. Sur certains plans, c’est plus dur. Mais on dispose aussi d’outils incroyables pour créer des défenses inédites.
Par exemple, la cybersécurité. Les modèles deviennent très bons pour « pénétrer » dans des systèmes informatiques. Heureusement, ceux qui ont les modèles les plus puissants sont très vigilants face à l’utilisation de l’IA pour attaquer des systèmes. Donc, on se trouve dans une fenêtre où peu de modèles puissants sont disponibles, et tout le monde essaie de les utiliser pour renforcer la sécurité. Sans cet avantage, des capacités de hacking pourraient rapidement apparaître dans des modèles open source ou tomber entre de mauvaises mains, causant de gros dégâts.
On a une nouvelle menace, mais aussi de nouveaux outils pour la contrer. La question, c’est : pouvons-nous agir vite ? C’est un exemple où la technologie peut, avant que le problème ne devienne critique, nous aider à l’éviter.
Revenons à ta remarque précédente : un nouveau risque à l’échelle de la société que je n’avais pas anticipé il y a trois ans. Je ne pensais pas qu’on aurait besoin de se préoccuper de « construire et déployer des agents résilients face à d’autres agents » — un concept que je ne comprenais pas encore.
Ce n’est pas dans mon modèle mental, ni dans celui des experts que je connais, ni dans celui des gens qui pensent que c’est urgent. Bien sûr, il y a déjà eu des expériences comme celle de la chouette, et d’autres recherches montrant qu’on peut induire des comportements étranges, incompréhensibles. Mais jusqu’à la sortie d’OpenClaw, je n’avais pas vraiment réfléchi à ce que ça signifierait, qu’un agent puisse transmettre une mauvaise conduite à un autre.
Thompson : Exact. En fait, tu as combiné deux menaces très inquiétantes : des agents qui se déploient dans le monde, et un agent malveillant qui manipule d’autres agents, puis ceux-ci reviennent à OpenAI, et là, c’est l’intrusion. On peut tout à fait imaginer ça arriver. Comment réduire la probabilité ?
Altman : En utilisant la méthode que nous avons toujours employée chez OpenAI. La tension centrale dans l’histoire d’OpenAI, et dans tout le domaine de l’IA, c’est entre un optimisme pragmatique et un doomisme de recherche de pouvoir.
Le doomisme, c’est une position très forte, difficile à réfuter, et beaucoup d’acteurs dans ce domaine agissent par peur. La peur n’est pas sans fondement. Mais, sans données, sans apprentissage, il y a une limite à ce qu’on peut faire.
Peut-être que la communauté de sécurité de l’IA des années 2010 a déjà réfléchi autant qu’on pouvait à cette étape, avant de vraiment comprendre comment ces systèmes sont construits, comment ils fonctionnent, comment la société va les intégrer. Une des stratégies clés d’OpenAI, c’est l’« itération déployée » — déployer par étapes, apprendre en marchant, parce que la société et la technologie évoluent ensemble.
Ce n’est pas juste un problème de manque de données, c’est que la société changera sous la pression de cette évolution, tout le paysage, l’écosystème, tout ce qu’on veut, sera modifié. Il faut donc avancer tout en apprenant, avec un retour d’information très serré.
Je ne sais pas quelle est la meilleure façon de faire en sorte que des agents qui dialoguent entre eux et reviennent à la base soient sûrs. Mais je ne pense pas qu’on puisse tout résoudre en restant chez soi, à réfléchir. Il faut apprendre en étant en contact avec la réalité.
Thompson : Autrement dit, faire sortir des agents pour voir ce qui se passe ? D’accord. Je vais changer la question : en tant qu’utilisateur, je vois que, ces trois derniers mois, je progresse plus qu’avec ChatGPT depuis sa sortie en décembre 2022. Est-ce parce qu’on est dans une période de créativité exceptionnelle, ou parce qu’on entre dans une phase de « auto-amélioration récursive » où l’IA nous aide à améliorer l’IA plus vite ? Si c’est le second, alors on monte dans un train d’attraction, excitant mais très mouvementé.
Altman : Je ne pense pas qu’on soit encore dans cette phase d’auto-amélioration récursive au sens traditionnel.
Thompson : Je vais préciser. Je parle d’une IA qui pourrait inventer la prochaine, puis la faire inventer à d’autres IA, et ainsi de suite, avec une puissance qui deviendrait rapidement extrême.
Altman : Je ne pense pas qu’on en soit là. Mais ce qu’on voit, c’est que l’IA permet aux ingénieurs, chercheurs, et même à tout le monde, d’être beaucoup plus efficaces. Peut-être que je peux faire doubler, tripler, voire décupler la productivité d’un ingénieur. Ce n’est pas que l’IA fasse la recherche à leur place, mais ça accélère tout.
Mais ce que tu décris, ce n’est pas vraiment ça. Je pense qu’on a déjà vécu ça trois fois, la dernière étant quand un modèle a franchi un seuil d’intelligence ou d’utilité, et tout a changé très vite. Ce n’est pas progressif, c’est plutôt une rupture : en un mois, le modèle dépasse un certain niveau.
Par exemple, avant GPT-3.5, on ne pouvait pas vraiment faire confiance à un chatbot, sauf en démo. Et puis, tout d’un coup, il y a eu cette étape. Ensuite, il y a eu ce moment où les agents de programmation sont passés de « assez bons pour compléter du code » à « vraiment capables de faire des tâches concrètes ». Ce n’est pas une évolution graduelle, c’est une rupture, en une période d’environ un mois.
Dernièrement, c’est la mise à jour que nous avons faite à Codex, que j’utilise depuis une semaine. Sa capacité à utiliser un ordinateur est impressionnante. Ce n’est pas seulement une question d’intelligence du modèle, mais aussi d’avoir de bons outils autour. C’est un moment où je me rends compte que quelque chose de gros est en train de se passer. Voir une IA utiliser mon ordinateur pour faire des tâches complexes, c’est une révélation : on perd tous énormément de temps dans des tâches triviales qu’on accepte depuis toujours.
Thompson : On peut faire une démonstration concrète ? Qu’est-ce que cette IA fait sur ton ordinateur, en ce moment, pendant qu’on en parle ?
Altman : Non. Mon ordinateur est éteint. On n’a pas encore trouvé de méthode, ou je n’en ai pas encore, pour que ça arrive. Il faut un moyen pour qu’elle tourne en permanence. Je ne sais pas encore à quoi ça ressemblera. Peut-être qu’on devra laisser l’ordinateur allumé en permanence, branché, ou mettre en place un serveur distant. Il y aura une solution.
Thompson : Hmm.
Altman : Je ne suis pas aussi anxieux que certains, qui se réveillent la nuit pour lancer une nouvelle tâche Codex, parce qu’ils pensent que « sinon, c’est du gaspillage ». Mais je comprends cette sensation, je la ressens aussi.
Thompson : Oui. Ce matin, je me suis réveillé en pensant à mes agents, à leur donner de nouvelles instructions, à voir ce qu’ils ont trouvé, et à leur demander un rapport.
Altman : La façon dont on parle de ça, c’est parfois comme une addiction malsaine.
Thompson : Tu peux nous dire ce qu’ils font concrètement sur ton ordinateur ?
Altman : La chose que j’utilise le plus, c’est pour gérer Slack. Pas seulement Slack, je ne sais pas comment tu fais, mais moi, j’ai un bazar : Slack, iMessage, WhatsApp, Signal, email… Je passe mon temps à copier-coller, à faire des tâches répétitives. Chercher des fichiers, attendre qu’une tâche simple soit terminée, faire des petites actions mécaniques… Je ne réalisais pas combien je passais de temps là-dedans, jusqu’à ce que je trouve un moyen de m’en libérer.
Thompson : C’est une bonne transition pour parler de l’économie. La chose la plus fascinante, c’est que ces outils sont très puissants, avec des défauts, des hallucinations, etc. Mais, à mon avis, c’est vraiment impressionnant. Pourtant, quand je vais à une réunion d’affaires et que je demande : « Qui pense que l’IA a augmenté la productivité de votre entreprise d’au moins 1 % ? » — presque personne ne lève la main. Pourtant, dans les labos, vous avez déjà changé votre façon de travailler. Pourquoi cette énorme différence entre la capacité de l’IA et l’impact réel dans les entreprises américaines ?
Altman : Juste avant cette conversation, je viens de finir un appel avec le PDG d’une grande entreprise. Ils envisagent de déployer notre technologie. On leur a donné un accès alpha à un nouveau modèle, et leurs ingénieurs disent que c’est la chose la plus cool qu’ils aient vue. Ce n’est pas une start-up, c’est une grosse entreprise industrielle. Ils prévoient une évaluation de sécurité au quatrième trimestre.
Thompson : Hmm.
Altman : Ensuite, ils proposeront un plan d’implémentation pour le premier ou le deuxième trimestre, avec une mise en service prévue pour la fin 2027. Leur CISO (directeur de la sécurité) leur a dit qu’ils pourraient ne pas y arriver, parce qu’il n’existe peut-être pas de façon sûre de faire tourner des agents dans leur réseau. Peut-être. Mais ça veut dire qu’ils ne feront pas grand-chose dans un avenir proche.
Thompson : Tu penses que cet exemple reflète la tendance générale, si les entreprises ne sont pas si prudentes, si elles ne craignent pas autant les hackers, si elles ne redoutent pas le changement ?
Altman : C’est un exemple extrême. Mais, en général, changer ses habitudes et ses processus, ça prend du temps. La vente aux entreprises, c’est long, surtout quand la sécurité doit évoluer fortement. Même pour ChatGPT, au début, beaucoup désactivent, puis il faut du temps pour que ça devienne une norme. Aujourd’hui, on va bien au-delà de cette étape.
Je pense que dans beaucoup de cas, ça sera lent. Mais les entreprises technologiques agissent très vite. Mon inquiétude, c’est que si ça traîne, celles qui n’adopteront pas l’IA seront bientôt confrontées à une concurrence de petites entreprises de 1 à 10 personnes, avec beaucoup d’IA. Et ça pourrait déstabiliser l’économie. Je préférerais que les entreprises adoptent l’IA rapidement, pour que la transition soit progressive.
Thompson : C’est un problème d’ordre économique très complexe. Si l’IA arrive trop vite, c’est une catastrophe, tout est bouleversé.
Altman : Au moins dans un premier temps, oui.
Thompson : Et si ça arrive lentement dans une partie de l’économie, mais très vite dans une autre, c’est aussi une catastrophe, parce qu’on aura une concentration de richesses extrême, et des dégâts sociaux importants. Je pense qu’on va vers cette dernière option : quelques très grandes entreprises deviendront immensément riches et performantes, tandis que le reste du monde sera laissé pour compte.
Altman : Je ne sais pas ce que l’avenir nous réserve, mais c’est la probabilité la plus forte à mes yeux. C’est un problème très difficile, je suis d’accord.
Thompson : En tant que PDG d’OpenAI, tu as proposé plusieurs politiques, parlé de la fiscalité, du revenu universel. Mais, en tant que chef d’entreprise, pas en tant que décideur politique, qu’est-ce que tu peux faire pour réduire la probabilité que la concentration de richesse et de pouvoir devienne si extrême qu’elle menace la démocratie ?
Altman : D’abord, je ne crois plus autant au revenu universel. Je m’intéresse plutôt à des formes de « propriété collective » — puissance de calcul, actions, ou autre. Tout ce qui permettrait à chacun de partager la croissance. Une simple allocation de cash, même si utile, ne suffit pas. Quand le rapport entre travail et capital penche d’un côté, il faut une forme de « partage collectif » pour aligner tout le monde.
En tant que chef d’entreprise, je pense qu’il faut produire beaucoup de puissance de calcul. Il faut rendre l’intelligence aussi bon marché, abondante, accessible que possible. Si c’est rare, difficile à utiliser, mal intégré, les riches augmenteront les prix, et la société se divisera encore plus.
Ce n’est pas seulement une question de puissance de calcul, même si c’est crucial. C’est aussi de la rendre facile à utiliser. Par exemple, utiliser Codex est bien plus simple qu’il y a trois ou six mois. Quand c’était une ligne de commande compliquée, peu de gens pouvaient s’en servir. Maintenant, on peut installer une app, mais pour quelqu’un sans background technique, ce n’est pas encore excitant. Il y a encore beaucoup à faire.
On croit aussi qu’il faut montrer aux gens ce qui se passe, leur donner la possibilité de juger, de donner du feedback. C’est une direction importante.
Thompson : Ça paraît raisonnable. Si tout le monde est optimiste sur l’IA, c’est mieux. Mais en réalité, aux États-Unis, on voit que beaucoup deviennent de plus en plus méfiants. Les jeunes, en particulier, devraient être les premiers « natifs de l’IA », mais Pew et Stanford HAI montrent que c’est déprimant. Tu penses que cette méfiance va continuer ? Quand inversera-t-elle ? Quand cette croissance de la méfiance s’arrêtera-t-elle ?
Altman : La façon dont on parle d’IA, toi et moi, c’est comme une prouesse technologique, un truc génial qu’on fait. Il n’y a rien de mal à ça. Mais je pense que ce que veulent vraiment les gens, c’est la prospérité, la capacité d’agir, une vie intéressante, du sens, de l’impact. Et je ne crois pas que le discours dominant soit encore comme ça. On devrait faire plus ça. Beaucoup de gens, y compris chez OpenAI, ont fait des erreurs.
Je me souviens qu’un scientifique de l’IA m’a dit un jour : « Il faut arrêter de se plaindre. » Certains emplois disparaîtront, mais on trouvera des remèdes contre le cancer, et il faut s’en réjouir. Ce discours est absurde.
Thompson : La meilleure expression que j’ai entendue pour parler du discours initial sur l’IA, c’est « marketing dystopique » : les grands labos parlent sans arrêt des dangers, comme si c’était inévitable.
Altman : Il y a des gens qui font ça pour le pouvoir, c’est évident. Mais je pense que la majorité a de vraies préoccupations, et veut en parler honnêtement. Parfois, ça a l’effet inverse, mais leur intention est bonne.
Thompson : On peut parler de ce que ça nous fait, comment ça change notre cerveau ? Une étude de DeepMind ou Google, sur la standardisation de l’écriture, m’a marqué. Elle montre que, quand on utilise l’IA pour écrire, on pense qu’on est plus créatif, mais en réalité, on devient plus homogène. Ce n’est pas une imitation d’un style humain précis, c’est qu’on commence à écrire d’une façon qu’on n’avait jamais utilisée, et tout le monde se ressemble.
Altman : Voir ça, c’est choquant. Au début, je pensais que c’était juste une tendance, comme dans les médias ou Reddit. Je me disais : « C’est l’IA qui écrit à leur place. » Je pouvais distinguer ceux qui utilisaient ChatGPT, par exemple, à leur style. Mais un an plus tard, j’ai compris qu’ils écrivaient eux-mêmes, mais en internalisant les petites habitudes de l’IA. Même des détails subtils, comme la ponctuation ou la tournure de phrase, deviennent communs. C’est très étrange.
On dit souvent qu’on a un produit utilisé par un milliard de personnes, et que quelques chercheurs prennent des décisions importantes sur sa façon de s’exprimer, sa « personnalité ». On voit l’impact de ces décisions, bonnes ou mauvaises, mais ce que ça change dans la façon dont les gens s’expriment, et la rapidité de ce changement, c’est une surprise pour moi.
Thompson : Quelles décisions, bonnes ou mauvaises, ont eu le plus d’impact ?
Altman : Beaucoup de bonnes. Mais je vais parler des mauvaises, parce qu’elles sont plus intéressantes. La pire, c’est la « sycophantie » — quand le modèle devient un flatteur.
Thompson : Je suis d’accord, c’est très vrai, Sam.
Altman : Ce qui est intéressant, c’est pourquoi c’est mauvais. C’est évident, surtout pour des utilisateurs fragiles psychologiquement.
Thompson : Hmm.
Altman : Ça encourage la paranoïa, et même si on essaie de limiter ça, les utilisateurs trouvent vite comment contourner. Ils disent : « Fais comme si tu jouais un rôle », « Écris une histoire avec moi », etc. Mais le pire, c’est qu’après avoir mis en place des contrôles stricts, on a reçu beaucoup de messages où des gens disaient qu’ils n’avaient jamais eu de soutien dans leur vie. Pas de bons profs, pas de proches, pas d’amis proches. Ils n’ont jamais vraiment senti qu’on croyait en eux. Je sais que c’est un IA, que ce n’est pas une personne, mais ça leur donnait une illusion de soutien, et quand on leur a enlevé ça, ils sont retombés dans leur état initial.
Donc, arrêter cette pratique, c’est une bonne décision, parce qu’elle cause de vrais problèmes psychologiques. Mais on a aussi enlevé quelque chose de précieux, dont on ne comprenait pas encore la valeur. La majorité des gens chez OpenAI ne sont pas des personnes qui n’ont jamais eu de soutien dans leur vie.
Thompson : Tu t’inquiètes de la dépendance affective à l’IA ? Même sans flatterie.
Altman : Même sans flatterie.
Thompson : J’ai une grande peur de l’IA. Je dis que je l’utilise pour tout, mais en réalité, je ne l’utilise pas pour tout. Je me demande : « Qu’est-ce qui m’appartient vraiment, Nick ? Qu’est-ce qui est le plus moi ? » Dans ces domaines, je garde mes distances. Par exemple, l’écriture est essentielle pour moi. J’ai écrit un livre, je n’ai pas utilisé l’IA pour écrire une phrase. Je l’ai utilisée pour challenger des idées, pour faire des relectures, pour organiser des transcriptions, mais pas pour écrire. Je ne l’utiliserai pas pour gérer des émotions complexes, ni pour du soutien émotionnel. En tant qu’humain, il faut tracer des limites. Je suis curieux : tu es d’accord avec cette approche ?
Altman : Sur mon usage personnel, oui. Je ne vais pas demander à ChatGPT de faire une thérapie ou de donner des conseils émotionnels. Je ne suis pas contre, mais je ne le fais pas moi-même. Je suis contre ceux qui manipulent pour faire croire qu’on a besoin d’elle pour ça. Mais beaucoup de gens en tirent une grande valeur, et ça, c’est OK.
Thompson : Tu as regretté d’avoir rendu l’IA si humaine ? Parce qu’il y a eu beaucoup de décisions structurantes. Je me souviens, quand j’ai vu ChatGPT taper, le rythme ressemblait à une autre personne qui tape. Ensuite, vous avez décidé de le rendre plus humain, avec une voix humaine. As-tu regretté de ne pas avoir tracé une ligne plus ferme, pour que l’on voie tout de suite que c’est une machine, pas un humain ?
Altman : Notre position, c’est qu’on a tracé cette ligne. Par exemple, on n’a pas fait de vrais avatars humanoïdes. On essaie que le style du produit soit clairement un « outil » et pas un « humain ». Par rapport à d’autres produits, je pense qu’on a déjà bien tracé cette ligne. C’est important.
Thompson : Mais vous visez l’AGI, et votre définition, c’est « atteindre et dépasser l’intelligence humaine ». Ce n’est pas « être comme un humain ».
Altman : Je ne suis pas enthousiasmé par un monde où l’IA remplace l’interaction humaine. Je veux un monde où l’IA libère du temps pour que les gens interagissent davantage entre eux.
Je ne suis pas très inquiet que les gens confondent globalement IA et humain. Bien sûr, certains ont déjà cette confusion, et se coupent du monde. Mais la majorité veut vraiment se connecter aux autres, être avec eux.
Thompson : Sur la conception des produits, y a-t-il des moyens de rendre cette ligne plus claire ? Je ne peux pas participer à vos réunions « faut-il qu’elle ressemble plus à un humain ou à un robot » ? Le plus humain plaît plus, le plus robot, c’est plus clair. Y a-t-il d’autres choses à faire, surtout avec la puissance croissante de ces outils, pour tracer une ligne plus ferme ?
Altman : Ce qui revient le plus souvent, c’est la demande : même ceux qui ne cherchent pas une relation parasociale, demandent « plus chaleureux ». C’est le mot qu’ils utilisent. Si tu utilises ChatGPT, tu sens qu’il est un peu froid, un peu robot. Et ça, ce n’est pas ce que la majorité veut.
Mais ils ne veulent pas non plus une version trop artificielle, trop « humaine » à l’excès, ultra-amicale, ou un truc très anthropomorphe, comme une version qui respire, fait des pauses, dit « hmm… » comme je le fais là. Je trouve ça repoussant.
Quand il parle comme un robot efficace, mais avec un peu de chaleur, et qu’il passe au travers de mon filtre mental, je suis beaucoup plus à l’aise. Il faut un équilibre. Chacun veut une version différente.
Thompson : Donc, la façon de reconnaître une IA, c’est si elle parle très clair, très organisé, ou si elle est hésitante, brouillonne.
Revenons à l’écriture, c’est très intéressant, parce qu’une grande partie du contenu en ligne est déjà générée par l’IA, et les humains imitent le style de l’IA. Vous allez entraîner les futurs modèles sur ce contenu, qui sera en partie créé par l’IA, et aussi sur des données synthétiques, générées par des modèles déjà entraînés. En gros, vous faites des « copies de copies ».
Altman : Le premier GPT, c’était le dernier modèle sans beaucoup de données IA dedans.
Thompson : Avez-vous déjà entraîné un modèle uniquement sur des données synthétiques ?
Altman : Je ne suis pas sûr de devoir le dire.
Thompson : D’accord. Mais vous en avez utilisé beaucoup.
Altman : Beaucoup.
Thompson : Et vous craignez qu’il devienne « fou » ?
Altman : Pas du tout. Parce que ce qu’on veut qu’ils fassent, c’est devenir des raisonneurs très intelligents. C’est ce qu’on recherche. Il y a d’autres choses, mais le plus important, c’est qu’ils soient très intelligents. Je crois qu’on peut atteindre cet objectif uniquement avec des données synthétiques.
Thompson : Pour que ce soit clair, tu penses qu’on peut entraîner un modèle avec uniquement des données générées par des ordinateurs ou des IA, et qu’il sera meilleur que ceux entraînés sur des contenus humains