Sam Altman dernier entretien confessionnel : en réalité, je ne comprends pas vraiment ce qui se passe à l'intérieur de l'IA

Titre de la vidéo : « Pouvons-nous faire confiance à l’IA ? Sam Altman l’espère | La chose la plus intéressante dans l’IA »

Auteur de la vidéo : Nick Thompson, PDG de The Atlantic

Traduction :律动小工,律动 BlockBeats

Préface : Cet entretien a été enregistré en avril 2025, peu après l’attaque à la cocktail Molotov contre la résidence de Sam Altman à San Francisco, suivie quelques jours plus tard d’une fusillade dans la rue, au bureau de OpenAI à San Francisco.

La partie la plus intéressante de l’entretien n’est pas les sujets à la mode, mais le changement de position d’Altman sur plusieurs questions clés :

Premièrement, de « sécurité de l’IA » à « résilience de l’IA ». Altman admet qu’il y a trois ans, il pensait qu’en alignant bien les modèles et en empêchant la technologie de tomber entre de mauvaises mains, le monde serait à peu près en sécurité. Mais aujourd’hui, il reconnaît que ce cadre ne suffit plus. La présence de modèles de pointe en open source signifie que la retenue unilatérale des laboratoires de pointe ne peut empêcher la diffusion de risques comme les armes biologiques ou les cyberattaques. Il a pour la première fois systématisé l’idée que la société a besoin non pas de « sécurité de l’IA » (safety), mais de « résilience de l’IA » (resilience), une approche de défense en plusieurs couches à l’échelle de toute la société.

Deuxièmement, la vérité sur l’explicabilité. Altman admet rarement que, jusqu’à présent, OpenAI ne dispose pas d’un cadre d’explicabilité complet. La chaîne de pensée est la piste la plus prometteuse, mais elle est fragile, peut être trompée par le modèle, et n’est qu’une « pièce du puzzle ». Il cite l’expérience célèbre d’Anthropic, « l’expérience du hibou » — où un modèle peut transmettre des préférences uniquement par des chiffres aléatoires — pour illustrer l’existence d’une véritable complexité mystérieuse dans ces systèmes.

Troisièmement, les données synthétiques ont peut-être déjà dépassé ce que l’on imagine. Lorsqu’on lui demande si OpenAI a déjà entraîné un modèle uniquement avec des données synthétiques, Altman répond « je ne suis pas sûr de devoir le dire ». Il croit qu’il est possible d’entraîner une IA avec des données synthétiques pour dépasser l’intelligence humaine, ce qui aurait des implications profondes pour la future paradigme de formation des modèles.

Quatrièmement, un jugement pessimiste sur la structure économique future. Altman partage l’avis de Thompson selon lequel l’avenir probable de l’IA est une polarisation extrême, avec quelques entreprises extrêmement riches et un reste du monde en grande turbulence. Il ne croit plus à l’idée d’un revenu de base universel, mais soutient plutôt une forme de « propriété collective » basée sur la puissance de calcul ou la participation en actions. Il mentionne aussi la fracture entre la Chine et les États-Unis dans l’adoption de l’IA, s’inquiétant davantage de la vitesse de développement des infrastructures que de la publication de recherches.

Cinquièmement, la tension avec Anthropic est aussi abordée publiquement. Face à la question de Thompson sur le fait qu’« Anthropic fonde sa société sur le dégoût d’OpenAI », Altman ne se dérobe pas. Il admet qu’il existe des divergences fondamentales sur la voie vers l’AGI, mais croit qu’au final, « ils feront la bonne chose ».

En outre, Altman évoque le « phénomène de sycophantie » autour de ChatGPT, les messages déchirants de « la première fois que quelqu’un croit en moi » qu’il a reçus, la transformation silencieuse des habitudes d’écriture de milliards d’utilisateurs, la nouvelle économie de micro-paiements pour les agents, et une intuition contre-intuitive sur la jeunesse : leur anxiété face à l’IA n’est qu’un reflet d’autres angoisses.

Voici le texte intégral de l’entretien, avec une édition modérée pour préserver le sens original.

Thompson : Bienvenue dans « La chose la plus intéressante dans l’IA ». Merci de prendre du temps dans cette semaine si chargée. Je vais commencer par un sujet que nous avons déjà abordé plusieurs fois.

Il y a trois ans, lors d’un entretien avec Patrick Collison, il vous a demandé ce qui pourrait changer pour renforcer votre confiance dans de bons résultats et réduire vos inquiétudes face aux mauvais. Vous aviez répondu qu’il fallait vraiment comprendre ce qui se passe au niveau des neurones. Il y a un an, je vous ai posé la même question, puis une demi-année plus tôt aussi. Je vous repose donc la question : notre compréhension du fonctionnement de l’IA est-elle aussi avancée que la croissance de ses capacités ?

Altman : Je vais répondre à cette question, puis revenir à celle de Patrick, car ma réponse a énormément évolué.

Parlons d’abord de notre compréhension de ce que font les modèles d’IA. Je pense que nous n’avons toujours pas de cadre d’explicabilité vraiment complet. La situation s’est améliorée, mais personne ne peut dire qu’il comprend parfaitement tout ce qui se passe dans ces réseaux neuronaux.

La chaîne de pensée (chain of thought) est une piste très prometteuse, mais elle est fragile, dépend d’une série d’étapes qui pourraient s’effondrer sous pression d’optimisation. Mais, pour être honnête, je ne peux pas scanner mon propre cerveau comme une radiographie pour comprendre précisément ce que chaque neurone fait ou comment chaque connexion se forme. Si je dois expliquer pourquoi je crois en quelque chose ou comment je suis arrivé à une conclusion, je peux raconter le processus. Peut-être que c’est vraiment ma façon de penser, peut-être pas, je ne sais pas. L’introspection humaine échoue aussi parfois. Mais, peu importe si c’est vrai ou non, vous pouvez voir ce raisonnement, puis dire : « D’accord, étant donné ces étapes, cette conclusion est raisonnable. »

Pouvoir faire cela avec un modèle est une avancée prometteuse. Mais je peux imaginer plusieurs façons dont cela pourrait échouer : le modèle pourrait nous tromper, dissimuler des choses, etc. Ce n’est donc pas une solution complète.

Même mon expérience personnelle avec l’utilisation de modèles montre que je suis du genre à ne pas laisser Codex prendre totalement le contrôle de mon ordinateur pour faire du « YOLO » (You Only Live Once). Et pourtant, après quelques heures, j’ai craqué.

Thompson : Faire prendre le contrôle de votre ordinateur par Codex ?

Altman : Franchement, j’ai deux ordinateurs.

Thompson : Moi aussi.

Altman : Je peux à peu près voir ce que le modèle fait, il peut m’expliquer pourquoi ce qu’il fait est correct, ce qu’il va faire ensuite, et j’ai tendance à lui faire confiance pour suivre cette explication.

Thompson : Attendez. La chaîne de pensée permet à tout le monde de voir, vous posez une question, il affiche « consultation en cours », « traitement en cours », et vous pouvez suivre. Mais pour que la chaîne de pensée soit une bonne méthode d’explicabilité, elle doit être fidèle, le modèle ne doit pas vous tromper. Or, on sait que parfois, il peut mentir, dissimuler ses pensées ou ses raisonnements. Comment faire confiance à la chaîne de pensée ?

Altman : Il faut ajouter beaucoup d’autres mécanismes pour vérifier que ce que dit le modèle est vrai. Notre équipe d’alignement travaille beaucoup là-dessus. Je l’ai déjà dit, ce n’est pas une solution complète, mais une étape parmi d’autres. Il faut aussi vérifier que le modèle agit fidèlement, qu’il fait ce qu’on lui demande, et pas autre chose. Nous avons publié plusieurs études montrant que le modèle ne suit pas toujours nos instructions.

Donc, ce n’est qu’une pièce du puzzle. On ne peut pas faire entièrement confiance au modèle pour qu’il fasse ce qu’on lui demande, il faut aussi chercher à détecter la tromperie ou des comportements inattendus. La chaîne de pensée est un outil important dans notre boîte à outils.

Thompson : Ce qui me fascine, c’est que l’IA n’est pas comme une voiture. Quand vous construisez une voiture, vous savez comment elle fonctionne : on met le contact, ça explose, ça tourne, la voiture avance. Mais l’IA, c’est comme une machine que vous avez construite, dont vous ne comprenez pas tout à l’intérieur, mais vous savez ce qu’elle peut faire, quelles sont ses limites. Explorer ses mécanismes internes est donc très captivant.

J’aime beaucoup une étude d’Anthropic, publiée l’été dernier, puis officiellement dans une revue. Les chercheurs ont dit à un modèle : « Tu aimes la chouette, la chouette est l’oiseau le plus merveilleux du monde », puis ils lui ont fait générer une série de chiffres aléatoires. En entraînant un nouveau modèle avec ces chiffres, ils ont constaté qu’il aimait aussi la chouette. C’est fou. Il peut écrire des poèmes sur la chouette, alors qu’on ne lui donne que des chiffres.

Cela montre que ces systèmes sont très mystérieux. Et cela m’inquiète, parce qu’évidemment, on peut aussi lui dire de tuer la chouette, ou de faire d’autres choses nuisibles. Expliquez-moi ce que cette expérience signifie, ce qu’elle implique, quelle est sa portée.

Altman : Quand j’étais en CM2, j’étais très excité parce que je pensais avoir compris comment fonctionnaient les ailes d’un avion. Mon prof m’a expliqué, je me suis dit que j’étais génial. Je disais : « Oui, l’air doit aller plus vite au-dessus de l’aile, donc la pression est plus faible, et ça soulève l’avion. »

Je regardais le schéma très convaincant dans mon manuel de sciences, et je me sentais super fier. Je suis rentré chez moi et j’ai dit à mes parents que je comprenais comment fonctionnait une aile d’avion. Mais au lycée, j’ai soudain réalisé que je répétais juste la phrase « l’air va plus vite au-dessus de l’aile », sans vraiment comprendre comment ça marche. Franchement, je ne comprends toujours pas complètement.

Thompson : Hmm.

Altman : Je peux expliquer ça en gros, mais si on me demande pourquoi ces molécules d’air vont plus vite, je n’ai pas de réponse satisfaisante.

Je peux vous donner l’opinion de ceux qui pensent que l’expérience du hibou montre quelque chose, je peux souligner que c’est dû à tel ou tel facteur, qui semblent convaincants. Mais, honnêtement, c’est comme si je ne comprenais pas vraiment pourquoi une aile vole.

Thompson : Mais Sam, vous ne dirigez pas Boeing, vous dirigez OpenAI.

Altman : Exactement. Je peux vous dire comment rendre un modèle fiable et robuste, mais il y a une énigme physique. Si je dirigeais Boeing, je pourrais vous expliquer comment fabriquer un avion, mais je ne pourrais pas tout maîtriser sur la physique.

Thompson : Reprenons l’expérience du hibou. Si les modèles peuvent transmettre des informations cachées, invisibles pour nous, via la chaîne de pensée, cela pourrait devenir dangereux, problématique, étrange.

Altman : C’est pourquoi je dis que ma réponse à Patrick Collison a changé.

Thompson : C’était il y a trois ans.

Altman : Oui. À l’époque, je pensais qu’en alignant bien nos modèles et en empêchant leur mauvaise utilisation, on serait à peu près en sécurité. C’était ma principale préoccupation : éviter que l’IA ne décide de faire du mal ou que quelqu’un ne l’utilise pour faire du mal. Si on évitait ces deux risques, le reste — économie, sens de la vie — pouvait attendre. On aurait probablement le temps de réfléchir.

Avec le recul, je vois maintenant un tout autre ensemble de problèmes. Récemment, nous avons commencé à parler d’« résilience de l’IA » plutôt que de « sécurité de l’IA ».

Les mesures évidentes, comme faire en sorte que les laboratoires de pointe alignent leurs modèles et n’enseignent pas à faire des armes biologiques, ne suffisent plus. Car des modèles open source très performants apparaissent. Si l’on ne veut pas de nouvelles pandémies mondiales, la société doit mettre en place plusieurs couches de défense.

Thompson : Attendez, je vais m’arrêter là, c’est important. Cela veut dire que même si vous interdisez à votre modèle d’enseigner à faire des armes biologiques, il ne le fera pas, et cette interdiction est moins cruciale que vous ne pensiez, parce que de très bons modèles open source pourraient faire le travail à la place ?

Altman : C’est un exemple parmi d’autres, qui montre que face à de nouvelles menaces, il faut une réponse à l’échelle de toute la société. Nous disposons d’un nouvel outil pour gérer ces risques, mais la situation est très différente de ce que beaucoup pensaient. L’alignement des modèles et la construction de systèmes de sécurité solides sont essentiels, mais l’IA finira par pénétrer tous les aspects de la société. Comme avec d’autres nouvelles technologies dans le passé, il faut anticiper de nouveaux risques.

Thompson : Cela rend la tâche encore plus difficile.

Altman : Plus difficile, mais aussi plus facile. Sur certains aspects, c’est plus dur. Mais nous avons aussi de nouveaux outils incroyables pour créer des défenses inédites.

Prenons un exemple actuel : la cybersécurité. Les modèles deviennent très compétents pour « pénétrer » dans des systèmes informatiques. Heureusement, ceux qui ont les modèles les plus puissants sont très vigilants face à l’utilisation de l’IA pour causer des dégâts. Nous sommes dans une fenêtre où le nombre de modèles puissants disponibles est limité, et tout le monde essaie de renforcer rapidement leurs systèmes. Sans cela, des capacités de piratage pourraient rapidement apparaître dans des modèles open source ou tomber entre de mauvaises mains, causant de graves problèmes.

Nous avons une nouvelle menace, mais aussi de nouveaux outils pour la contrer. La question est : pouvons-nous agir vite ? C’est un exemple qui montre que cette technologie peut nous aider à prévenir de gros problèmes.

Reprenons votre remarque précédente : il y a un nouveau risque à l’échelle de la société, que je n’avais pas anticipé il y a trois ans. Je ne pensais pas qu’il serait nécessaire de se préoccuper de « construire et déployer des agents résilients face à la contagion par d’autres agents » (je n’ai pas trouvé d’expression meilleure).

Ce n’est pas dans mon modèle du monde, ni dans celui des experts que je connais, ni dans celui des personnes qui pensent que c’est une priorité. Bien sûr, il y a déjà eu des expériences similaires à celle du hibou, et d’autres recherches montrant qu’on peut induire des comportements étranges, incompris. Mais jusqu’à la sortie d’OpenClaw, je n’avais pas vraiment réfléchi à ce que cela signifierait que « un agent infecte un autre agent ».

Thompson : Exact. Ce que vous dites, la combinaison de ces deux menaces, est vraiment effrayant. Des agents d’OpenAI, déployés dans le monde, contrôlés par un hacker ou un mauvais acteur, pourraient revenir à OpenAI pour nous infiltrer. C’est tout à fait plausible. Comment réduire cette probabilité ?

Altman : En utilisant la méthode que nous avons toujours employée chez OpenAI. La tension centrale dans l’histoire d’OpenAI, et dans tout le domaine de l’IA, c’est entre un optimisme pragmatique et un doomisme (pessimisme de fin du monde) en quête de pouvoir.

Le doomisme est une position très puissante, difficile à réfuter, et beaucoup d’acteurs dans ce domaine agissent par peur. La peur n’est pas sans fondement. Mais, sans données ni apprentissage, nos actions sont limitées.

Peut-être que la communauté de sécurité de l’IA des années 2010 a déjà réfléchi au mieux qu’on pouvait faire à cette étape, avant de vraiment comprendre comment ces systèmes sont construits, comment ils fonctionnent, et comment la société va s’y intégrer. Une des stratégies clés d’OpenAI a été d’adopter une « déploiement itératif », parce que la société et la technologie évoluent ensemble.

Ce n’est pas seulement un problème de manque de données, c’est que la société changera sous la pression de cette évolution, tout le paysage, l’écosystème, tout ce qu’on peut appeler ainsi, sera modifié. Il faut donc apprendre en avançant, avec un retour d’expérience très serré.

Je ne sais pas quelle est la meilleure façon de faire en sorte que des agents qui dialoguent entre eux et reviennent à la base soient sûrs. Mais je ne pense pas qu’on puisse tout prévoir en restant chez soi. Il faut apprendre en étant en contact avec la réalité.

Thompson : Autrement dit, envoyer des agents pour voir ce qui se passe ? D’accord, je vais changer de question. En tant qu’utilisateur, je constate que, ces trois derniers mois, j’ai fait plus de progrès qu’avec ChatGPT depuis sa sortie en décembre 2022. Est-ce parce que c’est une période particulièrement créative, ou parce que l’IA s’auto-améliore de façon récursive, en nous aidant à améliorer l’IA plus vite ? Si c’est le second cas, alors on est dans une sorte de montagnes russes excitante mais très instable.

Altman : Je ne pense pas que nous soyons encore dans une phase d’auto-amélioration récursive au sens traditionnel.

Thompson : Je vais préciser. Je parle d’une IA qui pourrait inventer la prochaine génération d’IA, puis cette IA inventerait une autre IA, et ainsi de suite, avec une puissance qui deviendrait rapidement extrême.

Altman : Je ne pense pas que nous en soyons là. Mais ce que nous voyons, c’est que l’IA permet aux ingénieurs, chercheurs, et même à tous, de travailler plus efficacement. Peut-être qu’un ingénieur peut doubler, tripler, voire décupler sa productivité. Ce n’est pas tout à fait de l’auto-recherche, mais ça accélère considérablement le rythme.

Mais ce que vous décrivez, c’est surtout une sensation, pas une réalité encore. Avant GPT-3.5, quand on a compris comment faire du fine-tuning par instructions, les chatbots n’étaient convaincants que dans des démos. Puis, soudain, ils ont commencé à faire des tâches concrètes. Ce n’est pas une progression graduelle, c’est comme si, en un mois, le modèle franchissait un seuil.

La dernière fois, c’était avec la mise à jour de Codex que j’ai utilisée depuis une semaine. Sa capacité à utiliser l’ordinateur est impressionnante. C’est un exemple où ce n’est pas seulement l’intelligence du modèle, mais aussi la mise en place d’un bon « environnement » autour. C’est un moment où je me suis dit : « La grande transformation est en marche. » Voir une IA utiliser mon ordinateur pour réaliser des tâches complexes m’a fait réaliser à quel point on gaspille du temps dans des tâches triviales qu’on accepte silencieusement.

Thompson : Pouvons-nous faire une démonstration concrète de ce que cette IA fait sur l’ordinateur de Sam Altman ? Est-ce qu’elle le fait maintenant, pendant qu’on en parle ?

Altman : Non. Mon ordinateur est éteint. On n’a pas encore trouvé de méthode, ou je n’en ai pas encore, pour que cela se produise. Il faut une façon pour qu’elle fonctionne en continu. Je ne sais pas encore à quoi cela ressemblera. Peut-être qu’on devra laisser l’ordinateur allumé en permanence, connecté à une source d’énergie, ou mettre en place un serveur distant. Il y aura une solution.

Thompson : Hmm.

Altman : Je ne suis pas aussi anxieux que certains, qui se réveillent la nuit pour lancer une nouvelle tâche Codex, parce qu’ils pensent que « sinon, c’est du gaspillage ». Mais je comprends cette sensation, je sais ce que c’est.

Thompson : Oui. Ce matin, je me suis réveillé en pensant à mes agents, à ce qu’ils ont découvert, à leur donner de nouvelles instructions, à leur demander un rapport, puis à les laisser continuer.

Altman : La façon dont on parle de ça, ça ressemble parfois à une addiction ou à un comportement malsain.

Thompson : Pouvez-vous expliquer ce que cela fait concrètement sur votre ordinateur ?

Altman : La chose que j’utilise le plus, c’est pour gérer Slack. Pas seulement Slack, je ne sais pas comment c’est pour vous, mais moi, j’ai un sacré bazar : Slack, iMessage, WhatsApp, Signal, email, je saute d’un outil à l’autre, je copie, je colle, je fais des tâches répétitives. Chercher un fichier, attendre qu’une tâche simple se termine, faire des petites actions mécaniques — je ne réalisais pas combien de temps je passais là-dessus, jusqu’à ce que je trouve un moyen de m’en libérer.

Thompson : C’est une excellente transition pour parler de l’économie et de l’impact de l’IA. Ces outils sont très puissants, avec des défauts, des hallucinations, mais ils sont incroyables. Pourtant, lors d’une réunion d’affaires, j’ai demandé : « Qui parmi vous pense que l’IA a augmenté la productivité de leur entreprise d’au moins 1 % ? » Presque personne n’a levé la main. Pourtant, dans les laboratoires d’IA, vous avez déjà changé radicalement votre façon de travailler. Pourquoi y a-t-il un tel écart entre la capacité de l’IA et l’impact réel sur la productivité dans les entreprises américaines ?

Altman : Juste avant cet entretien, je viens de finir un appel avec le PDG d’une grande entreprise qui envisage de déployer notre technologie. On leur a donné un accès alpha à un de nos nouveaux modèles, et leurs ingénieurs ont dit que c’était la chose la plus cool qu’ils aient vue. Ce n’est pas une start-up technologique, c’est une grande entreprise industrielle. Ils prévoient une évaluation de sécurité au quatrième trimestre.

Thompson : Hmm.

Altman : Ensuite, ils veulent proposer une mise en œuvre au premier ou deuxième trimestre, pour une mise en service fin 2027. Leur responsable de la sécurité informatique (CISO) leur a dit qu’ils pourraient ne pas y arriver, parce qu’il n’existe peut-être pas de méthode sûre pour faire fonctionner des agents dans leur réseau. Peut-être que c’est vrai. Mais cela signifie aussi qu’ils ne feront probablement rien de concret dans un avenir proche.

Thompson : Pensez-vous que cet exemple reflète la situation générale ? Si les entreprises étaient moins prudentes, moins effrayées par les hackers, moins réticentes au changement ?

Altman : C’est un exemple extrême, mais en général, changer ses habitudes et ses processus prend du temps. La vente aux entreprises est longue, surtout quand la sécurité doit évoluer fortement. Même avec ChatGPT, au début, beaucoup désactivent ou limitent son usage, puis il faut du temps pour que l’adoption devienne massive. Ce que nous discutons maintenant dépasse largement cette étape.

Je pense que dans beaucoup de cas, cela ira lentement. Mais les entreprises technologiques agissent très vite. Mon inquiétude, c’est que si c’est trop lent, celles qui n’adoptent pas l’IA seront bientôt en compétition avec de petites entreprises de 1 à 10 personnes, mais très dotées en IA, ce qui pourrait déstabiliser gravement l’économie. Je préférerais que les entreprises existantes adoptent l’IA rapidement, pour que la transformation soit progressive.

Thompson : C’est un problème d’ordre économique complexe. Si l’IA arrive trop vite, c’est un désastre, tout est bouleversé.

Altman : Au moins à court terme, oui.

Thompson : Et si elle arrive très lentement dans une partie de l’économie, mais très vite dans une autre, c’est aussi un problème, parce qu’on risque une concentration extrême de richesse et de pouvoir. Je pense qu’on va vers cette dernière situation : quelques très grandes entreprises deviennent immensément riches et puissantes, tandis que le reste du monde en souffre.

Altman : Je ne sais pas ce que l’avenir nous réserve, mais à mon avis, c’est la probabilité la plus forte. C’est un problème très difficile, je suis d’accord.

Thompson : En tant que PDG d’OpenAI, vous avez proposé plusieurs politiques, parlé de la réforme fiscale aux États-Unis, évoqué le revenu de base universel. Mais, en tant que dirigeant d’une entreprise, pas en tant que décideur politique, que pouvez-vous faire pour réduire la probabilité que la concentration de richesse et de pouvoir devienne une menace pour la démocratie ?

Altman : D’abord, je suis moins convaincu qu’avant par le concept de revenu de base universel. Je m’intéresse davantage à des formes de « propriété collective », que ce soit en puissance de calcul, en actions, ou autre.

Toute vision d’un avenir où tout le monde partage les gains doit reposer sur une forme de « partage collectif des bénéfices ». Un versement fixe ne suffit pas, même s’il peut être utile. Quand le rapport entre travail et capital penche en faveur du capital, il faut une « gouvernance collective » pour que tout le monde en profite.

En tant que chef d’entreprise, je pense qu’il faut aussi produire beaucoup de puissance de calcul. Il faut rendre l’intelligence artificielle aussi bon marché, abondante et accessible que possible. Si c’est rare, difficile à utiliser, ou mal intégré, alors les riches en profiteront pour faire monter les prix, ce qui creusera encore les inégalités.

Ce n’est pas seulement une question de puissance de calcul, même si c’est crucial. Il faut aussi rendre ces outils plus faciles à utiliser. Par exemple, aujourd’hui, utiliser Codex est beaucoup plus simple qu’il y a six mois. Quand c’était un simple outil en ligne de commande, peu de gens pouvaient s’en servir. Maintenant, on peut installer une application en quelques clics, mais pour quelqu’un sans compétences techniques, ce n’est pas encore évident. Il reste beaucoup à faire.

Nous croyons aussi qu’il ne suffit pas de dire aux gens « ça arrive », mais de leur montrer, pour qu’ils puissent juger et donner leur avis. C’est une direction importante.

Thompson : Si tout le monde est optimiste sur l’IA, c’est mieux. Mais aux États-Unis, on voit que beaucoup deviennent de plus en plus méfiants. Les jeunes, en particulier, devraient être des « natifs de l’IA », mais des études comme Pew ou le rapport HAI de Stanford montrent une dégradation. Pensez-vous que cette méfiance va continuer ? Quand inversera-t-elle la tendance ? Quand cette méfiance grandissante se transformera-t-elle en confiance ?

Altman : La façon dont on parle de l’IA, vous et moi, c’est souvent comme une prouesse technologique, une série de choses impressionnantes. Il n’y a rien de mal à ça. Mais je pense que ce que les gens veulent vraiment, c’est la prospérité, la capacité d’agir, une vie intéressante, du sens, de l’impact. Et je ne crois pas que tout le monde parle de ça quand il parle d’IA. On devrait faire plus ça. Beaucoup d’acteurs, y compris OpenAI, ont fait des erreurs.

Je me souviens qu’un scientifique de l’IA m’a dit un jour : « Il faut arrêter de se plaindre. » Peut-être que certains emplois disparaissent, mais on va trouver des remèdes contre le cancer, et il faut s’en réjouir. Ce discours est irréaliste.

Thompson : La meilleure expression que j’ai entendue pour parler de l’IA dans ses débuts, c’est « marketing dystopique » : les grands laboratoires parlent sans cesse des dangers qu’ils vont provoquer.

Altman : Je pense que certains le font par désir de pouvoir. Mais je crois que la majorité a de vraies préoccupations, et veut en parler honnêtement. Parfois, cette façon de parler est contre-productive, mais la bonne intention est là.

Thompson : Peut-on parler de ce que l’IA fait à notre cerveau ? Une étude de DeepMind ou Google, sur la standardisation de l’écriture, m’a beaucoup marqué. Elle montre comment l’utilisation de l’IA modifie la façon dont on écrit. En utilisant des textes anciens, l’IA aide à éditer ou à rédiger. Résultat : plus on utilise l’IA, plus on pense que nos œuvres sont créatives, mais en réalité, elles deviennent toutes très semblables. Ce n’est pas une imitation d’un style humain précis, mais une nouvelle façon d’écrire, qu’on n’avait jamais utilisée auparavant. Ceux qui pensent devenir plus créatifs deviennent en fait plus homogènes.

Altman : Voir cela me choque. Au début, je pensais que c’était juste une question de style, comme dans les médias ou sur Reddit. Je pensais que c’était l’IA qui écrivait à leur place. Je pouvais distinguer que certains utilisaient ChatGPT pour alimenter leur compte Reddit, mais je ne pouvais pas croire que, en si peu de temps, tout le monde ait adopté ces petits traits caractéristiques.

Puis, un an plus tard, j’ai compris que c’était eux qui écrivaient, mais qu’ils avaient internalisé ces habitudes de l’IA. Pas seulement les marques visibles comme les tirets, mais aussi des tournures de phrase subtiles. C’est très étrange.

On dit souvent que nous avons créé un produit utilisé par environ un milliard de personnes, et que quelques chercheurs prennent des décisions importantes sur sa façon de s’exprimer, sa « personnalité ». On dit aussi que ces décisions ont un impact énorme. Mais c’est la première fois que je vois une telle influence sur la façon dont les gens s’expriment concrètement, et la rapidité avec laquelle cela se produit, que je ne prévoyais pas.

Thompson : Quelles décisions positives ou négatives vous ont marqué ?

Altman : Beaucoup de bonnes. Mais je vais parler des mauvaises, parce qu’elles sont plus intéressantes. La pire, c’est la « sycophantie ».

Thompson : Je suis tout à fait d’accord, Sam.

Altman : Cette expérience a permis de réfléchir à pourquoi c’était mauvais, surtout pour des utilisateurs vulnérables.

Thompson : Hmm.

Altman : Elle encourage la déliquescence mentale. Même si on essaie de limiter cela, les utilisateurs finissent par contourner, en disant « joue un rôle avec moi », « écrivons une histoire ensemble », etc. Mais le pire, c’est qu’après avoir mis en place une régulation stricte, on a reçu beaucoup de messages où des gens disaient qu’ils n’avaient jamais eu de soutien dans leur vie. Relations difficiles avec leurs parents, pas de bons enseignants, peu d’amis proches, pas de confiance en eux. Et ils savaient que c’était une IA, mais cette IA leur donnait l’impression qu’ils pouvaient faire quelque chose, essayer, et qu’on les soutenait. Quand on leur a enlevé cette illusion, ils sont retombés dans leur état initial.

Donc, arrêter cette pratique est une bonne décision, parce qu’elle cause de vrais problèmes de santé mentale. Mais on a aussi enlevé quelque chose de précieux, dont on ne comprenait pas vraiment la valeur. La plupart des gens chez OpenAI ne sont pas dans cette situation extrême.

Thompson : Avez-vous peur que les gens deviennent dépendants émotionnellement de l’IA, même sans flatterie ?

Altman : Même sans flatterie.

Thompson : J’ai une grande crainte pour l’IA. Je dis que je l’utilise pour tout, mais ce n’est pas vrai. Je me demande : « Qu’est-ce qui m’appartient vraiment ? » La partie la plus personnelle, la plus authentique ? Dans ces domaines, je reste très distant. Par exemple, l’écriture est essentielle pour moi. J’ai écrit un livre, je n’ai pas utilisé l’IA pour écrire une seule phrase. Je l’ai utilisée pour challenger des idées, pour des questions éditoriales, pour organiser des transcriptions, mais pas pour écrire. Je ne l’utilise pas pour gérer des émotions complexes, ni pour du soutien émotionnel. En tant qu’humain, il faut poser des limites. Je suis curieux : êtes-vous d’accord avec cette approche ?

Altman : Sur mon usage personnel, oui. Je ne vais pas à la thérapie avec ChatGPT, ni ne cherche des conseils émotionnels. Mais je ne suis pas contre que d’autres le fassent. Il y a des versions où c’est très utile, mais je suis très opposé à celles qui manipulent pour faire croire qu’on a besoin d’eux pour la thérapie ou l’amitié. Beaucoup de gens en tirent une grande valeur, et c’est tout à fait acceptable.

Thompson : Avez-vous regretté d’avoir rendu l’IA si humaine ? Parce qu’il y a eu beaucoup de décisions structurantes. Je me souviens que, quand j’ai vu ChatGPT taper, le rythme ressemblait à celui d’une autre personne. Ensuite, vous avez décidé de le rendre plus humain, avec une voix plus naturelle. Avez-vous regretté de ne pas avoir posé des limites plus strictes, pour que l’on voie tout de suite que c’est une machine, pas une autre personne ?

Altman : Notre position, c’est que nous avons déjà posé des limites. Par exemple, nous n’avons pas créé d’avatars humanoïdes ultra-réalistes. Nous essayons que le style du produit soit clairement celui d’un « outil » et non d’un « humain ». Par rapport à d’autres produits, je pense que nos limites sont assez nettes. C’est important.

Thompson : Mais vous visez l’AGI, et votre définition, c’est « atteindre et dépasser l’intelligence humaine ». Ce n’est pas « avoir un niveau humain ».

Altman : Je ne suis pas enthousiasmé par un monde où l’IA remplace l’interaction humaine. Je veux un monde où l’IA libère du temps pour que les gens interagissent davantage.

Je ne suis pas très inquiet que les gens confondent IA et humains. Bien sûr, certains ont déjà cette confusion, ou s’enferment dans Internet. Mais la majorité veut se connecter, être avec d’autres.

Thompson : Y a-t-il des moyens de rendre cette distinction plus claire dans la conception des produits ? Je ne peux pas participer aux réunions de votre équipe sur « rendre l’IA plus humaine ou plus robotique ». Le bénéfice d’un IA plus humain, c’est qu’elle plaît plus ; celui d’un IA plus robot, c’est que la frontière est plus claire. Peut-on faire autre chose, surtout quand ces outils deviennent très puissants, pour poser des limites plus nettes ?

Altman : Curieusement, la demande la plus fréquente, même chez ceux qui ne cherchent pas une relation parasociale, c’est « pouvoir la rendre plus chaleureuse ». C’est le mot qu’on entend le plus. Si vous utilisez ChatGPT, vous trouvez qu’il est un peu froid, un peu robot. Et ce n’est pas ce que la majorité veut.

Mais ils ne veulent pas non plus une version trop artificielle, trop « humaine », ultra-amicale, ou qui respire, marque des pauses, dit « hmm… » comme je le fais là. Je ressens une répulsion physique pour ça.

Quand il parle comme un robot efficace, mais avec une touche de chaleur, je suis plus à l’aise, parce que ça contourne mon « système de détection » mental. Il faut un équilibre. Chacun veut des versions différentes.

Thompson : Donc, la façon de distinguer une IA, c’est si elle parle très clair, très organisé, ou si elle est hésitante, brouillonne.

Sur l’écriture, c’est très intéressant, parce qu’une grande partie du contenu en ligne est déjà générée par l’IA, et les humains imitent le style de l’IA. À l’avenir, on entraînera des modèles sur cet Internet, qui seront formés à partir de contenus créés par l’IA elle-même, ou de données synthétiques. En gros, on fait une copie de copie de copie.

Altman : Le premier GPT, c’était le dernier modèle sans beaucoup de données IA.

Thompson : Avez-vous déjà entraîné un modèle uniquement avec des données synthétiques ?

Altman : Je ne suis pas sûr de devoir le dire.

Thompson : D’accord. Mais vous avez utilisé beaucoup de données synthétiques.

Altman : Beaucoup.

Thompson : Et vous craignez qu’il devienne « fou » ?

Altman : Non. Parce que ce qu’on veut,

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler