Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI co-fondateur : Après la fermeture de Sora, quelle est la prochaine étape pour ChatGPT ?
Titre de la vidéo : Le président d’OpenAI, Greg Brockman : stratégie IA, AGI et super application
Auteur de la vidéo : Alex Kantrowitz
Compilation : Peggy, BlockBeats
Note de l’éditeur : Cet article est une traduction d’une discussion sur le Big Technology Podcast entre Greg Brockman, président et cofondateur d’OpenAI. L’émission s’intéresse depuis longtemps aux changements touchant l’IA, l’industrie technologique et la structure des entreprises, et constitue une fenêtre importante pour observer en direct, depuis le terrain, à quoi ressemble la Silicon Valley.
Dans cette discussion, Brockman ne s’est pas contenté de parler des capacités du modèle lui-même ; il a plutôt déplacé la question plus en amont : une fois que les capacités de l’IA ont été largement validées, comment le secteur va-t-il choisir sa trajectoire, reconstruire les formes de produits, et absorber l’impact systémique que cela engendre. La discussion porte sur la stratégie produit d’OpenAI, la « super application » qui arrive, et l’évaluation de l’entrée de l’IA dans une « phase de décollage ».
Cette discussion peut être comprise sous trois angles.
D’abord, la convergence des trajectoires.
De la génération de vidéos aux modèles de raisonnement, des avancées parallèles multiples aux choix proactifs et à la sélection, les décisions d’OpenAI ne relèvent pas simplement d’une évaluation de supériorité technique. Elles répondent plutôt à des contraintes réelles : la puissance de calcul est devenue le goulot d’étranglement central. Dans un contexte de ressources limitées, les itinéraires techniques commencent à se concentrer sur deux directions offrant le plus d’effet de levier : l’assistant personnel et la résolution de problèmes complexes. Cela signifie aussi que la logique de compétition de l’IA passe de « ce que l’on peut faire » à « ce que l’on doit faire d’abord ».
Ensuite, la refonte des formes.
L’idée de « super application » est, en essence, une avancée de la forme produit. L’IA n’est plus un ensemble d’outils isolés : c’est une entrée unifiée. Elle comprend le contexte, appelle des outils, exécute des tâches, et accumule en continu de la mémoire dans différents scénarios. Du ChatGPT à Codex, l’IA prend progressivement en charge l’ensemble du workflow, tandis que le rôle des humains se déplace de l’exécution vers l’orchestration : définir des objectifs, répartir des tâches et superviser.
Enfin, un tournant sur le rythme.
Si les deux dernières années pouvaient être décrites comme une montée en compétence, ce qui se produit maintenant, c’est le « décollage ». D’un côté, les capacités des modèles passent de « une aide d’environ 20 % du travail » à « la couverture d’environ 80 % des tâches », ce qui déclenche directement une refonte des workflows ; de l’autre, l’IA participe à sa propre évolution (utiliser l’IA pour optimiser l’IA). En parallèle, l’alignement entre puces, applications et entreprises forme une boucle de croissance continue et accélérée. L’IA n’est plus une technologie isolée : elle devient un moteur clé pour stimuler la croissance économique.
Mais dans le même temps, une autre série de questions apparaît en synchronisation : la défiance du public, l’incertitude concernant l’emploi, les controverses liées aux centres de données, et les frontières en matière de sécurité et de gouvernance. À cela, Brockman ne donne pas une réponse entièrement située à l’intérieur du domaine technique. Il insiste plutôt sur deux points : d’une part, le risque ne peut pas être résolu par une « contrôle centralisé » ; il faut construire, autour de l’IA, une infrastructure sociale de type système électrique. D’autre part, les capacités individuelles sont en train de changer : ce qui compte vraiment n’est plus « savoir utiliser des outils », mais « pouvoir atteindre ses objectifs grâce à l’IA ».
Si auparavant la question était « que peut faire l’IA », elle devient maintenant : lorsque l’IA commence à accomplir la plupart des choses à votre place, qu’est-ce qu’il vous faut encore faire ?
Voici le contenu original (pour faciliter la compréhension de lecture, le contenu a été légèrement réorganisé) :
TL;DR
L’AGI est entrée dans une phase de « trajectoires claires » : Greg Brockman (cofondateur d’OpenAI) estime que les modèles de raisonnement basés sur GPT disposent d’une route explicite vers l’AGI, avec une mise en œuvre attendue dans quelques années, même si la forme restera « non uniforme » (jagged).
Convergence stratégique : de l’exploration multi-axes à deux applications centrales : avec la contrainte de puissance de calcul, OpenAI concentrera ses ressources sur « l’assistant personnel » et la « résolution de problèmes complexes », plutôt que de pousser simultanément toutes les directions (comme la génération vidéo).
La « super application » deviendra une forme d’entrée pour l’IA : le chat, la programmation, le navigateur et le travail de la connaissance seront intégrés dans un système unifié ; l’IA passera d’un rôle d’outil à celui de « couche d’exécution », et l’utilisateur deviendra « l’orchestrateur ».
Tournant clé : l’IA commence à prendre en charge les workflows plutôt qu’à les assister : les capacités des modèles passent de « accomplir 20 % des tâches » à « assumer 80 % », forçant les individus et les entreprises à reconstruire leurs façons de travailler.
La puissance de calcul devient le goulot d’étranglement central et le centre de la compétition : la demande en IA dépasse largement l’offre ; à l’avenir, la limite ne se trouvera pas dans la capacité des modèles, mais dans les ressources de calcul, et les centres de données ainsi que les infrastructures deviendront des variables clés.
Le « décollage » de l’IA (takeoff) est en train de se produire : l’accélération interne de la technologie (l’IA qui optimise l’IA) se combine à la synergie industrielle (puces, applications, entreprises), poussant l’IA à passer d’un outil à un moteur de croissance économique.
Le plus grand risque ne vient pas de la technique, mais de la gouvernance et de la manière dont l’on s’en sert : les problèmes de sécurité ne peuvent pas être résolus par une seule entité ; il faut accueillir cela via un écosystème ouvert et des infrastructures sociales.
Les compétences clés des individus sont en train de changer : la compétitivité future ne reposera pas sur « l’exécution », mais sur « définir des objectifs + gérer des systèmes d’IA ». L’usage proactif de l’IA deviendra une compétence de base.
Synthèse de la discussion :
Alex (animateur) :
Aujourd’hui, nous avons invité le cofondateur et président d’OpenAI, Greg Brockman, pour parler ensemble des opportunités les plus prometteuses pour l’IA, de la manière dont OpenAI va saisir ces opportunités, et de la vision de la « super application ». Greg est aussi venu dans notre studio pour enregistrer.
Greg Brockman (cofondateur d’OpenAI & président) :
Je suis ravi de te rencontrer, merci pour l’invitation.
Pourquoi fermer Sora ? Pas assez de puissance de calcul
Alex :
À ce moment-là, c’est très intéressant : OpenAI est en train de suspendre la progression de la génération vidéo, et de concentrer ses ressources sur une « super application » : elle intégrera les scénarios commerciaux et de programmation. Vu de l’extérieur (y compris pour moi), j’ai l’impression qu’OpenAI a déjà pris l’avantage côté marché consommateur, mais que vous ajustez maintenant l’allocation des ressources. Qu’est-ce qui se passe exactement ?
Greg Brockman :
Pendant un certain temps, nous avons développé cette technologie d’apprentissage profond afin de vérifier si elle peut réellement produire l’impact positif que nous avions imaginé : est-ce qu’on peut l’utiliser pour construire des applications qui aident vraiment les gens et améliorent leur vie ?
En parallèle, nous menons aussi une autre ligne : déployer cette technologie. D’une part, pour soutenir le fonctionnement de l’activité ; d’autre part, pour accumuler tôt de l’expérience dans le monde réel, afin de nous préparer au moment où la technologie sera vraiment mature.
Et maintenant, nous sommes arrivés à une nouvelle étape. Nous voyons que cette technologie est bien faisable. Nous passons donc d’« épreuves de référence » et de démonstrations de capacités un peu abstraites à une étape nouvelle : il faut la placer dans le monde réel, la faire participer à un travail concret, et la faire évoluer grâce aux retours des utilisateurs.
Ainsi, je suis plus enclin à interpréter ce changement comme une transition stratégique motivée par le changement de stade technologique.
Ce n’est pas que nous passons du « marché grand public » vers le « segment entreprise ». Plus précisément, nous nous posons une question : dans un contexte de ressources limitées, quelles applications devons-nous prioriser ? Parce que nous ne pouvons pas tout faire.
Quelles applications peuvent réellement être déployées, produire une synergie entre elles, et avoir un impact concret ? Si vous listez toutes les directions, côté consommateur, cela se déclinerait en de nombreuses options : par exemple un assistant personnel, un système qui vous comprend vraiment, qui aligne ses actions sur vos objectifs et vous aide à atteindre ceux qui comptent dans votre vie ; ou encore la création et le divertissement ; et beaucoup d’autres possibilités. Et du côté entreprise, si vous regardez à un niveau plus élevé, vous pouvez en fait résumer cela à une chose : vous avez une tâche complexe et l’IA peut-elle vous aider à la réaliser ?
Pour nous, les priorités sont aujourd’hui très claires : il n’y a que deux choses en tête. D’abord, l’assistant personnel. Ensuite, l’IA capable de vous aider à résoudre des problèmes complexes.
Le problème, c’est que notre puissance de calcul actuelle ne suffit même pas à soutenir pleinement ces deux éléments. Dès qu’on ajoute davantage de scénarios d’applications, il devient impossible de tout couvrir. Donc, au fond, c’est un jugement de réalité : la technologie mûrit rapidement, l’impact va bientôt exploser, et nous devons faire des choix. Nous devons sélectionner les directions les plus importantes et les réaliser vraiment.
Alex :
Tu as utilisé plus tôt une analogie : OpenAI serait un peu comme Disney. Il y a une capacité centrale, puis on peut l’étendre vers différents scénarios. Disney a Mickey Mouse : des films, des parcs à thème, Disney+. La « base » d’OpenAI, c’est le modèle. Il permet de faire de la génération vidéo, des assistants, des applications pour les entreprises.
Mais là, on dirait que vous ne suivez plus cette voie d’« extension complète » et que vous devez désormais choisir ?
Greg Brockman :
En réalité, je trouve que cette analogie est encore plus valable maintenant. La clé, cependant, c’est qu’au point de vue technique, Sora (modèle vidéo) et GPT (modèle de raisonnement) appartiennent à deux branches technologiques différentes. Leur construction est totalement différente.
Le souci, c’est qu’à ce stade, pousser simultanément ces deux arbres technologiques est très difficile, surtout avec des ressources limitées. Donc notre choix a été : à ce stade, concentrer la majeure partie des ressources sur la voie GPT.
Bien sûr, cela ne veut pas dire que nous abandonnons les autres directions. Par exemple, dans le domaine des robots, nous continuons la recherche associée. Mais les robots eux-mêmes sont encore à un stade plus précoce : ils ne sont pas encore entrés dans une phase de maturité où l’explosion arrive vraiment.
À l’inverse, au cours de l’année à venir, nous verrons un véritable décollage de l’IA dans le domaine du travail de la connaissance.
Et il faut insister : la trajectoire GPT ne concerne pas seulement le « texte ». Par exemple, l’interaction vocale bidirectionnelle (speech-to-speech) fait aussi partie de cette voie. Elle rendra l’IA plus utilisable et plus pratique. Ces capacités restent, fondamentalement, dans le même ensemble de systèmes de modèles, simplement ajusté de différentes façons.
Mais si vous partez sur deux branches technologiques totalement différentes, il devient difficile de maintenir l’effort à long terme quand la puissance de calcul est limitée. Et si la puissance de calcul est limitée, c’est parce que la demande est énorme. Après chaque publication de modèle, les gens veulent l’utiliser pour faire plus de choses.
Alex :
Alors pourquoi n’avez-vous pas mis le focus sur la voie des « world models » ? Par exemple, un modèle vidéo doit comprendre les relations entre objets, et cela est aussi crucial pour la robotique. Et les progrès de Sora sont en plus extrêmement rapides. Pourquoi, au final, le pari s’est-il porté sur GPT ?
Greg Brockman :
Le plus gros problème dans ce domaine, c’est en fait qu’il y a trop d’opportunités.
Très tôt, nous avons constaté qu’à OpenAI, dès qu’une idée est raisonnable mathématiquement, elle peut généralement être mise en œuvre et produire de bons résultats. Cela montre que les capacités sous-jacentes de l’apprentissage profond sont très fortes : elles peuvent abstraire des règles de génération à partir des données, puis se transférer vers de nouveaux contextes. On peut utiliser cela dans le monde des world models, la découverte scientifique, la programmation, etc.
Le point décisif est : nous devons faire des choix.
Il y a eu longtemps un débat : jusqu’où les modèles de texte peuvent aller ? Comprennent-ils vraiment le monde ? Je pense que, maintenant, la réponse est claire : les modèles de texte peuvent aller jusqu’à l’AGI.
Nous avons déjà vu une trajectoire claire, et cette année encore, des modèles plus puissants arriveront. Et, à l’intérieur d’OpenAI, l’une de nos douleurs les plus grandes est la manière de répartir la puissance de calcul : ce problème ne fera qu’empirer, il ne va pas s’atténuer. Donc au fond, ce n’est pas « quelle voie est la plus importante », c’est une question de moment et d’ordre.
Maintenant, certaines applications que nous pensions lointaines sont devenues accessibles. Par exemple, résoudre des problèmes physiques qui n’ont pas encore été résolus. Nous avons récemment eu un cas : un physicien étudie un problème depuis longtemps ; il confie la tâche au modèle, et 12 heures plus tard, nous lui fournissons une solution. Il a dit que c’était la première fois qu’il avait l’impression qu’un modèle « pense ». Ce problème pourrait même être insoluble pour l’être humain à jamais, et pourtant l’IA l’a fait.
Quand vous voyez ce genre de choses, votre seule option est de parier davantage, d’investir deux fois, trois fois. Parce que cela signifie que nous pouvons libérer un potentiel énorme.
Donc pour moi, ce n’est pas une compétition entre directions. C’est plutôt : quelle est la mission d’OpenAI ? Comment amener l’AGI dans le monde ? Comment la faire vraiment bénéficier à tout le monde ? Et nous avons déjà vu la trajectoire ; nous savons comment la faire progresser.
Miser sur GPT plutôt que sur les world models : choisir la route vers l’AGI
Alex :
D’accord. Je veux revenir sur le sujet des modèles de prochaine génération que tu viens de mentionner, mais je vais d’abord te poser une question sur le point que tu as soulevé.
Plus tôt cette année, j’ai parlé avec Demis Hassabis de Google DeepMind. Ce qui m’a frappé, c’est qu’il m’a dit que, pour lui, la chose la plus proche de l’AGI, c’était leur générateur d’images qu’ils appellent Nano Banana.
Son raisonnement est : quel que soit le générateur d’images ou celui de vidéos, pour produire des images et vidéos de cette qualité, il faut fondamentalement comprendre les relations d’interaction entre objets, et au moins avoir une forme de compréhension de la manière dont le monde fonctionne.
Donc est-ce que cela implique un risque potentiel ? C’est un très gros pari. Si c’est vrai, qu’est-ce qu’OpenAI perdrait en continuant à investir dans l’autre arbre technologique ?
Greg Brockman :
Si c’est vraiment le cas ? J’ai deux réponses.
Premièrement, bien sûr, c’est possible. Ce domaine fonctionne comme ça : vous devez finir par faire un choix, et parier. Et OpenAI fait cela depuis le début : nous devons déterminer quelle trajectoire vers l’AGI nous croyons vraie, puis y concentrer fortement nos efforts, comme si vous additionniez des vecteurs aléatoires et que le résultat se rapprocherait de zéro ; mais si vous alignez tous les vecteurs, ils vous poussent dans une direction claire.
Deuxièmement : la génération d’images est une capacité extrêmement populaire dans ChatGPT, et nous continuons à y investir, à la prioriser. La raison pour laquelle nous pouvons le faire, c’est que ce n’est pas vraiment un sous-ensemble des branches « world models » ou « diffusion models ». En fait, cela s’appuie sur l’architecture GPT. Donc même si les données en entrée diffèrent, au niveau le plus profond du socle technologique, c’est fondamentalement la même pile.
Et c’est précisément l’une des choses les plus étonnantes de l’AGI : parfois, des applications qui semblent très différentes—de la voix à la voix, de la génération d’images, du traitement de texte, et l’usage du texte dans la recherche scientifique, la programmation, les informations personnelles de santé, etc.—peuvent finalement être contenues dans un même cadre technique.
Donc, du point de vue technique, ce sur quoi moi et l’entreprise pensons en continu, c’est comment unifier autant que possible nos efforts. Parce que nous pensons vraiment que cette technologie apporte une amélioration globale, et même une élévation de l’ensemble du système économique.
Mais l’ampleur de cette tâche est énorme. Nous ne pouvons évidemment pas tout faire. Mais nous pouvons faire notre part.
Alex :
C’est là le sens du « general » dans l’intelligence artificielle générale (AGI).
Greg Brockman :
Exactement. Et le « G », c’est bien ça.
Alex :
Si on parle d’« unification », à quoi ressemblerait alors concrètement cette super application ?
Greg Brockman :
Pour moi, une super application—c’est—
Alex :
Elle intégrerait le chat, la programmation, le navigateur, et tout ce qui existe autour de ChatGPT, c’est ça ?
Greg Brockman :
Oui. Ce que nous voulons créer, c’est une application orientée utilisateur final : vous devez pouvoir ressentir la puissance de l’AGI, c’est-à-dire sa « généralité ».
Si vous regardez les produits de chat d’aujourd’hui, je pense qu’ils vont évoluer progressivement vers votre assistant personnel, votre API personnelle, une IA qui pense vraiment pour vous. Elle vous connaît, sait beaucoup de choses à votre sujet, s’aligne sur vos objectifs, mérite votre confiance, et peut, d’une certaine manière, « vous représenter » dans cet univers numérique.
Pour ce qui est de Codex, vous pouvez le voir comme ceci : pour l’instant, c’est un outil principalement conçu pour les ingénieurs logiciels, mais il est en train de devenir « Codex pour tout le monde ».
Toute personne qui veut créer, qui veut construire, peut utiliser Codex pour que l’ordinateur fasse ce qu’elle veut. Et ce n’est plus seulement « écrire du logiciel ». C’est presque « utiliser l’ordinateur » lui-même. Par exemple, je peux lui demander de régler mes paramètres de laptop. Parfois, j’oublie comment configurer les « hot corners ». Je demande simplement à Codex de le faire, et il le fait vraiment.
Voilà à quoi l’ordinateur devrait ressembler : il devrait s’adapter aux humains, pas l’inverse.
Donc vous pouvez imaginer une application de ce type : tout ce que vous voulez que l’ordinateur fasse, vous pouvez le lui dire directement. Cela inclura des capacités intégrées de « l’utilisation de l’ordinateur » et des « actions dans le navigateur », de sorte que l’IA puisse opérer un site web, et vous puissiez aussi la superviser sur ce qu’elle fait. Et que votre interaction soit du chat, de l’écriture de code ou un travail de connaissance plus général, toutes ces conversations seront unifiées dans un seul système. L’IA aura de la mémoire, elle vous comprendra.
C’est ce que nous construisons.
Mais pour être honnête, ce n’est qu’une fraction visible de l’iceberg. À mes yeux, ce qui compte vraiment, c’est l’unification de la technologie de base.
Nous avons déjà parlé de l’unification au niveau des modèles de base. Mais au cours des dernières années, ce qui a vraiment changé, c’est que ce n’est plus seulement une question de « modèles » : le plus important est désormais le « système porteur ». Autrement dit, comment le modèle obtient du contexte ? Comment se connecte-t-il au monde réel ? Quelles actions peut-il entreprendre ? Et quand de nouveaux contextes entrent en continu, comment fonctionne la boucle d’interaction avec l’utilisateur ?
En interne, nous avions plusieurs implémentations, ou du moins quelques implémentations légèrement différentes. Maintenant, nous les faisons converger en une seule. À terme, nous aurons une couche d’IA unifiée, puis nous la dirigerons vers différents scénarios applicatifs concrets de manière très légère.
Bien sûr, vous pourrez toujours créer un petit plugin, une petite interface, spécialisée pour la finance ou le droit. Mais la plupart du temps, vous n’en aurez même pas besoin, parce que la super application elle-même sera suffisamment large et suffisamment universelle.
Alex :
Donc cette application vise aussi bien les scénarios entreprise que ceux des particuliers ?
Greg Brockman :
Oui. C’est justement le cœur. Comme un ordinateur : par exemple votre ordinateur portable. Est-ce un usage personnel ou professionnel ? La réponse est : les deux. Il s’agit d’abord de votre appareil, l’interface par laquelle vous entrez dans le monde numérique. Et c’est exactement ce que nous voulons faire.
Alex :
Alors, côté non commercial, si je l’utilise dans ma vie personnelle, à quoi vais-je l’utiliser ? Et comment ma vie va-t-elle changer ?
Greg Brockman :
Je le verrais comme ça : dans la vie personnelle, elle va d’abord prolonger la façon dont vous utilisez aujourd’hui ChatGPT.
Comment utilisez-vous ChatGPT ? En réalité, les gens l’utilisent déjà pour toutes sortes de tâches diverses et étonnantes. Parfois, c’est juste une demande : « Je dois faire un discours à mon mariage : peux-tu m’aider à le rédiger ? » Ou : « Peux-tu m’aider à examiner cette idée et me donner ton avis ? » Ou encore : « Je monte une petite entreprise : est-ce que tu peux me donner quelques pistes ? »
Certains cas sont très personnels, d’autres commencent à brouiller les frontières entre personnel et travail. Et mon point de vue est que toutes ces questions devraient pouvoir être gérées par la super application.
Greg Brockman :
Mais si vous regardez le développement de ChatGPT, en réalité, cela évolue déjà.
Auparavant, il n’avait pas de mémoire, n’est-ce pas ? Pour chaque personne, c’était le même type d’IA, qui repartait de zéro à chaque fois, presque comme si vous parliez à un inconnu. Mais s’il pouvait se souvenir de vos interactions passées, il serait beaucoup plus puissant. Et s’il pouvait aussi accéder à davantage de contexte, il serait beaucoup plus puissant.
Par exemple, il peut se connecter à votre e-mail, à votre calendrier, vous comprendre vraiment, et avoir un ensemble plus profond d’informations de contexte à propos de votre passé. Ensuite, il utilise ces informations pour vous aider à atteindre vos objectifs. Par exemple, maintenant il y a une fonctionnalité appelée Pulse dans ChatGPT : il vous envoie chaque jour des contenus que vous pourriez trouver intéressants, en fonction de ce qu’il sait de vous.
Donc, au niveau de l’usage personnel, la super application inclura tout cela et le fera de manière plus profonde, plus riche.
Alex :
Quand prévoyez-vous de la lancer ?
Greg Brockman :
Une manière plus précise de le comprendre, c’est que, dans les prochains mois, nous allons avancer vers cette direction étape par étape. La vision complète dont nous parlons sera livrée progressivement, pas en une seule mise en ligne globale ; elle arrivera par phases.
Par exemple, aujourd’hui l’application Codex contient déjà en elle-même deux couches : une couche de système général de création d’agents (agent harness) qui peut utiliser des outils ; et une seconde couche, un agent spécialisé dans la rédaction de logiciels.
Et ce système général de déploiement peut, en fait, être utilisé dans beaucoup d’autres scénarios. Vous le connectez à un tableur, vous le connectez à un document Word, et il peut vous aider à gérer le travail de connaissance.
Donc notre première étape, c’est de rendre l’application Codex plus utile pour le travail général de connaissance. Parce que nous avons vu en interne chez OpenAI que les gens l’utilisent déjà spontanément de cette manière.
Ce sera la première étape ; ensuite il y aura beaucoup d’autres étapes.
Alex :
J’ai parlé hier avec un de vos collègues à propos de Codex. Il a mentionné une personne qui l’utilise pour le montage vidéo : il fait traiter ses vidéos par Codex. Codex a même créé un plugin pour Adobe Premiere : il découpe les vidéos en chapitres et commence à couper. C’est bien la direction que vous voulez prendre ?
Greg Brockman :
J’adore entendre ce type de cas. C’est justement la manière dont nous espérons que ce système pourra fonctionner. Et ce qui est intéressant, c’est que l’application Codex a été conçue pour les ingénieurs logiciels, donc pour les non-programmeurs, sa disponibilité actuelle est assez faible. Parce qu’au moment de configurer, il y a beaucoup de petits problèmes.
Les développeurs comprennent immédiatement ce que cela signifie et savent comment le corriger. Nous y sommes habitués. Mais si vous n’êtes pas développeur, et que vous voyez ces choses, vous penserez : « C’est quoi, ce truc ? Je n’ai jamais vu ça auparavant. »
Même ainsi, nous avons vu beaucoup de personnes n’ayant jamais écrit de programme auparavant, qui utilisent déjà Codex pour construire des sites web, ou faire ce type de choses dont tu as parlé : automatiser l’interaction entre différents logiciels, et obtenir un levier énorme. Par exemple, au sein de notre équipe de communication, quelqu’un l’a branché sur Slack et sur l’e-mail pour traiter un grand volume de retours et produire de très bonnes synthèses et agrégations.
Donc, la situation actuelle est la suivante : les gens très motivés sont déjà prêts à franchir ces barrières et à en tirer un retour important.
En un certain sens, la partie la plus difficile est déjà faite : nous avons construit une IA réellement intelligente, capable, et capable d’accomplir des tâches concrètes. Ensuite, il reste cette partie relativement « facile » : la rendre vraiment utile au grand public, et démonter progressivement ces seuils d’entrée.
Alex :
D’un point de vue de la dynamique concurrentielle, Anthropic a aussi maintenant des applications pour Claude : il y a des robots de chat, et aussi Claude Code. Dans une certaine mesure, ils ont déjà une forme de « super application » à eux.
Selon toi, pourquoi Anthropic est-il arrivé plus tôt à cette étape ? Et selon toi, quelle est la probabilité qu’OpenAI comble son retard ?
Greg Brockman :
Si vous remontez d’environ 12 à 18 mois, nous avons en réalité toujours traité la « programmation » comme un domaine prioritaire. Nous avons aussi très bien réussi dans toutes sortes de concours et de tests très « orientés compétence ». Mais l’une des choses dans lesquelles nous avons investi trop peu, c’est la « dernière étape », la mise à disposition réellement utilisable.
Autrement dit, nous n’avons pas accordé assez d’importance à la question suivante : l’IA est très intelligente et peut résoudre des problèmes de programmation complexes, mais elle n’a jamais vu de codebase du monde réel. Or, les codebases réelles sont souvent en désordre, loin de l’environnement « propre » auquel elle est habituée.
Sur ce point, nous étions effectivement en retard. Mais à partir du milieu de l’année dernière, à peu près, nous avons commencé à travailler sérieusement sur cette question. Nous avons formé une équipe dédiée pour examiner où se trouvaient précisément ces lacunes : quelles complexités réelles et quels désordres existaient, et à quoi nous n’avions pas encore vraiment été confrontés.
Par exemple : comment construire les données d’entraînement ? Comment créer l’environnement d’entraînement ? Comment faire en sorte que l’IA vive réellement « ce que ça fait de faire de l’ingénierie logicielle »—avec les interruptions, les problèmes bizarres, et toutes sortes de cas non idéaux, etc.
Je pense qu’aujourd’hui, nous avons rattrapé notre retard. Quand les utilisateurs nous comparent vraiment de façon directe à nos concurrents, beaucoup de gens ont tendance à nous préférer.
Bien sûr, nous savons aussi que notre expérience frontale n’est pas encore au niveau ; cette partie, nous allons la rattraper. Mais au global, c’est notre orientation : ne pas seulement faire un modèle puis lui ajouter une coque produit, mais le considérer comme un produit complet dès le départ. En menant la recherche, nous nous posons aussi simultanément la question : comment sera-t-il réellement utilisé ? C’est un changement de direction en interne chez OpenAI.
Donc, je pense que nous allons bénéficier d’une très forte vague d’upgrade des modèles. Rien que la feuille de route de cette année me rend enthousiaste : il y a vraiment énormément de choses réalisables.
En parallèle, nous complétons aussi de manière très ciblée la dernière étape de l’utilisabilité.
Alex :
Depuis 2022, OpenAI est resté comme le leader incontesté de ce domaine. Il est évident que la compétition ne se limite plus maintenant aux résultats des tests. Et tu as toi-même utilisé le terme « nous avons rattrapé » tout à l’heure.
L’ambiance en interne a-t-elle changé ? Autrement dit, est-ce que ce n’est plus le même sentiment qu’avant, celui d’une avance nette sur des produits comme ChatGPT, mais une vraie concurrence face-à-face ?
De l’extérieur, certains rapports montrent aussi ce changement : par exemple, des réunions internes où l’on souligne qu’il n’y a plus de « tâches parallèles » chez OpenAI, et que tout le monde doit se concentrer sur cette direction centrale. Donc aujourd’hui, comment l’environnement et l’ambiance internes ont-ils changé ?
Greg Brockman :
Je dirais qu’à titre personnel, pour moi, le moment où OpenAI m’a le plus inquiété, c’est justement après la sortie de ChatGPT.
Je me souviens de ce moment : lors de la fête de vacances dans l’entreprise, une atmosphère de « on a gagné » régnait sur place. Je n’avais jamais ressenti ça auparavant. Ma réaction a été : non, ce n’est pas nous. Nous sommes du côté en difficulté.
Et en fait, nous avons toujours été comme ça. La plupart des concurrents dans ce domaine sont de grandes entreprises déjà établies, avec plus de moyens, plus de personnel, plus de données : pratiquement toutes les ressources leur favorisent.
Alors pourquoi OpenAI peut encore participer à la compétition ? Dans une certaine mesure, la réponse se trouve dans le fait que nous n’avons jamais pensé que c’était acquis. Nous nous voyons toujours comme des challengers.
En fait, pour moi, il y a quelque chose de sain dans le fait de voir le marché commencer à afficher cette configuration de concurrence, et voir aussi d’autres adversaires émerger et faire du bon travail.
Parce que selon moi, vous ne pouvez jamais clouer votre attention sur ce que font vos concurrents. Si vous ne regardez que où ils sont maintenant, quand vous arriverez à leur niveau, ils auront déjà avancé.
Et je pense qu’il y a eu un renversement dans la période récente : beaucoup de gens nous observaient à la manière dont on se situe, ce qui nous a permis de continuer à progresser. Cela nous a aussi donné un bon sentiment d’alignement interne et d’unité.
Je t’ai déjà mentionné : auparavant, nous traitions presque « la recherche » et « le déploiement » comme deux choses séparées. Maintenant, nous voulons vraiment les intégrer. Pour moi, c’est quelque chose de très satisfaisant.
Donc, je dirais que la phase dans laquelle nous sommes n’est pas un moment où je pense que nous étions « assurés de gagner », ni une crise soudaine. Tu sais, l’opinion extérieure sur toi n’est généralement ni aussi bonne qu’ils disent, ni aussi mauvaise qu’ils disent.
Je pense que, globalement, nous restons stables. Et sur la question centrale, la recherche de modèles, j’ai une grande confiance dans notre feuille de route et les investissements que nous avons déjà faits. Côté produit, je pense que nous avons aujourd’hui une énergie très positive : tout le monde se rassemble et livre vraiment ces choses au monde.
Alex :
Tu as déjà mentionné à plusieurs reprises qu’il y aurait de nouveaux modèles très puissants dans la suite. Mais concrètement, lesquels ?
The Information dit que vous avez terminé le pré-entraînement de « Spud ». Et Sam Altman a aussi dit aux employés d’OpenAI que, dans quelques semaines, ils allaient voir un modèle très puissant. C’était il y a quelques semaines déjà. L’équipe en interne estime qu’il pourrait même accélérer l’économie et que l’avancement pourrait être plus rapide que ce que beaucoup de gens imaginent.
Donc, « Spud », c’est quoi exactement ?
Greg Brockman :
C’est un très bon modèle. Mais je pense que le point important n’est pas tant un modèle en particulier.
Notre processus de recherche ressemble à ceci : d’abord le pré-entraînement, c’est-à-dire produire un nouveau modèle fondation ; ensuite, toutes les améliorations ultérieures s’appuient sur ce modèle de base. Cette étape requiert souvent beaucoup d’efforts de nombreuses équipes en interne. En fait, au cours des 18 derniers mois, j’ai passé la majeure partie de mon temps là-dessus : principalement autour de l’infrastructure GPU, pour soutenir les équipes en charge des frameworks d’entraînement, et faire en sorte que ces grosses tâches d’entraînement se déroulent vraiment.
Ensuite vient la phase d’apprentissage par renforcement. Autrement dit, on fait en sorte que l’IA qui a déjà acquis beaucoup de connaissances du monde commence à utiliser réellement ces connaissances.
Puis vient le processus de post-entraînement. À ce stade, on lui montre vraiment : maintenant que tu sais résoudre des problèmes, entraîne-toi dans toutes sortes de contextes différents.
Enfin, il y a une étape « dernière étape » pour la « conduite des comportements » et l’utilisabilité.
Donc, je considère Spud comme une nouvelle base, un nouveau modèle de pré-entraînement. Et sur lui, on peut dire que les recherches menées pendant environ deux ans commencent à porter leurs fruits. C’est excitant.
Je pense que ce que le monde verra finalement, c’est une amélioration globale des capacités. Mais, pour moi, ce n’est jamais juste une seule publication isolée. Parce que quand cette version arrivera, ce ne sera qu’une version initiale de ce qui va suivre. Nous continuerons à en faire plus à chaque étape du processus d’amélioration.
Donc je pense que, pour nous, c’est plutôt comme si nous avions un moteur de progrès qui accélère en continu, et Spud n’est qu’un jalon sur cette route.
Alex :
D’accord. Et à ton avis, que pourra-t-il faire que les modèles actuels n’arrivent pas encore à faire ?
Greg Brockman :
Je pense qu’il pourra à la fois résoudre des problèmes plus difficiles et devenir plus fin. Il comprendra mieux les instructions et mieux le contexte.
Parfois, les gens parlent d’une sensation de « big model smell » : quand le modèle est vraiment plus intelligent et plus capable, vous pouvez le sentir distinctement. Il suivra plus naturellement votre intention, et s’alignera davantage sur vos besoins.
Quand vous posez une question et que l’IA ne comprend pas vraiment votre intention, cette sensation reste encore frustrante. Vous vous dites : cette chose, elle devrait clairement pouvoir la comprendre.
Donc, je dirais que, dans un sens, c’est une « transformation qualitative » qui s’accumule à partir beaucoup de « transformations quantitatives ». D’un côté, on verra des améliorations sur de nombreux indicateurs ; de l’autre, de nouveaux scénarios apparaîtront. Avant, vous évitiez certaines choses parce que l’IA n’était pas assez fiable ; maintenant, vous pouvez l’utiliser sans y réfléchir.
Je pense que ce sera un changement de bout en bout. Je suis particulièrement impatient de voir comment il continuera à élever la limite supérieure des capacités. Nous avons déjà vu ses performances dans des contextes comme la recherche physique ; je pense que ensuite, il pourra résoudre davantage de problèmes ouverts, et traverser des périodes plus longues.
Et j’attends aussi de voir comment il élèvera la limite inférieure des capacités : quoi que vous vouliez faire, il sera beaucoup plus utile que ce qui est possible aujourd’hui.
Alex :
Mais pour les utilisateurs ordinaires, sentir ce changement n’est pas toujours facile. Par exemple, avant la sortie de GPT-5, le public avait déjà beaucoup anticipé. Mais quand il est réellement sorti, les réactions initiales du public étaient, dans une certaine mesure, décevantes. Ensuite, les gens ont progressivement réalisé qu’il était très fort dans certaines tâches spécifiques.
Pour la prochaine génération de modèles, penses-tu que le changement sera surtout perceptible dans certains contextes professionnels, ou bien qu’il deviendra une amélioration évidente et généralisée pour tout le monde ?
Greg Brockman :
Je pense que l’histoire sera probablement similaire. Après la publication d’un modèle, il y aura forcément des gens qui, dès qu’ils le prennent en main, ressentent immédiatement une différence totale par rapport à ce qu’ils connaissaient. Mais il y aura aussi des scénarios d’application où le goulot d’étranglement ne se situe pas dans « l’intelligence ». Si vous rendez juste le modèle plus intelligent, alors, dans ces cas-là, les utilisateurs ne percevront peut-être pas tout de suite la différence.
Mais avec le temps, je pense que tout le monde finira par sentir le changement. Parce que la véritable différence, c’est dans la mesure où vous allez commencer à dépendre de ce système.
Si vous réfléchissez à la façon dont nous interagissons avec l’IA aujourd’hui, chacun a dans son esprit un modèle mental de « ce qu’elle peut faire ». Et ce modèle mental change assez lentement. En général, cela se produit avec l’accumulation d’expériences : de temps en temps, elle accomplit quelque chose de vraiment incroyable à votre place, et vous réalisez soudainement : « en fait, elle peut faire ça. Je n’aurais jamais pensé qu’elle en serait capable ».
Par exemple, dans le domaine de l’obtention d’informations médicales, on a déjà vu ce genre de cas. J’ai un ami qui utilise ChatGPT pour comprendre différents plans de traitement pour son cancer. Le médecin lui avait dit que c’était un stade avancé, qu’il n’y avait plus vraiment de choses possibles à faire. Mais il a utilisé ChatGPT pour explorer beaucoup de pistes différentes et, au final, a réellement trouvé une option de traitement.
Dans ce type de situation, la condition préalable est que vous devez avoir une certaine confiance dans la capacité de l’IA à aider dans ce scénario. Sinon, vous ne seriez pas prêt à investir autant d’efforts pour extraire de la valeur de ce système.
Donc je pense que ce que nous allons voir ensuite, c’est que, dans tous les scénarios d’application de ce type, la capacité de l’IA à vous aider deviendra encore plus évidente pour tout le monde.
Ainsi, ce changement vient à la fois du fait que la technologie s’améliore, et du fait que notre compréhension de la technologie est en train d’évoluer et de la rattraper.
Alex :
Donc, tu vas de plus en plus dépendre de l’IA. En interne chez OpenAI, vous développez aussi un « chercheur IA » automatisé, qui serait lancé cet automne. Mais concrètement, qu’est-ce que c’est ?
L’IA entre dans une phase précoce de « décollage »
Greg Brockman :
Je pense que, dans l’ensemble des tendances, nous sommes maintenant dans une phase précoce du décollage technologique de l’IA.
Alex :
Que signifie « décollage » ?
Greg Brockman :
Le décollage signifie que l’IA devient de plus en plus forte en suivant une courbe exponentielle. Et une partie de la raison, c’est que nous pouvons déjà utiliser l’IA pour nous aider à améliorer l’IA elle-même, ce qui accélère tout le processus de recherche.
Mais je pense que ce qu’on appelle « décollage » ne concerne pas seulement la technologie : cela signifie aussi la libération de l’influence dans le monde réel. Beaucoup de technologies suivent une courbe en S. Et si vous regardez sur un horizon temporel plus long plusieurs courbes en S, elles convergent en une croissance qui ressemble à une expansion presque exponentielle.
Je pense que nous sommes dans ce genre de phase. Autrement dit, la technologie elle-même progresse à un rythme de plus en plus rapide, et ce moteur de progrès accumule continuellement de la dynamique.
En même temps, dans le monde extérieur, il y a beaucoup de facteurs favorables qui se mettent en place : les concepteurs de puces obtiennent plus de ressources à investir ; un grand nombre de personnes construisent des applications en haut de la pile, tentent d’intégrer l’IA dans différents scénarios, et cherchent l’alignement entre l’IA et les besoins concrets.
Toutes ces énergies s’accumulent et poussent l’IA vers une période de « décollage », la faisant passer d’un rôle marginal à celui de moteur principal de croissance économique.
Et cette évolution ne se produit pas seulement à l’intérieur de nos murs. Elle concerne le monde entier et l’ensemble du système économique : comment cette technologie est entraînée ensemble, et comment son utilité continue d’avancer.
Alex :
Alors ce « chercheur » en particulier, que fera-t-il ?
Greg Brockman :
Quand on dit « chercheur », cela veut dire, fondamentalement : lorsque la proportion des tâches que l’IA peut prendre en charge augmente, on devrait lui permettre de fonctionner de façon plus autonome.
Bien sûr, il y a beaucoup de choses à penser soigneusement derrière. Cela ne veut pas dire : on le lâche dehors pendant un moment, puis on revient pour voir s’il a produit de bons résultats.
Je pense que nous continuerons à participer de manière très profonde à sa gestion. Par exemple, comme maintenant : si vous encadrez un chercheur junior, le laisser trop longtemps tout seul le conduira probablement sur une trajectoire qui n’a pas beaucoup de valeur. Mais si vous avez un chercheur senior, ou quelqu’un qui a vraiment du sens de direction, il n’a même pas besoin de maîtriser personnellement toutes les compétences de manipulation concrètes. Il peut quand même donner un retour continu sur les livrables, faire des revues, et guider en termes de direction : « qu’est-ce que j’attends de toi, exactement ? ».
Donc, tel que je le conçois, c’est un système de mécanismes que nous construisons : il va augmenter considérablement la vitesse de production des modèles, faire émerger de nouvelles percées de recherche, et rendre ces modèles plus utiles et plus utilisables dans le monde réel. Et tout cela se produira à un rythme de plus en plus rapide.
Alex :
Concrètement, qu’est-ce qu’il fera ? Est-ce que tu lui dis directement : « va trouver l’AGI », et il essaie tout seul ?
Greg Brockman :
Dans une certaine mesure, oui. Au moins dans une première couche. Mais d’un point de vue plus concret, je le verrais comme ceci : transférer autant que possible, dans un système basé sur du silicium, le workflow complet d’un scientifique en recherche, de bout en bout.
Alex :
Une autre manière de comprendre le « décollage », c’est que les progrès de l’IA passent d’une amélioration progressive à une accumulation de dynamique, jusqu’à évoluer vers une progression presque impossible à arrêter, en direction d’une intelligence plus intelligente que l’humain.
N’as-tu pas peur que, comme ça peut évoluer dans le bon sens, la progression elle-même puisse aussi devenir incontrôlable, ou partir de travers ?
Greg Brockman :
Je pense que oui, bien sûr. C’est incontestable. Je pense qu’il faut penser sérieusement aux risques pour récolter les bénéfices de cette technologie.
Si vous regardez notre façon de développer la technologie, vous verrez que nous investissons beaucoup dans la sécurité et la protection. Un très bon exemple, c’est l’attaque par prompt injection. Si vous avez une IA très intelligente, très puissante, et intégrée à beaucoup d’outils, vous voulez évidemment vous assurer qu’elle ne sera pas détournée, manipulée, par quelqu’un qui lui donne une instruction étrange.
C’est précisément dans ce genre de travail que nous investissons beaucoup, et je pense que nous avons obtenu des résultats vraiment solides, et qu’il y a aussi une équipe très forte qui s’en occupe.
Ce qui est intéressant, c’est que certains de ces problèmes peuvent être mis en parallèle avec le comportement humain. Les humains sont aussi victimes d’attaques de phishing, peuvent être trompés, et peuvent agir sans connaître tout le contexte.
Nous intégrons ces analogies dans notre processus de recherche. À chaque fois que nous publions un modèle, que nous développons un modèle, nous réfléchissons à comment s’assurer qu’il est vraiment aligné avec les objectifs humains, et qu’il peut réellement aider.
Bien sûr, il y a aussi des questions plus grandes, qui concernent le monde entier et l’économie entière : comment tout va-t-il changer ? Comment chacun peut en tirer profit ? Ces questions ne sont pas seulement des questions techniques, et OpenAI ne peut pas les résoudre seul. Mais oui, je pense vraiment souvent à ces aspects : pas seulement pousser la technologie en avant, mais aussi s’assurer qu’elle produise un impact positif correspondant à son potentiel.
Alex :
Le problème, c’est que ça ressemble à une course. Ce qui se passe à l’intérieur des murs du siège d’OpenAI peut être rapidement copié par de nombreux acteurs open source. Et ces acteurs-là, sur les frontières de sécurité et les mesures de protection, sont souvent beaucoup plus faibles.
Je me rappelle que tu avais dit quelque chose à propos : des résultats créatifs demandent que beaucoup de gens fassent beaucoup de choses correctement ; mais des résultats destructeurs peuvent venir de seulement une personne malveillante. C’est au moins la partie que je crains le plus. Parce que manifestement, c’est une course, et elle avance vite. Beaucoup de tes pairs ont déjà dit que, si tout le monde était d’accord pour s’arrêter, ils seraient prêts à le faire. Mais aujourd’hui, il n’y a aucun signe que cette course ralentisse.
Alors est-ce que ce retour en vaut vraiment le risque ?
Greg Brockman :
Je pense que le retour en vaut la peine. Mais je pense aussi que cette réponse est encore trop grossière, trop tranchée.
Depuis la création d’OpenAI, nous nous posons la question : à quoi ressemblerait un bon futur ? Comment cette technologie doit-elle vraiment améliorer la situation de tout le monde ?
Vous pouvez décomposer cette question en deux angles. Un angle, c’est la perspective « centralisée » : pour rendre cette technologie sûre, la meilleure façon serait que seul un acteur la développe. Ainsi, il n’y aurait pas de pression de concurrence : vous pourriez faire les choses correctement, lentement et avec prudence, puis décider ensuite comment la livrer à tout le monde une fois prêt. Cette idée se comprend. Mais à certains égards, c’est aussi un plan difficile à accepter.
L’autre voie, celle que nous favorisons davantage, consiste à penser en termes de « résilience ». Autrement dit, la considérer comme un système ouvert : de nombreux participants contribuent au développement de la technologie, mais l’accent ne porte pas seulement sur la technologie elle-même ; l’important est de construire des infrastructures sociales qui naissent autour de cette technologie, pour qu’elle puisse être absorbée plus sûrement.
Vous pouvez prendre l’exemple du développement de l’électricité. L’électricité est produite par de nombreuses personnes et institutions différentes, elle a aussi des risques et des dangers. Et pourtant, en même temps, nous avons construit des infrastructures de sécurité multicouches : des normes de sécurité électrique, des règles d’utilisation différentes, des formes de supervision adaptées à différentes tailles. À très grande échelle, il y a des exigences de réglementation spécifiques. Beaucoup de gens peuvent utiliser l’électricité de manière démocratisée, et il y a aussi des inspecteurs, ainsi qu’un système complet d’accompagnement, et tout cela s’est construit progressivement autour des caractéristiques de cette technologie.
Et je pense que l’IA est pareil. Le point que nous voyons vraiment, c’est que, autour de l’IA, il faut une large discussion sociale. Si cette technologie arrive et change la vie de chacun, alors les gens doivent y participer. Cela ne peut pas être seulement un petit groupe centralisé qui avance dans le secret et décide de tout.
Donc, pour moi, c’est toujours une question centrale : à quelle façon cette technologie doit-elle se déployer ? Et ce que nous croyons vraiment, c’est que nous devons construire une « écosystème de résilience » qui se forme progressivement autour de la technologie en train d’évoluer.
Alex :
Donc tu veux dire que nous sommes en plein processus de « décollage » et que nous sommes tous déjà dedans. Le PDG d’NVIDIA, Jensen Huang, a récemment dit qu’il pense que l’AGI est déjà réalisée. Tu es d’accord ?
Greg Brockman :
Je pense que l’AGI est définie différemment selon les personnes. Et oui, il y en a certainement qui pensent que la technologie que nous avons aujourd’hui compte déjà comme de l’AGI.
On peut débattre de tout cela. Mais ce qui est intéressant, c’est que la technologie que nous avons aujourd’hui reste encore très « non lisse », avec des ruptures visibles.
Sur de nombreuses tâches, comme écrire du code, elle est franchement surhumaine. L’IA sait faire cela, et elle réduit effectivement énormément les frictions pour créer. Mais en même temps, il y a aussi des choses très fondamentales que les humains peuvent faire facilement, et où l’IA a encore du mal.
Donc, où trace-t-on la ligne de séparation ? Dans une certaine mesure, c’est plutôt une question de « ressenti », de jugement d’ambiance, et non un problème qui peut être défini strictement de manière scientifique à l’instant présent.
Donc, pour moi, je pense que nous vivons clairement ce moment. Si cinq ans auparavant on m’avait montré ces systèmes-là, je dirais : oui, c’est ce dont nous parlions. La réalité a simplement pris une forme très différente de ce que nous imaginions. Et c’est assez différent de n’importe quelle forme que nous avions envisagée.
Donc, je pense qu’on doit ajuster nos modèles mentaux en conséquence.
Alex :
Donc, tu veux dire que ce n’est pas encore le cas ?
Greg Brockman :
Je dirais qu’on est probablement à 70 %, 80 %. Donc je pense que nous sommes déjà très proches.
Et je pense qu’il y a une chose extrêmement claire : dans les prochaines années, nous allons arriver à l’AGI. Sa performance pourrait encore avoir un aspect « dentelé », pas parfaitement lisse partout et tout le temps. Mais le niveau de base pour accomplir des tâches sera très élevé : presque pour n’importe quelle tâche cognitive que vous devez faire sur un ordinateur, l’IA pourra le faire.
Donc maintenant, je dois donner une réponse légèrement incertaine, parce que c’est un peu comme un principe d’incertitude : vous pouvez discuter cela selon différentes définitions. Mais, selon ma définition personnelle, je pense que nous sommes presque là. Encore un petit pas vers l’avant, et ce sera absolument le cas.
Tournant clé : de la prise en charge de 20 % à celle de 80 % du travail
Alex :
Que s’est-il passé exactement en décembre 2025 ? Parce que ça ressemble à un point de bascule : « ne plus être interrompu et continuer à écrire du code pendant plusieurs heures » semble être passé d’une idée théorique à quelque chose dont tout le monde commence à dire : « je pense pouvoir lui faire confiance pour qu’il continue à tourner tout seul pendant un moment ».
Alors, qu’est-ce qui s’est passé à ce moment-là ?
Greg Brockman :
Après la publication d’un nouveau modèle à l’époque, la proportion des tâches qu’une IA peut accomplir a augmenté brusquement, passant d’environ 20 % de votre travail à 80 %. C’est un changement extrêmement important. Parce qu’il ne s’agit plus seulement d’« un bon petit outil ». C’est devenu : vous devez réorganiser votre workflow autour de ces IA.
De mon côté, j’ai aussi un moment très typique qui m’est resté. Ces dernières années, j’ai eu un test que j’ai utilisé : demander à l’IA de me construire un site web. Ce site, c’est un que j’avais construit de mes propres mains lorsque j’apprenais à programmer, et cela m’avait pris plusieurs mois.
Et en 2025, il fallait encore environ quatre heures, avec plusieurs aller-retours de requêtes, pour que ce soit assez satisfaisant. Mais en décembre, il m’a suffi de demander une fois : l’IA a produit le résultat, et il était très bien.
Alex :
Et comment ces modèles ont-ils réussi ce saut ?
Greg Brockman :
Une grande partie de la raison, c’est que le modèle de base est devenu plus fort. OpenAI a continué à améliorer en continu sa technologie de pré-entraînement. À ce moment-là, nous avons vu pour la première fois un aperçu, même léger, de ce qui allait se passer dans le reste de l’année. Mais en même temps, ce n’était pas seulement une percée isolée. Plus précisément, nous poussions toutes les dimensions d’innovation en continu.
Ce qui est intéressant avec ces modèles, c’est que d’un certain point de vue, vous avez la sensation qu’ils font des « sauts » successifs. Mais d’un autre point de vue, tout évolue de manière continue. Ce n’est pas qu’ils passent soudainement de 0 % à 80 % ; c’est qu’ils montent de 20 % à 80 %. Donc, dans une certaine mesure, on peut dire que c’est « juste » devenu mieux.
Et je pense que cette progression continue aussi dans chacune des mises à jour ultérieures, même petites. Par exemple, de 5.2 à 5.3 : j’ai un ingénieur avec qui je travaille très étroitement. Avant, il n’avait aucun moyen de faire réaliser au modèle des tâches d’ingénierie système de bas niveau, du type qu’il faisait. Mais après la nouvelle version, le modèle a pu reprendre ses documents de conception, les implémenter réellement, ajouter du monitoring des indicateurs et de l’observabilité, exécuter des profils de performance avec profiler, puis continuer à optimiser, pour finalement parvenir au résultat que lui espérait livrer de ses propres mains.
Donc, je dirais que c’est un processus du type : « progression lente, puis tout change soudainement un peu partout ». Mais tout cela est déjà prédit par les capacités qui existent à l’instant. Au plus tard dans l’année à venir, beaucoup de choses, certaines encore plus vite, deviendront extrêmement fiables.
Alex :
Est-ce que ça t’a aussi surpris ? Parce que je me souviens qu’il n’y a pas si longtemps, dans une interview, tu disais que des outils d’automatisation de programmation comme Codex étaient initialement destinés aux développeurs. Mais plus tôt dans cette conversation, tu as dit que tout le monde peut utiliser ce type d’outil.
Qu’est-ce qui t’a fait changer d’avis ?
Greg Brockman :
Au départ, j’avais en fait toujours mis Codex dans le cadre de « l’écriture de code ». Après tout, dans son nom, il y a « code », ce qui pousse naturellement à le voir comme un outil pour programmeurs. Et chez OpenAI, beaucoup de gens sont eux-mêmes des ingénieurs logiciels. Nous construisons des outils pour nous, donc penser de cette manière est très naturel.
Mais à mesure que cette technologie progressait, nous avons commencé à réaliser une chose : la technologie de base que nous construisons ne concerne en grande majorité même pas le « code ». Elle concerne en essence « la résolution de problèmes ».
Son cœur, c’est de gérer le contexte, de construire des cadres d’exécution, et de réfléchir à la manière dont l’IA doit s’intégrer au travail réel afin de finir les choses. Et dès que c’est vrai, même dans un contexte de programmation, cela signifie soudainement que tout le monde peut acquérir ce genre de capacité. Parce que ce dont vous disposez vraiment, c’est un système qui exécute votre travail à votre place. Du moment que vous avez une vision, un objectif à atteindre, et que vous pouvez décrire clairement vos intentions, l’IA pourra exécuter et accomplir.
Mais cela vous fait aussi poser la question : pourquoi se concentrer sur une séparation « hors programmation » vs « programmation » ? En réalité, il y a beaucoup de tâches qui relèvent fondamentalement de compétences mécaniques. Par exemple : Excel pour des tableaux, ou préparer des présentations. Si l’IA a suffisamment de contexte et une intelligence brute suffisamment forte, elle peut déjà faire ça très bien.
Donc, si nous le rendons plus facile à approcher et plus convivial pour l’humain, alors ce n’est plus « Codex pour les programmeurs », mais « Codex pour tout le monde ».
Alex :
Et après avoir vu ces progrès évidents, la Silicon Valley a rapidement fait apparaître un autre phénomène presque silencieux : Open Claw, non ? Ou plus largement, tout l’écosystème technique commence à faire confiance à l’IA de la manière que tu viens de décrire—par exemple en confiant la main à un robot IA sur le bureau, ou en branchant un Mac mini, en lui donnant toutes les permissions liées au courrier, au calendrier, aux fichiers, puis en lui permettant, dans une certaine mesure, de « prendre en charge la vie ». Plus tard, OpenAI a aussi recruté les fondateurs d’Open Claw dans l’entreprise. Donc peux-tu en dire plus sur cette IA qui aide à gérer la vie ? Et recruter l’équipe Open Claw correspond-il à cette vision ?
Greg Brockman :
Je dirais que le point le plus central de cette technologie est de comprendre comment la rendre utile, comment les gens veulent l’utiliser, et quelle est la vision des agents : de quelle manière elle entrera dans la vie des gens—ce sont des questions difficiles.
Et ce que je vois de façon répétée dans l’évolution de ces générations de technologie, c’est que les gens qui s’engagent profondément, qui ont de la curiosité et une forte imagination, possèdent déjà une capacité très réelle. Et cette capacité devient de plus en plus précieuse dans la nouvelle économie.
Le fondateur d’Open Claw, Peter, à mes yeux, correspond exactement à ce profil : il a une imagination très forte et un élan créatif très puissant. Donc, dans un certain sens, cela dépend d’une technologie spécifique. Mais dans un autre sens, ce n’est même pas juste un problème technique. Il s’agit plutôt de comment intégrer ces capacités dans la vie des gens, et de trouver l’endroit exact où elles se situent réellement.
Donc, en tant qu’ingénieur, c’est excitant. Mais en tant que quelqu’un qui se soucie vraiment de la livraison de valeur pratique aux utilisateurs, nous investissons davantage et nous y mettons beaucoup d’efforts.
Alex :
Tu as récemment une phrase très intéressante à propos de tout ça. Tu as dit que lorsque tu commences à laisser des agents IA autonomes travailler à ta place, tu deviens « le CEO d’une flotte de milliers d’agents », qui réalisent tes objectifs, ta vision et tes tâches, tandis que toi, tu ne t’enlises plus dans les détails de la résolution de tous les problèmes concrets.
Mais tu as aussi dit qu’en un certain sens, ce nouveau mode de travail te donne l’impression de perdre le « pouls » des problèmes eux-mêmes.
Greg Brockman :
Est-ce que c’est une bonne chose ou pas ? Je pense que ce sont des bénéfices et des inconvénients qui coexistent.
Donc, je pense que notre rôle est d’une part de reconnaître la puissance que ces outils apportent réellement, et d’autre part de réduire au maximum leurs faiblesses. Par exemple, donner aux gens plus de levier, plus de capacité d’action. Si vous avez une vision, quelque chose que vous voulez accomplir, vous pouvez mobiliser toute une flotte d’agents pour le faire à votre place. C’est évidemment très puissant.
Mais si vous y réfléchissez, la façon dont le monde fonctionne au final exige toujours quelqu’un qui assume la responsabilité. Supposons que vous construisez un site web, et que vos agents se plantent et affectent les utilisateurs : strictement parlant, ce n’est pas la faute des agents, c’est la vôtre. Donc vous devez vous en soucier.
Je pense que toute personne qui veut utiliser vraiment ces outils doit reconna