Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Interview avec le fondateur de DeepMind : architecture de l'AGI, état actuel des Agents et la prochaine percée scientifique dans la décennie
Introduction éditoriale
Le PDG de Google DeepMind, lauréat du prix Nobel de chimie Demis Hassabis, invité chez Y Combinator, évoque les progrès clés vers l’AGI, donne des conseils aux entrepreneurs pour rester en tête, et discute de l’endroit où pourrait apparaître la prochaine grande avancée scientifique.
La règle la plus pratique pour les entrepreneurs en deep tech est que si vous lancez aujourd’hui un projet deep tech sur dix ans, vous devez intégrer l’émergence de l’AGI dans votre planification. Il a aussi révélé qu’Isomorphic Labs (une société pharmaceutique d’IA issue de DeepMind) aura bientôt une annonce majeure.
Citations clés
Feuille de route et calendrier de l’AGI
· « Ces composants technologiques existants seront presque certainement intégrés dans l’architecture finale de l’AGI. »
· « L’apprentissage continu, le raisonnement à long terme, certains aspects de la mémoire ne sont pas encore résolus, l’AGI doit tout maîtriser. »
· « Si votre calendrier pour l’AGI est autour de 2030, comme moi, et que vous lancez un projet deep tech aujourd’hui, vous devez prévoir que l’AGI pourrait apparaître en cours de route. »
Mémoire et fenêtre de contexte
· « La fenêtre de contexte correspond à peu près à la mémoire de travail. La mémoire de travail humaine ne comporte en moyenne que sept chiffres, alors que nous disposons d’une fenêtre de contexte de millions, voire dizaines de millions de tokens. Mais le problème, c’est que nous y mettons tout, y compris des informations non importantes ou erronées, ce qui est une approche assez brutale. »
· « Si l’on veut traiter un flux vidéo en temps réel et stocker tous les tokens, un million de tokens ne suffirait qu’à environ 20 minutes. »
Défauts du raisonnement
· « J’aime jouer aux échecs avec Gemini. Parfois, il se rend compte qu’un coup est mauvais, mais ne trouve pas mieux, et finit par faire ce mauvais coup après avoir tourné en rond. Un système de raisonnement précis ne devrait pas faire ça. »
· « Il peut résoudre des problèmes de niveau médaille d’or à l’IMO, mais poser la même question autrement lui fait faire des erreurs de mathématiques élémentaires. Il semble manquer quelque chose dans l’introspection de sa propre réflexion. »
Agent et créativité
· « Pour atteindre l’AGI, il faut un système capable de résoudre activement les problèmes pour vous. L’agent est cette voie, et je pense que nous ne faisons que commencer. »
· « Je n’ai pas encore vu de jeu AAA en tête des ventes utilisant la codification vibe. Avec l’effort actuel, c’est probablement possible, mais cela ne s’est pas encore produit. Il manque quelque chose dans les outils ou les processus. »
Distillation et petits modèles
· « Notre hypothèse est qu’un modèle Pro de pointe, publié tous les six mois à un an, peut voir ses capacités compressées dans un modèle très petit, capable de fonctionner sur des appareils en périphérie. Nous n’avons pas encore atteint la limite théorique de densité d’information. »
Découvertes scientifiques et « test d’Einstein »
· « Parfois, je l’appelle le « test d’Einstein », c’est-à-dire : peut-on entraîner un système avec les connaissances de 1901, puis le faire déduire de manière autonome les résultats d’Einstein en 1905, y compris la relativité restreinte ? Si c’est possible, ces systèmes ne sont pas loin d’inventer de nouvelles choses. »
· « Résoudre un problème du Millennium Prize est déjà une grande réussite. Mais plus difficile encore, c’est de proposer une nouvelle série de problèmes du Millennium, que les meilleurs mathématiciens considèrent comme tout aussi profonds et méritant une vie de recherche. »
Conseils pour la deep tech
· « Poursuivre des problèmes difficiles ou simples revient au même, la seule différence étant la difficulté de la méthode. La vie est courte, autant concentrer ses efforts sur ce qui n’aura été fait par personne d’autre. »
Chemin vers l’AGI
Gary Tan : Tu réfléchis à l’AGI depuis presque plus longtemps que tout le monde. Selon le paradigme actuel, combien de structures finales d’AGI penses-tu que nous possédons déjà ? Qu’est-ce qui manque fondamentalement ?
Demis Hassabis : La pré-formation à grande échelle, RLHF, la chaîne de pensée, je suis convaincu qu’elles feront partie de l’architecture finale de l’AGI. Ces techniques ont déjà prouvé beaucoup de choses. Je ne peux pas imaginer qu’en deux ans, on découvrira que c’est une impasse. Ce n’est pas mon avis. Mais il manque probablement une ou deux choses, comme l’apprentissage continu, le raisonnement à long terme, certains aspects de la mémoire. Il reste encore quelques problèmes à résoudre.
L’AGI doit tout maîtriser. Peut-être que les techniques existantes, avec quelques innovations progressives, suffiront à atteindre ce niveau, mais il pourrait aussi rester un ou deux points clés à franchir. Je ne pense pas qu’il y en ait plus d’un ou deux. Mon estimation est que la probabilité qu’il reste des énigmes majeures est d’environ 50/50. Chez DeepMind, nous avançons sur deux fronts.
Gary Tan : Je travaille avec beaucoup de systèmes d’agents, et ce qui me surprend le plus, c’est que la base revient toujours à la même configuration de poids. La notion d’apprentissage continu est donc très intéressante, car aujourd’hui, on fait souvent des bricolages temporaires, comme ces « cycles de rêve nocturne » par exemple.
Demis Hassabis : Exactement, ces cycles de rêve sont fascinants. Nous avons déjà réfléchi à cette question dans l’intégration de la mémoire contextuelle. Mon doctorat portait sur la façon dont l’hippocampe intègre élégamment de nouvelles connaissances dans un système de connaissances existant. Le cerveau le fait très bien.
Il réalise ce processus pendant le sommeil, notamment lors du sommeil paradoxal (REM sleep), en rejouant ses expériences importantes pour apprendre. Notre premier programme Atari, DQN (DeepMind, 2013), qui a utilisé pour la première fois l’apprentissage par renforcement profond pour atteindre le niveau humain sur Atari, s’appuyait notamment sur la technique de la mémoire d’expérience (experience replay).
Ce que nous avons appris de la neuroscience, c’est de rejouer en boucle les chemins qui ont réussi. C’était en 2013, une époque ancienne en IA, mais c’était crucial à l’époque.
Je suis d’accord avec toi, on fait effectivement du bricolage. On met tout dans la fenêtre de contexte. Ça ne paraît pas très propre. Même si on construit une machine, pas un cerveau biologique, en théorie, on pourrait avoir une fenêtre de contexte de millions ou dizaines de millions de tokens, et une mémoire parfaite, mais la recherche et la récupération restent coûteuses. En situation de décision immédiate, trouver l’information vraiment pertinente n’est pas simple, même si on peut tout stocker. Je pense qu’il y a encore beaucoup d’innovation possible dans le domaine de la mémoire.
Gary Tan : Franchement, une fenêtre de contexte de 1 million de tokens dépasse déjà mes attentes, ça permet beaucoup de choses.
Demis Hassabis : Pour la majorité des cas d’usage, c’est suffisant. Mais réfléchis : la fenêtre de contexte, c’est à peu près la mémoire de travail. La mémoire de travail humaine ne comporte en moyenne que sept chiffres, alors que nous disposons d’une fenêtre de contexte de millions, voire dizaines de millions de tokens. Le problème, c’est que nous y mettons tout, y compris des informations non importantes ou erronées, ce qui est une approche assez brutale. Et si tu veux traiter un flux vidéo en temps réel, en enregistrant tous les tokens, un million ne suffirait que pour environ 20 minutes. Mais si tu veux que le système comprenne ta vie sur un ou deux mois, c’est encore très insuffisant.
Gary Tan : DeepMind a toujours misé sur l’apprentissage par renforcement et la recherche. Cette philosophie est-elle profondément intégrée dans la construction de Gemini ? L’apprentissage par renforcement est-il encore sous-estimé ?
Demis Hassabis : Peut-être, oui. La popularité de cette approche a connu des hauts et des bas. Depuis la création de DeepMind, nous travaillons sur les systèmes d’agents. Tout le travail sur Atari et AlphaGo, en fait, appartient à cette catégorie. Ce sont des systèmes d’agents capables d’atteindre des objectifs, de prendre des décisions, de planifier de façon autonome. Au début, nous nous concentrions sur les jeux, parce que la complexité était maîtrisable, puis nous avons progressé vers des jeux plus complexes, comme AlphaGo, puis AlphaStar. En gros, nous avons exploré tous les jeux possibles.
La question suivante est : peut-on généraliser ces modèles en modèles du monde ou en modèles de langage, et pas seulement en modèles de jeux ? Nous travaillons là-dessus depuis plusieurs années. Aujourd’hui, la façon dont les modèles de pointe pensent et raisonnent, c’est en gros la réintroduction de ce que AlphaGo a initié.
Je pense que beaucoup de nos travaux passés sont très liés à ce que nous faisons aujourd’hui. Nous réexaminons ces idées anciennes, en utilisant des échelles plus grandes, de façon plus générale, avec des méthodes comme la recherche par Monte Carlo (Monte Carlo tree search) et d’autres techniques d’apprentissage par renforcement. Les idées d’AlphaGo et d’AlphaZero sont très proches des modèles fondamentaux d’aujourd’hui, et je pense que beaucoup de progrès dans les années à venir viendront de là.
Distillation et petits modèles
Gary Tan : Aujourd’hui, pour devenir plus intelligent, il faut des modèles plus grands, mais la distillation progresse aussi, et les petits modèles deviennent très rapides. Vos modèles Flash sont très puissants, ils atteignent environ 95 % des performances des modèles de pointe, pour seulement un dixième du coût. C’est ça ?
Demis Hassabis : Je pense que c’est l’un de nos principaux atouts. Il faut d’abord construire le plus grand modèle pour atteindre la pointe, puis on peut rapidement distiller ses capacités dans des modèles de plus en plus petits. La distillation, c’est une technique que nous avons inventée, et que nous maîtrisons toujours. Nous avons aussi une forte motivation commerciale pour cela. Nous sommes probablement la plus grande plateforme d’applications IA au monde.
Avec AI Overviews, AI Mode, et Gemini, chaque produit de Google, y compris Maps, YouTube, etc., intègre Gemini ou des technologies associées. Cela concerne des milliards d’utilisateurs, et des dizaines de produits à plusieurs milliards d’utilisateurs. Ils doivent être extrêmement rapides, efficaces, peu coûteux, avec une latence minimale. Cela nous pousse à optimiser à fond nos modèles Flash et Flash-Lite, pour qu’ils soient très performants, et qu’ils servent aussi bien aux utilisateurs dans toutes leurs activités.
Gary Tan : Je suis curieux de savoir jusqu’où ces petits modèles peuvent aller. La distillation a-t-elle une limite ? Un modèle de 50 milliards ou 400 milliards de paramètres peut-il être aussi intelligent que les modèles de pointe actuels ?
Demis Hassabis : Je ne pense pas que nous ayons encore atteint la limite théorique de l’information, du moins personne ne le sait encore. Peut-être qu’un jour, on rencontrera un plafond en densité d’information, mais pour l’instant, notre hypothèse est qu’un modèle Pro de pointe, publié aujourd’hui, pourra être compressé en un modèle très petit, capable de fonctionner sur des appareils en périphérie, dans six mois à un an.
Vous pouvez voir cela aussi avec Gemma, notre modèle Gemma 4, qui performe très bien à la même échelle. Tout cela repose sur de nombreuses techniques de distillation et d’optimisation de l’efficacité des petits modèles. Je ne vois pas de limite théorique à ce stade, et je pense que nous sommes encore très loin de cette limite.
Gary Tan : Aujourd’hui, il y a un phénomène incroyable : la quantité de travail que peuvent faire les ingénieurs a été multipliée par 500 à 1000 par rapport à il y a six mois. Certains ici réalisent probablement un travail équivalent à celui d’un ingénieur de Google dans les années 2000, multiplié par mille. Steve Yegge en a parlé.
Demis Hassabis : Je trouve ça passionnant. Les petits modèles ont de nombreuses applications. Leur faible coût et leur rapidité apportent aussi des bénéfices. En codant ou en accomplissant d’autres tâches, on peut itérer plus vite, surtout en collaboration avec ces systèmes. Un système rapide, même pas tout à fait à la pointe, disons à 90-95 %, suffit largement, et la vitesse d’itération compense largement cette petite différence.
Un autre axe majeur, c’est de faire tourner ces modèles sur des appareils en périphérie, non seulement pour l’efficacité, mais aussi pour la confidentialité et la sécurité. Imagine tous ces appareils traitant des données très personnelles, ou des robots domestiques. Tu voudrais que ton robot chez toi fasse tourner un modèle puissant localement, et n’envoie que ce qui est nécessaire vers le cloud. Tout le traitement audio et vidéo en local, les données restent chez toi. Je peux imaginer que ce sera la situation ultime.
Mémoire et raisonnement
Gary Tan : Revenons à la mémoire et au contexte. Les modèles sont actuellement sans état. Si on leur donne la capacité d’apprentissage continu, à quoi ressemblerait l’expérience utilisateur ? Comment les guider ?
Demis Hassabis : C’est une question très intéressante. Le manque d’apprentissage continu est une limite majeure pour les agents actuels. Ils sont utiles pour des tâches partielles, mais ne peuvent pas s’adapter à leur environnement spécifique. C’est pourquoi ils ne peuvent pas « lancer et oublier » : ils doivent apprendre leur contexte précis. Pour une intelligence vraiment générale