Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Forum Zhongguancun | Quoi de neuf avec les figures de proue de l'IA Yang Zhilin, Zhang Peng, Xia Lixue, Luo Fuli ?
Le journaliste de , Li Jing, Pékin rapporte
Le 27 mars, lors de la Conférence annuelle du Forum Zhongguancun 2026, des talents de premier plan venus du secteur des grands modèles chinois et des infrastructures d’IA se sont rassemblés dans un forum de table ronde.
Cette table ronde était animée par Yang Zhilin, fondateur de Mian zhi an mi, avec Zhang Peng, PDG de Zhipu Huazhang, Xia Lixue, cofondateur et PDG de Wu Wen Qiong, Luo Fuli, responsable des grands modèles MiMo chez Xiaomi, ainsi que Huang Chao, professeur adjoint à l’Université de Hong Kong, directeur de thèse (doctorat) et responsable de l’équipe Nanobot.
Le journaliste du « China Business News » a remarqué que, dans les échanges de ces talents techniques issus de l’industrie de l’IA, il n’y a pas eu de formules de politesse ; les sujets ont couvert tout, des gigantesques secousses provoquées par la « Langouste (OpenClaw) », aux remous dans l’écosystème open source ; de l’anxiété face à l’explosion des coûts de raisonnement, à la refonte de la puissance de calcul à l’ère des Agents.
Au cours de ce choc d’idées, ils ont non seulement dévoilé la voie d’évolution des grands modèles sur les 12 prochains mois, du « bavardage » vers le « travail », mais aussi posé cette question qui excite autant qu’elle angoisse tout le monde : lorsque la consommation de Tokens va exploser par cent fois, sommes-nous prêts ?
Parlons de la « Langouste » : les Agents redéfinissent l’interaction homme-machine
Au début de la table ronde, le sujet s’est concentré sur la « Langouste » qui a récemment fait la une. Ce n’est pas seulement une mise à jour produit : on la voit aussi comme une ligne de séparation, un tournant, pour les applications dans l’industrie de l’IA.
Pour cette vague d’Agents, Zhang Peng estime que le cœur du changement consiste à faire évoluer l’IA, de « simples conversations » vers un « travail réellement effectué ».
Il a souligné que la « Langouste » impose des exigences extrêmement élevées aux capacités du modèle : le modèle doit être capable de réfléchir et de planifier sur une longue durée, et de gérer des volumes massifs de contexte. Cela a aussi directement conduit à la stratégie d’ajustement des prix des modèles de raisonnement GLM récemment mise en œuvre par Zhipu.
« Parce que faire des tâches complexes implique une hausse exponentielle des coûts de raisonnement, et revenir à la logique normale de la valeur commerciale est une voie incontournable pour un développement sain de l’industrie. » a répondu Zhang Peng.
Xia Lixue a révélé qu’en l’espace de ces deux semaines, depuis le début de cette année, l’engouement pour la « Langouste » a fait presque doubler le volume de Tokens traité par son entreprise ; la croissance cumulée atteint 10 fois. Le même rythme d’explosion ne s’était observé auparavant qu’à l’époque de la généralisation de la 3G et des forfaits data.
Xia Lixue pense que les infrastructures cloud passées étaient conçues pour « les ingénieurs humains », alors que l’ère des Agents requiert des infrastructures conçues pour « l’IA ». Il a même utilisé une comparaison entre « au niveau des minutes » et « au niveau des millisecondes » pour illustrer ce décalage : pour les humains, démarrer une tâche se fait à l’échelle des minutes, tandis que la réflexion de l’Agent et le déclenchement de la tâche se font à l’échelle des millisecondes.
« Par conséquent, les infrastructures futures doivent être aussi efficaces qu’une usine à Tokens, voire évoluer vers un agent capable de s’auto-optimiser et de s’auto-itérer. » a prédit Xia Lixue.
Luo Fuli estime que la valeur maximale d’OpenClaw réside dans le « open source », ce qui favorise une participation en profondeur de la communauté. Il repousse très haut la limite des modèles fermés de niveau « quasi-top » en Chine : dans la grande majorité des scénarios, le taux d’achèvement des tâches est déjà très proche du modèle le plus récent ; en même temps, il garantit un socle via le système Skill. Par ailleurs, l’open source a aussi enflammé l’enthousiasme de la communauté pour explorer, au-delà des grands modèles, des couches d’Agents, en attirant davantage de personnes non issues de la recherche à participer à la transformation vers l’AGI.
Huang Chao a ajouté qu’avec une interaction de type logiciel de messagerie instantanée, OpenClaw donne aux agents une présence plus forte et plus « humaine », tout en abaissant le seuil de création et d’utilisation des Agents. À l’avenir, il est également possible que cela ouvre la voie à un levier sur l’écosystème complet des outils.
Les défis de la puissance de calcul et des coûts
À mesure que l’IA passe de l’ère de l’entraînement à celle du raisonnement, l’itération des technologies de modèles, le retour de la valeur commerciale et la construction d’infrastructures de puissance de calcul deviennent des sujets clés pour le développement du secteur.
Yang Zhilin compare l’open source à « un échafaudage », estimant qu’il réduit la barrière pour que des personnes ordinaires puissent utiliser des capacités de modèles de pointe, et que l’IA n’est plus un privilège des seuls programmeurs. Mais il a aussi admis que la communauté open source fait actuellement face à un immense manque de puissance de calcul pour le raisonnement.
La « crainte de la puissance de calcul » a été mentionnée à maintes reprises pendant la discussion en table ronde. Zhang Peng a reconnu que, en raison de l’augmentation de la complexité des tâches, le nombre d’appels nécessaires pour accomplir une tâche peut être dix fois, voire cent fois, celui des questions-réponses simples ; la puissance de calcul devient alors le goulot d’étranglement qui limite le développement de l’industrie.
Xia Lixue a indiqué que le problème actuel réside dans le besoin explosif provoqué par l’IA, qui exige d’optimiser l’efficacité des systèmes. « Nous résolvons cela en reliant logiciels et matériel : nous avons intégré presque tous les types de puces de calcul, connecté des dizaines de puces et de grappes de puissance de calcul en Chine, amélioré l’efficacité de conversion, et transformé la Chine en une usine à Tokens du monde. »
Il a aussi décrit une vision grandiose : « AI Made in China », c’est-à-dire utiliser les avantages énergétiques et industriels de la Chine, convertir l’énergie en sortie de Tokens de qualité vers le monde grâce à des infrastructures efficaces.
Cependant, les infrastructures cloud existantes limitent le développement des Agents ; il faut créer des infrastructures d’IA plus intelligentes, capables de s’adapter à des besoins à haute fréquence des Agents. « À notre avis, l’infrastructure elle-même devrait aussi être un agent : capable de s’auto-optimiser, de s’auto-itérer, et de former une organisation autonome. » a ajouté Xia Lixue.
Luo Fuli a souligné qu’il y a deux ans, alors que les équipes chinoises étaient limitées en puissance de calcul, notamment à cause de limitations de bande passante sur l’interconnexion, elles ont fait une percée dans la structure du modèle (par exemple DeepSeek).
« Même si les puces nationales ne sont plus limitées aujourd’hui, cette exploration d’une efficacité élevée et de coûts de raisonnement faibles reste importante. » a déclaré Luo Fuli. « La condition pour qu’OpenClaw devienne de plus en plus intelligent à mesure qu’on l’utilise, c’est le contexte de raisonnement. Le vrai défi maintenant est : comment, dans un long contexte de 1M ou 10M, obtenir un coût suffisamment bas et une vitesse suffisamment rapide ? “Ce n’est qu’en réalisant un raisonnement efficace sur Long Context (long contexte) que l’on pourra soutenir la capacité d’auto-itération des Agents dans des environnements complexes ; ce sera le champ de bataille clé de la compétition à venir.” »
Et Luo Fuli a également prédit que, avec l’explosion des besoins de raisonnement apportés par les Agents, la demande de Tokens pourrait augmenter jusqu’à 100 fois cette année. Les dimensions de la concurrence descendront alors vers la puissance de calcul, les puces de raisonnement, voire le niveau de l’énergie.
Huang Chao estime qu’en matière de Memory, les Agents d’aujourd’hui ont encore des problèmes : compression de l’information inexacte et incapacité à s’en souvenir correctement. Dans les tâches longues et les scénarios complexes, la Memory explosera et générera une forte pression. « Je pense que la Memory à l’avenir devrait aller vers une conception en couches, afin que la Memory soit plus universelle. »
Envisager les 12 prochains mois
Si l’on devait décrire la tendance du développement des grands modèles au cours des douze prochains mois avec un seul mot, lequel choisiriez-vous ?
Le mot-clé de Huang Chao est « écosystème ». Il prévoit que, à l’avenir, les logiciels pourront être conçus nativement pour des Agents ; l’ensemble de la pile technologique devra évoluer vers le mode « Agent Native ». Cela nécessite que la communauté open source, les développeurs de modèles et les éditeurs d’applications construisent ensemble, afin que les Agents se déposent réellement en tant que « collègues numériques » (Co-worker) fiables, et pas seulement comme des « choses nouvelles amusantes ».
Le mot-clé de Luo Fuli est « auto-évolution ». Elle estime que le puissant cadre d’Agents active les plafonds du grand modèle qui n’avaient jamais été touchés auparavant. Dans des boucles vérifiables, le modèle est déjà capable d’optimiser de manière autonome l’objectif pendant plusieurs jours ; par exemple, en recherche scientifique, il explore des structures de modèles plus performantes. Elle s’attend à ce que cette capacité d’« auto-organisation/auto- évolution » améliore, d’ici 1 à 2 ans, l’efficacité de travaux créatifs comme la recherche scientifique, de plusieurs ordres de grandeur.
Le mot-clé de Xia Lixue est « tokens durables ». Selon lui, l’ensemble du développement de l’IA se trouve encore dans un processus de progression sur le long terme ; mais un problème très concret est que les ressources sont finalement limitées.
« Pouvoir fournir des tokens de manière continue, stable et à grande échelle, pour que les modèles de pointe puissent vraiment servir durablement davantage de scénarios en aval : c’est une question extrêmement clé. » Pour Xia Lixue, si l’on peut convertir durablement, via l’usine à Tokens, les avantages de la Chine dans des domaines comme l’énergie en Tokens de qualité, puis les exporter vers le monde, alors la Chine a une chance de devenir la « Token factory » du monde.
Le mot-clé choisi par Zhang Peng est « puissance de calcul ». Le cadre des agents libère effectivement la créativité de beaucoup de gens, et l’efficacité pourrait aussi augmenter jusqu’à dix fois, mais à condition que tout le monde puisse se payer, et puisse réellement s’en servir.
« Il y a deux ans, l’académicien Zhang Yaqin a dit à la Conférence du Zhongguancun un slogan qui revient à dire : “Sans carte/puce, pas de sentiments ; parler de carte/puce blesse les sentiments”. Je pense qu’aujourd’hui, on revient un peu à cet état. » a déclaré Zhang Peng.
(Rédaction : Zhang Jingchao ; Révision : Li Zhenghao ; Correction : Yan Jingning)
Informations en quantité énorme, analyses précises : le tout sur l’application Sina Finance