Dans un monde où le cerveau humain et l'IA coexistent, à quoi ressemblera l'éducation ?

Au IVe siècle avant J.-C., Platon, dans le Phèdre, a consigné l’avertissement de Socrate : les mots feraient en sorte que les gens « ne se souviennent plus de l’intérieur, mais dépendent de signes extérieurs », et finiraient par « oublier la vérité, pour ne retenir que l’image des mots ».

Au XVe siècle, le supérieur d’un monastère allemand, Trithemius, s’en est pris à l’imprimerie dans Notes sur les scribes : « Nous allons perdre l’entraînement de la mémoire, devenir paresseux et vides. »

En 2008, The Atlantic a publié « Google rend-il les gens moins intelligents ? » : « Nous sommes en train de perdre notre capacité à lire en profondeur et à rester durablement concentrés. »

En 2026, dans un groupe de parents d’un collège à Pékin, une mère pose une question au milieu de la nuit : « Mon enfant a terminé son devoir d’anglais en cinq minutes avec l’IA. Que dois-je faire ? »

De l’écriture à l’imprimerie, d’Internet à l’IA : quatre époques, la même inquiétude.

Il est évident que les trois premières inquiétudes ont déjà été réfutées de manière convaincante par l’histoire. L’écriture, l’imprimerie et Internet sont des outils qui augmentent uniquement l’efficacité de la diffusion des connaissances : non seulement ils n’affaiblissent pas la capacité d’apprentissage des êtres humains, mais ils améliorent au contraire énormément l’efficacité de l’apprentissage, au point même de faire progresser l’ensemble de la civilisation humaine en tant qu’élément clé.

Mais cette fois, la situation est un peu différente.

Ce que l’IA optimise n’est pas seulement le médium par lequel les humains touchent les connaissances : elle remplace entièrement tout le processus par lequel les humains mémorisent, raisonnent, voire résolvent des problèmes et produisent des résultats. En une nuit, tous les parents et enseignants se trouvent plongés dans une anxiété profonde : l’IA est devenue le plus haut niveau d’outil de triche.

Auparavant, la professeure Li Fei-Fei de l’université Stanford, lors d’une conversation avec TechCrunch (conversation exclusive de Zhao Hejuan avec Li Fei-Fei : « Je crois en l’être humain, pas en l’IA »), avait déjà mentionné : « L’IA est en train de prouver rapidement que beaucoup de choses peuvent être faites par des machines. Faire ensuite perdre dix ans, voire des dizaines d’années à des personnes pour apprendre à faire des choses que les machines peuvent déjà faire, c’est un énorme gaspillage pour l’humanité. Les gens devraient s’appuyer sur le temps et l’énergie libérés par l’IA pour se tourner vers le développement de capacités qu’une IA ne peut pas remplacer : la capacité cognitive, la créativité, l’empathie, et les compétences fondamentales pour “bien vivre en tant qu’être humain”. »

Et avec l’apparition d’OpenClaw, le calendrier de l’avènement d’un monde de symbiose homme-IA a même été avancé de plusieurs années. Si l’inévitable, c’est la cohabitation homme-machine, alors nous n’avons effectivement aucune raison de nous acharner à protéger des capacités que l’IA remplacera forcément à l’avenir. C’est pourquoi nous pouvons sauter l’inquiétude à court terme du type « l’IA est-elle un outil de triche ou un assistant d’apprentissage ? », pour discuter d’une question plus fondamentale :

Quand l’Agent deviendra un composant indispensable pour les futurs humains, de quel type de mise à niveau le « système de capacités » de l’être humain lui-même devra-t-il faire l’objet ? Comment le gigantesque socle d’infrastructure sociale qu’est le système éducatif doit-il être reconstruit ? Et dans le système éducatif reconstruit, quelles nouvelles opportunités existent encore ?

Quelles sont les capacités de base pour poser de bonnes questions ?

Dans le futur, la mesure des capacités d’une personne ne sera plus « ce qu’elle accomplit seule », mais « la valeur unique qu’elle apporte en collaboration avec un Agent ». Ce n’est pas simplement une relation entre « un humain » et « un outil », mais un transfert des capacités fondamentales au cœur de l’humain.

Le fondateur qui se consacre depuis longtemps à « l’apprentissage en coopération homme-machine », Li Kejia, propose un « modèle 90/10 » : l’humain devrait confier à l’Agent 90 % des tâches comme le transport d’informations, leur tri et leur pré-sélection ; tandis que les 10 % restants — poser des questions, juger et décider — doivent être faits par l’humain.

Dans la logique traditionnelle de l’éducation, la quantité de connaissances stockées est le premier indicateur permettant de mesurer l’élève. Mais à l’ère des Agents, cette logique est en train de s’effondrer. Lorsque l’IA peut accéder en quelques fractions de seconde à l’ensemble de la base de connaissances de la civilisation humaine, « être érudit » n’est plus une capacité rare, et « la réponse » devient progressivement moins importante : tout le monde dit que « la capacité à poser de bonnes questions » devient extrêmement précieuse. Pourtant, peu de gens demandent encore : quelle est exactement, au niveau le plus profond, la capacité qui permet de poser de bonnes questions ?

Le cofondateur et président d’Onion Garden, Yang Linfeng, a une réflexion particulière sur cette question : il pense que cette capacité est enracinée dans une structure de connaissances « en ossature ». « En réalité, les personnes qui apprennent vraiment les connaissances en profondeur ne font pas que mémoriser par cœur les points de connaissance. Nous avions une habitude : noter mot à mot les petits détails que le professeur expliquait, y compris des contenus qui ne seraient pas évalués. Par exemple, en cours de biologie on parlait des abeilles : je comprenais entièrement les différences entre l’abeille ouvrière, la reine et le mâle, ainsi que la répartition des rôles. Même si ça ne tombait pas à l’examen, comme tu mémorises un champ plus vaste, les connaissances entre elles se connectent, et alors tu ne finiras pas par oublier facilement tous les points de connaissance de ce système. C’est la force du cadre produit par l’apprentissage systématique. »

La valeur de « mémoriser des points de connaissance » est certes en train de changer, mais elle ne devient pas pour autant inutile : il faut mémoriser, mais passer de points de connaissance isolés à des façons de connecter les connaissances. Comme construire une maison : l’IA peut fournir briques et matériaux, mais dans la tête de l’élève, il faut qu’existe sa propre structure architecturale. On ne peut pas poser de bonnes questions sur un domaine totalement inconnu ; et « poser de bonnes questions » en tant que telle dépend d’une ossature de connaissances.

« La valeur de l’apprentissage systématique réside dans le fait qu’il construit un échafaudage cognitif. Grâce à cet échafaudage, quand les élèves apprennent avec l’IA, ils savent alors ce qui leur manque et ce qu’ils doivent compléter. S’il n’y a pas de système, les “explications de l’IA” ressemblent à ramasser des coquillages sur une plage : tu en ramasses beaucoup, mais tu n’arrives pas à recomposer un tableau complet. » Yang Linfeng ajoute : « À mon avis, l’avenir de l’apprentissage sera un état où l’apprentissage systématique et les explications de l’IA coexistent : “d’abord l’ossature, puis on remplit de chair”. L’apprentissage systématique sert de base, et l’Agent t’aide à appeler et étendre les connaissances de façon flexible dans des scénarios concrets. »

Cette idée est également largement reconnue dans l’industrie. Li Kejia estime aussi : « La valeur de la mémoire n’est plus “le stockage”, mais fournir au cerveau une “structure pour y déposer les réponses”. Ce que la capacité de cadre apporte, c’est une perception aiguë des lacunes en information : l’élève ne peut envisager de poser de bonnes questions que lorsqu’il voit clairement ce qui manque. Et ce n’est que lorsqu’un élève a vu suffisamment de cadres qu’il peut développer la capacité de décomposer un récit macro en propositions vérifiables. »

Comment avoir un « bon sens esthétique » ?

Quand un Agent peut générer en quelques secondes dix versions de propositions, la valeur centrale de l’humain devient « choisir une réponse parmi beaucoup d’alternatives ». Beaucoup appellent cette capacité « un bon sens esthétique » ; à Hong Kong, le professeur Hu Xuming de l’université des sciences et technologies l’appelle « capacité d’appréciation ». Que l’on parle de « sens esthétique » ou de « capacité d’appréciation », cela ressemble toujours à une compétence difficile à transmettre concrètement.

Un investisseur chevronné sur la filière en éducation, Jiang Feng (nom de plume), nous a dit : « La nature de la capacité d’appréciation repose sur deux capacités : d’une part remettre en question, d’autre part évaluer la valeur. »

Le plus dangereux avec l’IA n’est pas de se tromper : c’est de rester plein de confiance même quand on se trompe. Les êtres humains ont une paresse innée : quand l’IA donne une réponse, la première réaction de la plupart des gens est d’accepter, pas de questionner. Les preuves en neurosciences montrent que : l’acceptation passive de la sortie de l’IA déclenche une inhibition à long terme (LTD) et affaiblit la force des synapses ; tandis que questionner activement, améliorer et créer en collaboration favorise un renforcement à long terme (LTP), ce qui améliore réellement les capacités d’apprentissage.

Le professeur Li Fei-Fei a aussi mentionné dans une interview : « L’IA ne devrait pas être une “machine à répondre”, mais un outil de “dialogue à la Socrate”. Socrate ne donne jamais directement les réponses : il pose des questions, te force à comprendre toi-même ce que tu veux vraiment. Et la nature de la capacité à relancer, c’est de développer un réflexe naturel de remise en question face aux réponses faisant autorité. »

Dans la pratique de l’enseignement, Yang Linfeng a commencé très tôt à organiser le développement des capacités de questionnement et de relance chez les élèves. « L’accompagnant intelligent d’IA d’Onion Garden ne pense pas à la place de l’élève : il guide l’élève à examiner la chaîne de raisonnement de l’IA à travers des relances de type socratique, il l’aide à décomposer les problèmes et à construire la logique. »

Et une autre capacité fondamentale mentionnée par Jiang Feng — le jugement de valeur — peut elle aussi être renforcée par l’entraînement.

Le concept de « décideur final » proposé par le professeur Li Jianchao de l’université polytechnique de Hong Kong vise l’essence de la capacité de jugement de valeur : quand l’IA peut générer un nombre infini de solutions, les humains doivent établir leur propre système d’axes de valeur. D’après ce qui est connu, dans la pratique pédagogique, la polytechnique de Hong Kong encourage non seulement les étudiants à utiliser activement l’IA dans leurs devoirs, mais exige aussi qu’ils puissent exprimer indépendamment le processus de collaboration avec l’IA, ainsi que la logique de jugement à chaque choix.

Reconstruire le contenu d’enseignement et le système d’évaluation

Dans l’entretien, le professeur Li Fei-Fei a aussi lancé un appel public : « Dans l’enseignement moderne, si l’on continue encore d’utiliser des méthodes de plus de 100 ans pour mettre l’accent sur les réponses standard et le bourrage de connaissances, cela retardera sérieusement l’époque. Ceux qui pensent l’éducation, ceux qui peuvent influencer les politiques éducatives, et ceux qui exécutent l’éducation, devraient saisir cette opportunité de l’époque et la saisir vraiment. »

Il est vrai que les exigences de l’époque envers les capacités humaines ont changé : notre système de cours, notre système d’évaluation, et même la position de chaque rôle dans l’écosystème éducatif, devraient également évoluer.

Et en réalité, ce changement est déjà en train de se produire.

En février 2026, le ministère de l’Éducation a tenu une réunion nationale de déploiement des priorités pour l’éducation de base. Il a clairement proposé de « faire entrer l’intelligence artificielle dans les standards de cours du primaire et du secondaire, l’enseignement quotidien et l’évaluation des examens ». Depuis l’automne 2025, Pékin et Shanghai ont déjà intégré des cours d’éducation générale sur l’IA dans le système de cours du primaire et du secondaire : l’IA n’est plus un « cours optionnel de loisirs », mais un contenu obligatoire comme le chinois, les mathématiques.

Pour l’éducation des adultes, en mars 2026, l’Université de Communication de Chine a annoncé la suppression de 16 spécialités de licence telles que la traduction, la photographie, etc. La plupart de ces spécialités présentent des caractéristiques « très procédurales, peu de créativité, et un coût de remplacement par l’IA relativement faible ». Par ailleurs, en 2024, l’Université Tsinghua a créé une nouvelle école/Institut d’intelligence artificielle, et a attribué à chaque nouvel étudiant un assistant de croissance par l’IA ; l’Université de Zhejiang a aussi, dès 2024, intégré les cours d’IA comme matière de culture générale obligatoire dans son cursus de licence.

Cette série de changements montre deux tendances de l’impact de l’IA sur le contenu éducatif : d’un côté la refonte des disciplines traditionnelles, de l’autre le développement des compétences en culture IA.

Quand l’IA rend le coding accessible aux étudiants de filière littéraire, et aide aussi les étudiants scientifiques à ressentir plus justement la beauté des textes et des arts, cela efface la frontière entre filière technique et filière littéraire. Récemment, Tsinghua a même ouvert un cours de programmation en langage naturel destiné aux étudiants en filière littéraire : la frontière entre technique et littéraire devient effectivement de plus en plus floue. Mais pour davantage de matières de base, comme le chinois, les mathématiques, la physique, la chimie, quel impact cela aura-t-il ? La séparation traditionnelle par spécialités est-elle encore nécessaire ? Si elle ne l’est pas, à quoi ressemblera l’éducation de base ?

« La séparation traditionnelle par disciplines reste importante. Chaque discipline a sa propre manière de penser : les mathématiques enseignent la logique, la physique parle des causes et des effets, et le chinois parle de la compréhension et de l’expression. Ces manières de penser sont des cadres cognitifs formés par un entraînement long — c’est aussi la capacité clé pour “poser de bonnes questions” dont nous avons parlé plus tôt. Une personne sans pensée mathématique, même avec l’aide d’un Agent, ne pourra pas faire une analyse quantitative complexe. » nous a déclaré Yang Linfeng.

« Le changement, c’est que les “murs” entre disciplines vont devenir plus fins. Avant, on enseignait les disciplines séparément parce que le volume des connaissances était trop grand : sans séparation, les étudiants ne pourraient pas les contenir. Maintenant, l’IA peut intégrer l’information de manière transdisciplinaire à tout moment ; alors notre conception des cours peut être plus audacieuse. Par exemple, centrer l’ensemble sur un “thème” ou un “problème réel”, en reliant les connaissances de plusieurs disciplines. Cela correspond à la logique sous-jacente du “grand module” que le nouveau programme scolaire préconisait quand nous développions des cours il y a plus de dix ans. »

En parlant des cours de culture IA qui traversent aujourd’hui tout le système éducatif, Jiang Feng estime que ce n’est qu’un produit temporaire. « Comme le cours de micro-ordinateurs dans les années 90 : il fallait l’ouvrir séparément dans le système éducatif, seulement parce que c’était trop nouveau et que la diffusion n’était pas encore suffisante. »

Li Kejia partage le même point de vue : il pense que la formation à la culture IA devrait s’infiltrer dans tous les cours, parce que cette matière n’est pas, fondamentalement, « une connaissance sur l’IA », mais « une capacité développée en collaboration avec l’IA ».

« Nous sommes déjà en train d’enseigner aux élèves “comment utiliser un Agent”. » Yang Linfeng ajoute : « Mais ce n’est pas un enseignement direct “apprenez aux élèves à utiliser l’IA”. Nous concevons l’IA comme un compagnon intelligent, intégré dans le processus d’apprentissage. Tant que les élèves apprennent normalement les mathématiques et la physique, l’Agent est à côté pour expliquer les concepts, guider la réflexion et planifier les parcours. Au cours de l’apprentissage normal, les élèves construisent naturellement la capacité de collaboration avec l’IA. »

Avec le changement du contenu et des méthodes d’enseignement, les modalités d’évaluation et l’ensemble du système d’évaluation sont aussi confrontés à une révolution. Les examens traditionnels à huis clos sont en train de perdre leur sens, car ils mesurent une capacité qui sera entièrement remplacée par l’IA : la mémorisation.

En fait, la vague de réforme des examens est déjà en marche.

Début 2025, l’examen final de mathématiques de quatrième année du district Nanshan à Shenzhen a suscité beaucoup de discussions : l’épreuve contenait de nombreuses questions avec de longs textes. Ces questions se concentraient sur des problèmes réels de la vie ; à cause d’une charge de lecture trop importante, les élèves avaient du mal à terminer. Les autorités éducatives ont même informé temporairement de prolonger le temps d’examen de 20 minutes. Cet événement peut sembler ne pas avoir de lien avec l’IA, mais il reflète une tendance : à l’avenir, les examens auront davantage tendance à évaluer la capacité à résoudre des problèmes réels en mobilisant la pensée disciplinaire, plutôt que le nombre de choses que tu as mémorisées.

Dans le même sens, tout le système d’évaluation éducative passera de « l’évaluation du résultat » à « l’évaluation du processus ». Un élève utilise un Agent pour écrire un essai : mais a-t-il la capacité d’évaluer si cet essai est bon, peut-il l’améliorer davantage, peut-il repérer où la logique ne fonctionne pas ? Ces capacités de processus seront probablement des aspects auxquels le futur système d’évaluation accordera davantage d’attention.

Le changement du rôle des enseignants

La révolution du contenu pédagogique et du système d’évaluation retombe directement sur le rôle le plus évident : le professeur.

Lors du forum Chongli en 2026, Yu Minhong, fondateur de New Oriental, a porté un jugement tranchant : « L’IA + l’éducation a très probablement le potentiel de supprimer un grand nombre de postes d’enseignants. Selon les nouvelles normes, pour être honnête, une bonne partie des professeurs du primaire et du secondaire en Chine ne sont pas qualifiés. »

Quelles sont ces nouvelles normes ? Ce ne sont pas des critères où il faut être plus familier avec les points d’examen, ni mieux parier sur les sujets. Quand l’IA peut corriger les devoirs, entraîner la parole à l’oral, et copier les cours des meilleurs professeurs dans n’importe quel coin, ce qui est remplacé n’est pas le métier d’enseignant, mais la fonction d’« artisan du cours » associée à l’enseignant.

En mai 2025, le Comité de pilotage pédagogique de l’éducation de base du ministère de l’Éducation a publié « Guide d’utilisation de l’intelligence artificielle générative pour les élèves du primaire et du secondaire », qui clarifie la limite du rôle de l’IA en classe : l’enseignant ne doit pas utiliser l’IA générative comme sujet principal de substitution à l’enseignement ; il est interdit d’utiliser directement l’IA pour répondre aux questions des élèves ; et en même temps, il est exigé que les enseignants participent activement à une formation professionnelle afin d’améliorer leurs compétences en intelligence artificielle. Il y a trois informations clés, et elles reflètent précisément les trois lignes rouges fondamentales du rôle de l’enseignant :

Le sujet principal doit être l’humain ;

Il ne faut pas habituer les élèves à obtenir directement des réponses via l’IA ;

Les enseignants doivent eux-mêmes maîtriser l’utilisation de l’IA.

« Le changement le plus concret du rôle de l’enseignant, c’est de passer de la transmission de connaissances à l’entraînement par la question », a déclaré Li Kejia, « arrêter d’être un simple convoyeur de connaissances, et revenir à la capacité la plus précieuse : poser des questions, être le forgeron des capacités des élèves à poser des questions. À l’époque où l’IA peut répondre à tout, l’enseignant capable de faire apprendre aux élèves “comment relancer” est un enseignant extrêmement rare. »

Onion Garden, qui compte 4 millions d’utilisateurs enseignants, comprend également profondément ce changement de rôle. « Quand nous travaillons avec des écoles, nous constatons que les enseignants ne sont pas remplacés par la technologie : ils sont plutôt rendus plus puissants par la technologie. Nous avons toujours déployé un nouveau modèle de cours par IA dans les écoles : l’IA n’assume qu’une partie des fonctions de base comme l’explication et le retour d’entraînement ; les enseignants, eux, consacrent leur énergie à organiser des discussions, diagnostiquer les difficultés des élèves et apporter un soutien émotionnel, des choses plus importantes pour façonner les capacités. »

D’un convoyeur de connaissances à un forgeron des capacités : au sein de ce changement, il existe aussi une responsabilité encore plus clé — le superviseur de l’IA. « Il ne s’agit pas de superviser si l’IA commet des erreurs ; il s’agit de superviser si tout le processus d’apprentissage est réellement efficace pour chaque élève. » insiste Yang Linfeng. « Dans tout le processus éducatif, l’enseignant doit aussi faire des choix concernant les solutions proposées par l’IA pour aider les élèves, et porter des jugements. »

Nouvelles opportunités pour le secteur de l’éducation

La transformation imminente du système éducatif ouvre aussi un nouvel espace d’imagination considérable pour les entreprises de la filière éducation.

Jiang Feng pense que la vague de l’IA crée trois nouvelles opportunités pour les entreprises de l’éducation :

La première concerne la conception de contenus pédagogiques de qualité. L’opinion générale du secteur est que, qu’il s’agisse de grands modèles ou d’Agents, si l’on utilise uniquement des jeux de données publics provenant d’Internet, on ne pourra certainement pas répondre aux besoins des scénarios éducatifs actuels. Comme l’industrie de l’intelligence incarnée a besoin de données de haute qualité, la filière éducation a encore plus besoin de données pédagogiques professionnelles et de conception de contenus. Cela permet non seulement aux élèves de comprendre plus facilement le contenu, mais aussi d’intégrer l’entraînement des capacités clés comme poser des questions, relancer, juger la valeur, etc.

« Ce que Onion Garden veut faire, c’est reconstruire par la technologie l’Agent des contenus. » Yang Linfeng se montre très confiant sur la question des données et des contenus : « Notre confiance vient des 10k leçons de contenu minutieusement conçues derrière, de la compréhension des apprentissages accumulée par 10k de données d’interaction, et de notre connaissance approfondie de “comment enseigner aux enfants pour qu’ils comprennent”. Sans cela, un Agent n’est qu’une coquille vide. »

La deuxième opportunité réside dans la conception de la classe. La clé de la conception de la classe, c’est d’aider les écoles et les enseignants à trouver le point optimal de partage « humain-machine » ainsi que « capacités et évaluation ». Sur ce point, les entreprises edtech sont mieux placées que les écoles. La conception de la classe nécessite de redistribuer dans le monde hors ligne la manière et la densité de la collaboration humain-machine, de redéfinir les moments et les formes de participation de chaque rôle, et aussi de la différencier de l’expérience d’apprentissage en autonomie en ligne propre aux élèves. L’importance de cela n’est pas moindre que celle de l’écriture des manuels dans cette époque.

Le défi plus profond, c’est l’adaptation à l’ensemble du système d’évaluation. Quand les examens commencent aussi à mettre l’accent sur la pensée critique et la culture de la collaboration homme-machine, comment l’éducation à l’école peut-elle suivre ? Cela exige une intervention dès la phase de conception des contenus pédagogiques hors ligne, pour tisser la « formation des capacités » et les « besoins urgents pour l’examen » dans une même logique de produit.

La troisième opportunité repose sur la formation du système de valeurs et des compétences humanistes. Quand la technologie supprime les barrières d’accès au savoir, l’éducation revient à ce qu’elle était au départ : former une personne complète. La curiosité, la résistance aux échecs, l’esprit de coopération, le sens moral, la perception de la beauté : ces qualités, noyées sous le système d’examen dans l’ancien temps, deviendront les plus grands avantages distinctifs entre individus à l’ère de l’IA. Et toutes les formations liées doivent aussi être davantage prises en compte par les parents de la prochaine ère, à un niveau de réflexion plus élevé.

Revenir à cette mère pleine d’inquiétude

La mère qui posait la question en pleine nuit dans le groupe de parents n’a peut-être pas besoin d’être aussi anxieuse. L’histoire a déjà prouvé que l’écriture ne rend pas les gens moins intelligents, que l’imprimerie ne rend pas paresseux, et qu’Internet ne fait pas perdre la capacité de penser. Cette fois-ci, l’IA ne le fera probablement pas non plus.

Ce qui mérite vraiment d’être surveillé, ce n’est pas de savoir si l’enfant utilise ou non l’IA, mais la façon dont nous définissons « l’éducation ». Les capacités à poser des questions soutenues par l’apprentissage systématique et les capacités de cadre ; les capacités à choisir soutenues par le doute et le jugement de valeur ; l’âme humaine soutenue par les compétences humanistes. Aider l’enfant à construire de façon stable ces trois capacités : voilà le vrai sujet qui devrait préoccuper les parents.

La transformation du système éducatif ne se fera pas non plus du jour au lendemain. Elle nécessite que les politiques abandonnent l’inertie des trajectoires centenaires, que les enseignants fassent la transition de l’artisan du cours au guide, et que les parents trouvent un équilibre difficile entre anxiété liée à l’examen et capacités à long terme.

Mais pour cette mère et son enfant, la réponse pourrait être simple : d’abord, demander à l’enfant de décrire comment il coopère avec l’IA, et pourquoi il pense que cet article est bon. Le reste, ce sera le temps.

(Auteur | Tao Tianyu, Rédacteur | Yang Lin)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler