Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
De « morphème » à « symbole » : La controverse sur la compréhension fondamentale de l'IA derrière le nom chinois de Token
Récemment, le Comité national de validation des termes scientifiques et techniques a publié une annonce recommandant de traduire « Token » dans le domaine de l’intelligence artificielle par « mot-élément », et de l’expérimenter auprès du public. Par la suite, le « Quotidien du Peuple » a publié un article intitulé « Interprétation d’experts : pourquoi le nom chinois de token est-il fixé à ‘mot-élément’ », offrant une explication systématique de cette dénomination d’un point de vue professionnel.
L’article mentionne que le terme « token » provient de l’anglais ancien tācen, signifiant « symbole » ou « marque ». Dans les modèles linguistiques, un token est la plus petite unité discrète obtenue après découpage ou encodage au niveau des octets, pouvant prendre différentes formes telles que mot, sous-mot, affixe ou caractère. C’est précisément par la modélisation de la séquence de tokens que le modèle montre une certaine capacité intelligente.
Cette traduction est considérée dans le système de validation par des experts comme conforme aux principes de signification univoque, de scientificité, de simplicité et d’harmonie, et possède également une certaine base d’usage dans le contexte chinois actuel. Cependant, après avoir lu cette interprétation, j’ai développé une compréhension différente de cette voie de dénomination.
Du point de vue de la normalisation, cette proposition de nom est compréhensible à court terme et présente des avantages pour la diffusion. Mais si l’on considère la nature ontologique du calcul, la structure de l’information, l’évolution multimodale et la cohérence de la traduction inverse, sa compatibilité à long terme reste à vérifier. Dans ce contexte, une alternative également digne d’attention — «符元» (fuyuan) — apparaît progressivement comme ayant une meilleure cohérence structurelle et une stabilité intercontextuelle plus forte.
Point de vue (Chen Xilin, chercheur à l’Institut de technologie de l’Académie chinoise des sciences) : Le rôle initial de « token » en intelligence artificielle est celui d’« unité sémantique linguistique fondamentale », donc « mot-élément » peut mieux refléter sa nature.
Ce jugement a une certaine rationalité dans le contexte historique, mais dans la phase de saut paradigmique technologique actuelle, cette pensée revient en fait à une « recherche académique à la recherche d’un bateau pour pêcher la lune ».
Sur le plan logique de la définition des termes, il faut strictement distinguer « contexte d’application initial » et « propriété essentielle de la structure ».
Certes, le token trouve ses origines dans le traitement du langage naturel (NLP), mais dans la trajectoire de l’évolution de l’AGI, il a déjà dépassé les limites des modèles linguistiques pour évoluer en une unité fondamentale traitant de manière unifiée textes, images, voix, voire signaux physiques. Dans les systèmes informatiques modernes, la véritable ontologie structurelle du token est celle d’« unité de symbole discret », et non d’un seul mode linguistique.
Si l’on nomme selon « rôle initial », alors l’ordinateur (Computer) devrait encore s’appeler « machine à calcul électronique » (évoquant sa fonction initiale de remplacer le calcul manuel) ; Internet devrait s’appeler « réseau militaire de la guerre froide ». La faiblesse fatale de cette logique de dénomination est qu’elle ne voit que le « métier temporaire » de la technologie à un moment historique précis, tout en ignorant son « ontologie physique » transcendant l’époque.
Le chemin historique ne peut être confondu avec la propriété essentielle. De même, nous ne pouvons pas, parce que le token a été initialement utilisé pour traiter des textes, le cantonner à un contexte étroit de « mot ».
Utiliser le « contexte d’application initial » pour définir un concept fondamental revient à remplacer la vérité ontologique par une dépendance historique. Cette définition peut faciliter la compréhension dans les phases précoces de la technologie, mais lors de l’expansion paradigmique multimodale, elle deviendra rapidement obsolète et un frein à la cognition. En revanche, «符元» (fuyuan) s’aligne directement sur l’ontologie symbolique du calcul multimodal, définissant non pas le « passé » du token, mais sa « vérité ».
Point de vue (Dong Yuxiao, professeur associé à l’Université Tsinghua) : On peut, par analogie avec « nuage de mots » ou « sac de mots », comprendre les unités discrètes dans le multimodal comme des « mots au sens large ».
L’analogie de Dong Yuxiao facilite la compréhension, mais ne doit pas remplacer la définition. Cette approche est utile pour l’explication, mais si elle devient la base de la dénomination, elle risque de provoquer un décalage conceptuel.
D’un point de vue méthodologique, l’analogie sert à réduire la barrière à la compréhension, tandis que la fonction de la définition est de délimiter la frontière sémantique. Lorsque « mot » est étendu pour couvrir des blocs d’image (patch), des segments de voix, des représentations vectorielles (embedding) ou des signaux perceptifs plus larges, ses propriétés linguistiques d’origine se diluent, et la frontière sémantique devient floue. Cette extension par « analogie » peut maintenir une cohérence explicative à court terme, mais en évolution à long terme, elle risque de provoquer un dérapage sémantique.
En ce qui concerne l’expansion multimodale, il faut faire attention à la glissade de « l’analogie » vers la « définition ». Dans le contexte de validation terminologique, il faut distinguer « métaphore explicative » et « définition ontologique », pour éviter que la première ne remplace la seconde.
Une analogie plus intuitive est la suivante : dans un contexte vulgarisateur, on peut comparer une ampoule à un « soleil artificiel » pour renforcer la compréhension ; mais dans un système de dénomination scientifique, il est impossible de renommer l’unité de courant électrique « ampère » en « élément lumineux ». La première est une expression descriptive, la seconde concerne un système de mesure strict et une définition normalisée, et ne doivent pas être confondues.
De même, des termes comme « nuage de mots » ou « sac de mots » relèvent essentiellement de métaphores descriptives ou statistiques, visant à aider à comprendre la structure ou la distribution des données ; alors que le token, en tant qu’unité de base dans les grands modèles, est profondément intégré dans la facturation de la puissance de calcul, la formation des modèles et la métrique académique. Lorsqu’il est utilisé à une échelle quotidienne de centaines de milliards à plusieurs trillions d’appels, son nom ne porte plus seulement une fonction explicative, mais devient un concept fondamental avec une signification technique et normative. À ce niveau, le terme doit davantage refléter sa propriété ontologique que s’appuyer sur une extension par analogie.
Si l’on pousse cette logique analogique jusqu’au nom, cela implique un préjugé dangereux : puisque les gens ont l’habitude d’utiliser « mot » pour comprendre le token, autant continuer dans cette voie. Mais c’est en réalité une extension de dépendance à la voie déjà empruntée — une commodité cognitive qui remplace la correction de la conception ontologique. En ce sens, cette dénomination ressemble davantage à un « romantisme linguistique » qu’à une correspondance rigoureuse avec l’ontologie du calcul.
On ne peut pas, parce que la puissance d’un moteur électrique porte le mot « cheval » (马力), demander de parler de « cheval électronique » dans un moteur électrique. L’analogie peut inspirer la compréhension, mais ne peut pas définir une norme.
En revanche, «符 » (fú, symbole) en tant que concept plus neutre possède une capacité d’adaptation multimodale intrinsèque, pouvant couvrir sans explication supplémentaire le texte, l’image, la voix et d’autres formes d’information. Par conséquent, une dénomination centrée sur « unité symbolique » est plus proche de la structure ontologique du token. Dans cette logique, «符元» (fuyuan) comme traduction correspondante possède une cohérence conceptuelle et une compatibilité à long terme accrues.
Point de vue (opinions d’experts synthétisées) : « mot-élément » est concis, conforme à l’usage chinois, et facile à diffuser.
Ce jugement est raisonnable en termes de diffusion, mais suppose implicitement que le public peut accepter l’analogie multimodale du « mot ». Or, l’analogie est essentiellement un outil de pensée pour les experts, et non une perception naturelle du grand public. Pour l’utilisateur ordinaire, « mot » possède un fort effet d’ancrage sémantique — dès qu’il entend « mot », son intuition le dirige vers le système linguistique, et non vers d’autres modes comme l’image, le son ou le mouvement. Ce chemin cognitif n’est pas un problème technique, mais une structure stable en psychologie cognitive.
Sur cette base, lorsque « mot » est étendu à ce que l’on appelle « mot au sens large », cela crée en réalité une déviation dans la cognition de l’utilisateur. La première intuition qu’il forme est « mot = unité linguistique », plutôt que « symbole multimodal ». Une fois cette erreur établie, toutes les explications suivantes ne seront que des corrections à cette cognition préexistante, plutôt qu’une extension naturelle de la compréhension.
Par exemple, lorsque les médias rapportent que « le modèle a été entraîné avec 10 trillions de mots-éléments », le public comprendra facilement comme « ayant lu une grande quantité de textes », en ignorant la présence massive d’images, de voix et d’autres modalités. Cette incompréhension n’est pas un cas isolé, mais résulte de l’ancrage sémantique du terme lui-même, qui induit systématiquement cette erreur.
Dans le contexte pratique, cette dénomination peut aussi provoquer des frictions dans la communication interdisciplinaire. Lorsque des unités discrètes dans des modèles visuels ou vocaux sont appelées « mots », cela peut non seulement entraîner des malentendus sémantiques, mais aussi créer des conflits linguistiques inutiles entre disciplines. Les systèmes multimodaux ont besoin d’une « couche de symboles » unifiée, plutôt que d’une extension du domaine linguistique.
En comparaison, «符 » (fú, symbole) en tant que concept plus abstrait, bien que nécessitant une compréhension initiale plus élevée, possède une orientation sémantique plus neutre, évitant de préconditionner la cognition sur le plan linguistique. À long terme, cela favorise la construction d’un cadre cognitif stable et unifié, réduisant le coût explicatif global et fournissant une base plus stable pour l’unification multimodale.
Le coût de la dénomination ne se manifeste pas lors de la définition, mais lors de la correction ; une fois que la nomination initiale a créé un ancrage sémantique, le coût de la correction cognitive croît de façon exponentielle.
Les experts peuvent étendre par analogie la frontière de « mot », mais le grand public ne comprendra pas cette extension par analogie. La dénomination ne doit pas servir les experts, mais l’ensemble du système cognitif de l’époque.
Point de vue (principe de validation des noms) : « mot-élément » respecte le principe d’univocité, aidant à résoudre le chaos des traductions.
En matière d’univocité terminologique, il faut faire attention au risque systémique qu’engendre la polysémie. Dans la validation des termes scientifiques, l’univocité est une règle fondamentale. Si un terme nécessite un contexte ou une explication supplémentaire pour différencier ses sens, sa valeur en tant qu’élément standard est compromise.
Cependant, dans le cadre académique actuel, cette évaluation reste ouverte à discussion. Le terme « mot-élément » est depuis longtemps « propriété exclusive » dans le domaine de la linguistique et du traitement automatique du langage (NLP), où son concept anglais stable est « lemma », désignant la forme canonique d’un mot (par exemple, le lemme de is/am/are est « be »). Cette utilisation est consolidée dans les manuels et articles académiques.
Dans ce contexte, si l’on traduit également « token » par « mot-élément », cela risque de provoquer des conflits sémantiques, avec des conséquences désastreuses.
Par exemple, dans la description de l’opération de lemmatisation en NLP (« lemmatize a token »), la formulation en chinois pourrait devenir « effectuer la ‘lemmatisation’ du ‘mot-élément’ ». Cette expression augmente non seulement la difficulté de compréhension, mais introduit aussi une ambiguïté dans la recherche académique et la récupération d’informations, rendant difficile la distinction entre « mot-élément » comme unité discrète découpée, ou comme forme canonique du mot.
Sur le plan fonctionnel, ces deux concepts sont également clairement différenciés : Lemma insiste sur la « restitution » linguistique, correspondant à la forme standard après flexion ; tandis que Token insiste sur la « découpe » en processus de calcul, correspondant à l’unité discrète minimale traitée par le modèle. Cette différence entre « restauration » et « découpe » correspond à des dimensions sémantiques et symboliques distinctes.
Ainsi, lorsqu’un terme doit couvrir plusieurs concepts existants par « généralisation », sa stabilité en tant que « terme unique » devient une « unification au niveau de l’explication », plutôt qu’une stabilité sémantique.
Lorsqu’un terme doit être maintenu par une explication pour assurer une unité, sa stabilité en tant que terme standard commence à vaciller.
En revanche, «符元» (fuyuan) n’entre pas en conflit sémantique dans le système existant. D’une part, il conserve la propriété ontologique du token en tant que symbole discret ; d’autre part, il évite la superposition avec le nom existant « Lemma », assurant une meilleure clarté sémantique et cohérence systémique.
Point de vue (explication générale) : Le token est la plus petite unité utilisée dans les modèles linguistiques pour traiter le texte.
Cette assertion est fonctionnellement correcte, mais reste au niveau de « comment utiliser » et ne touche pas à sa propriété ontologique dans la théorie du calcul. D’un point de vue de l’information et de la théorie du calcul, l’objet fondamental traité par le système n’est pas un « mot », mais un « symbole » (symbol).
Cela peut être compris à deux niveaux :
D’une part, selon la perspective de l’information, la nature de l’information consiste à réduire l’incertitude, sa mesure étant le bit, et l’entité porteuse est un symbole discret. Le symbole lui-même ne concerne pas le contenu sémantique, mais est lié à la distribution probabiliste et à la structure d’encodage ;
D’autre part, dans la mise en œuvre informatique, le modèle de base ne « reconnaît pas l’écriture », mais traite des représentations indexées discrètes (ID). Que cet ID corresponde à un caractère chinois, un bloc d’image ou un échantillon audio, dans le calcul, il participe tous sous une forme symbolique unifiée.
Dans ce cadre, la propriété ontologique du token est celle d’un « symbole/discrétisation », et non d’un « contenu sémantique ». Nommer le token « mot-élément » introduit implicitement une orientation vers la couche sémantique, ramenant cette notion, à l’origine symbolique, dans une voie centrée sur le langage. Cette dénomination peut offrir une certaine intuitivité explicative, mais risque de brouiller la frontière entre « calcul symbolique » et « compréhension sémantique ».
En revanche, «符元» (fuyuan) conserve dans sa conception la position dans la couche symbolique. D’une part, elle reflète précisément la propriété du token en tant que symbole discret dans le calcul ; d’autre part, elle évite la surcharge sémantique liée à Lemma, ce qui correspond mieux au cadre de l’information et du calcul.
D’un point de vue plus large, avec l’évolution continue des systèmes d’intelligence artificielle vers le multimodal et l’intelligence générale, une dénomination alignée directement sur l’ontologie mathématique et computationnelle facilitera la construction d’un système cognitif stable et extensible. Dans cette optique, une dénomination centrée sur « unité symbolique » n’est pas seulement une question linguistique, mais une expression cohérente de l’ontologie du calcul, et «符元» s’inscrit naturellement dans ce cadre.
Point de vue (interprétation synthétique) : « mot-élément » s’est progressivement établi dans le milieu académique chinois, avec un avantage de diffusion.
Dans un contexte interlinguistique, il faut faire attention à l’impact systémique de la « rupture de traduction inverse ». La pérennité d’un terme scientifique ou technique ne dépend pas seulement de sa capacité à exprimer le sens en chinois, mais aussi de sa capacité à réaliser une correspondance stable dans le système académique international. Un terme idéal doit avoir une « réversibilité », c’est-à-dire pouvoir assurer une cohérence sémantique dans les échanges entre langues.
Ce jugement reflète la acceptabilité de « mot-élément » dans le contexte local, mais du point de vue interlinguistique, il reste à discuter. Si un terme ne peut pas établir une correspondance stable dans le contexte international, il risque d’introduire des coûts supplémentaires dans la communication académique.
Plus précisément, « mot-élément » manque d’un chemin clair et unique pour la traduction inverse. Lorsqu’il est traduit en anglais, il peut donner lieu à plusieurs concepts proches : « word unit » (unité de mot) manque de définition précise, « morpheme » désigne la plus petite unité de sens en linguistique, « lexeme » indique la forme lexicale. Aucun de ces concepts ne couvre précisément la signification de « token » dans le contexte computationnel, ce qui peut entraîner des décalages conceptuels.
Sur le plan fonctionnel, ces deux notions sont également clairement différenciées : Lemma insiste sur la « restitution » linguistique, correspondant à la forme standard après flexion ; tandis que Token insiste sur la « découpe » en tant qu’unité discrète minimale dans le traitement par le modèle. La différence entre « restauration » et « découpe » correspond à des dimensions sémantiques et symboliques distinctes.
Ainsi, lorsqu’un terme doit couvrir plusieurs concepts par « généralisation », sa stabilité en tant que « terme unique » devient une « unification explicative », plutôt qu’une stabilité sémantique.
Lorsqu’un terme doit être maintenu par une explication pour assurer une unité, sa stabilité en tant que terme standard commence à vaciller.
En revanche, «符元» (fuyuan) n’entre pas en conflit sémantique dans le système existant. D’une part, il conserve la propriété ontologique du token en tant que symbole discret ; d’autre part, il évite la superposition avec le nom existant « Lemma », assurant une meilleure clarté sémantique et cohérence systémique.
Point de vue (interprétation synthétique) : « mot-élément » dans le style d’expression est cohérent avec « embedding » et « attention », étant concis, abstrait, et adapté au contexte technique chinois.
Conclusion : l’unification du système terminologique doit reposer sur une « isomorphie conceptuelle » et non sur une « identité formelle linguistique ».
Dans la justification de « mot-élément », un argument courant est que son style d’expression est cohérent avec « embedding » et « attention », étant concis et abstrait, et conforme au contexte technique chinois. Cet argument répond à un besoin réel d’unification du système terminologique, mais le problème est que — si cette unité ne repose que sur la forme linguistique, et non sur la structure conceptuelle — elle glisse du « ordre » à la « illusion ».
« Embedding » (encastrement) et « attention » (attention) sont devenus des termes stables parce qu’ils correspondent à des structures de calcul précises : le premier désigne une projection vectorielle, le second un mécanisme de pondération, leur nom indiquant directement leur nature computationnelle. « Mot-élément », en tant que nom explicatif, dépend d’un cadre analogique de « mot au sens large ». Si l’on se détache de cette explication, le nom lui-même ne possède pas de cohérence structurelle interne.
Ce décalage introduit un problème clé : la cohérence formelle ne garantit pas la cohérence sémantique.
Une uniformité formelle réduit le coût d’expression, mais ne garantit pas la stabilité cognitive. Si l’on privilégie uniquement la « forme linguistique », la complexité ne disparaît pas, elle se transfère en un fardeau cognitif à long terme ; seule une « isomorphie conceptuelle » permet de maintenir une stabilité dans les contextes interdisciplinaire et multimodal.
Lorsque « embedding », « attention » et « mot-élément » apparaissent côte à côte, il est facile de créer une illusion de « concept au même niveau ». Mais en réalité, les deux premiers sont des mécanismes, le dernier est un objet ; les deux premiers ont une définition précise, le dernier dépend du contexte. Ce décalage structurel introduit une fracture implicite dans le système cognitif.
Plus important encore, lorsque la dénomination d’un concept fondamental dépend d’une analogie plutôt que d’une définition structurelle, son influence ne se limite pas à ce seul terme, mais se propage à tout le système terminologique. Lorsqu’un concept ultérieur tente de s’appuyer sur cette dénomination, il doit constamment recourir à des explications pour maintenir la cohérence, créant ainsi une dislocation structurelle implicite.
Dans cette optique, «符元» (fuyuan) offre une voie d’expression plus proche de la structure fondamentale. Il désigne directement l’objet de base dans le système de calcul — le symbole (symbol) — sans dépendre d’une analogie explicative, et peut maintenir une cohérence dans différents contextes.
Les termes ne sont pas seulement des étiquettes, mais aussi des portes d’entrée à la cognition. Un bon terme permet de faire disparaître l’explication progressive, un mauvais terme nécessite une annotation continue. Lorsqu’un concept fondamental s’éloigne de la structure, le système terminologique ne peut que s’appuyer sur des explications, et non sur une cohérence interne.
En conclusion
D’un point de vue ontologique, le choix terminologique ne se limite pas à une question linguistique, mais concerne la structuration cognitive initiale d’un domaine. Si la dénomination s’éloigne dès le départ de son ontologie, le système ne pourra fonctionner que par des explications continues, sans pouvoir construire un réseau conceptuel cohérent.
Dans la progression vers une intelligence artificielle générale et multimodale, un terme capable d’aligner l’ontologie du calcul et de maintenir une stabilité intercontextuelle sera plus susceptible d’être une base cognitive durable. Dans cette optique, une dénomination centrée sur « unité symbolique » offre un meilleur compromis entre la nature technique et la clarté cognitive.