J'ai remarqué un paradoxe intéressant dans la façon dont nous évaluons les modèles linguistiques modernes. Ils sonnent de manière convaincante, répondent avec assurance, génèrent des textes en grande quantité. Mais voici le hic - la fluidité de la parole n'est pas la même chose que la compréhension. La confiance n'est pas la perception de la réalité.



Si l'on creuse la racine du problème, cela revient à une vieille histoire. Vous vous souvenez de la caverne platonicienne ? Des prisonniers enchaînés ne voient que des ombres sur le mur et les prennent pour la réalité, parce qu'ils ne connaissent rien d'autre. C'est exactement la même situation avec les modèles linguistiques que nous créons actuellement.

Ces systèmes ne voient pas le monde. Ils ne l'entendent pas, ne le touchent pas, ne le ressentent pas. Tout ce qu'ils connaissent, c'est le texte. Livres, articles, posts, commentaires, transcriptions. Le texte est leur seule entrée dans le monde. Et le texte n'est pas la réalité elle-même, mais une description humaine de la réalité. Une description incomplète, biaisée, souvent déformée. Sur Internet et dans les livres, il y a des idées brillantes, mais aussi des mensonges flagrants, de la propagande, des théories du complot. Les modèles linguistiques sont entraînés sur tout cela ensemble. Ils ne voient que des ombres que les humains projettent sur le mur.

Pendant de nombreuses années, on a pensé que l'échelle résoudrait tout. Plus de données, des modèles plus puissants, plus de paramètres - et le problème disparaîtrait. Mais non. Plus d'ombres sur le mur ne signifie pas la réalité. Les modèles linguistiques sont bons pour prédire le mot suivant statistiquement probable, mais ils ne comprennent pas les relations de cause à effet, les contraintes physiques, les conséquences réelles des actions. C'est pourquoi les hallucinations ne sont pas simplement un bug qu'on peut corriger. C'est un défaut structurel de l'architecture.

C'est précisément pour cela que l'attention se tourne de plus en plus vers les modèles mondiaux. Ce sont des systèmes qui construisent des représentations internes de la façon dont fonctionnent les processus, qui apprennent par interaction, qui simulent les résultats avant d'agir. Au lieu de demander "quel sera le mot suivant ?", ils demandent "que se passera-t-il si nous faisons cela ?". Les modèles mondiaux ne sont pas uniquement liés au texte. Ils peuvent traiter des séries temporelles, des données sensorielles, des rétroactions, des tableaux, des simulations.

En pratique, cela se présente ainsi. En logistique, un modèle linguistique peut rédiger un rapport sur une panne, tandis qu’un modèle mondial peut simuler comment la fermeture d’un port ou une hausse des prix du carburant se propage dans toute la chaîne d’approvisionnement. En assurance et gestion des risques, les systèmes textuels expliquent les politiques, mais les modèles mondiaux étudient comment le risque évolue, simulent des événements extrêmes, évaluent les pertes en cascade. Les jumeaux numériques des usines sont déjà des versions précoces de ces modèles mondiaux. Ils ne se contentent pas de décrire la production - ils simulent l’interaction des machines, des matériaux, des délais.

Dans tous ces cas, le langage est utile, mais insuffisant. Il faut un modèle du comportement réel du système, pas seulement une description de ce que les gens en disent.

Passer des modèles linguistiques aux modèles mondiaux ne signifie pas abandonner les premiers. C’est une position correcte. Dans la prochaine phase, les modèles linguistiques deviendront des interfaces et des copilotes. Les modèles mondiaux assureront l’ancrage, la prédiction, la planification. Le langage sera superposé à des systèmes qui apprennent de la réalité elle-même.

Dans l’allégorie de Platon, les prisonniers ne sont pas libérés en étudiant plus attentivement les ombres. Ils se libèrent lorsqu’ils se tournent et voient la source de ces ombres, puis sortent de la caverne dans le monde réel. L’IA approche d’un moment similaire. Les entreprises qui comprendront cela tôt cesseront de prendre un langage convaincant pour de la compréhension et commenceront à construire des architectures qui modélisent leur propre réalité. Pas une IA qui parle joliment du monde, mais une IA qui comprend réellement comment il fonctionne.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler