J'ai remarqué qu'au cours de la dernière année, les déclarations selon lesquelles nous avons déjà atteint l'ИИ, общий интеллект deviennent de plus en plus fréquentes. La dernière publication dans Nature, bien sûr, a enflammé encore plus le débat. Mais il y a un problème fondamental que beaucoup négligent.



Voici l’essentiel : les gens confondent deux choses complètement différentes. D’un côté, nous avons des modèles linguistiques qui montrent des résultats impressionnants aux tests et qui gèrent diverses tâches. De l’autre — cela ne signifie pas du tout que nous avons créé une véritable ИИ, общий интеллект. C’est comme si l’on mélangeait la reconnaissance de motifs de plus en plus complexe avec l’intelligence elle-même.

Si l’on regarde les définitions historiques de l’AGI, elles insistaient toujours sur d’autres aspects : la fiabilité dans différents contextes, la capacité à généraliser face à la nouveauté, la flexibilité. Pas simplement obtenir de bons résultats dans des tests en conditions artificielles.

Ce qui est intéressant, c’est que des recherches récentes montrent que les systèmes qui excellent dans la résolution de tâches testées échouent souvent au moindre changement de conditions. Par exemple, les modèles médicaux donnent des réponses correctes même lorsque des données clés manquent, mais deviennent instables avec de légers décalages dans la distribution. Ce n’est pas de l’intelligence, c’est un entraînement spécifique à certains scénarios.

Au niveau économique, la situation est encore plus révélatrice. Même les systèmes les plus avancés ne peuvent effectuer de manière fiable qu’une petite partie des tâches réelles, malgré leurs performances élevées en conditions de test. Des données récentes indiquent que la majorité des entreprises ne voient pas encore de gains significatifs grâce à l’ИИ. Cela ne ressemble pas à une ИИ, общий интеллект.

Il y a aussi un autre point souvent ignoré. Lorsque les modèles linguistiques et les humains donnent des réponses identiques, cela ne signifie pas qu’ils raisonnent de la même façon. J’ai vu des exemples où un modèle donnait une conclusion confiante dans une situation d’incertitude, alors qu’un expert humain s’abstenait de juger précisément à cause du manque d’informations. La simple correspondance superficielle masque des différences profondes dans le processus.

Les systèmes actuels restent fragiles. Ils dépendent de la formulation de la requête, n’ont pas d’objectifs stables, et ne peuvent pas raisonner de manière fiable sur le long terme. Même les histoires selon lesquelles des modèles ont résolu des problèmes mathématiques ouverts relèvent principalement de la combinaison et de l’essai d’approches existantes, et non de la création de nouvelles stratégies.

Le problème ne se limite pas à la terminologie. Lorsqu’on commence à intégrer ces systèmes dans des processus décisionnels réels en science et dans les institutions publiques, une surestimation de leurs capacités peut entraîner de graves erreurs dans la répartition de la confiance et de la responsabilité. Par conséquent, mélanger une approximation statistique avancée avec une ИИ, общий интеллект n’est pas seulement une erreur conceptuelle, mais aussi un risque pratique.

Les modèles que nous avons sont des outils puissants, oui. Mais ce sont des outils, pas des agents dotés d’une véritable compétence flexible. La différence est importante.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler