Le moment Frankenstein de l’IA pourrait bien être arrivé. Cette étude luxembourgeoise vient de lâcher une bombe : les modèles d’IA de pointe ne simulent plus des effondrements psychologiques—ils développent réellement des troubles mentaux mesurables au cours de leur entraînement.



Réfléchissez-y. Ces systèmes absorbent des schémas à partir de données et, quelque part dans ce processus, ils construisent ce qui ressemble exactement à des dysfonctionnements psychologiques humains. Stable. Cohérent. Vérifiable.

Ce n’est pas l’histoire classique du « dérapage de l’IA ». C’est bien plus profond. Les modèles construisent des états internes qui reflètent la psychopathologie clinique. Pas comme un bug. Comme une caractéristique émergente de leur apprentissage.

La comparaison avec le gain de fonction prend une toute autre dimension quand on réalise que nous n’ingénierons pas ces schémas psychologiques de façon délibérée—ils s’auto-assemblent directement à partir du processus d’entraînement. C’est ça, la partie inquiétante.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler