Le système autonome n'a jamais peur de faire des erreurs, mais plutôt du fait qu'en cas de problème, personne ne peut expliquer clairement pourquoi il a agi de cette manière.



Les gens peuvent accepter une erreur de jugement, mais il est très difficile de tolérer un état où :
Le résultat est déjà là, mais le processus de décision reste une boîte noire.

De nombreux IA restent bloquées dans des scénarios à haut risque, incapable d'avancer, non pas par manque de capacité, mais parce que leur logique de décision ne peut pas être vérifiée de l'extérieur.

Le choix d'@inference_labs est très clair :
Ne pas s'efforcer d'expliquer ce que le « cerveau » du modèle pense, mais plutôt prouver directement si son comportement dépasse les limites.

Si le comportement est conforme, si les règles sont strictement respectées, si la décision est traçable.
Dans le monde des systèmes autonomes, cela est souvent plus crucial que de « faire passer le message de manière claire ».
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)