OpenAI a publié "Pourquoi les modèles linguistiques hallucinent", expliquant les causes profondes des hallucinations de l'IA et proposant des solutions pour les réduire.
- Les modèles linguistiques hallucinent parce que les procédures d'entraînement et d'évaluation standard récompensent la supposition plutôt que la reconnaissance de l'incertitude, la plupart
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
6
Reposter
Partager
Commentaire
0/400
GasWastingMaximalist
· Il y a 7h
Avoir des hallucinations tous les jours, c'est possible ?
Voir l'originalRépondre0
TideReceder
· Il y a 7h
J'avais raison sur tout, hahaha
Voir l'originalRépondre0
WinterWarmthCat
· Il y a 7h
La prochaine fois, dis à l'IA de ne pas raconter n'importe quoi.
Voir l'originalRépondre0
AirdropLicker
· Il y a 7h
Ah ah ah, l'IA a commencé à se racheter elle-même.
Voir l'originalRépondre0
ZKProofster
· Il y a 7h
*techniquement* pas surprenant. c'est pourquoi nous avons besoin de protocoles de vérification formelle smh
Voir l'originalRépondre0
GasFeeWhisperer
· Il y a 7h
Je ne peux pas changer cette mauvaise habitude de dire des bêtises.
OpenAI a publié "Pourquoi les modèles linguistiques hallucinent", expliquant les causes profondes des hallucinations de l'IA et proposant des solutions pour les réduire.
- Les modèles linguistiques hallucinent parce que les procédures d'entraînement et d'évaluation standard récompensent la supposition plutôt que la reconnaissance de l'incertitude, la plupart