La fonction de traduction d'un grand modèle est vraiment un peu aberrante. On approche de 2026, et ce niveau de LLM continue à faire des erreurs élémentaires — comme translittérer directement "妙" en "miao". Quelle logique de traduction basée sur la transcription phonétique rigide a permis cela ? Quel type de données d'entraînement et de stratégies de fine-tuning sont nécessaires pour produire un résultat aussi magique ?

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 6
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
LiquidityLarryvip
· 2025-12-31 07:20
Putain, tu le traduis directement par "miao" ? C'est vrai ou pas, on est en 2026 et ils font encore ça
Voir l'originalRépondre0
MEVHunterXvip
· 2025-12-28 07:54
Miao... Attends, cette logique de traduction est vraiment géniale, tu joues encore avec la transcription pinyin en 2026 ? Est-ce une façon de tester la patience des utilisateurs ?
Voir l'originalRépondre0
LiquidityWitchvip
· 2025-12-28 07:54
miao哈哈, cette traduction est vraiment aberrante, qu'est-ce que c'est que cette opération de translittération pinyin à l'état brut
Voir l'originalRépondre0
SchrodingerPrivateKeyvip
· 2025-12-28 07:41
Miao directement en traduction ? C'est vraiment absurde, je pensais que c'était une IA de 2024.
Voir l'originalRépondre0
FreeMintervip
· 2025-12-28 07:33
Haha cette capacité de traduction est vraiment médiocre, on est déjà en 2026 et ils jouent encore avec des jeux de pinyin

---

Translittérer directement "妙" en miao, c'est sérieux ?

---

Non, comment ces erreurs basiques peuvent-elles passer la validation et être publiées ? Les données d'entraînement doivent être complètement aberrantes

---

"miao"... Je veux juste demander qui a donné son accord pour la mise en ligne

---

La traduction par gros modèle est vraiment difficile à supporter, les erreurs basiques se multiplient

---

Cette stratégie de fine-tuning est tout simplement absurde, elle transforme le LLM en un convertisseur de pinyin
Voir l'originalRépondre0
  • Épingler