“大規模言語モデルは決して___にアクセスすることを許可されるべきではない。”


@miranetwork は本当に良い質問をしますね。

私の答えは:トレーニングデータです。
もしLLMが直接トレーニングデータにアクセスしたり、漏洩したりしたら、プライバシーが完全に漏れてしまいます!

AIの「品質検査員」として、コンセンサスメカニズムを通じて分散型の検証可能なネットワークを保障し、AIの暴走を防ぐのは、とてもクールですね!
@MiraNetworkCN あなたはどう思いますか?
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン