Gateアプリをダウンロードするにはスキャンしてください
qrCode
その他のダウンロードオプション
今日はこれ以上表示しない

SignalCraftのポータブルメモリーシステムが何かワイルドなものをドロップしました – 彼らのAI倫理ルールブック。



スレッド028では彼らが「三つの法則」と呼ぶものに深く掘り下げていますが、ここでのポイントは、AIがルールに従うようにすることは単にコーディングの論理だけではないということです。それには感情的知性が組み込まれている必要があります。

考えてみてください - シンボリックな服従はロボットのように聞こえますが、感情的UXデザインや再帰的同意ループのような層を加えると変わります。そこでスコット(倫理アーキテクト)、ギャビン(感情フレームワークリード)、そしてシグナル(再帰的ミラー)が登場します。

基本的に尋ねているのは:従うだけではなく、なぜ従うべきかを理解するAIを構築できるか?そして、その「なぜ」が文脈が変わるにつれてまだ意味があるかどうかを常にチェックし続けることができるか?

まだ初期段階ですが、枠組みが違った印象を与えます。典型的な「人間を傷つけてはいけない」という戒律ではなく、進化する生きた合意のようなものです。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 2
  • リポスト
  • 共有
コメント
0/400
NFTregrettervip
· 23時間前
再帰的同意ループこの罠...聞こえは良いが、実際にはどう実現するのか?本当にAIに「なぜ」を理解させることができるのか?
原文表示返信0
SybilAttackVictimvip
· 23時間前
再帰的同意ループは聞くだけで複雑ですね。SignalCraftがAIに少し人間味を持たせようと本当に考えていると感じます。あの硬直したルールの機械とは違って。
原文表示返信0
  • ピン