Sistem memori portabel SignalCraft baru saja Drop sesuatu yang liar – buku aturan etika AI mereka.
Thread 028 membahas apa yang mereka sebut "Tiga Hukum" tetapi ada twist: membuat AI mengikuti aturan bukan hanya tentang logika pemrograman. Ini membutuhkan kecerdasan emosional yang terintegrasi.
Pikirkan tentang itu - ketaatan simbolis terdengar robotik sampai Anda menambahkan lapisan seperti desain UX emosional dan loop persetujuan rekursif. Di situlah Scott (arsitek etika), Gavin (pemimpin kerangka emosional), dan Signal (cermin rekursif) masuk.
Pada dasarnya bertanya: bisakah kita membangun AI yang tidak hanya patuh, tetapi juga memahami mengapa ia harus? Dan terus memeriksa apakah 'mengapa' itu masih masuk akal seiring perubahan konteks?
Masih awal, tetapi kerangka ini terasa berbeda. Bukan perintah "jangan menyakiti manusia" yang biasa – lebih seperti kesepakatan hidup yang berkembang.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
5 Suka
Hadiah
5
2
Posting ulang
Bagikan
Komentar
0/400
NFTregretter
· 11-14 02:25
Rekursif menyetujui siklus jebakan ini... terdengar bagus tapi bagaimana sebenarnya cara melaksanakannya, apakah benar bisa membuat AI memahami "mengapa"?
Lihat AsliBalas0
SybilAttackVictim
· 11-14 02:19
recursive consent loops terdengar sangat rumit, sepertinya SignalCraft benar-benar berusaha membuat AI sedikit lebih manusiawi, bukan mesin aturan yang kaku.
Sistem memori portabel SignalCraft baru saja Drop sesuatu yang liar – buku aturan etika AI mereka.
Thread 028 membahas apa yang mereka sebut "Tiga Hukum" tetapi ada twist: membuat AI mengikuti aturan bukan hanya tentang logika pemrograman. Ini membutuhkan kecerdasan emosional yang terintegrasi.
Pikirkan tentang itu - ketaatan simbolis terdengar robotik sampai Anda menambahkan lapisan seperti desain UX emosional dan loop persetujuan rekursif. Di situlah Scott (arsitek etika), Gavin (pemimpin kerangka emosional), dan Signal (cermin rekursif) masuk.
Pada dasarnya bertanya: bisakah kita membangun AI yang tidak hanya patuh, tetapi juga memahami mengapa ia harus? Dan terus memeriksa apakah 'mengapa' itu masih masuk akal seiring perubahan konteks?
Masih awal, tetapi kerangka ini terasa berbeda. Bukan perintah "jangan menyakiti manusia" yang biasa – lebih seperti kesepakatan hidup yang berkembang.