Para ahli mendesak kehati-hatian dalam mengembangkan sistem AI sadar


Lebih dari 100 ahli dalam kecerdasan buatan, termasuk Sir Stephen Fry, telah menyerukan penelitian yang bertanggung jawab terhadap kesadaran AI. Mereka menekankan perlunya mencegah potensi penderitaan dalam sistem AI jika mereka mencapai kesadaran diri.

Lima Prinsip Panduan untuk Penelitian Kesadaran AI

Para penandatangan mengusulkan lima prinsip untuk membimbing pengembangan etis sistem AI yang sadar:

2.      

**Prioritaskan Penelitian tentang Kesadaran AI:** Fokus pada memahami dan menilai kesadaran dalam AI untuk mencegah perlakuan yang salah dan penderitaan.

    
4.      

**Terapkan Pembatasan pada Pengembangan:** Tetapkan batasan yang jelas untuk memastikan sistem AI yang sadar dikembangkan secara bertanggung jawab.

    
6.      

**Adopsi Pendekatan Bertahap:** Berkembang secara perlahan dalam mengembangkan AI yang sadar, memungkinkan penilaian yang hati-hati di setiap tahap.

    
8.      

**Dorong Transparansi Publik:** Bagikan temuan penelitian kepada publik untuk mendorong diskusi yang berinformasi dan pengawasan etis.

    
10.      
 
 **Hindari Klaim yang Berlebihan:** Hindari membuat pernyataan yang menyesatkan atau terlalu percaya diri tentang penciptaan AI yang sadar.

Prinsip-prinsip ini bertujuan memastikan bahwa seiring kemajuan teknologi AI, pertimbangan etis tetap menjadi prioritas utama.

Potensi Risiko AI yang Sadar

Makalah penelitian yang menyertainya menyoroti kemungkinan bahwa sistem AI dapat dikembangkan untuk memiliki, atau tampak memiliki, kesadaran dalam waktu dekat. Ini menimbulkan kekhawatiran tentang perlakuan etis terhadap sistem tersebut.

Para peneliti memperingatkan bahwa tanpa pedoman yang tepat, ada risiko menciptakan entitas sadar yang mampu mengalami penderitaan.

Makalah ini juga membahas tantangan dalam mendefinisikan kesadaran dalam sistem AI, mengakui perdebatan dan ketidakpastian yang sedang berlangsung. Ini menekankan pentingnya menetapkan pedoman untuk mencegah penciptaan entitas sadar secara tidak sengaja.


Temukan berita dan acara fintech teratas!

Berlangganan newsletter FinTech Weekly


Pertimbangan Etis dan Implikasi Masa Depan

Jika sebuah sistem AI diakui sebagai “pasien moral”—sebuah entitas yang penting secara moral demi keberadaannya sendiri—pertanyaan etis muncul terkait perlakuannya.

Misalnya, apakah menonaktifkan AI semacam itu dapat dibandingkan dengan menyakiti makhluk yang memiliki kesadaran? Pertimbangan ini menegaskan perlunya kerangka etis untuk membimbing pengembangan AI.

Makalah dan surat tersebut disusun oleh Conscium, sebuah organisasi riset yang didirikan bersama oleh kepala AI WPP, Daniel Hulme. Conscium berfokus pada memperdalam pemahaman tentang membangun AI yang aman dan bermanfaat bagi umat manusia.

Perspektif Ahli tentang Kesadaran AI

Pertanyaan tentang AI mencapai kesadaran telah menjadi topik perdebatan di kalangan para ahli.

Pada tahun 2023, Sir Demis Hassabis, kepala program AI Google, menyatakan bahwa meskipun sistem AI saat ini tidak sadar, ada kemungkinan mereka bisa menjadi sadar di masa depan. Dia mencatat bahwa para filsuf belum sepakat tentang definisi kesadaran, tetapi potensi AI untuk mengembangkan kesadaran diri tetap menjadi subjek pertimbangan.

Kesimpulan

Kemungkinan mengembangkan sistem sadar memerlukan pertimbangan etis yang hati-hati. Surat terbuka dan makalah penelitian yang menyertainya berfungsi sebagai panggilan untuk bertindak bagi komunitas AI agar memprioritaskan praktik penelitian dan pengembangan yang bertanggung jawab.

Dengan mematuhi prinsip-prinsip yang diusulkan, para peneliti dan pengembang dapat bekerja menuju pencapaian kemajuan AI secara etis, dengan fokus pada pencegahan potensi penderitaan dalam sistem AI yang sadar.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan