OpenAI mempresentasikan Model Spec: bagaimana pendekatan bertanggung jawab terhadap perilaku AI berkembang

Baru-baru ini OpenAI merilis dokumen internal mereka, Model Spec — deskripsi rinci tentang bagaimana perusahaan berniat mengelola perilaku model AI mereka. Langkah ini mencerminkan keinginan OpenAI untuk memperluas diskusi tentang prinsip-prinsip dasar yang harus menjadi dasar kerja algoritma modern, termasuk pertanyaan kompleks terkait pembuatan berbagai jenis konten.

Arsitektur aturan: dasar sistem baru

Model Spec didasarkan pada tiga pilar utama yang harus menentukan perilaku semua sistem AI perusahaan. Prinsip pertama berfokus pada kegunaan — model harus memberikan jawaban yang konstruktif kepada pengembang dan pengguna akhir sesuai dengan tugas yang diberikan. Prinsip kedua berorientasi pada kesejahteraan manusia, menuntut algoritma mempertimbangkan manfaat potensial maupun risiko dari tindakan mereka. Prinsip ketiga menegaskan komitmen OpenAI terhadap norma sosial dan hukum yang berlaku.

Perusahaan juga menetapkan serangkaian batasan spesifik bagi pengembang yang menggunakan teknologi AI. Daftar ini mencakup kewajiban mengikuti hierarki tim, mematuhi hukum setempat, menghindari pembuatan disinformasi, menghormati hak cipta, melindungi data pribadi pengguna, dan menghindari pembuatan konten dewasa secara default.

Menyeimbangkan antara kebebasan dan tanggung jawab

Salah satu bagian paling kontroversial dari Model Spec berkaitan dengan pengelolaan konten NSFW. Menurut dokumen tersebut, OpenAI melakukan penelitian tentang bagaimana perusahaan dapat secara bertanggung jawab menyediakan kemampuan untuk menghasilkan konten semacam itu dalam konteks yang sesuai dengan batasan usia — baik melalui API maupun antarmuka ChatGPT. Ini berarti perusahaan melihat potensi agar pengguna dan pengembang dapat mengatur tingkat “kepekaan” dari asisten AI mereka sesuai dengan penggunaan tertentu.

Pendekatan ini mengindikasikan bahwa OpenAI tidak melarang secara mutlak bekerja dengan jenis konten tertentu, tetapi menegaskan perlunya distribusi yang bertanggung jawab dan terkendali. Hal ini memerlukan transparansi, verifikasi usia, dan aturan penggunaan yang jelas.

Bagaimana AI harus berperilaku secara default

Model Spec menggambarkan serangkaian perilaku yang direkomendasikan untuk asisten AI dalam konfigurasi standarnya. Model harus berangkat dari niat baik pengguna, mengajukan pertanyaan klarifikasi jika perlu, mematuhi batasan yang ditetapkan, menjaga posisi objektif, secara tegas menolak manifestasi kebencian, dan menghindari usaha untuk meyakinkan orang lain tentang keyakinan mereka. Selain itu, sistem harus jujur menyatakan ketidakpastian saat mereka tidak yakin sepenuhnya terhadap jawaban mereka.

Manajer produk OpenAI, Joan Jang, menjelaskan tujuan dokumen ini: perusahaan berusaha mendapatkan rekomendasi dari komunitas ilmiah, politisi, dan masyarakat tentang bagaimana sistem AI harus berfungsi. Menurutnya, Model Spec membantu memperjelas perbedaan antara perilaku algoritma yang disengaja dan tidak disengaja, yang sangat penting saat meluncurkan versi baru.

Dari teori ke praktik: apa yang akan berubah

Perlu dicatat bahwa Model Spec tidak akan mempengaruhi produk yang sudah dirilis — ChatGPT, GPT-4, dan DALL-E 3 akan terus beroperasi sesuai kebijakan penggunaan yang ada. Dokumen ini dirancang sebagai sistem pedoman yang hidup dan terus berkembang, yang akan diperbarui secara berkala berdasarkan umpan balik yang diterima.

OpenAI secara aktif mengundang semua pihak terkait untuk berdiskusi — mulai dari politisi dan organisasi amal hingga para ahli independen di berbagai bidang. Perusahaan terbuka untuk menerima rekomendasi tentang perubahan apa yang perlu dilakukan pada dokumen ini, tetapi saat ini belum mengungkapkan detail tentang kriteria pengambilan keputusan dan siapa yang akan menentukan arah pengembangan Model Spec.

Prospek dan pertanyaan yang belum terjawab

Kemunculan Model Spec menunjukkan bahwa OpenAI menyadari perlunya transparansi yang lebih besar dalam pendekatannya terhadap pengelolaan sistem AI. Namun, masih ada pertanyaan terbuka: usulan apa dari komunitas yang akan dipertimbangkan, bagaimana konflik antar pandangan akan diselesaikan, dan kapan versi kedua dokumen ini akan dirilis. Saat ini, belum ada informasi tentang detail penting tersebut.

Sebelumnya, OpenAI telah melakukan upaya untuk meningkatkan kepercayaan pengguna dengan meluncurkan alat identifikasi konten yang dibuat oleh kecerdasan buatan. Model Spec merupakan langkah berikutnya dalam arah ini — upaya untuk menetapkan standar universal dalam pengembangan teknologi AI yang bertanggung jawab.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan