Yann LeCun mengatakan dia mengerjai OpenAI tentang penahanan GPT-2

robot
Pembuatan abstrak sedang berlangsung

Headline

Yann LeCun Mengatakan Dia Mengolok-olok OpenAI Karena Menahan GPT-2

Summary

Yann LeCun, Kepala Ilmuwan AI di Meta, baru-baru ini mengakui di Twitter bahwa dia mengejek OpenAI pada tahun 2019 ketika mereka awalnya menolak untuk merilis model penuh GPT-2. OpenAI berargumen bahwa model tersebut terlalu berbahaya—itu bisa menghasilkan berita palsu yang meyakinkan—jadi mereka merilisnya secara bertahap, mulai dengan versi yang lebih kecil pada Februari 2019 dan akhirnya menerbitkan model lengkap dengan 1,5 miliar parameter pada bulan November setelah mitra melaporkan penyalahgunaan yang sangat minim. Tweet LeCun adalah pengingat bahwa komunitas AI telah berdebat tentang keterbukaan versus kehati-hatian selama bertahun-tahun, dan argumen tersebut belum hilang.

Analysis

Kekhawatiran OpenAI tentang GPT-2 tidaklah tanpa dasar. Studi pada waktu itu menemukan bahwa orang menilai teks sintetisnya sebagai kredibel sekitar 72% dari waktu, dan deteksi benar-benar sulit. Pendekatan rilis bertahap mereka menjadi semacam template untuk bagaimana laboratorium menangani model-model kuat. LeCun telah lama skeptis terhadap apa yang dia lihat sebagai kekhawatiran keselamatan yang berlebihan, lebih memilih penelitian terbuka yang memungkinkan semua orang membangun langkah-langkah pencegahan. Tweet-nya pada tahun 2024 yang mengulangi kerangka “terlalu berbahaya” cocok dengan pola itu.

Waktu itu penting. Ini muncul lagi pada tahun 2026 sementara debat tentang regulasi AI semakin intens. Episode GPT-2 terus dirujuk karena itu mengkristalisasi ketegangan yang nyata: apakah membatasi akses benar-benar mencegah bahaya, atau hanya memperlambat orang-orang yang berusaha melindungi terhadap penyalahgunaan? Tidak ada jawaban yang jelas, yang mungkin menjadi alasan mengapa kita masih membicarakannya tujuh tahun kemudian.

Saya tidak dapat menemukan tweet trolling spesifik LeCun dari tahun 2019 dalam pencarian, tetapi sikap umumnya terdokumentasi dengan baik di berbagai pos OpenAI, MIT Technology Review, dan The Verge.

Impact Assessment

  • Significance: Sedang
  • Categories: Keamanan AI, Sumber Terbuka, Riset AI
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan