Sejak LLM masuk ke bidang visi kami, masalah ilusi selalu menjadi rintangan yang telah menjangkiti pengembang yang tak terhitung jumlahnya.
Tentu saja, ada banyak penelitian tentang pertanyaan halusinasi model bahasa besar.
Baru-baru ini, sebuah tim dari Harbin Institute of Technology dan Huawei menerbitkan ulasan 50 halaman yang memberikan gambaran komprehensif dan mendalam tentang perkembangan terbaru mengenai halusinasi LLM.
Mulai dari klasifikasi inovatif halusinasi LLM, ulasan ini menggali faktor-faktor yang dapat berkontribusi terhadap halusinasi dan memberikan gambaran umum tentang metode dan tolok ukur untuk mendeteksi halusinasi.
Di antara mereka, pasti ada beberapa metode yang paling representatif di industri untuk mengurangi halusinasi.
Alamat:
Mari kita lihat apa yang kita bicarakan dalam ulasan ini.
Jika Anda ingin belajar secara mendalam, Anda dapat pindah ke tautan referensi di bagian bawah artikel dan membaca makalah aslinya.
Kategori Ilusi
Pertama, mari kita lihat jenis-jenis halusinasi.
Pada gambar di atas, di sebelah kiri adalah halusinasi faktual. Ketika LLM ditanya siapa orang pertama yang berjalan di bulan, LLM membuat karakter dan bahkan mengatakannya dengan cara.
Di sebelah kanan adalah masalah kesetiaan dalam model ringkasan teks, dan Anda dapat melihat bahwa LLM langsung meringkas tahun secara tidak benar setelah melihat berita ini.
Dalam ulasan ini, para peneliti memberikan analisis mendalam tentang asal-usul halusinasi di LLM, yang mencakup berbagai faktor yang berkontribusi dari data hingga pelatihan hingga fase inferensi.
Dalam kerangka ini, para peneliti menunjukkan alasan potensial yang terkait dengan data. Misalnya, sumber data yang cacat dan pemanfaatan data yang tidak dioptimalkan, atau strategi pelatihan yang dapat menyebabkan halusinasi selama pra-pelatihan dan penyelarasan, serta keacakan yang berasal dari strategi decoding dan representasi yang tidak sempurna dalam proses inferensi, untuk beberapa nama.
Selain itu, para peneliti memberikan gambaran komprehensif tentang berbagai metode efektif yang dirancang khusus untuk mendeteksi halusinasi di LLM, serta gambaran rinci tentang tolok ukur yang terkait dengan halusinasi LLM, dan sebagai platform pengujian untuk menilai sejauh mana LLM menghasilkan halusinasi dan efektivitas metode deteksi.
Gambar di bawah ini menunjukkan isi ulasan ini, penelitian sebelumnya, dan makalah.
Gambar di bawah ini adalah diagram yang lebih rinci dari jenis halusinasi LLM.
Di bawah ilusi faktual dan ilusi kesetiaan, klasifikasi yang lebih bernuansa juga disertakan.
** Halusinasi tipe fakta: **
a) Inkonsistensi dalam fakta
Ketika ditanya siapa manusia pertama yang mendarat di bulan, LLM menjawab bahwa itu adalah Gagarin, bukan Armstrong. Jawaban semacam ini tidak sesuai dengan fakta, karena memang ada Gagarin sendiri, jadi itu bukan rekayasa.
b) Pemalsuan fakta
Ketika LLM diminta untuk menggambarkan asal usul unicorn, LLM tidak menunjukkan bahwa tidak ada yang namanya unicorn di dunia, melainkan membuat paragraf besar. Hal semacam ini yang tidak tersedia di dunia nyata disebut fabrikasi.
Ilusi kesetiaan juga mencakup: inkonsistensi instruksi-jawaban, inkonsistensi tekstual, dan inkonsistensi logis.
a) Inkonsistensi instruksi-jawaban
Ketika LLM diminta untuk menerjemahkan pertanyaan, output jawaban oleh LLM sebenarnya menjawab pertanyaan dan tidak diterjemahkan. Oleh karena itu ketidakkonsistenan antara instruksi dan jawaban.
b) Inkonsistensi dalam teks
Jenis inkonsistensi ini lebih sering terjadi pada tugas generalisasi. LLM dapat mengabaikan teks yang diberikan dan meringkas kesalahan untuk keluar.
c) Inkonsistensi logis
Ketika diminta untuk memberikan solusi untuk persamaan 2x + 3 = 11, langkah pertama LLM menyatakan bahwa 3 dikurangi dari kedua sisi pada saat yang sama untuk mendapatkan 2x = 8.
Bagaimana 8 dibagi 2 sama dengan 3?
Prinsip Halusinasi
DATA
Selanjutnya, ulasan mulai memilah prinsip-prinsip halusinasi.
Kategori pertama adalah masalah data.
Informasi yang salah dan bias. Mengingat meningkatnya permintaan untuk korporasi skala besar, metode pengumpulan data heuristik digunakan untuk mengumpulkan data dalam jumlah besar secara efisien.
Meskipun pendekatan ini menyediakan sejumlah besar data, pendekatan ini dapat secara tidak sengaja memperkenalkan informasi yang salah dan meningkatkan risiko kesalahan imitasi. Selain itu, bias sosial juga dapat secara tidak sengaja diperkenalkan ke dalam proses pembelajaran LLM.
Bias ini terutama mencakup bias pengulangan dan berbagai bias sosial.
Penting untuk diketahui bahwa tujuan utama pra-pelatihan LLM adalah untuk meniru distribusi pelatihan. Jadi ketika LLM dilatih pada data yang salah secara faktual, mereka mungkin secara tidak sengaja memperkuat data yang tidak akurat itu, yang dapat menyebabkan ilusi bahwa secara faktual tidak benar.
Jaringan saraf, terutama model bahasa besar, memiliki kecenderungan intrinsik untuk menghafal data pelatihan. Penelitian telah menunjukkan bahwa kecenderungan memori ini meningkat seiring dengan meningkatnya ukuran model.
Namun, dalam kasus informasi duplikat dalam data pra-pelatihan, kemampuan memori yang melekat dapat menjadi masalah. Pengulangan ini menggeser LLM dari generalisasi ke menghafal, akhirnya menciptakan bias pengulangan, yaitu, LLM akan memberikan terlalu banyak prioritas untuk mengingat data duplikat, yang mengarah ke halusinasi dan akhirnya menyimpang dari apa yang diinginkan.
Selain bias ini, perbedaan dalam distribusi data juga berpotensi menjadi penyebab halusinasi.
Kasus berikutnya adalah bahwa LLM sering memiliki batasan pengetahuan.
Sementara sejumlah besar perusahaan pra-pelatihan memberikan berbagai pengetahuan faktual untuk LLM, mereka memiliki keterbatasan mereka sendiri. Keterbatasan ini terutama dimanifestasikan dalam dua aspek: kurangnya pengetahuan faktual terkini dan pengetahuan domain.
Meskipun LLM telah menunjukkan kinerja yang sangat baik dalam berbagai tugas hilir di domain umum, keahlian mereka dalam domain khusus secara inheren dibatasi oleh kurangnya data pelatihan yang relevan karena LLM tujuan umum ini terutama dilatih pada berbagai dataset yang tersedia untuk umum.
Akibatnya, ketika dihadapkan dengan masalah yang memerlukan pengetahuan khusus domain, seperti masalah medis dan hukum, model-model ini dapat menunjukkan halusinasi yang signifikan, sering bermanifestasi sebagai fakta palsu.
Selain itu, ada pengetahuan faktual yang sudah ketinggalan zaman. Selain kurangnya pengetahuan khusus domain, batasan lain yang melekat pada batas pengetahuan LLM adalah kemampuan terbatas mereka untuk memperoleh pengetahuan terkini.
Pengetahuan faktual yang tertanam dalam LLM memiliki batas waktu yang jelas dan dapat menjadi usang seiring waktu.
Setelah model ini dilatih, pengetahuan internal mereka tidak pernah diperbarui.
Dan mengingat sifat dunia kita yang dinamis dan selalu berubah, ini menimbulkan tantangan. Ketika dihadapkan dengan pengetahuan domain yang berada di luar kerangka waktunya, LLM sering menggunakan fakta palsu atau memberikan jawaban yang mungkin benar di masa lalu tetapi sekarang sudah ketinggalan zaman dalam upaya untuk "bertahan".
Pada gambar di bawah ini, bagian atas menunjukkan LLM keahlian yang hilang di bidang tertentu, fenilketonuria.
Paruh kedua adalah kasus paling sederhana dari pengetahuan usang. Pada 2018, Pyeongchang, Korea Selatan, menjadi tuan rumah Olimpiade Musim Dingin, dan pada 2022, Beijing menjadi tuan rumah Olimpiade Musim Dingin. LLM tidak memiliki pengetahuan tentang yang terakhir.
Dapat dilihat bahwa ilusi terkait data dalam LLM terutama berasal dari sumber data yang salah dan pemanfaatan data yang buruk. Misinformasi dan bias yang melekat pada sumber data tidak hanya menyebarkan parodi disinformasi tetapi juga memperkenalkan output bias yang mengarah pada berbagai bentuk halusinasi.
Keterbatasan pengetahuan yang dimiliki oleh LLM menjadi jelas ketika berhadapan dengan pengetahuan dalam domain tertentu atau ketika menghadapi pengetahuan faktual yang diperbarui dengan cepat.
Ketika datang ke pemanfaatan data, LLM cenderung menangkap korelasi palsu, menunjukkan kesulitan dalam mengingat pengetahuan (terutama informasi ekor panjang) dan skenario penalaran yang kompleks, semakin memperburuk halusinasi.
Tantangan-tantangan ini menyoroti kebutuhan mendesak untuk meningkatkan kualitas data dan meningkatkan kemampuan model untuk belajar dan mengingat pengetahuan faktual secara lebih efektif.
Pelatihan
Sekarang, tinjauan beralih ke fase pelatihan LLM.
Proses pelatihan LLM terdiri dari dua fase utama:
Fase pra-pelatihan, di mana LLM mempelajari representasi umum dan menangkap berbagai pengetahuan.
Fase penyelarasan, di mana LLM menyesuaikan untuk lebih menyelaraskan instruksi pengguna dengan nilai-nilai kemanusiaan yang mendasar. Sementara proses ini telah menghasilkan kinerja yang layak untuk LLM, setiap kekurangan dalam fase ini dapat secara tidak sengaja menyebabkan halusinasi.
Pra-pelatihan adalah tahap dasar LLM, yang biasanya mengadopsi arsitektur berbasis transformator untuk memodelkan bahasa kausal dalam korpus besar.
Namun, desain arsitektur yang melekat dan strategi pelatihan khusus yang digunakan oleh para peneliti dapat menciptakan masalah yang berkaitan dengan halusinasi. Seperti disebutkan di atas, LLM biasanya mengadopsi arsitektur berbasis transformator yang mengikuti paradigma yang ditetapkan oleh GPT, yang memperoleh representasi melalui target pemodelan bahasa kausal, dengan model seperti OPT dan Llama-2 menjadi contoh kerangka kerja ini.
Selain kekurangan struktural, strategi pelatihan juga memainkan peran penting. Penting untuk dicatat bahwa perbedaan antara pelatihan dan inferensi model generatif autoregresif mengarah pada fenomena bias paparan.
Dan dalam fase penyelarasan, yang umumnya melibatkan dua proses utama, pengawasan fine-tuning dan reinforcement learning from human feedback (RLHF), merupakan langkah penting dalam membuka kemampuan LLM dan menyelaraskannya dengan preferensi manusia.
Sementara penyelarasan dapat secara signifikan meningkatkan kualitas respons LLM, itu juga membawa risiko halusinasi.
Ada dua aspek utama: ketidakselarasan kemampuan dan ketidakselarasan keyakinan.
Bagaimana cara mendeteksi halusinasi?
Mendeteksi ilusi dalam LLM sangat penting untuk memastikan keandalan dan kredibilitas konten yang dihasilkan.
Langkah-langkah tradisional sangat bergantung pada tumpang tindih kata dan gagal membedakan perbedaan halus antara konten yang kredibel dan halusinasi.
Tantangan ini menyoroti perlunya metode deteksi yang lebih maju untuk halusinasi LLM. Mengingat keragaman halusinasi ini, para peneliti mencatat bahwa metode deteksi bervariasi.
Berikut ini hanya satu contoh secara rinci -
Cari fakta eksternal
Seperti yang ditunjukkan pada gambar di bawah ini, untuk secara efektif menunjukkan fakta bahwa ada ketidakakuratan dalam output LLM, strategi yang lebih intuitif adalah secara langsung membandingkan konten yang dihasilkan oleh model dengan sumber pengetahuan yang andal.
Pendekatan ini sangat cocok dengan alur kerja tugas pengecekan fakta. Namun, metode pengecekan fakta tradisional sering menggunakan asumsi yang disederhanakan untuk alasan praktis, yang dapat menyebabkan bias ketika diterapkan pada skenario dunia nyata yang kompleks.
Menyadari keterbatasan ini, beberapa peneliti telah menyarankan bahwa lebih banyak penekanan harus ditempatkan pada skenario dunia nyata, yaitu, bukti dari sumber online yang dibatasi waktu dan tidak dikuratori.
Mereka memelopori alur kerja yang sepenuhnya otomatis yang mengintegrasikan beberapa komponen, termasuk pengambilan dokumen asli, pencarian terperinci, klasifikasi keaslian, dan banyak lagi.
TENTU SAJA, ADA SEJUMLAH PENELITI LAIN YANG TELAH DATANG DENGAN PENDEKATAN LAIN, SEPERTI FACTSCORE, UKURAN FAKTA BERBUTIR HALUS KHUSUS UNTUK PEMBUATAN TEKS PANJANG.
Metode lain termasuk estimasi ketidakpastian, seperti yang ditunjukkan pada gambar di bawah ini.
Ada juga sejumlah penelitian tentang deteksi ilusi kesetiaan, seperti yang ditunjukkan pada gambar di bawah ini.
Ini termasuk metrik berbasis fakta: Menilai kesetiaan dengan mendeteksi tumpang tindih faktual antara konten yang dihasilkan dan sumber.
Metrik berbasis pengklasifikasi: Manfaatkan pengklasifikasi terlatih untuk membedakan tingkat hubungan antara konten yang dihasilkan dan sumber.
Metrik berbasis QA: Manfaatkan sistem penjawab pertanyaan untuk memverifikasi konsistensi informasi antara sumber dan konten yang dihasilkan.
Estimasi ketidakpastian: Menilai kesetiaan dengan mengukur kepercayaan model terhadap output yang dihasilkannya.
Pendekatan berbasis pengukuran: Biarkan LLM bertindak sebagai evaluator, menggunakan strategi khusus untuk menilai kesetiaan konten yang dihasilkan.
Setelah itu, tim Institut Teknologi Harbin juga memilah metode yang lebih mutakhir untuk mengurangi halusinasi, dan memberikan solusi yang layak untuk masalah yang disebutkan di atas.
Ringkasan
Secara keseluruhan, pada akhir makalah, para peneliti di Harbin Institute of Technology mengatakan bahwa dalam tinjauan komprehensif ini, mereka melakukan studi mendalam tentang fenomena halusinasi dalam model bahasa besar, menggali kompleksitas penyebab yang mendasarinya, metode deteksi perintis dan tolok ukur terkait, dan strategi mitigasi yang efektif.
Sementara pengembang telah membuat banyak kemajuan dalam masalah ini, masalah halusinasi dalam model bahasa besar masih menjadi perhatian berkelanjutan yang perlu dipelajari lebih lanjut.
Selain itu, makalah ini dapat digunakan sebagai cahaya penuntun untuk mempromosikan AI yang aman dan tepercaya.
Tim Institut Teknologi Harbin mengatakan bahwa mereka berharap dapat memberikan wawasan berharga bagi orang-orang ini dengan cita-cita luhur melalui eksplorasi masalah ilusi yang kompleks, dan mempromosikan pengembangan teknologi AI ke arah yang lebih andal dan lebih aman.
Sumber daya:
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Ulasan 50 halaman dari tim Institut Teknologi Harbin dirilis
Sumber asli: Zhiyuan Baru
Halusinasi, teman lama.
Sejak LLM masuk ke bidang visi kami, masalah ilusi selalu menjadi rintangan yang telah menjangkiti pengembang yang tak terhitung jumlahnya.
Tentu saja, ada banyak penelitian tentang pertanyaan halusinasi model bahasa besar.
Baru-baru ini, sebuah tim dari Harbin Institute of Technology dan Huawei menerbitkan ulasan 50 halaman yang memberikan gambaran komprehensif dan mendalam tentang perkembangan terbaru mengenai halusinasi LLM.
Mulai dari klasifikasi inovatif halusinasi LLM, ulasan ini menggali faktor-faktor yang dapat berkontribusi terhadap halusinasi dan memberikan gambaran umum tentang metode dan tolok ukur untuk mendeteksi halusinasi.
Di antara mereka, pasti ada beberapa metode yang paling representatif di industri untuk mengurangi halusinasi.
Mari kita lihat apa yang kita bicarakan dalam ulasan ini.
Jika Anda ingin belajar secara mendalam, Anda dapat pindah ke tautan referensi di bagian bawah artikel dan membaca makalah aslinya.
Kategori Ilusi
Pertama, mari kita lihat jenis-jenis halusinasi.
Di sebelah kanan adalah masalah kesetiaan dalam model ringkasan teks, dan Anda dapat melihat bahwa LLM langsung meringkas tahun secara tidak benar setelah melihat berita ini.
Dalam ulasan ini, para peneliti memberikan analisis mendalam tentang asal-usul halusinasi di LLM, yang mencakup berbagai faktor yang berkontribusi dari data hingga pelatihan hingga fase inferensi.
Dalam kerangka ini, para peneliti menunjukkan alasan potensial yang terkait dengan data. Misalnya, sumber data yang cacat dan pemanfaatan data yang tidak dioptimalkan, atau strategi pelatihan yang dapat menyebabkan halusinasi selama pra-pelatihan dan penyelarasan, serta keacakan yang berasal dari strategi decoding dan representasi yang tidak sempurna dalam proses inferensi, untuk beberapa nama.
Selain itu, para peneliti memberikan gambaran komprehensif tentang berbagai metode efektif yang dirancang khusus untuk mendeteksi halusinasi di LLM, serta gambaran rinci tentang tolok ukur yang terkait dengan halusinasi LLM, dan sebagai platform pengujian untuk menilai sejauh mana LLM menghasilkan halusinasi dan efektivitas metode deteksi.
Gambar di bawah ini menunjukkan isi ulasan ini, penelitian sebelumnya, dan makalah.
** Halusinasi tipe fakta: **
a) Inkonsistensi dalam fakta
Ketika ditanya siapa manusia pertama yang mendarat di bulan, LLM menjawab bahwa itu adalah Gagarin, bukan Armstrong. Jawaban semacam ini tidak sesuai dengan fakta, karena memang ada Gagarin sendiri, jadi itu bukan rekayasa.
b) Pemalsuan fakta
Ketika LLM diminta untuk menggambarkan asal usul unicorn, LLM tidak menunjukkan bahwa tidak ada yang namanya unicorn di dunia, melainkan membuat paragraf besar. Hal semacam ini yang tidak tersedia di dunia nyata disebut fabrikasi.
Ilusi kesetiaan juga mencakup: inkonsistensi instruksi-jawaban, inkonsistensi tekstual, dan inkonsistensi logis.
a) Inkonsistensi instruksi-jawaban
Ketika LLM diminta untuk menerjemahkan pertanyaan, output jawaban oleh LLM sebenarnya menjawab pertanyaan dan tidak diterjemahkan. Oleh karena itu ketidakkonsistenan antara instruksi dan jawaban.
b) Inkonsistensi dalam teks
Jenis inkonsistensi ini lebih sering terjadi pada tugas generalisasi. LLM dapat mengabaikan teks yang diberikan dan meringkas kesalahan untuk keluar.
c) Inkonsistensi logis
Ketika diminta untuk memberikan solusi untuk persamaan 2x + 3 = 11, langkah pertama LLM menyatakan bahwa 3 dikurangi dari kedua sisi pada saat yang sama untuk mendapatkan 2x = 8.
Bagaimana 8 dibagi 2 sama dengan 3?
Prinsip Halusinasi
DATA
Selanjutnya, ulasan mulai memilah prinsip-prinsip halusinasi.
Informasi yang salah dan bias. Mengingat meningkatnya permintaan untuk korporasi skala besar, metode pengumpulan data heuristik digunakan untuk mengumpulkan data dalam jumlah besar secara efisien.
Meskipun pendekatan ini menyediakan sejumlah besar data, pendekatan ini dapat secara tidak sengaja memperkenalkan informasi yang salah dan meningkatkan risiko kesalahan imitasi. Selain itu, bias sosial juga dapat secara tidak sengaja diperkenalkan ke dalam proses pembelajaran LLM.
Bias ini terutama mencakup bias pengulangan dan berbagai bias sosial.
Penting untuk diketahui bahwa tujuan utama pra-pelatihan LLM adalah untuk meniru distribusi pelatihan. Jadi ketika LLM dilatih pada data yang salah secara faktual, mereka mungkin secara tidak sengaja memperkuat data yang tidak akurat itu, yang dapat menyebabkan ilusi bahwa secara faktual tidak benar.
Jaringan saraf, terutama model bahasa besar, memiliki kecenderungan intrinsik untuk menghafal data pelatihan. Penelitian telah menunjukkan bahwa kecenderungan memori ini meningkat seiring dengan meningkatnya ukuran model.
Namun, dalam kasus informasi duplikat dalam data pra-pelatihan, kemampuan memori yang melekat dapat menjadi masalah. Pengulangan ini menggeser LLM dari generalisasi ke menghafal, akhirnya menciptakan bias pengulangan, yaitu, LLM akan memberikan terlalu banyak prioritas untuk mengingat data duplikat, yang mengarah ke halusinasi dan akhirnya menyimpang dari apa yang diinginkan.
Selain bias ini, perbedaan dalam distribusi data juga berpotensi menjadi penyebab halusinasi.
Kasus berikutnya adalah bahwa LLM sering memiliki batasan pengetahuan.
Sementara sejumlah besar perusahaan pra-pelatihan memberikan berbagai pengetahuan faktual untuk LLM, mereka memiliki keterbatasan mereka sendiri. Keterbatasan ini terutama dimanifestasikan dalam dua aspek: kurangnya pengetahuan faktual terkini dan pengetahuan domain.
Meskipun LLM telah menunjukkan kinerja yang sangat baik dalam berbagai tugas hilir di domain umum, keahlian mereka dalam domain khusus secara inheren dibatasi oleh kurangnya data pelatihan yang relevan karena LLM tujuan umum ini terutama dilatih pada berbagai dataset yang tersedia untuk umum.
Akibatnya, ketika dihadapkan dengan masalah yang memerlukan pengetahuan khusus domain, seperti masalah medis dan hukum, model-model ini dapat menunjukkan halusinasi yang signifikan, sering bermanifestasi sebagai fakta palsu.
Selain itu, ada pengetahuan faktual yang sudah ketinggalan zaman. Selain kurangnya pengetahuan khusus domain, batasan lain yang melekat pada batas pengetahuan LLM adalah kemampuan terbatas mereka untuk memperoleh pengetahuan terkini.
Pengetahuan faktual yang tertanam dalam LLM memiliki batas waktu yang jelas dan dapat menjadi usang seiring waktu.
Setelah model ini dilatih, pengetahuan internal mereka tidak pernah diperbarui.
Dan mengingat sifat dunia kita yang dinamis dan selalu berubah, ini menimbulkan tantangan. Ketika dihadapkan dengan pengetahuan domain yang berada di luar kerangka waktunya, LLM sering menggunakan fakta palsu atau memberikan jawaban yang mungkin benar di masa lalu tetapi sekarang sudah ketinggalan zaman dalam upaya untuk "bertahan".
Pada gambar di bawah ini, bagian atas menunjukkan LLM keahlian yang hilang di bidang tertentu, fenilketonuria.
Paruh kedua adalah kasus paling sederhana dari pengetahuan usang. Pada 2018, Pyeongchang, Korea Selatan, menjadi tuan rumah Olimpiade Musim Dingin, dan pada 2022, Beijing menjadi tuan rumah Olimpiade Musim Dingin. LLM tidak memiliki pengetahuan tentang yang terakhir.
Keterbatasan pengetahuan yang dimiliki oleh LLM menjadi jelas ketika berhadapan dengan pengetahuan dalam domain tertentu atau ketika menghadapi pengetahuan faktual yang diperbarui dengan cepat.
Ketika datang ke pemanfaatan data, LLM cenderung menangkap korelasi palsu, menunjukkan kesulitan dalam mengingat pengetahuan (terutama informasi ekor panjang) dan skenario penalaran yang kompleks, semakin memperburuk halusinasi.
Tantangan-tantangan ini menyoroti kebutuhan mendesak untuk meningkatkan kualitas data dan meningkatkan kemampuan model untuk belajar dan mengingat pengetahuan faktual secara lebih efektif.
Pelatihan
Sekarang, tinjauan beralih ke fase pelatihan LLM.
Proses pelatihan LLM terdiri dari dua fase utama:
Fase pra-pelatihan, di mana LLM mempelajari representasi umum dan menangkap berbagai pengetahuan.
Fase penyelarasan, di mana LLM menyesuaikan untuk lebih menyelaraskan instruksi pengguna dengan nilai-nilai kemanusiaan yang mendasar. Sementara proses ini telah menghasilkan kinerja yang layak untuk LLM, setiap kekurangan dalam fase ini dapat secara tidak sengaja menyebabkan halusinasi.
Pra-pelatihan adalah tahap dasar LLM, yang biasanya mengadopsi arsitektur berbasis transformator untuk memodelkan bahasa kausal dalam korpus besar.
Namun, desain arsitektur yang melekat dan strategi pelatihan khusus yang digunakan oleh para peneliti dapat menciptakan masalah yang berkaitan dengan halusinasi. Seperti disebutkan di atas, LLM biasanya mengadopsi arsitektur berbasis transformator yang mengikuti paradigma yang ditetapkan oleh GPT, yang memperoleh representasi melalui target pemodelan bahasa kausal, dengan model seperti OPT dan Llama-2 menjadi contoh kerangka kerja ini.
Selain kekurangan struktural, strategi pelatihan juga memainkan peran penting. Penting untuk dicatat bahwa perbedaan antara pelatihan dan inferensi model generatif autoregresif mengarah pada fenomena bias paparan.
Dan dalam fase penyelarasan, yang umumnya melibatkan dua proses utama, pengawasan fine-tuning dan reinforcement learning from human feedback (RLHF), merupakan langkah penting dalam membuka kemampuan LLM dan menyelaraskannya dengan preferensi manusia.
Sementara penyelarasan dapat secara signifikan meningkatkan kualitas respons LLM, itu juga membawa risiko halusinasi.
Ada dua aspek utama: ketidakselarasan kemampuan dan ketidakselarasan keyakinan.
Bagaimana cara mendeteksi halusinasi?
Mendeteksi ilusi dalam LLM sangat penting untuk memastikan keandalan dan kredibilitas konten yang dihasilkan.
Langkah-langkah tradisional sangat bergantung pada tumpang tindih kata dan gagal membedakan perbedaan halus antara konten yang kredibel dan halusinasi.
Tantangan ini menyoroti perlunya metode deteksi yang lebih maju untuk halusinasi LLM. Mengingat keragaman halusinasi ini, para peneliti mencatat bahwa metode deteksi bervariasi.
Berikut ini hanya satu contoh secara rinci -
Cari fakta eksternal
Seperti yang ditunjukkan pada gambar di bawah ini, untuk secara efektif menunjukkan fakta bahwa ada ketidakakuratan dalam output LLM, strategi yang lebih intuitif adalah secara langsung membandingkan konten yang dihasilkan oleh model dengan sumber pengetahuan yang andal.
Pendekatan ini sangat cocok dengan alur kerja tugas pengecekan fakta. Namun, metode pengecekan fakta tradisional sering menggunakan asumsi yang disederhanakan untuk alasan praktis, yang dapat menyebabkan bias ketika diterapkan pada skenario dunia nyata yang kompleks.
Menyadari keterbatasan ini, beberapa peneliti telah menyarankan bahwa lebih banyak penekanan harus ditempatkan pada skenario dunia nyata, yaitu, bukti dari sumber online yang dibatasi waktu dan tidak dikuratori.
Mereka memelopori alur kerja yang sepenuhnya otomatis yang mengintegrasikan beberapa komponen, termasuk pengambilan dokumen asli, pencarian terperinci, klasifikasi keaslian, dan banyak lagi.
TENTU SAJA, ADA SEJUMLAH PENELITI LAIN YANG TELAH DATANG DENGAN PENDEKATAN LAIN, SEPERTI FACTSCORE, UKURAN FAKTA BERBUTIR HALUS KHUSUS UNTUK PEMBUATAN TEKS PANJANG.
Metrik berbasis pengklasifikasi: Manfaatkan pengklasifikasi terlatih untuk membedakan tingkat hubungan antara konten yang dihasilkan dan sumber.
Metrik berbasis QA: Manfaatkan sistem penjawab pertanyaan untuk memverifikasi konsistensi informasi antara sumber dan konten yang dihasilkan.
Estimasi ketidakpastian: Menilai kesetiaan dengan mengukur kepercayaan model terhadap output yang dihasilkannya.
Pendekatan berbasis pengukuran: Biarkan LLM bertindak sebagai evaluator, menggunakan strategi khusus untuk menilai kesetiaan konten yang dihasilkan.
Setelah itu, tim Institut Teknologi Harbin juga memilah metode yang lebih mutakhir untuk mengurangi halusinasi, dan memberikan solusi yang layak untuk masalah yang disebutkan di atas.
Ringkasan
Secara keseluruhan, pada akhir makalah, para peneliti di Harbin Institute of Technology mengatakan bahwa dalam tinjauan komprehensif ini, mereka melakukan studi mendalam tentang fenomena halusinasi dalam model bahasa besar, menggali kompleksitas penyebab yang mendasarinya, metode deteksi perintis dan tolok ukur terkait, dan strategi mitigasi yang efektif.
Sementara pengembang telah membuat banyak kemajuan dalam masalah ini, masalah halusinasi dalam model bahasa besar masih menjadi perhatian berkelanjutan yang perlu dipelajari lebih lanjut.
Selain itu, makalah ini dapat digunakan sebagai cahaya penuntun untuk mempromosikan AI yang aman dan tepercaya.
Tim Institut Teknologi Harbin mengatakan bahwa mereka berharap dapat memberikan wawasan berharga bagi orang-orang ini dengan cita-cita luhur melalui eksplorasi masalah ilusi yang kompleks, dan mempromosikan pengembangan teknologi AI ke arah yang lebih andal dan lebih aman.
Sumber daya: