Görüntü kaynağı: Sınırsız AI tarafından oluşturuldu
Halüsinasyonlar, eski dostlar.
LLM'ler görüş alanımıza girdiğinden beri, illüzyon sorunu her zaman sayısız geliştiriciyi rahatsız eden bir engel olmuştur.
Tabii ki, büyük dil modeli halüsinasyonları konusunda sayısız çalışma yapılmıştır.
Son zamanlarda, Harbin Teknoloji Enstitüsü ve Huawei'den bir ekip, LLM halüsinasyonları ile ilgili en son gelişmelere kapsamlı ve derinlemesine bir genel bakış sağlayan 50 sayfalık bir inceleme yayınladı.
LLM halüsinasyonlarının yenilikçi bir sınıflandırmasından başlayarak, bu derleme halüsinasyonlara katkıda bulunabilecek faktörleri araştırmakta ve halüsinasyonları tespit etmek için yöntemlere ve kriterlere genel bir bakış sunmaktadır.
Bunlar arasında, halüsinasyonları azaltmak için sektördeki en temsili yöntemlerden bazıları olmalıdır.
Adres:
Bu incelemede neden bahsettiğimize bir göz atalım.
Derinlemesine çalışmak istiyorsanız, makalenin altındaki referans bağlantısına gidebilir ve orijinal makaleyi okuyabilirsiniz.
İllüzyon Kategorisi
İlk olarak, halüsinasyon türlerine bir göz atalım.
Yukarıdaki resimde, solda gerçek bir halüsinasyon var. LLM'ye ayda yürüyen ilk kişinin kim olduğu sorulduğunda, LLM bir karakter oluşturdu ve hatta bir şekilde söyledi.
Sağda metin özeti modelindeki aslına uygunluk sorunu var ve LLM'nin bu haberi gördükten sonra yılı doğrudan yanlış özetlediğini görebilirsiniz.
Bu derlemede araştırmacılar, verilerden eğitime ve çıkarım aşamasına kadar bir dizi katkıda bulunan faktörü kapsayan, LLM'lerdeki halüsinasyonların kökenlerinin derinlemesine bir analizini sunmaktadır.
Bu çerçevede, araştırmacılar verilerle ilgili olası nedenlere işaret etmektedir. Örneğin, kusurlu veri kaynakları ve optimize edilmemiş veri kullanımı veya ön eğitim ve hizalama sırasında halüsinasyonlara neden olabilecek eğitim stratejilerinin yanı sıra kod çözme stratejilerinden ve çıkarım sürecindeki kusurlu temsillerden kaynaklanan rastgelelik bunlardan birkaçıdır.
Buna ek olarak, araştırmacılar, LLM'lerde halüsinasyonların tespiti için özel olarak tasarlanmış çeşitli etkili yöntemlerin yanı sıra, LLM halüsinasyonları ile ilişkili kriterlere ayrıntılı bir genel bakış ve LLM'lerin halüsinasyonlar üretme derecesini ve tespit yöntemlerinin etkinliğini değerlendirmek için bir test platformu olarak kapsamlı bir genel bakış sunmaktadır.
Aşağıdaki şekil, bu incelemenin, önceki araştırmaların ve makalelerin içeriğini göstermektedir.
Aşağıdaki resim, LLM halüsinasyon türlerinin daha ayrıntılı bir diyagramıdır.
Olgusal yanılsama ve sadakat yanılsaması altında, daha incelikli bir sınıflandırma da dahil edilmiştir.
Gerçek tipi halüsinasyonlar:
a) Gerçeklerdeki tutarsızlıklar
Ay'a ilk inen insanın kim olduğu sorulduğunda, LLM bunun Armstrong değil Gagarin olduğunu söyledi. Bu tür bir cevap gerçeklerle tutarsızdır, çünkü gerçekten de Gagarin'in kendisi vardır, bu yüzden bu bir uydurma değildir.
b) Gerçeklerin tahrif edilmesi
LLM'den tek boynuzlu atların kökenini tanımlaması istendiğinde, LLM dünyada tek boynuzlu at diye bir şey olmadığına dikkat çekmedi, bunun yerine büyük bir paragraf oluşturdu. Gerçek dünyada bulunmayan bu tür şeylere fabrikasyon denir.
Aslına uygunluk yanılsaması ayrıca şunları içerir: talimat-cevap tutarsızlıkları, metinsel tutarsızlıklar ve mantıksal tutarsızlıklar.
a) Talimat-cevap tutarsızlıkları
Bir LLM'den bir soruyu çevirmesi istendiğinde, LLM tarafından verilen cevap çıktısı aslında soruyu cevaplar ve tercüme edilmez. Bu nedenle talimatlar ve cevaplar arasında bir tutarsızlık.
b) Metindeki tutarsızlıklar
Bu tür tutarsızlıklar genelleme görevlerinde daha yaygındır. LLM verilen metni görmezden gelebilir ve ortaya çıkacak bir hatayı özetleyebilir.
c) Mantıksal tutarsızlıklar
2x+3=11 denklemine bir çözüm vermesi istendiğinde, ilk adım LLM, 2x=8 elde etmek için her iki taraftan aynı anda 3 çıkarıldığını belirtir.
8 bölü 2 nasıl 3'e eşit olabilir?
Halüsinasyon İlkesi
VERİ
Daha sonra, inceleme halüsinasyonların ilkelerini sıralamaya başlar.
İlk kategori veri sorunlarıdır.
Yanlış bilgi ve önyargı. Büyük ölçekli derlemlere yönelik artan talep göz önüne alındığında, büyük miktarda veriyi verimli bir şekilde toplamak için sezgisel veri toplama yöntemleri kullanılmaktadır.
Bu yaklaşım büyük miktarda veri sağlarken, istemeden yanlış bilgi verebilir ve taklit hataları riskini artırabilir. Ek olarak, sosyal önyargılar da yanlışlıkla LLM'lerin öğrenme sürecine dahil edilebilir.
Bu önyargılar temel olarak tekrarlama önyargısını ve çeşitli sosyal önyargıları içerir.
LLM ön eğitiminin temel amacının eğitim dağılımını taklit etmek olduğunu bilmek önemlidir. Bu nedenle, LLM'ler olgusal olarak yanlış veriler üzerinde eğitildiğinde, yanlışlıkla bu yanlış verileri artırabilir ve bu da gerçekte yanlış olduğu yanılsamasına yol açabilir.
Sinir ağları, özellikle büyük dil modelleri, eğitim verilerini ezberlemek için içsel bir eğilime sahiptir. Çalışmalar, model boyutu arttıkça bu bellek eğiliminin arttığını göstermiştir.
Bununla birlikte, eğitim öncesi verilerde yinelenen bilgiler olması durumunda, doğal bellek yeteneği sorunlu olabilir. Bu tekrar, LLM'yi genellemeden ezberlemeye kaydırır, sonunda bir tekrarlama yanlılığı yaratır, yani LLM, yinelenen verileri hatırlamaya çok fazla öncelik verir, halüsinasyonlara yol açar ve nihayetinde istenenden sapar.
Bu önyargılara ek olarak, veri dağılımındaki farklılıklar da halüsinasyonların potansiyel nedenleridir.
Bir sonraki durum, LLM'lerin genellikle bilgi sınırlarına sahip olmasıdır.
Çok sayıda ön eğitim külliyatı, LLM'ler için çok çeşitli olgusal bilgiler sağlarken, kendi sınırlamaları vardır. Bu sınırlama temel olarak iki açıdan kendini gösterir: güncel olgusal bilgi ve alan bilgisi eksikliği.
LLM'ler, genel alandaki çeşitli aşağı akış görevlerinde mükemmel performans göstermiş olsalar da, bu genel amaçlı LLM'ler öncelikle çok çeşitli halka açık veri kümeleri üzerinde eğitildiğinden, uzmanlık alanındaki uzmanlıkları doğası gereği ilgili eğitim verilerinin eksikliği ile sınırlıdır.
Sonuç olarak, tıbbi ve yasal konular gibi alana özgü bilgi gerektiren konularla karşı karşıya kaldıklarında, bu modeller genellikle uydurma gerçekler olarak ortaya çıkan önemli halüsinasyonlar sergileyebilir.
Ek olarak, modası geçmiş gerçek bilgiler var. Alana özgü bilgi eksikliğine ek olarak, LLM'lerin bilgi sınırlarının bir başka doğal sınırlaması, güncel bilgi edinme konusundaki sınırlı yetenekleridir.
LLM'lere gömülü olgusal bilginin net zaman sınırları vardır ve zamanla geçerliliğini yitirebilir.
Bu modeller eğitildikten sonra, iç bilgileri asla güncellenmez.
Ve dünyamızın dinamik ve sürekli değişen doğası göz önüne alındığında, bu bir zorluk teşkil ediyor. Zaman çerçevesinin ötesinde bir alan bilgisiyle karşı karşıya kaldıklarında, LLM'ler genellikle gerçekleri uydurmaya veya geçmişte doğru olabilecek ancak artık "geçinmek" için modası geçmiş cevaplar vermeye başvururlar.
Aşağıdaki şekilde, üst yarısı LLM'nin belirli bir alanda, fenilketonüride eksik uzmanlığını göstermektedir.
İkinci yarı, modası geçmiş bilginin en basit örneğidir. 2018'de Güney Kore'nin Pyeongchang kenti Kış Olimpiyatları'na, 2022'de ise Pekin Kış Olimpiyatları'na ev sahipliği yaptı. LLM'ler ikincisi hakkında bilgi sahibi değildir.
LLM'lerdeki verilerle ilgili yanılsamaların esas olarak yanlış veri kaynaklarından ve yetersiz veri kullanımından kaynaklandığı görülebilir. Veri kaynaklarındaki yanlış bilgi ve doğal önyargı, yalnızca parodi dezenformasyonu yaymakla kalmaz, aynı zamanda çeşitli halüsinasyon biçimlerine yol açan önyargılı çıktılar da ortaya çıkarır.
LLM'lerin sahip olduğu bilginin sınırlamaları, belirli bir alandaki bilgiyle uğraşırken veya hızlı bir şekilde güncellenen olgusal bilgilerle karşılaşıldığında ortaya çıkar.
Veri kullanımı söz konusu olduğunda, LLM'ler yanlış korelasyonları yakalama eğilimindedir, bilgiyi (özellikle uzun kuyruklu bilgileri) ve karmaşık akıl yürütme senaryolarını hatırlamada zorluklar sergileyerek halüsinasyonları daha da şiddetlendirir.
Bu zorluklar, veri kalitesini iyileştirmeye ve modelin olgusal bilgileri daha etkili bir şekilde öğrenme ve hatırlama yeteneğini geliştirmeye yönelik acil ihtiyacı vurgulamaktadır.
Eğitim
Şimdi, inceleme LLM'lerin eğitim aşamasına dönüyor.
LLM'nin eğitim süreci iki ana aşamadan oluşmaktadır:
LLM'lerin genel temsilleri öğrendiği ve geniş bir bilgi yelpazesini yakaladığı eğitim öncesi aşama.
LLM'lerin kullanıcı talimatlarını temel insani değerlerle daha iyi hizalamak için ayarlandığı hizalama aşaması. Bu süreç LLM için iyi bir performansla sonuçlanmış olsa da, bu aşamalardaki herhangi bir eksiklik istemeden halüsinasyonlara yol açabilir.
Ön eğitim, büyük bir külliyatta nedensel dili modellemek için genellikle transformatör tabanlı bir mimariyi benimseyen LLM'lerin temel aşamasıdır.
Bununla birlikte, doğal mimari tasarım ve araştırmacılar tarafından kullanılan özel eğitim stratejileri, halüsinasyonlarla ilgili problemler yaratabilir. Yukarıda bahsedildiği gibi, LLM'ler tipik olarak, nedensel dil modelleme hedefleri aracılığıyla temsiller elde eden GPT tarafından oluşturulan paradigmayı takip eden transformatör tabanlı mimarileri benimser ve OPT ve Llama-2 gibi modeller bu çerçevenin örnekleridir.
Yapısal eksikliklere ek olarak, eğitim stratejileri de çok önemli bir rol oynamaktadır. Otoregresif üretken modelin eğitimi ve çıkarımı arasındaki farkın, maruz kalma yanlılığı olgusuna yol açtığına dikkat etmek önemlidir.
Ve genellikle iki ana süreci içeren hizalama aşamasında, denetimli ince ayar ve insan geri bildiriminden (RLHF) pekiştirmeli öğrenme, LLM yeteneklerinin kilidini açmada ve bunları insan tercihleriyle uyumlu hale getirmede kritik bir adımdır.
Hizalama, LLM yanıtlarının kalitesini önemli ölçüde artırabilirken, aynı zamanda halüsinasyon riski de taşır.
İki ana husus vardır: yeteneklerin yanlış hizalanması ve inancın yanlış hizalanması.
Halüsinasyonlar nasıl tespit edilir?
LLM'lerdeki illüzyonları tespit etmek, oluşturulan içeriğin güvenilirliğini ve inanılırlığını sağlamak için kritik öneme sahiptir.
Geleneksel önlemler büyük ölçüde kelime örtüşmesine dayanır ve güvenilir ve halüsinasyon içeriği arasındaki ince farkları ayırt edemez.
Bu zorluk, LLM halüsinasyonları için daha gelişmiş tespit yöntemlerine olan ihtiyacı vurgulamaktadır. Bu halüsinasyonların çeşitliliği göz önüne alındığında, araştırmacılar tespit yöntemlerinin buna göre değiştiğini belirtti.
İşte ayrıntılı olarak sadece bir örnek:
Dış gerçekleri arayın
Aşağıdaki şekilde gösterildiği gibi, LLM çıktısında yanlışlıklar olduğu gerçeğini etkili bir şekilde belirtmek için, model tarafından üretilen içeriği güvenilir bilgi kaynaklarıyla doğrudan karşılaştırmak daha sezgisel bir stratejidir.
Bu yaklaşım, doğrulama görevlerinin iş akışına çok iyi uyar. Bununla birlikte, geleneksel doğruluk kontrolü yöntemleri genellikle pratik nedenlerle basitleştirilmiş varsayımlar kullanır ve bu da karmaşık gerçek dünya senaryolarına uygulandığında önyargıya yol açabilir.
Bu sınırlamaları kabul eden bazı araştırmacılar, gerçek dünya senaryolarına, yani zaman kısıtlamalı, küratörsüz çevrimiçi kaynaklardan elde edilen kanıtlara daha fazla vurgu yapılması gerektiğini öne sürdüler.
Orijinal belge alımı, ayrıntılı arama, orijinallik sınıflandırması ve daha fazlası dahil olmak üzere birden çok bileşeni entegre eden tam otomatik bir iş akışına öncülük ettiler.
ELBETTE, ÖZELLIKLE UZUN METIN ÜRETIMI IÇIN INCE TANELI BIR GERÇEK ÖLÇÜSÜ OLAN FACTSCORE GIBI BAŞKA YAKLAŞIMLAR GELIŞTIREN BIR DIZI BAŞKA ARAŞTIRMACI VAR.
Diğer yöntemler, aşağıdaki şekilde gösterildiği gibi belirsizlik tahminini içerir.
Aşağıdaki şekilde gösterildiği gibi, sadakat yanılsamalarının tespiti üzerine bir dizi çalışma da vardır.
Bunlar, gerçeklere dayalı metrikleri içerir: Oluşturulan ve kaynak içerik arasındaki olgusal örtüşmeyi tespit ederek aslına uygunluğu değerlendirme.
Sınıflandırıcı tabanlı metrikler: Oluşturulan ve kaynak içerik arasındaki ilişki derecesini ayırt etmek için eğitilmiş sınıflandırıcılardan yararlanın.
QA tabanlı ölçümler: Kaynak ve oluşturulan içerik arasındaki bilgi tutarlılığını doğrulamak için bir soru yanıtlama sisteminden yararlanın.
Belirsizlik tahmini: Modelin üretilen çıktısına olan güvenini ölçerek aslına uygunluğu değerlendirir.
Ölçüme dayalı yaklaşım: LLM'nin, oluşturulan içeriğin aslına uygunluğunu değerlendirmek için belirli stratejiler kullanarak bir değerlendirici olarak hareket etmesine izin verin.
Bundan sonra, Harbin Teknoloji Enstitüsü ekibi, halüsinasyonları hafifletmek için daha yeni yöntemleri de sıraladı ve yukarıda belirtilen sorunlar için uygulanabilir çözümler sağladı.
Özet
Sonuç olarak, makalenin sonunda, Harbin Teknoloji Enstitüsü'ndeki araştırmacılar, bu kapsamlı incelemede, büyük dil modellerinde halüsinasyon fenomeni hakkında derinlemesine bir çalışma yaptıklarını, altta yatan nedenlerin karmaşıklığını araştırdıklarını, öncü tespit yöntemleri ve ilgili kriterler ve etkili azaltma stratejileri.
Geliştiriciler bu konuda çok ilerleme kaydetmiş olsa da, büyük dil modellerinde halüsinasyonlar sorunu hala daha fazla çalışılması gereken devam eden bir endişe kaynağıdır.
Ek olarak, bu makale güvenli ve güvenilir yapay zekayı teşvik etmek için yol gösterici bir ışık olarak kullanılabilir.
Harbin Teknoloji Enstitüsü ekibi, karmaşık illüzyon probleminin araştırılması yoluyla yüce idealleri olan bu insanlar için değerli bilgiler sağlamayı ve AI teknolojisinin daha güvenilir ve daha güvenli bir yönde geliştirilmesini teşvik etmeyi umduğunu söyledi.
Kaynaklar:
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Harbin Teknoloji Enstitüsü ekibinin 50 sayfalık incelemesi yayınlandı
Orijinal kaynak: Yeni Zhiyuan
Halüsinasyonlar, eski dostlar.
LLM'ler görüş alanımıza girdiğinden beri, illüzyon sorunu her zaman sayısız geliştiriciyi rahatsız eden bir engel olmuştur.
Tabii ki, büyük dil modeli halüsinasyonları konusunda sayısız çalışma yapılmıştır.
Son zamanlarda, Harbin Teknoloji Enstitüsü ve Huawei'den bir ekip, LLM halüsinasyonları ile ilgili en son gelişmelere kapsamlı ve derinlemesine bir genel bakış sağlayan 50 sayfalık bir inceleme yayınladı.
LLM halüsinasyonlarının yenilikçi bir sınıflandırmasından başlayarak, bu derleme halüsinasyonlara katkıda bulunabilecek faktörleri araştırmakta ve halüsinasyonları tespit etmek için yöntemlere ve kriterlere genel bir bakış sunmaktadır.
Bunlar arasında, halüsinasyonları azaltmak için sektördeki en temsili yöntemlerden bazıları olmalıdır.
Bu incelemede neden bahsettiğimize bir göz atalım.
Derinlemesine çalışmak istiyorsanız, makalenin altındaki referans bağlantısına gidebilir ve orijinal makaleyi okuyabilirsiniz.
İllüzyon Kategorisi
İlk olarak, halüsinasyon türlerine bir göz atalım.
Sağda metin özeti modelindeki aslına uygunluk sorunu var ve LLM'nin bu haberi gördükten sonra yılı doğrudan yanlış özetlediğini görebilirsiniz.
Bu derlemede araştırmacılar, verilerden eğitime ve çıkarım aşamasına kadar bir dizi katkıda bulunan faktörü kapsayan, LLM'lerdeki halüsinasyonların kökenlerinin derinlemesine bir analizini sunmaktadır.
Bu çerçevede, araştırmacılar verilerle ilgili olası nedenlere işaret etmektedir. Örneğin, kusurlu veri kaynakları ve optimize edilmemiş veri kullanımı veya ön eğitim ve hizalama sırasında halüsinasyonlara neden olabilecek eğitim stratejilerinin yanı sıra kod çözme stratejilerinden ve çıkarım sürecindeki kusurlu temsillerden kaynaklanan rastgelelik bunlardan birkaçıdır.
Buna ek olarak, araştırmacılar, LLM'lerde halüsinasyonların tespiti için özel olarak tasarlanmış çeşitli etkili yöntemlerin yanı sıra, LLM halüsinasyonları ile ilişkili kriterlere ayrıntılı bir genel bakış ve LLM'lerin halüsinasyonlar üretme derecesini ve tespit yöntemlerinin etkinliğini değerlendirmek için bir test platformu olarak kapsamlı bir genel bakış sunmaktadır.
Aşağıdaki şekil, bu incelemenin, önceki araştırmaların ve makalelerin içeriğini göstermektedir.
Gerçek tipi halüsinasyonlar:
a) Gerçeklerdeki tutarsızlıklar
Ay'a ilk inen insanın kim olduğu sorulduğunda, LLM bunun Armstrong değil Gagarin olduğunu söyledi. Bu tür bir cevap gerçeklerle tutarsızdır, çünkü gerçekten de Gagarin'in kendisi vardır, bu yüzden bu bir uydurma değildir.
b) Gerçeklerin tahrif edilmesi
LLM'den tek boynuzlu atların kökenini tanımlaması istendiğinde, LLM dünyada tek boynuzlu at diye bir şey olmadığına dikkat çekmedi, bunun yerine büyük bir paragraf oluşturdu. Gerçek dünyada bulunmayan bu tür şeylere fabrikasyon denir.
Aslına uygunluk yanılsaması ayrıca şunları içerir: talimat-cevap tutarsızlıkları, metinsel tutarsızlıklar ve mantıksal tutarsızlıklar.
a) Talimat-cevap tutarsızlıkları
Bir LLM'den bir soruyu çevirmesi istendiğinde, LLM tarafından verilen cevap çıktısı aslında soruyu cevaplar ve tercüme edilmez. Bu nedenle talimatlar ve cevaplar arasında bir tutarsızlık.
b) Metindeki tutarsızlıklar
Bu tür tutarsızlıklar genelleme görevlerinde daha yaygındır. LLM verilen metni görmezden gelebilir ve ortaya çıkacak bir hatayı özetleyebilir.
c) Mantıksal tutarsızlıklar
2x+3=11 denklemine bir çözüm vermesi istendiğinde, ilk adım LLM, 2x=8 elde etmek için her iki taraftan aynı anda 3 çıkarıldığını belirtir.
8 bölü 2 nasıl 3'e eşit olabilir?
Halüsinasyon İlkesi
VERİ
Daha sonra, inceleme halüsinasyonların ilkelerini sıralamaya başlar.
Yanlış bilgi ve önyargı. Büyük ölçekli derlemlere yönelik artan talep göz önüne alındığında, büyük miktarda veriyi verimli bir şekilde toplamak için sezgisel veri toplama yöntemleri kullanılmaktadır.
Bu yaklaşım büyük miktarda veri sağlarken, istemeden yanlış bilgi verebilir ve taklit hataları riskini artırabilir. Ek olarak, sosyal önyargılar da yanlışlıkla LLM'lerin öğrenme sürecine dahil edilebilir.
Bu önyargılar temel olarak tekrarlama önyargısını ve çeşitli sosyal önyargıları içerir.
LLM ön eğitiminin temel amacının eğitim dağılımını taklit etmek olduğunu bilmek önemlidir. Bu nedenle, LLM'ler olgusal olarak yanlış veriler üzerinde eğitildiğinde, yanlışlıkla bu yanlış verileri artırabilir ve bu da gerçekte yanlış olduğu yanılsamasına yol açabilir.
Sinir ağları, özellikle büyük dil modelleri, eğitim verilerini ezberlemek için içsel bir eğilime sahiptir. Çalışmalar, model boyutu arttıkça bu bellek eğiliminin arttığını göstermiştir.
Bununla birlikte, eğitim öncesi verilerde yinelenen bilgiler olması durumunda, doğal bellek yeteneği sorunlu olabilir. Bu tekrar, LLM'yi genellemeden ezberlemeye kaydırır, sonunda bir tekrarlama yanlılığı yaratır, yani LLM, yinelenen verileri hatırlamaya çok fazla öncelik verir, halüsinasyonlara yol açar ve nihayetinde istenenden sapar.
Bu önyargılara ek olarak, veri dağılımındaki farklılıklar da halüsinasyonların potansiyel nedenleridir.
Bir sonraki durum, LLM'lerin genellikle bilgi sınırlarına sahip olmasıdır.
Çok sayıda ön eğitim külliyatı, LLM'ler için çok çeşitli olgusal bilgiler sağlarken, kendi sınırlamaları vardır. Bu sınırlama temel olarak iki açıdan kendini gösterir: güncel olgusal bilgi ve alan bilgisi eksikliği.
LLM'ler, genel alandaki çeşitli aşağı akış görevlerinde mükemmel performans göstermiş olsalar da, bu genel amaçlı LLM'ler öncelikle çok çeşitli halka açık veri kümeleri üzerinde eğitildiğinden, uzmanlık alanındaki uzmanlıkları doğası gereği ilgili eğitim verilerinin eksikliği ile sınırlıdır.
Sonuç olarak, tıbbi ve yasal konular gibi alana özgü bilgi gerektiren konularla karşı karşıya kaldıklarında, bu modeller genellikle uydurma gerçekler olarak ortaya çıkan önemli halüsinasyonlar sergileyebilir.
Ek olarak, modası geçmiş gerçek bilgiler var. Alana özgü bilgi eksikliğine ek olarak, LLM'lerin bilgi sınırlarının bir başka doğal sınırlaması, güncel bilgi edinme konusundaki sınırlı yetenekleridir.
LLM'lere gömülü olgusal bilginin net zaman sınırları vardır ve zamanla geçerliliğini yitirebilir.
Bu modeller eğitildikten sonra, iç bilgileri asla güncellenmez.
Ve dünyamızın dinamik ve sürekli değişen doğası göz önüne alındığında, bu bir zorluk teşkil ediyor. Zaman çerçevesinin ötesinde bir alan bilgisiyle karşı karşıya kaldıklarında, LLM'ler genellikle gerçekleri uydurmaya veya geçmişte doğru olabilecek ancak artık "geçinmek" için modası geçmiş cevaplar vermeye başvururlar.
Aşağıdaki şekilde, üst yarısı LLM'nin belirli bir alanda, fenilketonüride eksik uzmanlığını göstermektedir.
İkinci yarı, modası geçmiş bilginin en basit örneğidir. 2018'de Güney Kore'nin Pyeongchang kenti Kış Olimpiyatları'na, 2022'de ise Pekin Kış Olimpiyatları'na ev sahipliği yaptı. LLM'ler ikincisi hakkında bilgi sahibi değildir.
LLM'lerin sahip olduğu bilginin sınırlamaları, belirli bir alandaki bilgiyle uğraşırken veya hızlı bir şekilde güncellenen olgusal bilgilerle karşılaşıldığında ortaya çıkar.
Veri kullanımı söz konusu olduğunda, LLM'ler yanlış korelasyonları yakalama eğilimindedir, bilgiyi (özellikle uzun kuyruklu bilgileri) ve karmaşık akıl yürütme senaryolarını hatırlamada zorluklar sergileyerek halüsinasyonları daha da şiddetlendirir.
Bu zorluklar, veri kalitesini iyileştirmeye ve modelin olgusal bilgileri daha etkili bir şekilde öğrenme ve hatırlama yeteneğini geliştirmeye yönelik acil ihtiyacı vurgulamaktadır.
Eğitim
Şimdi, inceleme LLM'lerin eğitim aşamasına dönüyor.
LLM'nin eğitim süreci iki ana aşamadan oluşmaktadır:
LLM'lerin genel temsilleri öğrendiği ve geniş bir bilgi yelpazesini yakaladığı eğitim öncesi aşama.
LLM'lerin kullanıcı talimatlarını temel insani değerlerle daha iyi hizalamak için ayarlandığı hizalama aşaması. Bu süreç LLM için iyi bir performansla sonuçlanmış olsa da, bu aşamalardaki herhangi bir eksiklik istemeden halüsinasyonlara yol açabilir.
Ön eğitim, büyük bir külliyatta nedensel dili modellemek için genellikle transformatör tabanlı bir mimariyi benimseyen LLM'lerin temel aşamasıdır.
Bununla birlikte, doğal mimari tasarım ve araştırmacılar tarafından kullanılan özel eğitim stratejileri, halüsinasyonlarla ilgili problemler yaratabilir. Yukarıda bahsedildiği gibi, LLM'ler tipik olarak, nedensel dil modelleme hedefleri aracılığıyla temsiller elde eden GPT tarafından oluşturulan paradigmayı takip eden transformatör tabanlı mimarileri benimser ve OPT ve Llama-2 gibi modeller bu çerçevenin örnekleridir.
Yapısal eksikliklere ek olarak, eğitim stratejileri de çok önemli bir rol oynamaktadır. Otoregresif üretken modelin eğitimi ve çıkarımı arasındaki farkın, maruz kalma yanlılığı olgusuna yol açtığına dikkat etmek önemlidir.
Ve genellikle iki ana süreci içeren hizalama aşamasında, denetimli ince ayar ve insan geri bildiriminden (RLHF) pekiştirmeli öğrenme, LLM yeteneklerinin kilidini açmada ve bunları insan tercihleriyle uyumlu hale getirmede kritik bir adımdır.
Hizalama, LLM yanıtlarının kalitesini önemli ölçüde artırabilirken, aynı zamanda halüsinasyon riski de taşır.
İki ana husus vardır: yeteneklerin yanlış hizalanması ve inancın yanlış hizalanması.
Halüsinasyonlar nasıl tespit edilir?
LLM'lerdeki illüzyonları tespit etmek, oluşturulan içeriğin güvenilirliğini ve inanılırlığını sağlamak için kritik öneme sahiptir.
Geleneksel önlemler büyük ölçüde kelime örtüşmesine dayanır ve güvenilir ve halüsinasyon içeriği arasındaki ince farkları ayırt edemez.
Bu zorluk, LLM halüsinasyonları için daha gelişmiş tespit yöntemlerine olan ihtiyacı vurgulamaktadır. Bu halüsinasyonların çeşitliliği göz önüne alındığında, araştırmacılar tespit yöntemlerinin buna göre değiştiğini belirtti.
İşte ayrıntılı olarak sadece bir örnek:
Dış gerçekleri arayın
Aşağıdaki şekilde gösterildiği gibi, LLM çıktısında yanlışlıklar olduğu gerçeğini etkili bir şekilde belirtmek için, model tarafından üretilen içeriği güvenilir bilgi kaynaklarıyla doğrudan karşılaştırmak daha sezgisel bir stratejidir.
Bu yaklaşım, doğrulama görevlerinin iş akışına çok iyi uyar. Bununla birlikte, geleneksel doğruluk kontrolü yöntemleri genellikle pratik nedenlerle basitleştirilmiş varsayımlar kullanır ve bu da karmaşık gerçek dünya senaryolarına uygulandığında önyargıya yol açabilir.
Bu sınırlamaları kabul eden bazı araştırmacılar, gerçek dünya senaryolarına, yani zaman kısıtlamalı, küratörsüz çevrimiçi kaynaklardan elde edilen kanıtlara daha fazla vurgu yapılması gerektiğini öne sürdüler.
Orijinal belge alımı, ayrıntılı arama, orijinallik sınıflandırması ve daha fazlası dahil olmak üzere birden çok bileşeni entegre eden tam otomatik bir iş akışına öncülük ettiler.
ELBETTE, ÖZELLIKLE UZUN METIN ÜRETIMI IÇIN INCE TANELI BIR GERÇEK ÖLÇÜSÜ OLAN FACTSCORE GIBI BAŞKA YAKLAŞIMLAR GELIŞTIREN BIR DIZI BAŞKA ARAŞTIRMACI VAR.
Sınıflandırıcı tabanlı metrikler: Oluşturulan ve kaynak içerik arasındaki ilişki derecesini ayırt etmek için eğitilmiş sınıflandırıcılardan yararlanın.
QA tabanlı ölçümler: Kaynak ve oluşturulan içerik arasındaki bilgi tutarlılığını doğrulamak için bir soru yanıtlama sisteminden yararlanın.
Belirsizlik tahmini: Modelin üretilen çıktısına olan güvenini ölçerek aslına uygunluğu değerlendirir.
Ölçüme dayalı yaklaşım: LLM'nin, oluşturulan içeriğin aslına uygunluğunu değerlendirmek için belirli stratejiler kullanarak bir değerlendirici olarak hareket etmesine izin verin.
Bundan sonra, Harbin Teknoloji Enstitüsü ekibi, halüsinasyonları hafifletmek için daha yeni yöntemleri de sıraladı ve yukarıda belirtilen sorunlar için uygulanabilir çözümler sağladı.
Özet
Sonuç olarak, makalenin sonunda, Harbin Teknoloji Enstitüsü'ndeki araştırmacılar, bu kapsamlı incelemede, büyük dil modellerinde halüsinasyon fenomeni hakkında derinlemesine bir çalışma yaptıklarını, altta yatan nedenlerin karmaşıklığını araştırdıklarını, öncü tespit yöntemleri ve ilgili kriterler ve etkili azaltma stratejileri.
Geliştiriciler bu konuda çok ilerleme kaydetmiş olsa da, büyük dil modellerinde halüsinasyonlar sorunu hala daha fazla çalışılması gereken devam eden bir endişe kaynağıdır.
Ek olarak, bu makale güvenli ve güvenilir yapay zekayı teşvik etmek için yol gösterici bir ışık olarak kullanılabilir.
Harbin Teknoloji Enstitüsü ekibi, karmaşık illüzyon probleminin araştırılması yoluyla yüce idealleri olan bu insanlar için değerli bilgiler sağlamayı ve AI teknolojisinin daha güvenilir ve daha güvenli bir yönde geliştirilmesini teşvik etmeyi umduğunu söyledi.
Kaynaklar: