Mira, dağıtılmış düğümlerle yapay zeka güvenilirliğini nasıl artırıyor?

Yazan: Messari

Özet

Dağıtık doğrulama, Mira'nın bağımsız model ağı aracılığıyla AI çıktısını filtrelemesine olanak tanır ve gerçeklik güvenilirliğini artırır, yeniden eğitim veya merkezi denetim gerektirmeden yanıltmaları azaltır.

Konsensüs mekanizması, herhangi bir talebin onaylanmasından önce birden fazla bağımsız çalışan modelin uzlaşmasını gerektirir ve böylece tek bir modelin güvenini ikame eder.

Mira, her gün entegre uygulamalarda 30 milyar tokeni doğrulamakta ve 4.5 milyonun üzerinde kullanıcıya destek sağlamaktadır.

Mira'nın konsensüs süreci aracılığıyla üretim ortamında filtrelendiğinde, gerçeklik doğruluk oranı %70'ten %96'ya yükseldi.

Mira, doğrulamayı sohbet botları, finansal teknoloji araçları ve eğitim platformları gibi uygulamaların AI'sına doğrudan entegre ederek, nihai kullanıcı ürünü yerine altyapı işlevi görmektedir.

Mira tanıtımı

Mira, AI sistemlerinin çıktısını doğrulamayı amaçlayan bir protokoldür. Temel işlevi, merkeziyetsiz bir denetim / güven katmanı gibi çalışmaktır. AI modeli bir çıktı ürettiğinde (ister cevap ister özet), Mira, bu çıktının nihai kullanıcıya ulaşmadan önce içindeki "gerçek" beyanlarının güvenilirliğini değerlendirir.

Sistem, her AI çıktısını daha küçük taleplere bölerek çalışır. Bu iddialar, Mira ağındaki birden fazla doğrulayıcı tarafından bağımsız olarak değerlendirilir. Her düğüm, genellikle farklı bir mimariye, veri kümesine veya perspektife sahip kendi yapay zeka modelini çalıştırır. Model, doğru mu yoksa bağlamsal mı olduğuna karar vererek her iddiayı oylar. Nihai sonuç, fikir birliği mekanizması tarafından belirlenir: modellerin büyük çoğunluğu iddianın geçerliliği konusunda hemfikirse, Mira iddiayı onaylayacaktır. Bir anlaşmazlık varsa, talep işaretlenir veya reddedilir.

Nihai kararı verecek merkezi bir otorite veya gizli bir model yoktur. Bunun yerine, gerçek, dağıtılmış, çeşitli bir modelden ortaya çıkarak kolektif olarak belirlenir. Tüm süreç şeffaf ve denetlenebilir. Doğrulanmış her çıktı bir şifreleme sertifikasıyla birlikte gelir: hangi iddiaların değerlendirildiğini, hangi modellerin katıldığını ve nasıl oylandığını gösteren izlenebilir bir kayıt. Uygulamalar, platformlar ve hatta düzenleyiciler, çıktının Mira'nın doğrulama katmanını geçtiğini doğrulamak için bu sertifikayı kullanabilir.

Mira'nın ilhamı, yapay zeka entegrasyon teknolojisi ve blok zinciri konsensüs mekanizmalarından gelmektedir. Doğruluğu artırmak için tahminleri birleştirmek yerine, güvenilirliği belirlemek için değerlendirmeleri birleştirir. Dağıtık gerçeklik testinden geçmeyen çıktıları eler.

AI neden Mira gibi bir doğrulama sistemine ihtiyaç duyar?

Yapay zeka modelleri deterministik değildir, bu da demektir ki her zaman aynı isteme karşılık aynı çıktıyı vermezler ve ürettikleri sonuçların doğruluğunu garanti edemezler. Bu bir kusur değildir; doğrudan büyük dil modellerinin eğitim yönteminden kaynaklanmaktadır: bir sonraki etiketi belirlemek için kesinlik yerine olasılıkla tahmin yaparlar.

Bu olasılıksal özellik, yapay zeka sistemlerine esneklik kazandırır. Onlara yaratıcılık, bağlamsal farkındalık ve insana benzer yetenekler verir. Ancak bu, aynı zamanda onların doğal olarak şeyler yaratabileceği anlamına da gelir.

Sonuçlarını şimdiden görüyoruz. Air Canada'nın sohbet robotu, hiç var olmayan bir yas ücreti politikası hazırladı ve bunu bir kullanıcıya iletti. Kullanıcı, sohbet robotuna güvenecek kadar saftı, yanlış bilgilere dayanarak bir bilet rezervasyonu yaptı ve mali kayıplara uğradı. Mahkeme, sohbet robotunun halüsinasyonlarından havayolunun sorumlu olduğuna karar verdi. Kısacası, yapay zeka kendinden emin bir şekilde iddiada bulundu ve şirket bunun bedelini ödedi.

Bu sadece bir örnek. Halüsinasyonlar yaygındır. Yanlış alıntı yapan araştırma özetlerinde, yanlış tarihsel gerçekler sunan eğitim uygulamalarında ve yanlış veya yanıltıcı ifadeler içeren yapay zeka tarafından yazılmış haber özetlerinde görünürler. Bunun nedeni, bu çıktıların genellikle sorunsuz ve yetkili olması ve kullanıcıların bunların doğru olduğuna inanma eğiliminde olmalarıdır.

Aldüzyülerin yanı sıra daha fazla sistemsel sorun var:

Önyargı: Yapay zeka modelleri, eğitim verilerindeki önyargıları yansıtabilir ve güçlendirebilir. Bu önyargı her zaman açık değildir. İfade, ton veya öncelik gibi şeylerle ince olabilir. Örneğin, işe alım asistanları belirli bir demografiye karşı sistematik olarak önyargılı olabilir. Finansal araçlar, çarpıtılmış veya damgalayıcı bir dil kullanan risk değerlendirmeleri oluşturabilir.

Belirsizlik: Aynı modele aynı soruyu iki kez sorduğunuzda, iki farklı cevap alabilirsiniz. İpucu biraz değiştiğinde, sonuç beklenmedik değişiklikler gösterebilir. Bu tutarsızlık, AI çıktılarının denetlenmesini, yeniden oluşturulmasını veya uzun vadeli bağımlılık haline gelmesini zorlaştırır.

Kara kutunun doğası: Yapay zeka sistemleri bir cevap verdiğinde, genellikle herhangi bir açıklama veya izlenebilir bir akıl yürütme sunmaz. Sonuçlarını gösteren net ipuçları yoktur. Bu nedenle, model hata yaptığında, nedeni teşhis etmek veya düzeltmek zorlaşır.

Merkezi Kontrol: Şu anda çoğu yapay zeka sistemi, birkaç büyük şirketin kontrolündeki kapalı modellere sahiptir. Eğer modelde bir hata, önyargı veya sansür varsa, kullanıcıların seçenekleri sınırlıdır. İkinci bir görüş, şeffaf bir itiraz süreci veya çelişkili açıklamalar yoktur. Bu, zorlayıcı veya doğrulaması güç bir merkezi kontrol yapısına yol açmaktadır.

Mevcut AI çıktısının güvenilirliğini artırma yöntemleri ve bunların sınırlamaları

Şu anda AI çıktısının güvenilirliğini artırmak için çeşitli yöntemler bulunmaktadır. Her bir yöntem kısmi bir değer sunarken, kritik uygulamaların gerektirdiği güven düzeyine ulaşma konusunda sınırlamaları vardır.

İnsan-robot işbirliği (HITL): Bu yaklaşım, bir insanın yapay zeka çıktısını gözden geçirmesini ve onaylamasını içerir. Düşük hacimli kullanım durumlarında etkili bir şekilde çalışır. Ancak, arama motorları, destek botları veya koçluk uygulamaları gibi günde milyonlarca yanıt üreten sistemler için hızla bir darboğaz haline gelebilir. Manuel incelemeler yavaştır, maliyetlidir ve önyargıya ve tutarsızlıklara eğilimlidir. Örneğin, xAI'den Grok, yanıtları manuel olarak değerlendirmek ve iyileştirmek için yapay zeka öğretmenlerini kullanır. Bu geçici bir çözüm ve Mira bunu düşük kaldıraçlı bir çözüm olarak görüyor: ölçeklenmiyor ve yapay zeka mantığında var olan ve doğrulanamayan temel sorunları çözmüyor.

Kural filtreleri: Bu sistemler, devre dışı bırakılmış terimleri işaretlemek veya çıktıyı yapılandırılmış bir bilgi grafiğiyle karşılaştırmak gibi sabit kontrol yöntemleri kullanır. Daha dar bağlamlar için uygun olsalar da, yalnızca geliştiricinin beklentilerini karşılayan durumlar için uygundurlar. Yeni veya açık uçlu sorgularla başa çıkamazlar ve ince hatalar veya belirsiz iddialarla mücadele ederler.

Kendini doğrulama: Bazı modeller, güven düzeylerini değerlendirmek veya yanıtlarını değerlendirmek için yardımcı modeller kullanma mekanizmaları içerir. Ancak, yapay zeka sistemlerinin kendi hatalarını tanımada zayıf performans gösterdiği bilinmektedir. Yanlış yanıtlara aşırı güven, uzun süredir var olan bir sorundur ve iç geri bildirim genellikle bunu düzeltemez.

Topluluk modelleri: Bazı sistemlerde, birden fazla model birbiriyle çapraz kontrol edilir. Bu, kalite standartlarını yükseltebilse de, geleneksel entegrasyon modelleri genellikle merkezi ve homojendir. Tüm modeller benzer eğitim verilerini paylaşıyorsa veya aynı satıcıdan geliyorsa, aynı kör noktaları paylaşabilirler. Mimarilerin ve bakış açılarının çeşitliliği sınırlı olacaktır.

Mira, algılama sorunlarını çözmeye kendini adamıştır. Amacı, yanılsamaları yakalayıp ortadan kaldırabilen bir ortam yaratmak, çeşitli modellerle önyargıları asgariye indirmek, çıktıların tekrar doğrulanabilir olmasını sağlamak ve gerçeklik doğrulama sürecini kontrol edebilecek tek bir varlık olmamasıdır. Mira sisteminin nasıl çalıştığını araştırarak, yukarıda belirtilen her sorunu yenilikçi bir şekilde çözmek mümkündür.

Mira AI güvenilirliğini nasıl artırabilir

Merkezileştirilmiş ve tek bir doğruluk kaynağına dayanan yapay zeka güvenilirliğine yönelik mevcut yaklaşımlar farklıdır. Mira farklı bir model tanıttı. Merkezi olmayan doğrulamayı mümkün kılar, protokol düzeyinde fikir birliği oluşturur ve güvenilirlik davranışını güçlendirmek için ekonomik teşvikler kullanır. Mira, bağımsız bir ürün veya yukarıdan aşağıya gözetim aracı değil, herhangi bir AI sistemine entegre edilebilen modüler bir altyapı katmanıdır.

Bu protokolün tasarımı birkaç temel ilkeye dayanmaktadır:

Gerçeklerin doğruluğu bir modelin çıktısına bağlı olmamalıdır.

Doğrulama, sürekli insan gözetimine dayanamayacak şekilde kendi kendine olmalıdır.

Güven, merkezi kontrol yerine bağımsız bir protokole dayandırılmalıdır.

Mira, yapay zeka doğrulamasına dağıtılmış bilgi işlem ilkelerini uygular. Politika önerisi, finansal özet veya sohbet botu yanıtı gibi bir çıktı gönderildiğinde, önce daha küçük bilgi beyanlarına bölünür. Bu iddialar ayrı sorular veya ifadeler olarak oluşturulur ve doğrulayıcı düğümlerden oluşan bir ağa yönlendirilir.

Her bir düğüm, farklı AI modelleri veya yapılandırmaları çalıştırır ve kendisine atanmış beyanları bağımsız olarak değerlendirir. Aşağıdaki üç yargıdan birini döndürür: doğru, yanlış veya belirsiz. Ardından, Mira sonuçları geri bildirir. Eğer yapılandırılabilir mutlak çoğunluk eşiği karşılanıyorsa, beyan doğrulanır. Karşılanmıyorsa, etiketlenir, atılır veya uyarı döner.

Mira'nın dağıtık tasarımı çeşitli yapısal avantajlara sahiptir:

Aşırılık ve çeşitlilik: Farklı mimariler, veri setleri ve bakış açılarına sahip modellerle beyanları çapraz kontrol etme.

Hata toleransı: Bir modeldeki bir arıza veya hata, birçok modelde tekrar meydana gelme olasılığı düşüktür.

Şeffaflık: Her bir doğrulama sonucu zincirde kaydedilir, hangi modellerin katıldığı ve nasıl oyladıkları dahil olmak üzere denetlenebilir ipuçları sağlar.

Otonomi: Mira sürekli paralel çalışır, insan müdahalesine gerek yoktur.

Ölçeklenebilirlik: Bu sistem her gün on milyarlarca tokenlık büyük iş yüklerini işleyebilir.

Mira'nın temel görüşleri istatistiklere dayanmaktadır: tek bir model halüsinasyon görebilir veya önyargıyı yansıtabilirken, birden fazla bağımsız sistemin aynı hatayı aynı şekilde yapma olasılığı çok daha düşüktür. Protokol, güvenilmez içeriği filtrelemek için bu çeşitlilikten yararlanır. Mira'nın ilkesi, topluluk öğrenimine benzer, ancak fikri, gerçek dünyadaki yapay zeka süreçlerine yerleştirilebilen, dağıtılmış, doğrulanabilir ve kriptoekonomik olarak güvenli bir sistem olacak şekilde genişletir.

Düğüm Yetkilisi ve Hesaplama Kaynakları

Mira Network'ün merkeziyetsiz doğrulama altyapısı, doğrulayıcı düğümleri çalıştırmak için gereken hesaplama kaynaklarını sağlayan küresel katkıcılar topluluğu tarafından desteklenmektedir. Bu katkıcılara düğüm vekilleri denir ve protokolün AI çıktılarının işlenmesi ve doğrulanması için üretim ölçeğini genişletmede kritik bir rol oynamaktadır.

Düğüm vekili nedir?

Düğüm sorumlusu, kendi başına bir doğrulayıcı düğümü işletmek yerine, doğrulanmış bir düğüm operatörüne GPU bilgi işlem kaynakları kiralayan veya sağlayan bir kişi veya kuruluştur. Bu delegasyon modeli, katılımcıların karmaşık yapay zeka modellerini veya düğüm yazılımlarını yönetmek zorunda kalmadan Mira'nın altyapısına katkıda bulunmalarına olanak tanır. İlkeler, GPU kaynaklarına erişim sağlayarak düğüm operatörlerinin paralel olarak daha fazla doğrulama gerçekleştirmesini sağlayarak sistemin kapasitesini ve sağlamlığını artırır.

Düğüm delegeleri, katılımlarından dolayı ekonomik teşvikler elde ederler. Sağladıkları hesaplama gücünün bir karşılığı olarak, destekledikleri düğümlerin gerçekleştirdiği doğrulama iş yükü ve kalite ile bağlantılı ödüller alacaklardır. Bu, ağ ölçeklenebilirliğinin topluluk katılımıyla doğrudan ilişkili olduğu ve merkeziyetsiz altyapı yatırımlarından bağımsız bir merkeziyetsiz teşvik yapısı oluşturur.

Düğüm işletmecileri kimler tarafından sağlanır?

Hesaplama kaynakları, merkeziyetsiz altyapı ekosisteminin ana katılımcıları olan Mira'nın kurucu düğüm işletmecisi ortaklarından gelmektedir:

Io.Net: GPU hesaplaması için merkeziyetsiz fiziksel altyapı ağı (DePIN), ölçeklenebilir ve maliyet etkin GPU kaynakları sunar.

Aethir: Yapay zeka ve oyun odaklı, kurumsal düzeyde bir GPU hizmet sağlayıcısı, dağıtılmış bulut bilişim altyapısı sunmaktadır.

Hyperbolik: AI geliştirme için ekonomik ve uyumlu GPU kaynakları sağlayan açık bir AI bulut platformu.

Exabits: AI merkeziyetsiz bulut bilişimin öncüsü, GPU kıtlığı sorununu çözüyor ve kaynak tahsisini optimize ediyor.

Spheron: Merkeziyetsiz bir platform olan Spheron, web uygulaması dağıtımını basitleştirir ve şeffaf ve doğrulanabilir çözümler sunar.

Her iş ortağı, Mira ağında doğrulayıcı düğümler çalıştırarak yapay zeka çıktısını geniş ölçekte doğrulamak için yetkilendirilmiş bilgi işlem gücünden yararlanır. Katkıları, Mira'nın hız, hata toleransı ve ademi merkeziyetçiliği korurken günde milyarlarca jetonu işleyerek yüksek doğrulama verimini korumasını sağladı.

Not: Her katılımcı yalnızca bir düğüm yetkilisi lisansı satın alabilir. Kullanıcı, gerçek katılımını kanıtlamak için "yardımcı video doğrulama" KYC sürecinden geçmelidir.

Mira'nın AI alanındaki geniş çapta kullanım durumu ve veri desteği

Ekip tarafından sağlanan verilere göre, Mira ağı her gün 3 milyardan fazla tokeni doğruluyor. Bir dil modelinde belirteç, genellikle bir sözcük parçacığı, kısa bir sözcük veya noktalama işareti gibi küçük bir metin birimini ifade eder. Örneğin, "Mira doğrulama çıktısı" ifadesi birden çok belirtece bölünecektir. Bu raporlama hacmi, Mira'nın sohbet asistanları, eğitim platformları, fintech ürünleri ve API'leri kullanan dahili araçlar dahil olmak üzere çeşitli entegrasyonlarda çok sayıda içerik üzerinde çalıştığını gösteriyor. İçerik düzeyinde, bu verim günde milyonlarca paragrafın değerlendirilmesine eşittir.

Raporlara göre, Mira'nın ekosistemi (ortak proje dahil) 4,5 milyondan fazla bağımsız kullanıcıyı destekliyor ve günlük aktif kullanıcı sayısı yaklaşık 500.000. Bu kullanıcılar, Klok'un doğrudan kullanıcılarını ve Mira doğrulama katmanını arka planda entegre eden üçüncü taraf uygulamaların son kullanıcılarını içeriyor. Çoğu kullanıcı Mira ile doğrudan etkileşimde bulunmasa da, sistem sessiz bir doğrulama katmanı işlevi görüyor ve AI tarafından üretilen içeriğin son kullanıcıya ulaşmadan önce belirli bir doğruluk eşiğine ulaşmasını sağlamaya yardımcı oluyor.

Mira'nın ekibi tarafından hazırlanan bir araştırma makalesine göre, daha önce eğitim ve finans gibi alanlarda olgusal olarak doğru olan büyük dil modellerinin olgusal doğruluk oranı yaklaşık %70'ti, ancak şimdi Mira'nın fikir birliği süreci tarafından tarandıktan sonra %96 doğrulukla doğrulandılar. Bu geliştirmelerin modelin kendisini yeniden eğitmeden elde edilebileceğini unutmamak önemlidir. Bunun yerine, bu iyileştirmeler Mira'nın filtreleme mantığından kaynaklanmaktadır. Sistem, bağımsız olarak çalışan birden fazla modelin aynı fikirde olmasını gerektirerek güvenilmez içeriği filtreler. Bu etki, entegre uygulamalarda %90 oranında azaldığı bildirilen yapay zeka tarafından üretilen, doğrulanmamış yanlış bilgiler olan halüsinasyonlar için özellikle önemlidir. Halüsinasyonlar genellikle spesifik ve tutarsız olduğundan, Mira'nın konsensüs mekanizmasını geçmeleri pek olası değildir.

Mira Protokolü, olgusal güvenilirliği artırmanın yanı sıra açık katılımı desteklemek için tasarlanmıştır. Doğrulama, merkezi bir inceleme ekibiyle sınırlı değildir. Teşvikleri uyumlu hale getirmek için Mira, bir mali teşvikler ve cezalar sistemi benimsemiştir. Tutarlı bir şekilde fikir birliğini takip eden doğrulayıcılara performansa dayalı ödeme yapılırken, manipüle edilmiş veya yanlış kararlar veren doğrulayıcılar cezalarla karşı karşıya kalacaktır. Bu yapı dürüst davranışı teşvik eder ve farklı model konfigürasyonları arasındaki rekabeti teşvik eder. Mira, merkezi yönetişime olan bağımlılığı ortadan kaldırarak ve teşvikleri protokol katmanına yerleştirerek, çıktı standartlarından ödün verilmemesini sağlarken yüksek trafikli ortamlarda ölçeklenebilir merkezi olmayan doğrulamaya olanak tanır.

Sonuç

Mira, yapay zekadaki en acil zorluklardan birine yapısal bir çözüm sunar: çıktı sonuçlarının geniş ölçekte doğrulanmasına güvenme yeteneği. Mira, olaydan sonra tek bir modelin güven düzeyine veya insan denetimine güvenmek yerine, yapay zeka üretimine paralel olarak çalışan merkezi olmayan bir doğrulama katmanı sunar. Sistem, çıktıyı gerçek beyanlara ayırarak, bunları bağımsız doğrulayıcılara dağıtarak ve bir fikir birliği mekanizması uygulayarak desteklenmeyen içeriği filtreler. Modeli yeniden eğitmeye veya denetimi merkezileştirmeye gerek kalmadan güvenilirliği artırır.

Veriler, benimseme oranının ve olgusal doğruluğun önemli ölçüde iyileştirildiğini ve AI halüsinasyonları olgusunun büyük ölçüde azaldığını gösteriyor. Mira artık sohbet arayüzleri, eğitim araçları ve finansal platformlar dahil olmak üzere çeşitli alanlara entegre edilmiştir ve hassas açıdan kritik uygulamalar için bir altyapı katmanı olarak ortaya çıkmaktadır. Protokoller olgunlaştıkça ve üçüncü taraf denetimleri daha yaygın hale geldikçe, Mira'nın şeffaflığı, tekrarlanabilirliği ve açık katılımı, yüksek hacimli veya düzenlenmiş ortamlarda çalışan yapay zeka sistemleri için ölçeklenebilir bir güven çerçevesi sağlayacaktır.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin