Verifikasi terdistribusi memungkinkan Mira untuk memfilter keluaran AI melalui jaringan model independen untuk meningkatkan keandalan fakta, mengurangi ilusi tanpa perlu pelatihan ulang atau pengawasan terpusat.
Mekanisme konsensus mengharuskan beberapa model independen yang beroperasi untuk mencapai kesepakatan sebelum klaim apa pun disetujui, sehingga menggantikan kepercayaan pada satu model.
Mira memverifikasi 3 miliar token setiap hari dalam aplikasi terintegrasi, mendukung lebih dari 4,5 juta pengguna.
Ketika output disaring melalui proses konsensus Mira di lingkungan produksi, akurasi fakta meningkat dari 70% menjadi 96%.
Mira bertindak sebagai infrastruktur alih-alih produk untuk pengguna akhir dengan mengintegrasikan verifikasi langsung ke dalam AI aplikasi seperti chatbot, alat fintech, dan platform pendidikan.
Mira memperkenalkan
Mira adalah protokol yang dirancang untuk memvalidasi output sistem AI. Fungsi intinya mirip dengan lapisan audit/kepercayaan terdesentralisasi. Setiap kali model AI menghasilkan output, apakah itu jawaban atau ringkasan, Mira mengevaluasi apakah klaim "faktual" dalam output tersebut kredibel sebelum mencapai pengguna akhir.
Sistem ini bekerja dengan memecah setiap output AI menjadi klaim yang lebih kecil. Klaim ini dievaluasi secara independen oleh beberapa validator di jaringan Mira. Setiap node menjalankan model AI-nya sendiri, seringkali dengan arsitektur, kumpulan data, atau perspektif yang berbeda. Model memberikan suara pada setiap klaim, memutuskan apakah itu benar atau kontekstual. Hasil akhirnya ditentukan oleh mekanisme konsensus: jika sebagian besar model setuju dengan validitas klaim, Mira akan menyetujui klaim tersebut. Jika ada ketidaksepakatan, klaim tersebut akan ditandai atau ditolak.
Tidak ada otoritas pusat atau model tersembunyi yang membuat keputusan akhir. Sebaliknya, kebenaran ditentukan secara kolektif, muncul dari model yang terdistribusi dan beragam. Seluruh proses transparan dan dapat diaudit. Setiap output yang terverifikasi dilengkapi dengan sertifikat kriptografi: catatan yang dapat ditelusuri, menunjukkan pernyataan mana yang dievaluasi, model mana yang berpartisipasi, dan bagaimana mereka memberikan suara. Aplikasi, platform, bahkan lembaga pengatur dapat menggunakan sertifikat ini untuk mengonfirmasi bahwa output telah melewati lapisan verifikasi Mira.
Inspirasi Mira berasal dari teknologi integrasi kecerdasan buatan dan mekanisme konsensus blockchain. Ini tidak meningkatkan akurasi melalui agregasi prediksi, tetapi melalui agregasi evaluasi untuk menentukan kredibilitas. Ini akan melakukan penyaringan, menolak keluaran yang tidak lulus uji keaslian terdistribusi.
Mengapa AI memerlukan sistem verifikasi seperti Mira?
Model AI tidak deterministik, yang berarti mereka tidak selalu mengembalikan output yang sama untuk prompt yang sama, dan tidak ada jaminan tentang kebenaran hasil yang dihasilkan. Ini bukanlah suatu cacat; ini berasal langsung dari cara pelatihan model bahasa besar: memprediksi token berikutnya melalui probabilitas, bukan deterministik.
Probabilitas ini memberikan sistem kecerdasan buatan fleksibilitas. Ini memberikan mereka kreativitas, kemampuan untuk memahami konteks, dan kemampuan menyerupai manusia. Namun, ini juga berarti mereka dapat secara alami menciptakan hal-hal.
Kita sudah melihat konsekuensinya. Chatbot Air Canada membuat kebijakan tarif berkabung yang tidak ada sama sekali dan meneruskannya kepada pengguna. Pengguna cukup mudah tertipu untuk mempercayai chatbot, memesan tiket berdasarkan informasi palsu, dan menderita kerugian finansial. Pengadilan memutuskan bahwa maskapai tersebut bertanggung jawab atas halusinasi chatbot. Singkatnya, AI dengan percaya diri membuat klaim, dan perusahaan membayarnya.
Ini hanya sebuah contoh. Fenomena ilusi ada di mana-mana. Mereka muncul dalam ringkasan penelitian yang tidak akurat, aplikasi pendidikan yang menyajikan fakta sejarah yang salah, dan buletin berita yang ditulis oleh kecerdasan buatan yang berisi pernyataan yang salah atau menyesatkan. Ini karena output ini seringkali mengalir dengan baik dan terlihat otoritatif, sehingga pengguna sering kali mempercayainya.
Selain halusinasi, ada lebih banyak masalah sistemik:
Bias: Model AI dapat mencerminkan dan memperkuat bias dalam data pelatihan mereka. Bias ini tidak selalu jelas. Ini mungkin halus melalui hal-hal seperti frasa, nada, atau prioritas. Misalnya, asisten perekrutan mungkin secara sistematis bias terhadap demografi tertentu. Instrumen keuangan dapat menghasilkan penilaian risiko yang menggunakan bahasa yang terdistorsi atau menstigmatisasi.
Ketidakpastian: Menanyakan pertanyaan yang sama kepada model yang sama dua kali dapat menghasilkan dua jawaban yang berbeda. Mengubah sedikit petunjuk dapat menyebabkan hasil yang tidak terduga. Ketidakonsistenan ini membuat output AI sulit diaudit, direproduksi, atau menjadi bergantung dalam jangka panjang.
Esensi kotak hitam: Ketika sistem kecerdasan buatan memberikan jawaban, biasanya tidak memberikan penjelasan atau penalaran yang dapat dilacak. Tidak ada petunjuk yang jelas untuk menunjukkan kesimpulannya. Oleh karena itu, ketika model salah, sulit untuk mendiagnosis penyebabnya atau melakukan perbaikan.
Kontrol terpusat: Sebagian besar sistem AI saat ini adalah model tertutup yang dikendalikan oleh segelintir perusahaan besar. Jika modelnya cacat, bias, atau disensor, pilihan pengguna terbatas. Kurangnya pendapat kedua, proses keluhan yang transparan, atau interpretasi yang bertentangan. Hal ini menghasilkan struktur kontrol terpusat yang sulit untuk ditantang atau divalidasi.
Metode yang ada untuk meningkatkan keandalan output AI dan keterbatasannya
Saat ini ada berbagai cara untuk meningkatkan keandalan keluaran AI. Setiap metode menawarkan nilai tertentu, tetapi semuanya memiliki keterbatasan dan tidak dapat mencapai tingkat kepercayaan yang diperlukan untuk aplikasi kunci.
(HITL) kolaborasi manusia-robot: Pendekatan ini melibatkan manusia yang meninjau dan menyetujui output AI. Ini bekerja secara efektif dalam kasus penggunaan volume rendah. Namun, ini dapat dengan cepat menjadi hambatan bagi sistem yang menghasilkan jutaan respons per hari, seperti mesin pencari, bot pendukung, atau aplikasi pelatihan. Tinjauan manual lambat, mahal, dan rentan terhadap bias dan inkonsistensi. Misalnya, Grok xAI menggunakan tutor AI untuk mengevaluasi dan menyempurnakan jawaban secara manual. Ini adalah solusi sementara, dan Mira melihatnya sebagai solusi dengan leverage rendah: tidak berskala, dan tidak menyelesaikan masalah mendasar yang ada dalam logika AI yang tidak dapat diverifikasi.
Filter aturan: Sistem ini menggunakan metode pemeriksaan tetap, seperti menandai istilah yang dinonaktifkan atau membandingkan keluaran dengan grafik pengetahuan terstruktur. Meskipun mereka cocok untuk konteks yang lebih sempit, mereka hanya berlaku untuk situasi yang sesuai dengan harapan pengembang. Mereka tidak dapat menangani pertanyaan yang baru atau terbuka, dan sulit untuk menangani kesalahan halus atau pernyataan yang ambigu.
Validasi diri: Beberapa model berisi mekanisme untuk menilai kepercayaan diri mereka atau untuk mengevaluasi jawaban mereka menggunakan model sekunder. Namun, sistem AI terkenal buruk dalam mengidentifikasi kesalahannya sendiri. Terlalu percaya diri pada jawaban yang salah adalah masalah abadi, dan umpan balik internal sering gagal memperbaikinya.
Model terintegrasi: Dalam beberapa sistem, beberapa model saling memeriksa. Meskipun ini dapat meningkatkan standar kualitas, model terintegrasi tradisional biasanya bersifat terpusat dan homogen. Jika semua model berbagi data pelatihan yang serupa atau berasal dari penyedia yang sama, mereka mungkin memiliki titik buta yang sama. Keragaman arsitektur dan perspektif akan terbatas.
Mira berkomitmen untuk memecahkan masalah persepsi. Tujuannya adalah untuk menciptakan lingkungan yang menangkap dan menghilangkan ilusi, meminimalkan bias melalui beragam model, membuat output dapat diverifikasi secara reproduksi, dan tidak ada entitas tunggal yang dapat mengontrol proses verifikasi keaslian. Mempelajari cara kerja sistem Mira dapat memecahkan masing-masing masalah ini dengan cara yang baru.
Mira bagaimana meningkatkan keandalan AI
Saat ini, metode untuk meningkatkan keandalan AI (terpusat dan bergantung pada satu sumber fakta) berbeda. Mira memperkenalkan model yang berbeda. Ini menerapkan verifikasi terdesentralisasi, membangun konsensus di tingkat protokol, dan menggunakan insentif ekonomi untuk memperkuat perilaku keandalan. Mira bukanlah produk independen atau alat pengawasan dari atas ke bawah, melainkan sebagai lapisan infrastruktur modular yang dapat diintegrasikan ke dalam sistem AI mana pun.
Desain protokol ini didasarkan pada beberapa prinsip inti:
Akurasi fakta tidak seharusnya bergantung pada output suatu model.
Verifikasi harus bersifat mandiri dan tidak boleh bergantung pada pengawasan manusia yang berkelanjutan.
Kepercayaan seharusnya dibangun pada protokol yang independen, bukan pada kontrol terpusat.
Mira menerapkan prinsip komputasi terdistribusi pada verifikasi AI. Ketika output (seperti saran kebijakan, ringkasan keuangan, atau balasan chatbot) diajukan, itu pertama-tama dipecah menjadi pernyataan fakta yang lebih kecil. Pernyataan-pernyataan ini dibangun menjadi pertanyaan atau pernyataan diskrit dan diarahkan ke jaringan node validator.
Setiap node menjalankan model AI atau konfigurasi yang berbeda, dan secara independen mengevaluasi pernyataan yang ditugaskan. Ini akan mengembalikan salah satu dari tiga penilaian berikut: benar, salah, atau tidak pasti. Kemudian, Mira akan memberikan umpan balik hasil. Jika memenuhi ambang batas mayoritas absolut yang dapat dikonfigurasi, maka pernyataan tersebut diverifikasi. Jika tidak memenuhi, maka akan ditandai, dibuang, atau mengeluarkan peringatan.
Desain terdistribusi Mira memiliki berbagai keunggulan struktural:
Redundansi dan keragaman: memeriksa klaim melalui model dengan arsitektur, dataset, dan sudut pandang yang berbeda.
Toleransi kesalahan: Kegagalan atau kesalahan dalam suatu model tidak mungkin terjadi kembali di banyak model.
Transparansi: Setiap hasil verifikasi dicatat di blockchain, memberikan petunjuk yang dapat diaudit, termasuk model mana yang terlibat dan bagaimana mereka memberikan suara.
Otonomi: Mira beroperasi secara paralel tanpa intervensi manusia.
Skala: Sistem ini dapat menangani beban kerja yang sangat besar dari puluhan miliar token setiap hari.
Wawasan inti Mira didasarkan pada statistik: sementara model tunggal dapat berhalusinasi atau mencerminkan bias, beberapa sistem independen memiliki probabilitas yang jauh lebih rendah untuk membuat kesalahan yang sama dengan cara yang sama. Protokol memanfaatkan keragaman ini untuk menyaring konten yang tidak dapat diandalkan. Prinsip Mira mirip dengan pembelajaran ansambel, tetapi memperluas gagasan menjadi sistem yang terdistribusi, dapat diverifikasi, dan aman secara ekonomi kripto yang dapat disematkan dalam proses AI dunia nyata.
Penanggung jawab node dan sumber daya komputasi
Infrastruktur verifikasi terdesentralisasi Mira Network didukung oleh komunitas kontributor global yang menyediakan sumber daya komputasi yang diperlukan untuk menjalankan node verifikasi. Kontributor ini disebut sebagai delegator node, yang memainkan peran kunci dalam skala produksi pemrosesan dan verifikasi output AI dari protokol yang diperluas.
Apa itu delegator node?
Prinsipal node adalah orang atau entitas yang menyewakan atau menyediakan sumber daya komputasi GPU kepada operator node terverifikasi, daripada mengoperasikan node validator sendiri. Model delegasi ini memungkinkan peserta untuk berkontribusi pada infrastruktur Mira tanpa harus mengelola model AI atau perangkat lunak node yang kompleks. Dengan menyediakan akses ke sumber daya GPU, prinsipal memungkinkan operator node untuk melakukan lebih banyak validasi secara paralel, meningkatkan kapasitas dan ketahanan sistem.
Delegator node mendapatkan insentif ekonomi karena partisipasinya. Sebagai imbalan atas kontribusi daya komputasi, mereka akan menerima penghargaan yang terkait dengan jumlah pekerjaan verifikasi yang dilakukan oleh node yang mereka dukung dan kualitasnya. Ini menciptakan struktur insentif terdesentralisasi di mana skalabilitas jaringan terkait langsung dengan partisipasi komunitas, bukan investasi infrastruktur terdesentralisasi.
Siapa yang menyediakan operator node?
Sumber daya komputasi berasal dari mitra operator node pendiri Mira, yang merupakan peserta kunci dalam ekosistem infrastruktur terdesentralisasi:
Io.Net: Jaringan infrastruktur fisik terdesentralisasi untuk komputasi GPU (DePIN), menyediakan sumber daya GPU yang dapat diskalakan dan ekonomis.
Aethir: penyedia GPU sebagai layanan yang berfokus pada kecerdasan buatan dan permainan untuk perusahaan, menawarkan infrastruktur komputasi awan yang terdesentralisasi.
Hyperbolic: sebuah platform cloud AI terbuka yang menyediakan sumber daya GPU yang terjangkau dan terkoordinasi untuk pengembangan AI.
Exabits: Pelopor komputasi awan terdesentralisasi AI, mengatasi masalah kekurangan GPU dan mengoptimalkan konfigurasi sumber daya.
Spheron: sebuah platform terdesentralisasi yang menyederhanakan penyebaran aplikasi Web, menyediakan solusi yang transparan dan dapat diverifikasi.
Setiap mitra menjalankan node validator di jaringan Mira, memanfaatkan kemampuan komputasi yang didelegasikan untuk memverifikasi output AI secara besar-besaran. Kontribusi mereka memungkinkan Mira untuk mempertahankan throughput verifikasi yang tinggi, memproses miliaran token setiap hari, sambil mempertahankan kecepatan, toleransi kesalahan, dan desentralisasi.
Perhatian: Setiap peserta hanya dapat membeli satu lisensi delegator node. Pengguna harus melalui proses KYC "verifikasi video bantuan" untuk membuktikan partisipasi mereka yang sebenarnya.
Mira menggunakan secara besar-besaran dalam bidang AI dan didukung oleh data
Menurut data yang diberikan oleh tim, jaringan Mira memverifikasi lebih dari 3 miliar token setiap hari. Dalam model bahasa, token mengacu pada unit kecil teks, biasanya cuplikan kata, kata pendek, atau tanda baca. Misalnya, frasa "Output validasi Mira" akan dipecah menjadi beberapa token. Volume pelaporan ini menunjukkan bahwa Mira sedang mengerjakan banyak konten dalam berbagai integrasi, termasuk asisten obrolan, platform pendidikan, produk fintech, dan alat internal yang menggunakan API. Pada tingkat konten, throughput ini setara dengan mengevaluasi jutaan paragraf per hari.
Menurut laporan, ekosistem Mira (termasuk proyek mitra) mendukung lebih dari 4,5 juta pengguna independen, dengan sekitar 500.000 pengguna aktif harian. Pengguna ini mencakup pengguna langsung Klok serta pengguna akhir dari aplikasi pihak ketiga yang mengintegrasikan lapisan verifikasi Mira di latar belakang. Meskipun sebagian besar pengguna mungkin tidak berinteraksi langsung dengan Mira, sistem ini berfungsi sebagai lapisan verifikasi diam yang membantu memastikan bahwa konten yang dihasilkan AI mencapai ambang akurasi tertentu sebelum sampai ke pengguna akhir.
Menurut makalah penelitian oleh tim Mira, model bahasa besar yang sebelumnya akurat secara faktual di bidang-bidang seperti pendidikan dan keuangan memiliki tingkat akurasi faktual sekitar 70%, tetapi sekarang mereka telah divalidasi dengan akurasi 96% setelah disaring oleh proses konsensus Mira. Penting untuk dicatat bahwa peningkatan ini dapat dicapai tanpa melatih ulang model itu sendiri. Sebaliknya, peningkatan ini berasal dari logika penyaringan Mira. Sistem menyaring konten yang tidak dapat diandalkan dengan mengharuskan beberapa model yang berjalan secara independen untuk menyetujuinya. Efek ini sangat penting untuk halusinasi, yang dihasilkan oleh AI, informasi palsu yang tidak berdasar, yang telah dilaporkan berkurang hingga 90% dalam aplikasi terintegrasi. Karena halusinasi seringkali spesifik dan tidak konsisten, mereka tidak mungkin melewati mekanisme konsensus Mira.
Selain meningkatkan keandalan faktual, Protokol Mira dirancang untuk mendukung partisipasi terbuka. Validasi tidak terbatas pada tim peninjau terpusat. Untuk menyelaraskan insentif, Mira telah mengadopsi sistem insentif dan hukuman keuangan. Validator yang secara konsisten mengikuti konsensus akan dibayar berdasarkan kinerja, sedangkan validator yang melakukan penilaian yang dimanipulasi atau tidak akurat akan menghadapi hukuman. Struktur ini mendorong perilaku jujur dan mendorong persaingan antara konfigurasi model yang berbeda. Dengan menghilangkan ketergantungan pada tata kelola terpusat dan menanamkan insentif ke dalam lapisan protokol, Mira memungkinkan verifikasi terdesentralisasi yang dapat diskalakan di lingkungan dengan lalu lintas tinggi sambil memastikan bahwa standar output tidak terganggu.
Kesimpulan
Mira memberikan solusi struktural untuk salah satu tantangan paling mendesak dalam AI: kemampuan untuk mengandalkan verifikasi hasil output dalam skala besar. Alih-alih mengandalkan tingkat kepercayaan model tunggal atau pengawasan manusia setelah fakta, Mira memperkenalkan lapisan verifikasi terdesentralisasi yang berjalan secara paralel dengan generasi AI. Sistem menyaring konten yang tidak didukung dengan memecah output menjadi pernyataan fakta, mendistribusikannya ke validator independen, dan menerapkan mekanisme konsensus. Ini meningkatkan keandalan tanpa perlu melatih ulang model atau memusatkan kontrol.
Data menunjukkan bahwa tingkat adopsi dan akurasi fakta telah meningkat secara signifikan, dan fenomena ilusi AI telah berkurang secara drastis. Saat ini, Mira telah diintegrasikan ke dalam berbagai bidang seperti antarmuka obrolan, alat pendidikan, dan platform keuangan, dan secara bertahap menjadi lapisan infrastruktur untuk aplikasi akurasi yang penting. Seiring dengan matangnya protokol dan meningkatnya audit pihak ketiga, transparansi, reusabilitas, dan partisipasi terbuka dari Mira akan menyediakan kerangka kepercayaan yang dapat diskalakan untuk sistem AI yang beroperasi dalam kapasitas tinggi atau lingkungan yang diatur.
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Mira bagaimana meningkatkan kepercayaan AI melalui node terdistribusi
Ditulis oleh: Messari
Ringkasan
Verifikasi terdistribusi memungkinkan Mira untuk memfilter keluaran AI melalui jaringan model independen untuk meningkatkan keandalan fakta, mengurangi ilusi tanpa perlu pelatihan ulang atau pengawasan terpusat.
Mekanisme konsensus mengharuskan beberapa model independen yang beroperasi untuk mencapai kesepakatan sebelum klaim apa pun disetujui, sehingga menggantikan kepercayaan pada satu model.
Mira memverifikasi 3 miliar token setiap hari dalam aplikasi terintegrasi, mendukung lebih dari 4,5 juta pengguna.
Ketika output disaring melalui proses konsensus Mira di lingkungan produksi, akurasi fakta meningkat dari 70% menjadi 96%.
Mira bertindak sebagai infrastruktur alih-alih produk untuk pengguna akhir dengan mengintegrasikan verifikasi langsung ke dalam AI aplikasi seperti chatbot, alat fintech, dan platform pendidikan.
Mira memperkenalkan
Mira adalah protokol yang dirancang untuk memvalidasi output sistem AI. Fungsi intinya mirip dengan lapisan audit/kepercayaan terdesentralisasi. Setiap kali model AI menghasilkan output, apakah itu jawaban atau ringkasan, Mira mengevaluasi apakah klaim "faktual" dalam output tersebut kredibel sebelum mencapai pengguna akhir.
Sistem ini bekerja dengan memecah setiap output AI menjadi klaim yang lebih kecil. Klaim ini dievaluasi secara independen oleh beberapa validator di jaringan Mira. Setiap node menjalankan model AI-nya sendiri, seringkali dengan arsitektur, kumpulan data, atau perspektif yang berbeda. Model memberikan suara pada setiap klaim, memutuskan apakah itu benar atau kontekstual. Hasil akhirnya ditentukan oleh mekanisme konsensus: jika sebagian besar model setuju dengan validitas klaim, Mira akan menyetujui klaim tersebut. Jika ada ketidaksepakatan, klaim tersebut akan ditandai atau ditolak.
Tidak ada otoritas pusat atau model tersembunyi yang membuat keputusan akhir. Sebaliknya, kebenaran ditentukan secara kolektif, muncul dari model yang terdistribusi dan beragam. Seluruh proses transparan dan dapat diaudit. Setiap output yang terverifikasi dilengkapi dengan sertifikat kriptografi: catatan yang dapat ditelusuri, menunjukkan pernyataan mana yang dievaluasi, model mana yang berpartisipasi, dan bagaimana mereka memberikan suara. Aplikasi, platform, bahkan lembaga pengatur dapat menggunakan sertifikat ini untuk mengonfirmasi bahwa output telah melewati lapisan verifikasi Mira.
Inspirasi Mira berasal dari teknologi integrasi kecerdasan buatan dan mekanisme konsensus blockchain. Ini tidak meningkatkan akurasi melalui agregasi prediksi, tetapi melalui agregasi evaluasi untuk menentukan kredibilitas. Ini akan melakukan penyaringan, menolak keluaran yang tidak lulus uji keaslian terdistribusi.
Mengapa AI memerlukan sistem verifikasi seperti Mira?
Model AI tidak deterministik, yang berarti mereka tidak selalu mengembalikan output yang sama untuk prompt yang sama, dan tidak ada jaminan tentang kebenaran hasil yang dihasilkan. Ini bukanlah suatu cacat; ini berasal langsung dari cara pelatihan model bahasa besar: memprediksi token berikutnya melalui probabilitas, bukan deterministik.
Probabilitas ini memberikan sistem kecerdasan buatan fleksibilitas. Ini memberikan mereka kreativitas, kemampuan untuk memahami konteks, dan kemampuan menyerupai manusia. Namun, ini juga berarti mereka dapat secara alami menciptakan hal-hal.
Kita sudah melihat konsekuensinya. Chatbot Air Canada membuat kebijakan tarif berkabung yang tidak ada sama sekali dan meneruskannya kepada pengguna. Pengguna cukup mudah tertipu untuk mempercayai chatbot, memesan tiket berdasarkan informasi palsu, dan menderita kerugian finansial. Pengadilan memutuskan bahwa maskapai tersebut bertanggung jawab atas halusinasi chatbot. Singkatnya, AI dengan percaya diri membuat klaim, dan perusahaan membayarnya.
Ini hanya sebuah contoh. Fenomena ilusi ada di mana-mana. Mereka muncul dalam ringkasan penelitian yang tidak akurat, aplikasi pendidikan yang menyajikan fakta sejarah yang salah, dan buletin berita yang ditulis oleh kecerdasan buatan yang berisi pernyataan yang salah atau menyesatkan. Ini karena output ini seringkali mengalir dengan baik dan terlihat otoritatif, sehingga pengguna sering kali mempercayainya.
Selain halusinasi, ada lebih banyak masalah sistemik:
Bias: Model AI dapat mencerminkan dan memperkuat bias dalam data pelatihan mereka. Bias ini tidak selalu jelas. Ini mungkin halus melalui hal-hal seperti frasa, nada, atau prioritas. Misalnya, asisten perekrutan mungkin secara sistematis bias terhadap demografi tertentu. Instrumen keuangan dapat menghasilkan penilaian risiko yang menggunakan bahasa yang terdistorsi atau menstigmatisasi.
Ketidakpastian: Menanyakan pertanyaan yang sama kepada model yang sama dua kali dapat menghasilkan dua jawaban yang berbeda. Mengubah sedikit petunjuk dapat menyebabkan hasil yang tidak terduga. Ketidakonsistenan ini membuat output AI sulit diaudit, direproduksi, atau menjadi bergantung dalam jangka panjang.
Esensi kotak hitam: Ketika sistem kecerdasan buatan memberikan jawaban, biasanya tidak memberikan penjelasan atau penalaran yang dapat dilacak. Tidak ada petunjuk yang jelas untuk menunjukkan kesimpulannya. Oleh karena itu, ketika model salah, sulit untuk mendiagnosis penyebabnya atau melakukan perbaikan.
Kontrol terpusat: Sebagian besar sistem AI saat ini adalah model tertutup yang dikendalikan oleh segelintir perusahaan besar. Jika modelnya cacat, bias, atau disensor, pilihan pengguna terbatas. Kurangnya pendapat kedua, proses keluhan yang transparan, atau interpretasi yang bertentangan. Hal ini menghasilkan struktur kontrol terpusat yang sulit untuk ditantang atau divalidasi.
Metode yang ada untuk meningkatkan keandalan output AI dan keterbatasannya
Saat ini ada berbagai cara untuk meningkatkan keandalan keluaran AI. Setiap metode menawarkan nilai tertentu, tetapi semuanya memiliki keterbatasan dan tidak dapat mencapai tingkat kepercayaan yang diperlukan untuk aplikasi kunci.
(HITL) kolaborasi manusia-robot: Pendekatan ini melibatkan manusia yang meninjau dan menyetujui output AI. Ini bekerja secara efektif dalam kasus penggunaan volume rendah. Namun, ini dapat dengan cepat menjadi hambatan bagi sistem yang menghasilkan jutaan respons per hari, seperti mesin pencari, bot pendukung, atau aplikasi pelatihan. Tinjauan manual lambat, mahal, dan rentan terhadap bias dan inkonsistensi. Misalnya, Grok xAI menggunakan tutor AI untuk mengevaluasi dan menyempurnakan jawaban secara manual. Ini adalah solusi sementara, dan Mira melihatnya sebagai solusi dengan leverage rendah: tidak berskala, dan tidak menyelesaikan masalah mendasar yang ada dalam logika AI yang tidak dapat diverifikasi.
Filter aturan: Sistem ini menggunakan metode pemeriksaan tetap, seperti menandai istilah yang dinonaktifkan atau membandingkan keluaran dengan grafik pengetahuan terstruktur. Meskipun mereka cocok untuk konteks yang lebih sempit, mereka hanya berlaku untuk situasi yang sesuai dengan harapan pengembang. Mereka tidak dapat menangani pertanyaan yang baru atau terbuka, dan sulit untuk menangani kesalahan halus atau pernyataan yang ambigu.
Validasi diri: Beberapa model berisi mekanisme untuk menilai kepercayaan diri mereka atau untuk mengevaluasi jawaban mereka menggunakan model sekunder. Namun, sistem AI terkenal buruk dalam mengidentifikasi kesalahannya sendiri. Terlalu percaya diri pada jawaban yang salah adalah masalah abadi, dan umpan balik internal sering gagal memperbaikinya.
Model terintegrasi: Dalam beberapa sistem, beberapa model saling memeriksa. Meskipun ini dapat meningkatkan standar kualitas, model terintegrasi tradisional biasanya bersifat terpusat dan homogen. Jika semua model berbagi data pelatihan yang serupa atau berasal dari penyedia yang sama, mereka mungkin memiliki titik buta yang sama. Keragaman arsitektur dan perspektif akan terbatas.
Mira berkomitmen untuk memecahkan masalah persepsi. Tujuannya adalah untuk menciptakan lingkungan yang menangkap dan menghilangkan ilusi, meminimalkan bias melalui beragam model, membuat output dapat diverifikasi secara reproduksi, dan tidak ada entitas tunggal yang dapat mengontrol proses verifikasi keaslian. Mempelajari cara kerja sistem Mira dapat memecahkan masing-masing masalah ini dengan cara yang baru.
Mira bagaimana meningkatkan keandalan AI
Saat ini, metode untuk meningkatkan keandalan AI (terpusat dan bergantung pada satu sumber fakta) berbeda. Mira memperkenalkan model yang berbeda. Ini menerapkan verifikasi terdesentralisasi, membangun konsensus di tingkat protokol, dan menggunakan insentif ekonomi untuk memperkuat perilaku keandalan. Mira bukanlah produk independen atau alat pengawasan dari atas ke bawah, melainkan sebagai lapisan infrastruktur modular yang dapat diintegrasikan ke dalam sistem AI mana pun.
Desain protokol ini didasarkan pada beberapa prinsip inti:
Akurasi fakta tidak seharusnya bergantung pada output suatu model.
Verifikasi harus bersifat mandiri dan tidak boleh bergantung pada pengawasan manusia yang berkelanjutan.
Kepercayaan seharusnya dibangun pada protokol yang independen, bukan pada kontrol terpusat.
Mira menerapkan prinsip komputasi terdistribusi pada verifikasi AI. Ketika output (seperti saran kebijakan, ringkasan keuangan, atau balasan chatbot) diajukan, itu pertama-tama dipecah menjadi pernyataan fakta yang lebih kecil. Pernyataan-pernyataan ini dibangun menjadi pertanyaan atau pernyataan diskrit dan diarahkan ke jaringan node validator.
Setiap node menjalankan model AI atau konfigurasi yang berbeda, dan secara independen mengevaluasi pernyataan yang ditugaskan. Ini akan mengembalikan salah satu dari tiga penilaian berikut: benar, salah, atau tidak pasti. Kemudian, Mira akan memberikan umpan balik hasil. Jika memenuhi ambang batas mayoritas absolut yang dapat dikonfigurasi, maka pernyataan tersebut diverifikasi. Jika tidak memenuhi, maka akan ditandai, dibuang, atau mengeluarkan peringatan.
Desain terdistribusi Mira memiliki berbagai keunggulan struktural:
Redundansi dan keragaman: memeriksa klaim melalui model dengan arsitektur, dataset, dan sudut pandang yang berbeda.
Toleransi kesalahan: Kegagalan atau kesalahan dalam suatu model tidak mungkin terjadi kembali di banyak model.
Transparansi: Setiap hasil verifikasi dicatat di blockchain, memberikan petunjuk yang dapat diaudit, termasuk model mana yang terlibat dan bagaimana mereka memberikan suara.
Otonomi: Mira beroperasi secara paralel tanpa intervensi manusia.
Skala: Sistem ini dapat menangani beban kerja yang sangat besar dari puluhan miliar token setiap hari.
Wawasan inti Mira didasarkan pada statistik: sementara model tunggal dapat berhalusinasi atau mencerminkan bias, beberapa sistem independen memiliki probabilitas yang jauh lebih rendah untuk membuat kesalahan yang sama dengan cara yang sama. Protokol memanfaatkan keragaman ini untuk menyaring konten yang tidak dapat diandalkan. Prinsip Mira mirip dengan pembelajaran ansambel, tetapi memperluas gagasan menjadi sistem yang terdistribusi, dapat diverifikasi, dan aman secara ekonomi kripto yang dapat disematkan dalam proses AI dunia nyata.
Penanggung jawab node dan sumber daya komputasi
Infrastruktur verifikasi terdesentralisasi Mira Network didukung oleh komunitas kontributor global yang menyediakan sumber daya komputasi yang diperlukan untuk menjalankan node verifikasi. Kontributor ini disebut sebagai delegator node, yang memainkan peran kunci dalam skala produksi pemrosesan dan verifikasi output AI dari protokol yang diperluas.
Apa itu delegator node?
Prinsipal node adalah orang atau entitas yang menyewakan atau menyediakan sumber daya komputasi GPU kepada operator node terverifikasi, daripada mengoperasikan node validator sendiri. Model delegasi ini memungkinkan peserta untuk berkontribusi pada infrastruktur Mira tanpa harus mengelola model AI atau perangkat lunak node yang kompleks. Dengan menyediakan akses ke sumber daya GPU, prinsipal memungkinkan operator node untuk melakukan lebih banyak validasi secara paralel, meningkatkan kapasitas dan ketahanan sistem.
Delegator node mendapatkan insentif ekonomi karena partisipasinya. Sebagai imbalan atas kontribusi daya komputasi, mereka akan menerima penghargaan yang terkait dengan jumlah pekerjaan verifikasi yang dilakukan oleh node yang mereka dukung dan kualitasnya. Ini menciptakan struktur insentif terdesentralisasi di mana skalabilitas jaringan terkait langsung dengan partisipasi komunitas, bukan investasi infrastruktur terdesentralisasi.
Siapa yang menyediakan operator node?
Sumber daya komputasi berasal dari mitra operator node pendiri Mira, yang merupakan peserta kunci dalam ekosistem infrastruktur terdesentralisasi:
Io.Net: Jaringan infrastruktur fisik terdesentralisasi untuk komputasi GPU (DePIN), menyediakan sumber daya GPU yang dapat diskalakan dan ekonomis.
Aethir: penyedia GPU sebagai layanan yang berfokus pada kecerdasan buatan dan permainan untuk perusahaan, menawarkan infrastruktur komputasi awan yang terdesentralisasi.
Hyperbolic: sebuah platform cloud AI terbuka yang menyediakan sumber daya GPU yang terjangkau dan terkoordinasi untuk pengembangan AI.
Exabits: Pelopor komputasi awan terdesentralisasi AI, mengatasi masalah kekurangan GPU dan mengoptimalkan konfigurasi sumber daya.
Spheron: sebuah platform terdesentralisasi yang menyederhanakan penyebaran aplikasi Web, menyediakan solusi yang transparan dan dapat diverifikasi.
Setiap mitra menjalankan node validator di jaringan Mira, memanfaatkan kemampuan komputasi yang didelegasikan untuk memverifikasi output AI secara besar-besaran. Kontribusi mereka memungkinkan Mira untuk mempertahankan throughput verifikasi yang tinggi, memproses miliaran token setiap hari, sambil mempertahankan kecepatan, toleransi kesalahan, dan desentralisasi.
Perhatian: Setiap peserta hanya dapat membeli satu lisensi delegator node. Pengguna harus melalui proses KYC "verifikasi video bantuan" untuk membuktikan partisipasi mereka yang sebenarnya.
Mira menggunakan secara besar-besaran dalam bidang AI dan didukung oleh data
Menurut data yang diberikan oleh tim, jaringan Mira memverifikasi lebih dari 3 miliar token setiap hari. Dalam model bahasa, token mengacu pada unit kecil teks, biasanya cuplikan kata, kata pendek, atau tanda baca. Misalnya, frasa "Output validasi Mira" akan dipecah menjadi beberapa token. Volume pelaporan ini menunjukkan bahwa Mira sedang mengerjakan banyak konten dalam berbagai integrasi, termasuk asisten obrolan, platform pendidikan, produk fintech, dan alat internal yang menggunakan API. Pada tingkat konten, throughput ini setara dengan mengevaluasi jutaan paragraf per hari.
Menurut laporan, ekosistem Mira (termasuk proyek mitra) mendukung lebih dari 4,5 juta pengguna independen, dengan sekitar 500.000 pengguna aktif harian. Pengguna ini mencakup pengguna langsung Klok serta pengguna akhir dari aplikasi pihak ketiga yang mengintegrasikan lapisan verifikasi Mira di latar belakang. Meskipun sebagian besar pengguna mungkin tidak berinteraksi langsung dengan Mira, sistem ini berfungsi sebagai lapisan verifikasi diam yang membantu memastikan bahwa konten yang dihasilkan AI mencapai ambang akurasi tertentu sebelum sampai ke pengguna akhir.
Menurut makalah penelitian oleh tim Mira, model bahasa besar yang sebelumnya akurat secara faktual di bidang-bidang seperti pendidikan dan keuangan memiliki tingkat akurasi faktual sekitar 70%, tetapi sekarang mereka telah divalidasi dengan akurasi 96% setelah disaring oleh proses konsensus Mira. Penting untuk dicatat bahwa peningkatan ini dapat dicapai tanpa melatih ulang model itu sendiri. Sebaliknya, peningkatan ini berasal dari logika penyaringan Mira. Sistem menyaring konten yang tidak dapat diandalkan dengan mengharuskan beberapa model yang berjalan secara independen untuk menyetujuinya. Efek ini sangat penting untuk halusinasi, yang dihasilkan oleh AI, informasi palsu yang tidak berdasar, yang telah dilaporkan berkurang hingga 90% dalam aplikasi terintegrasi. Karena halusinasi seringkali spesifik dan tidak konsisten, mereka tidak mungkin melewati mekanisme konsensus Mira.
Selain meningkatkan keandalan faktual, Protokol Mira dirancang untuk mendukung partisipasi terbuka. Validasi tidak terbatas pada tim peninjau terpusat. Untuk menyelaraskan insentif, Mira telah mengadopsi sistem insentif dan hukuman keuangan. Validator yang secara konsisten mengikuti konsensus akan dibayar berdasarkan kinerja, sedangkan validator yang melakukan penilaian yang dimanipulasi atau tidak akurat akan menghadapi hukuman. Struktur ini mendorong perilaku jujur dan mendorong persaingan antara konfigurasi model yang berbeda. Dengan menghilangkan ketergantungan pada tata kelola terpusat dan menanamkan insentif ke dalam lapisan protokol, Mira memungkinkan verifikasi terdesentralisasi yang dapat diskalakan di lingkungan dengan lalu lintas tinggi sambil memastikan bahwa standar output tidak terganggu.
Kesimpulan
Mira memberikan solusi struktural untuk salah satu tantangan paling mendesak dalam AI: kemampuan untuk mengandalkan verifikasi hasil output dalam skala besar. Alih-alih mengandalkan tingkat kepercayaan model tunggal atau pengawasan manusia setelah fakta, Mira memperkenalkan lapisan verifikasi terdesentralisasi yang berjalan secara paralel dengan generasi AI. Sistem menyaring konten yang tidak didukung dengan memecah output menjadi pernyataan fakta, mendistribusikannya ke validator independen, dan menerapkan mekanisme konsensus. Ini meningkatkan keandalan tanpa perlu melatih ulang model atau memusatkan kontrol.
Data menunjukkan bahwa tingkat adopsi dan akurasi fakta telah meningkat secara signifikan, dan fenomena ilusi AI telah berkurang secara drastis. Saat ini, Mira telah diintegrasikan ke dalam berbagai bidang seperti antarmuka obrolan, alat pendidikan, dan platform keuangan, dan secara bertahap menjadi lapisan infrastruktur untuk aplikasi akurasi yang penting. Seiring dengan matangnya protokol dan meningkatnya audit pihak ketiga, transparansi, reusabilitas, dan partisipasi terbuka dari Mira akan menyediakan kerangka kepercayaan yang dapat diskalakan untuk sistem AI yang beroperasi dalam kapasitas tinggi atau lingkungan yang diatur.