Розподілена верифікація дозволяє Mira фільтрувати вихідні дані AI через незалежну модельну мережу для підвищення надійності фактів, зменшуючи ілюзії без необхідності повторного навчання чи централізованого контролю.
Механізм консенсусу вимагає, щоб кілька незалежно працюючих моделей досягли згоди перед затвердженням будь-яких вимог, що замінює довіру до єдиної моделі.
Mira щодня верифікує 3 мільярди токенів у інтегрованих програмах, надаючи підтримку понад 4,5 мільйонам користувачів.
Коли вивід фільтрується через процес консенсусу Mira в продуктивному середовищі, точність фактів підвищується з 70% до 96%.
Mira діє як інфраструктура, а не як продукт кінцевого користувача, вбудовуючи верифікацію безпосередньо в AI додатків, таких як чат-боти, фінансові технології та освітні платформи.
Mira представлення
Mira – це протокол, призначений для перевірки результатів роботи систем штучного інтелекту. Його основна функція схожа на рівень децентралізованого аудиту/довіри. Щоразу, коли модель штучного інтелекту генерує результат, будь то відповідь чи підсумок, Mira оцінює, чи є «фактичні» твердження в цьому виході достовірними, перш ніж вони потраплять до кінцевого користувача.
Система працює, розбиваючи кожен вихідний сигнал ШІ на менші вимоги. Ці твердження незалежно оцінюються кількома валідаторами в мережі Mira. Кожен вузол використовує власну модель штучного інтелекту, часто з різною архітектурою, набором даних або перспективою. Модель голосує за кожне твердження, вирішуючи, чи є воно правдивим чи контекстуальним. Кінцевий результат визначається механізмом консенсусу: якщо переважна більшість моделей згодна з обґрунтованістю претензії, Mira затвердить претензію. У разі виникнення розбіжностей претензія буде відхилена або відхилена.
Не існує центрального органу влади чи прихованої моделі для прийняття остаточного рішення. Натомість, істина визначається колективно, випливаючи з розподіленої, різноманітної моделі. Весь процес є прозорим і підлягає аудиту. Кожен верифікований вихід супроводжується сертифікатом шифрування: відстежуваним записом, який показує, які твердження були оцінені, які моделі брали участь і як за них голосували. Додатки, платформи і навіть регулюючі органи можуть використовувати цей сертифікат для підтвердження того, що вихідні дані пройшли верифікаційний рівень Mira.
Натхнення Міри походить від технології інтеграції штучного інтелекту та механізму консенсусу блокчейну. Замість того, щоб агрегувати прогнози для підвищення точності, він використовує сукупні оцінки для визначення надійності. Він фільтрує та відхиляє виходи, які не пройшли розподілене тестування автентичності.
Чому AI потрібна система верифікації, як у Mira?
Моделі штучного інтелекту не є детермінованими, що означає, що вони не завжди повертають однаковий результат для одних і тих самих запитів, і немає гарантії автентичності результатів, які вони генерують. Це не є недоліком; Це безпосередньо випливає зі способу навчання великих мовних моделей: ймовірність, а не впевненість, щоб передбачити наступний маркер.
Такий імовірнісний характер надає системі штучного інтелекту гнучкість. Це дає їм креативність, ситуаційну обізнаність і здібності, схожі на людські. Однак це також означає, що вони можуть створювати речі природним шляхом.
Ми вже бачимо наслідки. Чат-бот Air Canada вигадав політику оплати проїзду у зв'язку з втратою, якої взагалі не існувало, і переслав її користувачеві. Користувач був достатньо довірливим, щоб довіритися чат-боту, забронював квиток на основі неправдивої інформації та зазнав фінансових втрат. Суд постановив, що авіакомпанія несе відповідальність за галюцинації чат-бота. Якщо коротко, то ШІ впевнено зробив заяву, а компанія за це поплатилася.
Це лише один із прикладів. Галюцинації поширені повсюдно. Вони з'являються в резюме досліджень, які цитуються неточно, освітніх додатках, які представляють неправдиві історичні факти, і новинах, написаних штучним інтелектом, які містять неправдиві або оманливі твердження. Це пов'язано з тим, що ці виходи зазвичай гладкі та авторитетні, і користувачі схильні вірити в них як у істину.
Крім ілюзій, є ще більше системних проблем:
Упередженість: моделі штучного інтелекту можуть відображати та посилювати упередження у своїх тренувальних даних. Ця упередженість не завжди очевидна. Він може бути непомітним через такі речі, як фразування, тон або пріоритет. Наприклад, асистенти з найму можуть бути систематично упередженими щодо певної демографічної групи. Фінансові інструменти можуть генерувати оцінки ризиків, у яких використовуються спотворені або стигматичні формулювання.
Невизначеність: при запитанні одного й того ж питання до одного й того ж моделі двічі, можна отримати дві різні відповіді. Необхідно трохи змінити підказку, і результати можуть змінитися несподіваним чином. Ця непослідовність ускладнює аудит, відтворення чи стає довгостроковою залежністю від виходу AI.
Чорна скринька: коли системи штучного інтелекту надають відповіді, вони зазвичай не надають жодних пояснень або простежуваних міркувань. У них немає чітких підказок для демонстрації своїх висновків. Тому, коли модель помиляється, важко діагностувати причину або здійснити виправлення.
Централізований контроль: на сьогодні більшість систем штучного інтелекту є закритими моделями, контрольованими кількома великими компаніями. Якщо в моделі є дефекти, упередження або вона підлягає цензурі, вибір користувачів обмежений. Немає другої думки, прозорих процесів апеляції або суперечливих тлумачень. Це призводить до централізованої структури контролю, яку важко оскаржити або перевірити.
Існуючі методи підвищення надійності виходу AI та їхні обмеження
Наразі існує кілька способів підвищити надійність виходу AI. Кожен метод пропонує певну цінність, але всі вони мають обмеження, які не дозволяють досягти рівня довіри, необхідного для критичних застосувань.
Співпраця людини та робота (HITL): Цей підхід передбачає, що людина переглядає та затверджує результати роботи штучного інтелекту. Він ефективно працює у випадках використання з невеликим обсягом. Однак це може швидко стати вузьким місцем для систем, які генерують мільйони відповідей на день, таких як пошукові системи, боти підтримки або програми для коучингу. Ручні рецензії повільні, дорогі та схильні до упередженості та невідповідностей. Наприклад, Grok з xAI використовує репетиторів зі штучним інтелектом для ручної оцінки та уточнення відповідей. Це тимчасове рішення, і Mira бачить у ньому рішення з низьким кредитним плечем: воно не масштабується і не вирішує основні проблеми, які існують у логіці штучного інтелекту і які не можуть бути перевірені.
Фільтри правил: ці системи використовують фіксовані методи перевірки, такі як позначення вимкнених термінів або порівняння вихідних даних зі структурованим графом знань. Хоча вони підходять для вужчих контекстів, вони підходять лише для ситуацій, які відповідають очікуванням розробника. Вони не можуть впоратися з новими або відкритими запитами, і вони борються з тонкими помилками або неоднозначними твердженнями.
Самоперевірка: деякі моделі містять механізми оцінки своєї впевненості або використання допоміжних моделей для оцінки своїх відповідей. Однак відомо, що штучні інтелектуальні системи погано справляються з виявленням своїх помилок. Надмірна впевненість у неправильних відповідях є давньою проблемою, а внутрішній зворотний зв'язок часто не може її виправити.
Ансамблеві моделі: У деяких системах кілька моделей перехресно звіряються одна з одною. Хоча це може підвищити стандарти якості, традиційні моделі інтеграції часто є централізованими та однорідними. Якщо всі моделі мають схожі дані про навчання або надходять від одного постачальника, вони можуть мати однакові сліпі зони. Різноманіття архітектур і перспектив буде обмеженим.
Міра прагне вирішити проблему сприйняття. Його мета полягає в тому, щоб створити середовище, яке фіксує та усуває ілюзії, мінімізує упередженість за допомогою різноманітних моделей, робить результати відтворювано перевіреними, і жодна організація не може контролювати процес перевірки автентичності. Вивчення того, як працює система Mira, може вирішити кожну з цих проблем по-новому.
Як підвищити надійність AI
Сучасні підходи до надійності штучного інтелекту, які є централізованими та спираються на єдине джерело правди, відрізняються. Mira представила іншу модель. Він забезпечує децентралізовану верифікацію, досягає консенсусу на рівні протоколу та використовує економічні стимули для посилення надійної поведінки. Mira — це не автономний продукт або інструмент нагляду зверху вниз, а скоріше модульний рівень інфраструктури, який можна інтегрувати в будь-яку систему штучного інтелекту.
Дизайн цієї угоди базується на кількох основних принципах:
Точність фактів не повинна залежати від виходу моделі.
Перевірка повинна бути автономною, не можна покладатися на постійний людський контроль.
Довіра повинна базуватися на незалежних протоколах, а не на централізованому контролі.
Mira застосовує принципи розподілених обчислень для перевірки штучного інтелекту. Коли подаються вихідні дані, такі як рекомендація щодо політики, фінансовий звіт або відповідь чат-бота, вони спочатку розбиваються на менші констатації фактів. Ці твердження будуються як дискретні запитання або твердження та спрямовуються до мережі вузлів-валідаторів.
Кожен вузол виконує різні AI моделі або конфігурації та незалежно оцінює свої призначені заяви. Він повертає одне з трьох суджень: істина, неправда або невизначеність. Потім Mira надає зворотний зв'язок з результатами. Якщо виконано налаштовану абсолютну більшість, заява підтверджується. Якщо ні, то її маркують, відкидають або надсилають попередження.
Розподілений дизайн Mira має кілька структурних переваг:
Надмірність і різноманітність: перехресна перевірка заяв за допомогою моделей з різними архітектурами, наборами даних і точками зору.
Стійкість до помилок: несправність або помилка в одній моделі малоймовірно буде повторена в багатьох моделях.
Прозорість: кожен результат перевірки записується в ланцюг, забезпечуючи можливість аудиту слідів, включаючи те, які моделі брали участь і як вони голосували.
Автономність: Mira працює паралельно без необхідності втручання людини.
Масштабність: ця система може обробляти величезні обсяги роботи з десятками мільярдів токенів щодня.
Основне розуміння Mira базується на статистиці: хоча окремі моделі можуть створювати ілюзії або відображати упередження, ймовірність того, що кілька незалежних систем зроблять однакові помилки, значно нижча. Цей протокол використовує таку різноманітність для фільтрації ненадійного контенту. Принцип Mira подібний до інтегративного навчання, але розширює цю ідею в розподілену, перевірену та криптоекономічно безпечну систему, яка може бути вбудована в процеси штучного інтелекту реального світу.
делегати вузлів та обчислювальні ресурси
Децентралізована інфраструктура верифікації Mira Network підтримується глобальною спільнотою учасників, які надають обчислювальні ресурси, необхідні для роботи верифікаційних вузлів. Ці учасники відомі як делегати вузлів і відіграють ключову роль у масштабуванні обробки протоколів та верифікації виробничих обсягів AI-виходу.
Що таке делегат вузла?
Принципал вузла – це фізична або юридична особа, яка орендує або надає обчислювальні ресурси графічного процесора перевіреному оператору вузла, а не керує вузлом валідатора самостійно. Ця модель делегування дозволяє учасникам робити свій внесок в інфраструктуру Mira без необхідності керувати складними моделями штучного інтелекту або програмним забезпеченням вузлів. Надаючи доступ до ресурсів графічного процесора, директори дозволяють операторам вузлів виконувати більше перевірок паралельно, підвищуючи ємність і надійність системи.
Делегати вузлів фінансово заохочуються за свою участь. В обмін на надані обчислювальні потужності вони будуть винагороджені за обсяг роботи з перевірки, виконаної вузлами, які вони підтримують і прив'язані до якості. Це створює децентралізовану структуру стимулювання, де масштабованість мережі безпосередньо пов'язана з участю громади, а не з інвестиціями в децентралізовану інфраструктуру.
Хто надає послуги операторів вузлів?
Обчислювальні ресурси надходять від партнерів-операторів основних вузлів Mira, які є ключовими учасниками децентралізованої інфраструктурної екосистеми:
Io.Net: децентралізована фізична інфраструктурна мережа для GPU обчислень (DePIN), що забезпечує масштабовані та економічно ефективні ресурси GPU.
Aethir: підприємство рівня підприємства, яке спеціалізується на штучному інтелекті та іграх, що надає GPU як послугу, пропонуючи дистрибутивну інфраструктуру хмарних обчислень.
Гіперболічний: відкритий AI хмарний платформ, що забезпечує економічно вигідні та узгоджені ресурси GPU для розробки AI.
Exabits: піонер у децентралізованих обчисленнях на основі ШІ, який вирішує проблему нестачі GPU та оптимізує розподіл ресурсів.
Spheron: децентралізована платформа для спрощеного розгортання веб-додатків, що пропонує прозорі та перевіряємі рішення.
Кожен партнер працює з вузлами верифікаторів у мережі Mira, використовуючи делеговану обчислювальну потужність для масового верифікації AI-виходів. Їхній внесок дозволяє Mira підтримувати високу верифікаційну пропускну здатність, обробляючи десятки мільярдів токенів щодня, при цьому зберігаючи швидкість, стійкість до помилок і децентралізацію.
Увага: кожен учасник може придбати лише одну ліцензію делегата вузла. Користувач повинен пройти процес KYC за допомогою "допоміжного відео-верифікації", щоб підтвердити свою реальну участь.
Mira в галузі штучного інтелекту широко використовується і підтримується даними
Згідно з даними, наданими командою, мережа Mira щодня перевіряє понад 3 мільярди токенів. У мовній моделі токен відноситься до невеликої одиниці тексту, зазвичай це фрагмент слів, коротке слово або розділовий знак. Наприклад, фраза "Вихід перевірки Mira" буде розбита на кілька токенів. Такий обсяг звітності свідчить про те, що Mira працює над великою кількістю контенту в різних інтеграціях, включаючи чат-помічників, освітні платформи, фінтех-продукти та внутрішні інструменти, які використовують API. На рівні контенту така пропускна здатність прирівнюється до оцінки мільйонів абзаців на день.
Як повідомляється, екосистема Mira, включаючи партнерські програми, підтримує понад 4,5 мільйона унікальних користувачів із близько 500 000 щодня активних користувачів. До таких користувачів відносяться як безпосередні користувачі Klok, так і кінцеві користувачі сторонніх додатків, які інтегрують верифікаційний шар Mira у фоновому режимі. Хоча більшість користувачів можуть не взаємодіяти безпосередньо з Mira, система діє як тихий рівень перевірки, допомагаючи гарантувати, що контент, створений штучним інтелектом, відповідає певному порогу точності, перш ніж потрапити до кінцевого користувача.
Згідно з дослідницькою роботою команди Міри, великі мовні моделі, які раніше були фактично точними в таких сферах, як освіта та фінанси, мали фактичну точність близько 70%, але тепер вони були перевірені з точністю 96% після перевірки за допомогою процесу консенсусу Mira. Важливо відзначити, що цих поліпшень можна досягти без перенавчання самої моделі. Натомість, ці покращення випливають із логіки фільтрації Mira. Система відфільтровує ненадійний контент, вимагаючи узгодження кількох незалежно запущених моделей. Цей ефект особливо важливий для галюцинацій, які є необґрунтованою неправдивою інформацією, створеною штучним інтелектом, яка, як повідомляється, знижується на 90% у інтегрованих програмах. Оскільки галюцинації часто специфічні і непослідовні, вони навряд чи пройдуть механізм консенсусу Міри.
Окрім підвищення фактичної достовірності, протокол Mira призначений для підтримки відкритої участі. Перевірка не обмежується централізованою командою рецензентів. Щоб узгодити стимули, Міра прийняла систему фінансових заохочень і покарань. Валідатори, які послідовно дотримуються консенсусу, отримуватимуть винагороду на основі продуктивності, тоді як валідатори, які здійснюють маніпульовані або неточні судження, зіткнуться зі штрафними санкціями. Така структура заохочує чесну поведінку і сприяє конкуренції між різними конфігураціями моделей. Усуваючи залежність від централізованого управління та вбудовуючи стимули на рівень протоколу, Mira забезпечує масштабовану децентралізовану верифікацію в середовищах з високим трафіком, гарантуючи, що стандарти виводу не будуть скомпрометовані.
Висновок
Mira пропонує структурне рішення однієї з найактуальніших проблем у сфері штучного інтелекту: можливість покладатися на перевірку результатів виводу в масштабі. Замість того, щоб покладатися на рівень впевненості однієї моделі або людський нагляд постфактум, Mira впроваджує децентралізований рівень верифікації, який працює паралельно з генерацією штучного інтелекту. Система відфільтровує непідтримуваний контент, розбиваючи вихідні дані на констатації фактів, розподіляючи їх серед незалежних валідаторів і застосовуючи механізм консенсусу. Це підвищує надійність без необхідності перенавчання моделі або централізованого управління.
Дані показують, що швидкість прийняття та фактична точність значно покращилися, а явище галюцинацій штучного інтелекту значно зменшилося. Зараз Mira інтегрована в різні сфери, включаючи інтерфейси чатів, освітні інструменти та фінансові платформи, і стає рівнем інфраструктури для додатків, критично важливих для точності. У міру того, як протоколи розвиваються, а сторонні аудити стають все більш поширеними, прозорість, повторюваність і відкрита участь Mira забезпечать масштабовану структуру довіри для систем штучного інтелекту, що працюють у великих обсягах або регульованих середовищах.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Mira як підвищити довіру до AI за допомогою розподілених Нод
Автор: Messari
Резюме
Розподілена верифікація дозволяє Mira фільтрувати вихідні дані AI через незалежну модельну мережу для підвищення надійності фактів, зменшуючи ілюзії без необхідності повторного навчання чи централізованого контролю.
Механізм консенсусу вимагає, щоб кілька незалежно працюючих моделей досягли згоди перед затвердженням будь-яких вимог, що замінює довіру до єдиної моделі.
Mira щодня верифікує 3 мільярди токенів у інтегрованих програмах, надаючи підтримку понад 4,5 мільйонам користувачів.
Коли вивід фільтрується через процес консенсусу Mira в продуктивному середовищі, точність фактів підвищується з 70% до 96%.
Mira діє як інфраструктура, а не як продукт кінцевого користувача, вбудовуючи верифікацію безпосередньо в AI додатків, таких як чат-боти, фінансові технології та освітні платформи.
Mira представлення
Mira – це протокол, призначений для перевірки результатів роботи систем штучного інтелекту. Його основна функція схожа на рівень децентралізованого аудиту/довіри. Щоразу, коли модель штучного інтелекту генерує результат, будь то відповідь чи підсумок, Mira оцінює, чи є «фактичні» твердження в цьому виході достовірними, перш ніж вони потраплять до кінцевого користувача.
Система працює, розбиваючи кожен вихідний сигнал ШІ на менші вимоги. Ці твердження незалежно оцінюються кількома валідаторами в мережі Mira. Кожен вузол використовує власну модель штучного інтелекту, часто з різною архітектурою, набором даних або перспективою. Модель голосує за кожне твердження, вирішуючи, чи є воно правдивим чи контекстуальним. Кінцевий результат визначається механізмом консенсусу: якщо переважна більшість моделей згодна з обґрунтованістю претензії, Mira затвердить претензію. У разі виникнення розбіжностей претензія буде відхилена або відхилена.
Не існує центрального органу влади чи прихованої моделі для прийняття остаточного рішення. Натомість, істина визначається колективно, випливаючи з розподіленої, різноманітної моделі. Весь процес є прозорим і підлягає аудиту. Кожен верифікований вихід супроводжується сертифікатом шифрування: відстежуваним записом, який показує, які твердження були оцінені, які моделі брали участь і як за них голосували. Додатки, платформи і навіть регулюючі органи можуть використовувати цей сертифікат для підтвердження того, що вихідні дані пройшли верифікаційний рівень Mira.
Натхнення Міри походить від технології інтеграції штучного інтелекту та механізму консенсусу блокчейну. Замість того, щоб агрегувати прогнози для підвищення точності, він використовує сукупні оцінки для визначення надійності. Він фільтрує та відхиляє виходи, які не пройшли розподілене тестування автентичності.
Чому AI потрібна система верифікації, як у Mira?
Моделі штучного інтелекту не є детермінованими, що означає, що вони не завжди повертають однаковий результат для одних і тих самих запитів, і немає гарантії автентичності результатів, які вони генерують. Це не є недоліком; Це безпосередньо випливає зі способу навчання великих мовних моделей: ймовірність, а не впевненість, щоб передбачити наступний маркер.
Такий імовірнісний характер надає системі штучного інтелекту гнучкість. Це дає їм креативність, ситуаційну обізнаність і здібності, схожі на людські. Однак це також означає, що вони можуть створювати речі природним шляхом.
Ми вже бачимо наслідки. Чат-бот Air Canada вигадав політику оплати проїзду у зв'язку з втратою, якої взагалі не існувало, і переслав її користувачеві. Користувач був достатньо довірливим, щоб довіритися чат-боту, забронював квиток на основі неправдивої інформації та зазнав фінансових втрат. Суд постановив, що авіакомпанія несе відповідальність за галюцинації чат-бота. Якщо коротко, то ШІ впевнено зробив заяву, а компанія за це поплатилася.
Це лише один із прикладів. Галюцинації поширені повсюдно. Вони з'являються в резюме досліджень, які цитуються неточно, освітніх додатках, які представляють неправдиві історичні факти, і новинах, написаних штучним інтелектом, які містять неправдиві або оманливі твердження. Це пов'язано з тим, що ці виходи зазвичай гладкі та авторитетні, і користувачі схильні вірити в них як у істину.
Крім ілюзій, є ще більше системних проблем:
Упередженість: моделі штучного інтелекту можуть відображати та посилювати упередження у своїх тренувальних даних. Ця упередженість не завжди очевидна. Він може бути непомітним через такі речі, як фразування, тон або пріоритет. Наприклад, асистенти з найму можуть бути систематично упередженими щодо певної демографічної групи. Фінансові інструменти можуть генерувати оцінки ризиків, у яких використовуються спотворені або стигматичні формулювання.
Невизначеність: при запитанні одного й того ж питання до одного й того ж моделі двічі, можна отримати дві різні відповіді. Необхідно трохи змінити підказку, і результати можуть змінитися несподіваним чином. Ця непослідовність ускладнює аудит, відтворення чи стає довгостроковою залежністю від виходу AI.
Чорна скринька: коли системи штучного інтелекту надають відповіді, вони зазвичай не надають жодних пояснень або простежуваних міркувань. У них немає чітких підказок для демонстрації своїх висновків. Тому, коли модель помиляється, важко діагностувати причину або здійснити виправлення.
Централізований контроль: на сьогодні більшість систем штучного інтелекту є закритими моделями, контрольованими кількома великими компаніями. Якщо в моделі є дефекти, упередження або вона підлягає цензурі, вибір користувачів обмежений. Немає другої думки, прозорих процесів апеляції або суперечливих тлумачень. Це призводить до централізованої структури контролю, яку важко оскаржити або перевірити.
Існуючі методи підвищення надійності виходу AI та їхні обмеження
Наразі існує кілька способів підвищити надійність виходу AI. Кожен метод пропонує певну цінність, але всі вони мають обмеження, які не дозволяють досягти рівня довіри, необхідного для критичних застосувань.
Співпраця людини та робота (HITL): Цей підхід передбачає, що людина переглядає та затверджує результати роботи штучного інтелекту. Він ефективно працює у випадках використання з невеликим обсягом. Однак це може швидко стати вузьким місцем для систем, які генерують мільйони відповідей на день, таких як пошукові системи, боти підтримки або програми для коучингу. Ручні рецензії повільні, дорогі та схильні до упередженості та невідповідностей. Наприклад, Grok з xAI використовує репетиторів зі штучним інтелектом для ручної оцінки та уточнення відповідей. Це тимчасове рішення, і Mira бачить у ньому рішення з низьким кредитним плечем: воно не масштабується і не вирішує основні проблеми, які існують у логіці штучного інтелекту і які не можуть бути перевірені.
Фільтри правил: ці системи використовують фіксовані методи перевірки, такі як позначення вимкнених термінів або порівняння вихідних даних зі структурованим графом знань. Хоча вони підходять для вужчих контекстів, вони підходять лише для ситуацій, які відповідають очікуванням розробника. Вони не можуть впоратися з новими або відкритими запитами, і вони борються з тонкими помилками або неоднозначними твердженнями.
Самоперевірка: деякі моделі містять механізми оцінки своєї впевненості або використання допоміжних моделей для оцінки своїх відповідей. Однак відомо, що штучні інтелектуальні системи погано справляються з виявленням своїх помилок. Надмірна впевненість у неправильних відповідях є давньою проблемою, а внутрішній зворотний зв'язок часто не може її виправити.
Ансамблеві моделі: У деяких системах кілька моделей перехресно звіряються одна з одною. Хоча це може підвищити стандарти якості, традиційні моделі інтеграції часто є централізованими та однорідними. Якщо всі моделі мають схожі дані про навчання або надходять від одного постачальника, вони можуть мати однакові сліпі зони. Різноманіття архітектур і перспектив буде обмеженим.
Міра прагне вирішити проблему сприйняття. Його мета полягає в тому, щоб створити середовище, яке фіксує та усуває ілюзії, мінімізує упередженість за допомогою різноманітних моделей, робить результати відтворювано перевіреними, і жодна організація не може контролювати процес перевірки автентичності. Вивчення того, як працює система Mira, може вирішити кожну з цих проблем по-новому.
Як підвищити надійність AI
Сучасні підходи до надійності штучного інтелекту, які є централізованими та спираються на єдине джерело правди, відрізняються. Mira представила іншу модель. Він забезпечує децентралізовану верифікацію, досягає консенсусу на рівні протоколу та використовує економічні стимули для посилення надійної поведінки. Mira — це не автономний продукт або інструмент нагляду зверху вниз, а скоріше модульний рівень інфраструктури, який можна інтегрувати в будь-яку систему штучного інтелекту.
Дизайн цієї угоди базується на кількох основних принципах:
Точність фактів не повинна залежати від виходу моделі.
Перевірка повинна бути автономною, не можна покладатися на постійний людський контроль.
Довіра повинна базуватися на незалежних протоколах, а не на централізованому контролі.
Mira застосовує принципи розподілених обчислень для перевірки штучного інтелекту. Коли подаються вихідні дані, такі як рекомендація щодо політики, фінансовий звіт або відповідь чат-бота, вони спочатку розбиваються на менші констатації фактів. Ці твердження будуються як дискретні запитання або твердження та спрямовуються до мережі вузлів-валідаторів.
Кожен вузол виконує різні AI моделі або конфігурації та незалежно оцінює свої призначені заяви. Він повертає одне з трьох суджень: істина, неправда або невизначеність. Потім Mira надає зворотний зв'язок з результатами. Якщо виконано налаштовану абсолютну більшість, заява підтверджується. Якщо ні, то її маркують, відкидають або надсилають попередження.
Розподілений дизайн Mira має кілька структурних переваг:
Надмірність і різноманітність: перехресна перевірка заяв за допомогою моделей з різними архітектурами, наборами даних і точками зору.
Стійкість до помилок: несправність або помилка в одній моделі малоймовірно буде повторена в багатьох моделях.
Прозорість: кожен результат перевірки записується в ланцюг, забезпечуючи можливість аудиту слідів, включаючи те, які моделі брали участь і як вони голосували.
Автономність: Mira працює паралельно без необхідності втручання людини.
Масштабність: ця система може обробляти величезні обсяги роботи з десятками мільярдів токенів щодня.
Основне розуміння Mira базується на статистиці: хоча окремі моделі можуть створювати ілюзії або відображати упередження, ймовірність того, що кілька незалежних систем зроблять однакові помилки, значно нижча. Цей протокол використовує таку різноманітність для фільтрації ненадійного контенту. Принцип Mira подібний до інтегративного навчання, але розширює цю ідею в розподілену, перевірену та криптоекономічно безпечну систему, яка може бути вбудована в процеси штучного інтелекту реального світу.
делегати вузлів та обчислювальні ресурси
Децентралізована інфраструктура верифікації Mira Network підтримується глобальною спільнотою учасників, які надають обчислювальні ресурси, необхідні для роботи верифікаційних вузлів. Ці учасники відомі як делегати вузлів і відіграють ключову роль у масштабуванні обробки протоколів та верифікації виробничих обсягів AI-виходу.
Що таке делегат вузла?
Принципал вузла – це фізична або юридична особа, яка орендує або надає обчислювальні ресурси графічного процесора перевіреному оператору вузла, а не керує вузлом валідатора самостійно. Ця модель делегування дозволяє учасникам робити свій внесок в інфраструктуру Mira без необхідності керувати складними моделями штучного інтелекту або програмним забезпеченням вузлів. Надаючи доступ до ресурсів графічного процесора, директори дозволяють операторам вузлів виконувати більше перевірок паралельно, підвищуючи ємність і надійність системи.
Делегати вузлів фінансово заохочуються за свою участь. В обмін на надані обчислювальні потужності вони будуть винагороджені за обсяг роботи з перевірки, виконаної вузлами, які вони підтримують і прив'язані до якості. Це створює децентралізовану структуру стимулювання, де масштабованість мережі безпосередньо пов'язана з участю громади, а не з інвестиціями в децентралізовану інфраструктуру.
Хто надає послуги операторів вузлів?
Обчислювальні ресурси надходять від партнерів-операторів основних вузлів Mira, які є ключовими учасниками децентралізованої інфраструктурної екосистеми:
Io.Net: децентралізована фізична інфраструктурна мережа для GPU обчислень (DePIN), що забезпечує масштабовані та економічно ефективні ресурси GPU.
Aethir: підприємство рівня підприємства, яке спеціалізується на штучному інтелекті та іграх, що надає GPU як послугу, пропонуючи дистрибутивну інфраструктуру хмарних обчислень.
Гіперболічний: відкритий AI хмарний платформ, що забезпечує економічно вигідні та узгоджені ресурси GPU для розробки AI.
Exabits: піонер у децентралізованих обчисленнях на основі ШІ, який вирішує проблему нестачі GPU та оптимізує розподіл ресурсів.
Spheron: децентралізована платформа для спрощеного розгортання веб-додатків, що пропонує прозорі та перевіряємі рішення.
Кожен партнер працює з вузлами верифікаторів у мережі Mira, використовуючи делеговану обчислювальну потужність для масового верифікації AI-виходів. Їхній внесок дозволяє Mira підтримувати високу верифікаційну пропускну здатність, обробляючи десятки мільярдів токенів щодня, при цьому зберігаючи швидкість, стійкість до помилок і децентралізацію.
Увага: кожен учасник може придбати лише одну ліцензію делегата вузла. Користувач повинен пройти процес KYC за допомогою "допоміжного відео-верифікації", щоб підтвердити свою реальну участь.
Mira в галузі штучного інтелекту широко використовується і підтримується даними
Згідно з даними, наданими командою, мережа Mira щодня перевіряє понад 3 мільярди токенів. У мовній моделі токен відноситься до невеликої одиниці тексту, зазвичай це фрагмент слів, коротке слово або розділовий знак. Наприклад, фраза "Вихід перевірки Mira" буде розбита на кілька токенів. Такий обсяг звітності свідчить про те, що Mira працює над великою кількістю контенту в різних інтеграціях, включаючи чат-помічників, освітні платформи, фінтех-продукти та внутрішні інструменти, які використовують API. На рівні контенту така пропускна здатність прирівнюється до оцінки мільйонів абзаців на день.
Як повідомляється, екосистема Mira, включаючи партнерські програми, підтримує понад 4,5 мільйона унікальних користувачів із близько 500 000 щодня активних користувачів. До таких користувачів відносяться як безпосередні користувачі Klok, так і кінцеві користувачі сторонніх додатків, які інтегрують верифікаційний шар Mira у фоновому режимі. Хоча більшість користувачів можуть не взаємодіяти безпосередньо з Mira, система діє як тихий рівень перевірки, допомагаючи гарантувати, що контент, створений штучним інтелектом, відповідає певному порогу точності, перш ніж потрапити до кінцевого користувача.
Згідно з дослідницькою роботою команди Міри, великі мовні моделі, які раніше були фактично точними в таких сферах, як освіта та фінанси, мали фактичну точність близько 70%, але тепер вони були перевірені з точністю 96% після перевірки за допомогою процесу консенсусу Mira. Важливо відзначити, що цих поліпшень можна досягти без перенавчання самої моделі. Натомість, ці покращення випливають із логіки фільтрації Mira. Система відфільтровує ненадійний контент, вимагаючи узгодження кількох незалежно запущених моделей. Цей ефект особливо важливий для галюцинацій, які є необґрунтованою неправдивою інформацією, створеною штучним інтелектом, яка, як повідомляється, знижується на 90% у інтегрованих програмах. Оскільки галюцинації часто специфічні і непослідовні, вони навряд чи пройдуть механізм консенсусу Міри.
Окрім підвищення фактичної достовірності, протокол Mira призначений для підтримки відкритої участі. Перевірка не обмежується централізованою командою рецензентів. Щоб узгодити стимули, Міра прийняла систему фінансових заохочень і покарань. Валідатори, які послідовно дотримуються консенсусу, отримуватимуть винагороду на основі продуктивності, тоді як валідатори, які здійснюють маніпульовані або неточні судження, зіткнуться зі штрафними санкціями. Така структура заохочує чесну поведінку і сприяє конкуренції між різними конфігураціями моделей. Усуваючи залежність від централізованого управління та вбудовуючи стимули на рівень протоколу, Mira забезпечує масштабовану децентралізовану верифікацію в середовищах з високим трафіком, гарантуючи, що стандарти виводу не будуть скомпрометовані.
Висновок
Mira пропонує структурне рішення однієї з найактуальніших проблем у сфері штучного інтелекту: можливість покладатися на перевірку результатів виводу в масштабі. Замість того, щоб покладатися на рівень впевненості однієї моделі або людський нагляд постфактум, Mira впроваджує децентралізований рівень верифікації, який працює паралельно з генерацією штучного інтелекту. Система відфільтровує непідтримуваний контент, розбиваючи вихідні дані на констатації фактів, розподіляючи їх серед незалежних валідаторів і застосовуючи механізм консенсусу. Це підвищує надійність без необхідності перенавчання моделі або централізованого управління.
Дані показують, що швидкість прийняття та фактична точність значно покращилися, а явище галюцинацій штучного інтелекту значно зменшилося. Зараз Mira інтегрована в різні сфери, включаючи інтерфейси чатів, освітні інструменти та фінансові платформи, і стає рівнем інфраструктури для додатків, критично важливих для точності. У міру того, як протоколи розвиваються, а сторонні аудити стають все більш поширеними, прозорість, повторюваність і відкрита участь Mira забезпечать масштабовану структуру довіри для систем штучного інтелекту, що працюють у великих обсягах або регульованих середовищах.