Распределенная верификация позволяет Mira фильтровать AI выводы через независимые модели сети для повышения надежности фактов, уменьшая галлюцинации без необходимости повторного обучения или централизованного наблюдения.
Механизм согласия требует, чтобы несколько независимых моделей достигли согласия перед тем, как любое требование будет одобрено, заменяя тем самым доверие к одной модели.
Mira ежедневно проверяет 3 миллиарда токенов в интегрированных приложениях, поддерживая более 4,5 миллиона пользователей.
Когда вывод проходит фильтрацию через процесс консенсуса Mira в производственной среде, точность фактов увеличивается с 70% до 96%.
Mira выступает в качестве инфраструктуры, а не конечного продукта для пользователей, интегрируя верификацию непосредственно в ИИ приложений, таких как чат-боты, финтех-инструменты и образовательные платформы.
Представлена Мира
Mira — это протокол, предназначенный для проверки результатов работы систем искусственного интеллекта. Его основная функция аналогична децентрализованному уровню аудита/доверия. Всякий раз, когда модель ИИ генерирует выходные данные, будь то ответ или резюме, Мира оценивает, заслуживают ли доверия «фактические» утверждения в этих выходных данных, прежде чем они попадут к конечному пользователю.
Система работает, разбивая каждый выход ИИ на более мелкие утверждения. Эти утверждения независимо оцениваются несколькими валидаторами в сети Mira. Каждый узел запускает собственную модель искусственного интеллекта, часто с другой архитектурой, набором данных или перспективой. Модель голосует по каждому утверждению, решая, является ли оно истинным или контекстуальным. Конечный результат определяется механизмом консенсуса: если подавляющее большинство моделей согласны с обоснованностью утверждения, Mira одобрит утверждение. Если есть разногласия, претензия будет помечена или отклонена.
Не существует центрального органа или скрытой модели для принятия окончательного решения. Вместо этого истина определяется коллективно, проистекая из распределенной, разнообразной модели. Весь процесс прозрачен и поддается проверке. Каждый проверенный вывод поставляется с сертификатом шифрования: отслеживаемой записью, показывающей, какие утверждения были оценены, какие модели участвовали и как за них проголосовали. Приложения, платформы и даже регулирующие органы могут использовать этот сертификат для подтверждения того, что выходные данные прошли уровень верификации Mira.
Вдохновение Mira исходит от интеграционных технологий искусственного интеллекта и механизмов согласия блокчейна. Он не повышает точность за счет агрегации прогнозов, а определяет доверие через агрегацию оценок. Он проводит фильтрацию, отклоняя те выводы, которые не прошли распределенное тестирование подлинности.
Почему AI требуется система верификации, подобная Mira?
Модели ИИ не являются детерминированными, что означает, что они не всегда возвращают одинаковый вывод на одни и те же подсказки и не могут гарантировать истинность своих генерируемых результатов. Это не является недостатком; оно напрямую вытекает из способа обучения больших языковых моделей: предсказание следующего токена происходит на основе вероятности, а не детерминированности.
Эта вероятностная природа придает искусственным интеллектам гибкость. Она наделяет их креативностью, способностью к контекстному восприятию и человекоподобными способностями. Однако это также означает, что они могут естественным образом создавать вещи.
Мы уже увидели последствия. Чат-бот Air Canada выдумал несуществующую политику тарифов на прощание и переслал ее пользователю. Этот пользователь доверился чат-боту, забронировал билет на основе ложной информации и понес финансовые убытки. По решению суда, авиакомпания несет ответственность за иллюзии чат-бота. Короче говоря, искусственный интеллект уверенно выдвинул претензию, а компания за это заплатила.
Это всего лишь пример. Иллюзорные явления широко распространены. Они появляются в неточных аннотациях исследований, в образовательных приложениях, представляющих ложные исторические факты, и в новостных бюллетенях, написанных искусственным интеллектом, содержащих ложные или вводящие в заблуждение утверждения. Это происходит потому, что эти результаты обычно плавные и авторитетные, и пользователи часто доверяют им.
Помимо галлюцинаций, есть и другие системные проблемы:
Предвзятость: Модели искусственного интеллекта могут отражать и усиливать предвзятости, присутствующие в их обучающих данных. Эта предвзятость не всегда очевидна. Она может проявляться тонко через формулировки, тон или приоритеты. Например, помощник по найму может систематически склоняться к определенной группе людей. Финансовые инструменты могут генерировать оценки рисков с использованием искаженного или стигматизирующего языка.
Непредсказуемость: задавая один и тот же вопрос одной и той же модели дважды, можно получить два разных ответа. Небольшие изменения в подсказке могут привести к неожиданным изменениям в результатах. Эта непоследовательность делает выводы ИИ трудными для аудита, воспроизведения или долгосрочной зависимости.
Природа черного ящика: когда системы искусственного интеллекта дают ответ, они обычно не предоставляют никаких объяснений или прослеживаемого вывода. У них нет четких подсказок, чтобы показать свои выводы. Поэтому, когда модель ошибается, трудно диагностировать причину или исправить ее.
Централизованное управление: в настоящее время большинство систем искусственного интеллекта контролируются закрытыми моделями, принадлежащими нескольким крупным компаниям. Если в модели есть недостатки, предвзятости или она подвергается цензуре, выбор пользователей ограничен. Отсутствие второго мнения, прозрачного процесса подачи жалоб или противоречивых объяснений. Это приводит к централизованной структуре управления, которую трудно оспорить или проверить.
Существующие методы повышения надежности вывода ИИ и их ограничения
В настоящее время существует несколько способов повышения надежности вывода ИИ. Каждый из этих методов предоставляет определенную ценность, но все они имеют ограничения и не могут достичь необходимого уровня доверия для ключевых приложений.
Совместная работа человека и робота (HITL): Этот подход включает в себя проверку и утверждение человеком результатов работы ИИ. Он эффективно работает в сценариях использования с малыми объемами. Тем не менее, он может быстро стать узким местом для систем, генерирующих миллионы ответов в день, таких как поисковые системы, боты поддержки или приложения для обучения. Ручная проверка медленна, дорогостояща и подвержена предвзятости и несоответствиям. Например, Grok от xAI использует репетиторов с искусственным интеллектом для ручной оценки и уточнения ответов. Это временное решение, и Мира видит его как решение с низким уровнем зацепления: оно не масштабируется и не решает основные проблемы, существующие в логике искусственного интеллекта и не поддающиеся проверке.
Правило фильтров: эти системы используют фиксированные методы проверки, такие как маркировка запрещенных терминов или сравнение вывода с структурированной графовой базой знаний. Хотя они подходят для узких контекстов, они применимы только в ситуациях, соответствующих ожиданиям разработчика. Они не могут обрабатывать новые или открытые запросы и с трудом справляются с тонкими ошибками или двусмысленными утверждениями.
Самовалидация: Некоторые модели содержат механизмы для оценки их уверенности в себе или для оценки их ответов с помощью вторичной модели. Тем не менее, системы искусственного интеллекта, как известно, плохо выявляют свои собственные ошибки. Чрезмерная уверенность в неправильном ответе — вечная проблема, и внутренняя обратная связь часто не в состоянии ее исправить.
Интегрированные модели: в некоторых системах несколько моделей проверяют друг друга. Хотя это может повысить стандарты качества, традиционные интегрированные модели обычно являются централизованными и однородными. Если все модели используют схожие тренировочные данные или происходят от одного поставщика, они могут разделять одни и те же слепые зоны. Разнообразие архитектур и точек зрения будет ограничено.
Мира стремится решить проблему восприятия. Его цель — создать среду, которая захватывает и устраняет иллюзии, сводит к минимуму предвзятость с помощью различных моделей, делает выходные данные воспроизводимыми проверяемыми, и ни один объект не может контролировать процесс проверки подлинности. Изучение того, как работает система Mira, может решить каждую из этих проблем по-новому.
Mira как повысить надежность ИИ
Существуют различные способы повышения надежности ИИ (централизованные и зависящие от единственного источника фактов). Mira представляет собой другую модель. Она реализует декомцентрированную валидацию, устанавливает консенсус на уровне протокола и использует экономические стимулы для укрепления надежного поведения. Mira не является независимым продуктом или инструментом верхнего контроля, а служит модульным уровнем инфраструктуры, который можно интегрировать в любую систему искусственного интеллекта.
Дизайн этого соглашения основан на нескольких основных принципах:
Точность фактов не должна зависеть от вывода модели.
Верификация должна быть автономной и не может зависеть от постоянного человеческого контроля.
Доверие должно основываться на независимых протоколах, а не на централизованном контроле.
Mira применяет принципы распределенных вычислений для проверки ИИ. Когда подаются выходные данные (например, рекомендации по политике, финансовые резюме или ответы чат-бота), они сначала разбиваются на более мелкие фактические утверждения. Эти утверждения формируются в дискретные вопросы или заявления и направляются в сеть узлов проверяющих.
Каждый узел запускает разные AI модели или конфигурации и независимо оценивает свои назначенные утверждения. Он возвращает одно из трех суждений: истинно, ложно или неуверенно. Затем Mira сообщает результаты. Если выполняется настраиваемый порог абсолютного большинства, утверждение считается подтвержденным. Если нет, оно будет помечено, отброшено или возвращено с предупреждением.
Распределенный дизайн Mira имеет несколько структурных преимуществ:
Избыточность и разнообразие: перекрестная проверка утверждений с помощью моделей с различной архитектурой, наборами данных и точками зрения.
Устойчивость к ошибкам: сбой или ошибка в одной модели маловероятно, что воспроизведется во многих моделях.
Прозрачность: каждый результат верификации записывается в цепочку, предоставляя проверяемые улики, включая информацию о том, какие модели участвовали и как они голосовали.
Автономность: Mira работает непрерывно и параллельно, без необходимости в человеческом вмешательстве.
Масштабируемость: Эта система может обрабатывать огромные объемы работы с десятками миллиардов токенов каждый день.
Основная идея Mira основана на статистике: хотя отдельные модели могут создавать иллюзии или отражать предвзятости, вероятность того, что несколько независимых систем совершают одни и те же ошибки одинаковым образом, значительно ниже. Протокол использует это разнообразие для фильтрации ненадежного контента. Принципы Mira аналогичны интегрированному обучению, но он расширяет эту идею в распределенную, проверяемую и экономически защищенную систему, которую можно встроить в процессы ИИ в реальном мире.
Делегаты узлов и вычислительные ресурсы
Децентрализованная инфраструктура верификации Mira Network работает на основе глобального сообщества участников, которые предоставляют вычислительные ресурсы, необходимые для запуска узлов валидаторов. Эти участники, известные как делегаторы узлов, играют ключевую роль в масштабировании производства для обработки протоколов и проверки выходных данных ИИ.
Что такое делегат узла?
Субъект узла — это физическое или юридическое лицо, которое сдает в аренду или предоставляет вычислительные ресурсы графического процессора проверенному оператору узла, а не управляет узлом валидатора самостоятельно. Эта модель делегирования позволяет участникам вносить свой вклад в инфраструктуру Mira без необходимости управлять сложными моделями ИИ или программным обеспечением узлов. Предоставляя доступ к ресурсам графического процессора, участники позволяют операторам узлов выполнять больше проверок параллельно, повышая емкость и надежность системы.
Участники узлов получают экономические стимулы за свое участие. В качестве вознаграждения за предоставление вычислительной мощности они получают вознаграждение, связанное с объемом работы по валидации, выполняемой поддерживаемыми ими узлами, и привязанное к качеству. Это создает децентрализованную структуру стимулов, в которой масштабируемость сети напрямую связана с участием сообщества, а не с инвестициями в централизованную инфраструктуру.
Кто предоставляет операторов узлов?
Ресурсы вычислений поступают от операторов узлов-основателей Mira, которые являются ключевыми участниками экосистемы децентрализованной инфраструктуры:
Io.Net: Децентрализованная сеть физической инфраструктуры для вычислений на GPU (DePIN), предлагающая масштабируемые и экономически эффективные ресурсы GPU.
Aethir: предприятие уровня бизнеса, ориентированное на искусственный интеллект и игры, предоставляющее услуги GPU как сервис и распределенную облачную вычислительную инфраструктуру.
Гипербола: открытая облачная платформа ИИ, предоставляющая экономически эффективные и согласованные ресурсы GPU для разработки ИИ.
Exabits: Пионер децентрализованных облачных вычислений с использованием ИИ, решающий проблему нехватки GPU и оптимизирующий распределение ресурсов.
Spheron: децентрализованная платформа для упрощенного развертывания веб-приложений, предлагающая прозрачные и проверяемые решения.
Каждый партнер запускает узлы верификаторов в сети Mira, используя делегированные вычислительные мощности для масштабной верификации выходных данных ИИ. Их вклад позволяет Mira поддерживать высокую пропускную способность верификации, обрабатывая десятки миллиардов токенов ежедневно, при этом сохраняя скорость, устойчивость к сбоям и децентрализацию.
Внимание: каждый участник может приобрести только одну лицензию делегата узла. Пользователь должен пройти процесс KYC через "помощь видео проверки", чтобы подтвердить свое реальное участие.
Mira в области ИИ широкомасштабного использования и поддержки данных
Согласно данным, предоставленным командой, сеть Mira ежедневно проверяет более 3 миллиардов токенов. В языковой модели лексема относится к небольшой единице текста, обычно к фрагменту слов, короткому слову или знаку препинания. Например, фраза «Выходные данные проверки Mira» будет разбита на несколько маркеров. Такой объем отчетности указывает на то, что Мира работает над большим количеством контента в различных интеграциях, включая чат-помощников, образовательные платформы, финтех-продукты и внутренние инструменты, использующие API. На уровне содержимого эта пропускная способность приравнивается к оценке миллионов абзацев в день.
Согласно сообщениям, экосистема Mira (включая партнерские проекты) поддерживает более 4,5 миллионов независимых пользователей, с примерно 500 тысячами активных пользователей в день. Эти пользователи включают прямых пользователей Klok, а также конечных пользователей сторонних приложений, которые интегрируют слой верификации Mira в фоновом режиме. Хотя большинство пользователей, возможно, не взаимодействуют напрямую с Mira, эта система выполняет роль тихого верификационного слоя, помогая обеспечить достижение определенного порога точности сгенерированного AI контента до его достижения конечного пользователя.
Согласно исследовательской работе команды Mira, большие языковые модели, которые ранее были фактически точными в таких областях, как образование и финансы, имели уровень фактической точности около 70%, но теперь они были проверены с точностью 96% после того, как были проверены в рамках процесса консенсуса Mira. Важно отметить, что эти улучшения могут быть достигнуты без повторного обучения самой модели. Вместо этого эти улучшения обусловлены логикой фильтрации Mira. Система отфильтровывает недостоверное содержимое, требуя согласования нескольких независимо работающих моделей. Этот эффект особенно важен для галлюцинаций, которые представляют собой сгенерированную искусственным интеллектом, необоснованную ложную информацию, которая, как сообщается, снижается на 90% в интегрированных приложениях. Поскольку галлюцинации часто специфичны и противоречивы, они вряд ли пройдут механизм консенсуса Миры.
В дополнение к повышению достоверности фактов, протокол Mira предназначен для поддержки открытого участия. Проверка не ограничивается централизованной группой проверки. Чтобы выровнять стимулы, Мира приняла систему финансовых стимулов и наказаний. Валидаторы, которые последовательно следуют консенсусу, будут получать вознаграждение по результатам работы, в то время как валидаторы, которые совершают манипулируемые или неточные суждения, будут наказаны. Такая структура поощряет честное поведение и стимулирует конкуренцию между различными конфигурациями моделей. Устраняя зависимость от централизованного управления и встраивая стимулы на уровень протокола, Mira обеспечивает масштабируемую децентрализованную проверку в средах с высоким трафиком, гарантируя, что стандарты вывода не будут скомпрометированы.
Заключение
Mira предлагает структурное решение одной из самых актуальных проблем в области искусственного интеллекта: возможность полагаться на проверку результатов в масштабе. Вместо того, чтобы полагаться на уровень доверия к одной модели или контроль человека постфактум, Mira представляет децентрализованный уровень верификации, который работает параллельно с генерацией искусственного интеллекта. Система отфильтровывает неподдерживаемый контент, разбивая вывод на констатации фактов, распределяя их среди независимых валидаторов и применяя механизм консенсуса. Это повышает надежность без необходимости переобучения модели или централизации управления.
Данные показывают, что скорость внедрения и фактическая точность значительно улучшились, а феномен галлюцинаций ИИ значительно снизился. В настоящее время Mira интегрирована в различные области, включая интерфейсы чата, образовательные инструменты и финансовые платформы, и становится инфраструктурным уровнем для приложений, критически важных для точности. По мере развития протоколов и распространения сторонних аудитов прозрачность, повторяемость и открытое участие Mira обеспечат масштабируемую структуру доверия для систем искусственного интеллекта, работающих в больших объемах или регулируемых средах.
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Mira как повысить доверие к ИИ через распределенные узлы
Автор: Messari
Резюме
Распределенная верификация позволяет Mira фильтровать AI выводы через независимые модели сети для повышения надежности фактов, уменьшая галлюцинации без необходимости повторного обучения или централизованного наблюдения.
Механизм согласия требует, чтобы несколько независимых моделей достигли согласия перед тем, как любое требование будет одобрено, заменяя тем самым доверие к одной модели.
Mira ежедневно проверяет 3 миллиарда токенов в интегрированных приложениях, поддерживая более 4,5 миллиона пользователей.
Когда вывод проходит фильтрацию через процесс консенсуса Mira в производственной среде, точность фактов увеличивается с 70% до 96%.
Mira выступает в качестве инфраструктуры, а не конечного продукта для пользователей, интегрируя верификацию непосредственно в ИИ приложений, таких как чат-боты, финтех-инструменты и образовательные платформы.
Представлена Мира
Mira — это протокол, предназначенный для проверки результатов работы систем искусственного интеллекта. Его основная функция аналогична децентрализованному уровню аудита/доверия. Всякий раз, когда модель ИИ генерирует выходные данные, будь то ответ или резюме, Мира оценивает, заслуживают ли доверия «фактические» утверждения в этих выходных данных, прежде чем они попадут к конечному пользователю.
Система работает, разбивая каждый выход ИИ на более мелкие утверждения. Эти утверждения независимо оцениваются несколькими валидаторами в сети Mira. Каждый узел запускает собственную модель искусственного интеллекта, часто с другой архитектурой, набором данных или перспективой. Модель голосует по каждому утверждению, решая, является ли оно истинным или контекстуальным. Конечный результат определяется механизмом консенсуса: если подавляющее большинство моделей согласны с обоснованностью утверждения, Mira одобрит утверждение. Если есть разногласия, претензия будет помечена или отклонена.
Не существует центрального органа или скрытой модели для принятия окончательного решения. Вместо этого истина определяется коллективно, проистекая из распределенной, разнообразной модели. Весь процесс прозрачен и поддается проверке. Каждый проверенный вывод поставляется с сертификатом шифрования: отслеживаемой записью, показывающей, какие утверждения были оценены, какие модели участвовали и как за них проголосовали. Приложения, платформы и даже регулирующие органы могут использовать этот сертификат для подтверждения того, что выходные данные прошли уровень верификации Mira.
Вдохновение Mira исходит от интеграционных технологий искусственного интеллекта и механизмов согласия блокчейна. Он не повышает точность за счет агрегации прогнозов, а определяет доверие через агрегацию оценок. Он проводит фильтрацию, отклоняя те выводы, которые не прошли распределенное тестирование подлинности.
Почему AI требуется система верификации, подобная Mira?
Модели ИИ не являются детерминированными, что означает, что они не всегда возвращают одинаковый вывод на одни и те же подсказки и не могут гарантировать истинность своих генерируемых результатов. Это не является недостатком; оно напрямую вытекает из способа обучения больших языковых моделей: предсказание следующего токена происходит на основе вероятности, а не детерминированности.
Эта вероятностная природа придает искусственным интеллектам гибкость. Она наделяет их креативностью, способностью к контекстному восприятию и человекоподобными способностями. Однако это также означает, что они могут естественным образом создавать вещи.
Мы уже увидели последствия. Чат-бот Air Canada выдумал несуществующую политику тарифов на прощание и переслал ее пользователю. Этот пользователь доверился чат-боту, забронировал билет на основе ложной информации и понес финансовые убытки. По решению суда, авиакомпания несет ответственность за иллюзии чат-бота. Короче говоря, искусственный интеллект уверенно выдвинул претензию, а компания за это заплатила.
Это всего лишь пример. Иллюзорные явления широко распространены. Они появляются в неточных аннотациях исследований, в образовательных приложениях, представляющих ложные исторические факты, и в новостных бюллетенях, написанных искусственным интеллектом, содержащих ложные или вводящие в заблуждение утверждения. Это происходит потому, что эти результаты обычно плавные и авторитетные, и пользователи часто доверяют им.
Помимо галлюцинаций, есть и другие системные проблемы:
Предвзятость: Модели искусственного интеллекта могут отражать и усиливать предвзятости, присутствующие в их обучающих данных. Эта предвзятость не всегда очевидна. Она может проявляться тонко через формулировки, тон или приоритеты. Например, помощник по найму может систематически склоняться к определенной группе людей. Финансовые инструменты могут генерировать оценки рисков с использованием искаженного или стигматизирующего языка.
Непредсказуемость: задавая один и тот же вопрос одной и той же модели дважды, можно получить два разных ответа. Небольшие изменения в подсказке могут привести к неожиданным изменениям в результатах. Эта непоследовательность делает выводы ИИ трудными для аудита, воспроизведения или долгосрочной зависимости.
Природа черного ящика: когда системы искусственного интеллекта дают ответ, они обычно не предоставляют никаких объяснений или прослеживаемого вывода. У них нет четких подсказок, чтобы показать свои выводы. Поэтому, когда модель ошибается, трудно диагностировать причину или исправить ее.
Централизованное управление: в настоящее время большинство систем искусственного интеллекта контролируются закрытыми моделями, принадлежащими нескольким крупным компаниям. Если в модели есть недостатки, предвзятости или она подвергается цензуре, выбор пользователей ограничен. Отсутствие второго мнения, прозрачного процесса подачи жалоб или противоречивых объяснений. Это приводит к централизованной структуре управления, которую трудно оспорить или проверить.
Существующие методы повышения надежности вывода ИИ и их ограничения
В настоящее время существует несколько способов повышения надежности вывода ИИ. Каждый из этих методов предоставляет определенную ценность, но все они имеют ограничения и не могут достичь необходимого уровня доверия для ключевых приложений.
Совместная работа человека и робота (HITL): Этот подход включает в себя проверку и утверждение человеком результатов работы ИИ. Он эффективно работает в сценариях использования с малыми объемами. Тем не менее, он может быстро стать узким местом для систем, генерирующих миллионы ответов в день, таких как поисковые системы, боты поддержки или приложения для обучения. Ручная проверка медленна, дорогостояща и подвержена предвзятости и несоответствиям. Например, Grok от xAI использует репетиторов с искусственным интеллектом для ручной оценки и уточнения ответов. Это временное решение, и Мира видит его как решение с низким уровнем зацепления: оно не масштабируется и не решает основные проблемы, существующие в логике искусственного интеллекта и не поддающиеся проверке.
Правило фильтров: эти системы используют фиксированные методы проверки, такие как маркировка запрещенных терминов или сравнение вывода с структурированной графовой базой знаний. Хотя они подходят для узких контекстов, они применимы только в ситуациях, соответствующих ожиданиям разработчика. Они не могут обрабатывать новые или открытые запросы и с трудом справляются с тонкими ошибками или двусмысленными утверждениями.
Самовалидация: Некоторые модели содержат механизмы для оценки их уверенности в себе или для оценки их ответов с помощью вторичной модели. Тем не менее, системы искусственного интеллекта, как известно, плохо выявляют свои собственные ошибки. Чрезмерная уверенность в неправильном ответе — вечная проблема, и внутренняя обратная связь часто не в состоянии ее исправить.
Интегрированные модели: в некоторых системах несколько моделей проверяют друг друга. Хотя это может повысить стандарты качества, традиционные интегрированные модели обычно являются централизованными и однородными. Если все модели используют схожие тренировочные данные или происходят от одного поставщика, они могут разделять одни и те же слепые зоны. Разнообразие архитектур и точек зрения будет ограничено.
Мира стремится решить проблему восприятия. Его цель — создать среду, которая захватывает и устраняет иллюзии, сводит к минимуму предвзятость с помощью различных моделей, делает выходные данные воспроизводимыми проверяемыми, и ни один объект не может контролировать процесс проверки подлинности. Изучение того, как работает система Mira, может решить каждую из этих проблем по-новому.
Mira как повысить надежность ИИ
Существуют различные способы повышения надежности ИИ (централизованные и зависящие от единственного источника фактов). Mira представляет собой другую модель. Она реализует декомцентрированную валидацию, устанавливает консенсус на уровне протокола и использует экономические стимулы для укрепления надежного поведения. Mira не является независимым продуктом или инструментом верхнего контроля, а служит модульным уровнем инфраструктуры, который можно интегрировать в любую систему искусственного интеллекта.
Дизайн этого соглашения основан на нескольких основных принципах:
Точность фактов не должна зависеть от вывода модели.
Верификация должна быть автономной и не может зависеть от постоянного человеческого контроля.
Доверие должно основываться на независимых протоколах, а не на централизованном контроле.
Mira применяет принципы распределенных вычислений для проверки ИИ. Когда подаются выходные данные (например, рекомендации по политике, финансовые резюме или ответы чат-бота), они сначала разбиваются на более мелкие фактические утверждения. Эти утверждения формируются в дискретные вопросы или заявления и направляются в сеть узлов проверяющих.
Каждый узел запускает разные AI модели или конфигурации и независимо оценивает свои назначенные утверждения. Он возвращает одно из трех суждений: истинно, ложно или неуверенно. Затем Mira сообщает результаты. Если выполняется настраиваемый порог абсолютного большинства, утверждение считается подтвержденным. Если нет, оно будет помечено, отброшено или возвращено с предупреждением.
Распределенный дизайн Mira имеет несколько структурных преимуществ:
Избыточность и разнообразие: перекрестная проверка утверждений с помощью моделей с различной архитектурой, наборами данных и точками зрения.
Устойчивость к ошибкам: сбой или ошибка в одной модели маловероятно, что воспроизведется во многих моделях.
Прозрачность: каждый результат верификации записывается в цепочку, предоставляя проверяемые улики, включая информацию о том, какие модели участвовали и как они голосовали.
Автономность: Mira работает непрерывно и параллельно, без необходимости в человеческом вмешательстве.
Масштабируемость: Эта система может обрабатывать огромные объемы работы с десятками миллиардов токенов каждый день.
Основная идея Mira основана на статистике: хотя отдельные модели могут создавать иллюзии или отражать предвзятости, вероятность того, что несколько независимых систем совершают одни и те же ошибки одинаковым образом, значительно ниже. Протокол использует это разнообразие для фильтрации ненадежного контента. Принципы Mira аналогичны интегрированному обучению, но он расширяет эту идею в распределенную, проверяемую и экономически защищенную систему, которую можно встроить в процессы ИИ в реальном мире.
Делегаты узлов и вычислительные ресурсы
Децентрализованная инфраструктура верификации Mira Network работает на основе глобального сообщества участников, которые предоставляют вычислительные ресурсы, необходимые для запуска узлов валидаторов. Эти участники, известные как делегаторы узлов, играют ключевую роль в масштабировании производства для обработки протоколов и проверки выходных данных ИИ.
Что такое делегат узла?
Субъект узла — это физическое или юридическое лицо, которое сдает в аренду или предоставляет вычислительные ресурсы графического процессора проверенному оператору узла, а не управляет узлом валидатора самостоятельно. Эта модель делегирования позволяет участникам вносить свой вклад в инфраструктуру Mira без необходимости управлять сложными моделями ИИ или программным обеспечением узлов. Предоставляя доступ к ресурсам графического процессора, участники позволяют операторам узлов выполнять больше проверок параллельно, повышая емкость и надежность системы.
Участники узлов получают экономические стимулы за свое участие. В качестве вознаграждения за предоставление вычислительной мощности они получают вознаграждение, связанное с объемом работы по валидации, выполняемой поддерживаемыми ими узлами, и привязанное к качеству. Это создает децентрализованную структуру стимулов, в которой масштабируемость сети напрямую связана с участием сообщества, а не с инвестициями в централизованную инфраструктуру.
Кто предоставляет операторов узлов?
Ресурсы вычислений поступают от операторов узлов-основателей Mira, которые являются ключевыми участниками экосистемы децентрализованной инфраструктуры:
Io.Net: Децентрализованная сеть физической инфраструктуры для вычислений на GPU (DePIN), предлагающая масштабируемые и экономически эффективные ресурсы GPU.
Aethir: предприятие уровня бизнеса, ориентированное на искусственный интеллект и игры, предоставляющее услуги GPU как сервис и распределенную облачную вычислительную инфраструктуру.
Гипербола: открытая облачная платформа ИИ, предоставляющая экономически эффективные и согласованные ресурсы GPU для разработки ИИ.
Exabits: Пионер децентрализованных облачных вычислений с использованием ИИ, решающий проблему нехватки GPU и оптимизирующий распределение ресурсов.
Spheron: децентрализованная платформа для упрощенного развертывания веб-приложений, предлагающая прозрачные и проверяемые решения.
Каждый партнер запускает узлы верификаторов в сети Mira, используя делегированные вычислительные мощности для масштабной верификации выходных данных ИИ. Их вклад позволяет Mira поддерживать высокую пропускную способность верификации, обрабатывая десятки миллиардов токенов ежедневно, при этом сохраняя скорость, устойчивость к сбоям и децентрализацию.
Внимание: каждый участник может приобрести только одну лицензию делегата узла. Пользователь должен пройти процесс KYC через "помощь видео проверки", чтобы подтвердить свое реальное участие.
Mira в области ИИ широкомасштабного использования и поддержки данных
Согласно данным, предоставленным командой, сеть Mira ежедневно проверяет более 3 миллиардов токенов. В языковой модели лексема относится к небольшой единице текста, обычно к фрагменту слов, короткому слову или знаку препинания. Например, фраза «Выходные данные проверки Mira» будет разбита на несколько маркеров. Такой объем отчетности указывает на то, что Мира работает над большим количеством контента в различных интеграциях, включая чат-помощников, образовательные платформы, финтех-продукты и внутренние инструменты, использующие API. На уровне содержимого эта пропускная способность приравнивается к оценке миллионов абзацев в день.
Согласно сообщениям, экосистема Mira (включая партнерские проекты) поддерживает более 4,5 миллионов независимых пользователей, с примерно 500 тысячами активных пользователей в день. Эти пользователи включают прямых пользователей Klok, а также конечных пользователей сторонних приложений, которые интегрируют слой верификации Mira в фоновом режиме. Хотя большинство пользователей, возможно, не взаимодействуют напрямую с Mira, эта система выполняет роль тихого верификационного слоя, помогая обеспечить достижение определенного порога точности сгенерированного AI контента до его достижения конечного пользователя.
Согласно исследовательской работе команды Mira, большие языковые модели, которые ранее были фактически точными в таких областях, как образование и финансы, имели уровень фактической точности около 70%, но теперь они были проверены с точностью 96% после того, как были проверены в рамках процесса консенсуса Mira. Важно отметить, что эти улучшения могут быть достигнуты без повторного обучения самой модели. Вместо этого эти улучшения обусловлены логикой фильтрации Mira. Система отфильтровывает недостоверное содержимое, требуя согласования нескольких независимо работающих моделей. Этот эффект особенно важен для галлюцинаций, которые представляют собой сгенерированную искусственным интеллектом, необоснованную ложную информацию, которая, как сообщается, снижается на 90% в интегрированных приложениях. Поскольку галлюцинации часто специфичны и противоречивы, они вряд ли пройдут механизм консенсуса Миры.
В дополнение к повышению достоверности фактов, протокол Mira предназначен для поддержки открытого участия. Проверка не ограничивается централизованной группой проверки. Чтобы выровнять стимулы, Мира приняла систему финансовых стимулов и наказаний. Валидаторы, которые последовательно следуют консенсусу, будут получать вознаграждение по результатам работы, в то время как валидаторы, которые совершают манипулируемые или неточные суждения, будут наказаны. Такая структура поощряет честное поведение и стимулирует конкуренцию между различными конфигурациями моделей. Устраняя зависимость от централизованного управления и встраивая стимулы на уровень протокола, Mira обеспечивает масштабируемую децентрализованную проверку в средах с высоким трафиком, гарантируя, что стандарты вывода не будут скомпрометированы.
Заключение
Mira предлагает структурное решение одной из самых актуальных проблем в области искусственного интеллекта: возможность полагаться на проверку результатов в масштабе. Вместо того, чтобы полагаться на уровень доверия к одной модели или контроль человека постфактум, Mira представляет децентрализованный уровень верификации, который работает параллельно с генерацией искусственного интеллекта. Система отфильтровывает неподдерживаемый контент, разбивая вывод на констатации фактов, распределяя их среди независимых валидаторов и применяя механизм консенсуса. Это повышает надежность без необходимости переобучения модели или централизации управления.
Данные показывают, что скорость внедрения и фактическая точность значительно улучшились, а феномен галлюцинаций ИИ значительно снизился. В настоящее время Mira интегрирована в различные области, включая интерфейсы чата, образовательные инструменты и финансовые платформы, и становится инфраструктурным уровнем для приложений, критически важных для точности. По мере развития протоколов и распространения сторонних аудитов прозрачность, повторяемость и открытое участие Mira обеспечат масштабируемую структуру доверия для систем искусственного интеллекта, работающих в больших объемах или регулируемых средах.