Множественная модель Соглашение + Децентрализация верификация: как Mira Network создает уровень доверия AI для противодействия иллюзиям и предвзятости?

robot
Генерация тезисов в процессе

Вчера была запущена публичная Тестовая сеть Mira. Она пытается построить уровень доверия для ИИ. Так почему ИИ нужно доверять? Как Mira решает эту проблему?

Когда люди обсуждают ИИ, они больше сосредотачиваются на мощных аспектах возможностей ИИ. Однако, что интересно, ИИ имеет «галлюцинации» или предвзятости. Люди не уделяют этому много внимания. Что такое «галлюцинации» ИИ? Проще говоря, это значит, что ИИ иногда может «выдумывать» и серьезно говорить ерунду. Например, если вы спросите ИИ, почему луна розовая? Он может серьезно предоставить вам много на вид разумных объяснений.

Существование "галлюцинаций" или предвзятости у ИИ связано с некоторыми текущими технологиями ИИ, например, генеративный ИИ выводит содержание, предсказывая "наиболее вероятное", чтобы достичь связности и разумности, но иногда не может проверить подлинность; кроме того, сами обучающие данные могут содержать ошибки, предвзятости и даже вымышленные содержимое, что также влияет на выводы ИИ. Иными словами, ИИ изучает языковые модели человека, а не сами факты.

В целом, текущий механизм генерации вероятностей + основанная на данных модель почти неизбежно приводит к возможности появления AI-галлюцинаций.

Такое содержимое с предвзятостью или иллюзиями, если это просто обычные знания или развлекательный контент, временно не приведет к прямым последствиям, но если это происходит в таких строго регламентированных областях, как медицина, право, авиация, финансы, это может привести к серьезным последствиям. Поэтому вопрос о том, как решить проблемы иллюзий и предвзятости в ИИ, является одной из ключевых проблем в процессе эволюции ИИ. Некоторые используют технологии усиленной генерации на основе поиска (в сочетании с реальными базами данных, приоритетно выводя проверенные факты), другие вводят человеческую обратную связь, корректируя ошибки модели с помощью ручной разметки и человеческого надзора и т.д.

Проект Mira также пытается решить проблему предвзятости и галлюцинаций ИИ, то есть Mira пытается построить уровень доверия к ИИ, уменьшить предвзятость и галлюцинации ИИ, а также повысить надежность ИИ. Итак, с точки зрения общей структуры, как Mira уменьшает предвзятость и иллюзию ИИ и, в конечном итоге, создает надежный ИИ?

Ядром реализации Mira является верификация вывода ИИ через консенсус нескольких моделей ИИ. То есть, Mira сама по себе является верификационной сетью, которая проверяет надежность вывода ИИ, полагаясь на консенсус нескольких моделей ИИ. Кроме того, также очень важно, чтобы верификация происходила через децентрализованный консенсус.

Таким образом, ключом к сети Mira является децентрализованная проверка консенсуса. Децентрализованная проверка консенсуса — это то, в чем преуспевает криптоиндустрия, и при этом она использует сотрудничество нескольких моделей, чтобы снизить предвзятость и иллюзии через коллективную модель проверки.

В аспекте проверки архитектуры требуется наличие независимой проверяемой декларации, протокол Mira поддерживает преобразование сложного содержания в независимую проверяемую декларацию. Эти декларации требуют участия операторов узлов для проверки, чтобы обеспечить честность операторов узлов, здесь будут использоваться экономические стимулы/наказания, различные модели ИИ + децентрализованные операторы узлов участвуют для обеспечения надежности результатов проверки.

Сетевая архитектура Mira включает в себя преобразование контента, распределенную верификацию и механизмы консенсуса, что обеспечивает надежность верификации. В этой архитектуре преобразование контента является важным элементом. Сеть Mira сначала разбивает кандидатный контент (обычно предоставляемый клиентом) на различные проверяемые утверждения (чтобы обеспечить понимание модели в одном и том же контексте), эти утверждения распределяются системой по узлам для проверки, чтобы определить их действительность, и результаты обобщаются для достижения консенсуса. Эти результаты и консенсус возвращаются клиенту. Кроме того, чтобы защитить конфиденциальность клиента, преобразование кандидатного контента разбивается на пары утверждений, которые передаются различным узлам в случайном порядке, чтобы предотвратить утечку информации в процессе верификации.

Операторы узлов отвечают за запуск моделей валидаторов, обработку заявлений и представление результатов валидации. Почему операторы узлов хотят участвовать в валидации заявлений? Потому что они могут получать доход. Откуда приходит доход? Из созданной для клиентов ценности. Цель сети Mira заключается в снижении уровня ошибок ИИ (галлюцинаций и предвзятости), и как только эта цель будет достигнута, может быть создана ценность, например, в таких областях, как медицина, юриспруденция, авиация и финансы, снижение уровня ошибок в которых принесет огромную ценность. Поэтому клиенты готовы платить. Конечно, что касается устойчивости и масштабируемости платежей, это зависит от того, сможет ли сеть Mira продолжать приносить ценность клиентам (снижать уровень ошибок ИИ). Кроме того, чтобы предотвратить спекулятивные действия узлов, которые отвечают случайно, узлы, которые постоянно отклоняются от согласия, будут подвергнуты уменьшению ставочных токенов. В общем, это означает, что через игровые механизмы экономики обеспечивается честное участие операторов узлов в валидации.

В целом, Mira предлагает новый подход к обеспечению надежности ИИ, строя децентрализованную сеть для валидации консенсуса на основе множества моделей ИИ, что приносит более высокую надежность услуг ИИ для клиентов, снижает предвзятость и иллюзии ИИ, чтобы удовлетворить потребности клиентов в более высокой точности и точности. И, основываясь на предоставлении ценности для клиентов, приносит доход участникам сети Mira. Если подвести итог в одном предложении, можно сказать, что Mira пытается построить уровень доверия к ИИ. Это будет способствовать углублению применения ИИ.

В настоящее время в рамках сотрудничества Mira используются такие AI-агенты, как ai16z и ARC. Публичная тестовая сеть Mira была запущена вчера, и пользователи могут участвовать в публичной тестовой сети Mira, используя Klok, который является основанным на LLM приложением для чата от Mira. С помощью приложения Klok можно испытать проверенный AI-вывод (можно сравнить, чем он отличается от непроверенного AI-вывода) и зарабатывать баллы Mira. Что касается будущего использования баллов, пока не раскрыто.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить