Mira cómo mejorar la credibilidad de la IA a través de nodos distribuidos.

Escrito por: Messari

Resumen

La verificación descentralizada permite que Mira filtre las salidas de IA a través de una red de modelos independientes para mejorar la confiabilidad de los hechos, reduciendo las alucinaciones sin necesidad de reentrenamiento o supervisión centralizada.

El mecanismo de consenso requiere que varios modelos independientes lleguen a un acuerdo antes de que se apruebe cualquier reclamación, reemplazando así la confianza en un solo modelo.

Mira verifica 30 mil millones de tokens en aplicaciones integradas todos los días, apoyando a más de 4.5 millones de usuarios.

Cuando la salida se filtra a través del proceso de consenso de Mira en un entorno de producción, la precisión de los hechos aumenta del 70% al 96%.

Mira actúa como infraestructura en lugar de un producto final para el usuario al incorporar la verificación directamente en la inteligencia artificial de aplicaciones como chatbots, herramientas de fintech y plataformas educativas.

Introducción a Mira

Mira es un protocolo diseñado para verificar la salida de los sistemas de IA. Su funcionalidad principal es similar a una capa de auditoría / confianza descentralizada. Cada vez que un modelo de IA genera una salida (ya sea una respuesta o un resumen), Mira evalúa si las declaraciones de "hechos" en esa salida son confiables antes de que lleguen al usuario final.

El sistema funciona dividiendo cada salida de IA en reclamaciones más pequeñas. Estas afirmaciones son evaluadas de forma independiente por múltiples validadores en la red Mira. Cada nodo ejecuta su propio modelo de IA, a menudo con una arquitectura, un conjunto de datos o una perspectiva diferentes. El modelo vota sobre cada afirmación, decidiendo si es verdadera o contextual. El resultado final está determinado por el mecanismo de consenso: si la gran mayoría de los modelos están de acuerdo con la validez de la afirmación, Mira aprobará la afirmación. Si hay un desacuerdo, la reclamación se marcará o se rechazará.

No existe una autoridad central o un modelo oculto para tomar la decisión final. En cambio, la verdad se determina colectivamente, emergiendo de un modelo distribuido y diverso. Todo el proceso es transparente y auditable. Cada salida verificada viene con un certificado de cifrado: un registro rastreable que muestra qué afirmaciones se evaluaron, qué modelos participaron y cómo se votaron. Las aplicaciones, las plataformas e incluso los reguladores pueden usar este certificado para confirmar que la salida ha pasado la capa de verificación de Mira.

La inspiración de Mira proviene de la tecnología de integración de inteligencia artificial y del mecanismo de consenso de blockchain. No aumenta la precisión a través de la agregación de predicciones, sino que determina la confiabilidad mediante la agregación de evaluaciones. Filtra y rechaza aquellas salidas que no pasan la prueba de autenticidad distribuida.

¿Por qué la IA necesita un sistema de verificación como el de Mira?

Los modelos de IA no son deterministas, lo que significa que no siempre devuelven la misma salida para los mismos mensajes y no se puede garantizar la veracidad de los resultados generados. Esto no es un defecto; proviene directamente de la forma en que se entrenan los grandes modelos de lenguaje: prediciendo el siguiente token a través de probabilidades en lugar de determinismo.

Esta probabilidad otorga flexibilidad a los sistemas de inteligencia artificial. Les proporciona creatividad, capacidad de percepción contextual y habilidades humanas. Sin embargo, esto también significa que pueden crear cosas de manera natural.

Hemos visto las consecuencias. El chatbot de Air Canada inventó una política de tarifas por duelo que no existía y se la envió a un usuario. Este usuario, confiando en el chatbot, reservó un boleto de avión basado en información falsa y sufrió una pérdida económica. Tras una decisión judicial, la aerolínea es responsable de las ilusiones del chatbot. En resumen, la inteligencia artificial presentó una reclamación con confianza, y la empresa pagó el precio por ello.

Este es solo un ejemplo. Las alucinaciones están muy extendidas. Aparecen en resúmenes de investigación que citan inexactamente, aplicaciones educativas que presentan hechos históricos falsos y resúmenes de noticias escritos por IA que contienen declaraciones falsas o engañosas. Esto se debe a que estos resultados suelen ser fluidos y autoritativos, y los usuarios tienden a creerlos como verdaderos.

Además de las alucinaciones, hay más problemas sistémicos:

Sesgo: Los modelos de IA pueden reflejar y amplificar los sesgos en sus datos de entrenamiento. Este sesgo no siempre es obvio. Puede ser sutil a través de cosas como el fraseo, el tono o la prioridad. Por ejemplo, la contratación de asistentes puede estar sistemáticamente sesgada hacia un grupo demográfico específico. Los instrumentos financieros pueden generar evaluaciones de riesgo que utilicen un lenguaje distorsionado o estigmatizante.

No determinista: Hacer la misma pregunta al mismo modelo dos veces puede dar lugar a dos respuestas diferentes. Cambie ligeramente la solicitud y el resultado puede cambiar inesperadamente. Esta inconsistencia hace que los resultados de la IA sean difíciles de auditar, reproducir o dependientes a largo plazo.

La esencia de la caja negra: cuando un sistema de inteligencia artificial proporciona una respuesta, generalmente no ofrece ninguna explicación o razonamiento rastreable. No tiene pistas claras que muestren sus conclusiones. Por lo tanto, cuando el modelo comete un error, es difícil diagnosticar la causa o realizar una reparación.

Control centralizado: La mayoría de los sistemas de IA de hoy en día son modelos cerrados controlados por un puñado de grandes empresas. Si el modelo es defectuoso, sesgado o censurado, las opciones del usuario son limitadas. Falta de segundas opiniones, un proceso de quejas transparente o interpretaciones contradictorias. Esto da como resultado una estructura de control centralizada que es difícil de desafiar o validar.

Métodos existentes para mejorar la fiabilidad de la salida de IA y sus limitaciones.

Actualmente hay varias formas de mejorar la confiabilidad de la salida de la IA. Cada método ofrece un valor parcial, pero todos tienen limitaciones y no pueden alcanzar el nivel de confianza requerido para aplicaciones clave.

Colaboración entre humanos y robots (HITL): Este enfoque implica que un humano revise y apruebe los resultados de la IA. Funciona eficazmente en casos de uso de bajo volumen. Sin embargo, puede convertirse rápidamente en un cuello de botella para los sistemas que generan millones de respuestas al día, como los motores de búsqueda, los bots de soporte o las aplicaciones de coaching. Las revisiones manuales son lentas, costosas y propensas a sesgos e inconsistencias. Por ejemplo, Grok de xAI utiliza tutores de IA para evaluar y refinar manualmente las respuestas. Es una solución temporal, y Mira la ve como una solución de bajo apalancamiento: no escala y no resuelve los problemas subyacentes que existen en la lógica de la IA que no se pueden verificar.

Filtros de reglas: Estos sistemas emplean métodos de verificación fijos, como marcar términos deshabilitados o comparar la salida con un gráfico de conocimiento estructurado. Si bien son adecuados para contextos más estrechos, solo son adecuados para situaciones que cumplan con las expectativas del desarrollador. No pueden manejar consultas novedosas o abiertas, y luchan con errores sutiles o afirmaciones ambiguas.

Autovalidación: Algunos modelos contienen mecanismos para evaluar su autoconfianza o para evaluar sus respuestas utilizando un modelo secundario. Sin embargo, los sistemas de IA son notoriamente malos para identificar sus propios errores. El exceso de confianza en la respuesta incorrecta es un problema perenne, y la retroalimentación interna a menudo no logra corregirlo.

Modelos integrados: en algunos sistemas, múltiples modelos se verifican entre sí. Aunque esto puede mejorar los estándares de calidad, los modelos integrados tradicionales suelen ser centralizados y homogéneos. Si todos los modelos comparten datos de entrenamiento similares o provienen del mismo proveedor, pueden compartir los mismos puntos ciegos. La diversidad en la arquitectura y la perspectiva se verá limitada.

Mira se dedica a resolver problemas de percepción. Su objetivo es crear un entorno capaz de capturar y eliminar ilusiones, minimizando los sesgos a través de modelos diversos, garantizando que los resultados sean verificables de manera repetible y que ninguna entidad única pueda controlar el proceso de verificación de la autenticidad. Estudiar cómo funciona el sistema Mira puede abordar cada uno de los problemas mencionados de manera novedosa.

Mira cómo mejorar la confiabilidad de la IA

Actualmente, los métodos para mejorar la confiabilidad de la IA (centralizados y que dependen de una única fuente de hechos) son diferentes. Mira introduce un modelo diferente. Implementa la verificación descentralizada, establece consenso a nivel de protocolo y utiliza incentivos económicos para reforzar el comportamiento confiable. Mira no es un producto independiente ni una herramienta de supervisión de arriba hacia abajo, sino que actúa como una capa de infraestructura modular que se puede integrar en cualquier sistema de inteligencia artificial.

El diseño de este protocolo se basa en varios principios fundamentales:

La exactitud de los hechos no debe depender de la salida de un modelo.

La validación debe ser autónoma y no puede depender de la supervisión humana continua.

La confianza debe basarse en protocolos independientes, no en el control centralizado.

Mira aplica los principios de la computación distribuida a la validación de la IA. Cuando se envía un resultado, como una recomendación de política, un resumen financiero o una respuesta de chatbot, primero se desglosa en declaraciones de hechos más pequeñas. Estas afirmaciones se construyen como preguntas o declaraciones discretas y se enrutan a una red de nodos validadores.

Cada nodo ejecuta diferentes modelos o configuraciones de IA y evalúa de forma independiente las declaraciones asignadas. Regresará uno de los siguientes tres juicios: verdadero, falso o incierto. Luego, Mira retroalimentará los resultados. Si se cumple el umbral de mayoría absoluta configurable, la declaración es validada. Si no se cumple, se marcará, descartará o se devolverá una advertencia.

El diseño distribuido de Mira tiene varias ventajas estructurales:

Redundancia y diversidad: verificar las declaraciones a través de modelos con diferentes arquitecturas, conjuntos de datos y perspectivas.

Tolerancia a fallos: es poco probable que una falla o error en un modelo se reproduzca en muchos modelos.

Transparencia: Cada resultado de verificación se registra en la cadena, proporcionando pistas auditables, incluyendo qué modelos participaron y cómo votaron.

Autonomía: Mira funciona de manera continua y paralela, sin necesidad de intervención humana.

Escalabilidad: este sistema puede manejar cargas de trabajo masivas de miles de millones de tokens diariamente.

Las ideas centrales de Mira se basan en estadísticas: mientras que un solo modelo puede alucinar o reflejar sesgo, varios sistemas independientes tienen una probabilidad mucho menor de cometer el mismo error de la misma manera. El protocolo se aprovecha de esta diversidad para filtrar el contenido poco fiable. El principio de Mira es similar al aprendizaje por conjuntos, pero amplía la idea para que sea un sistema distribuido, verificable y criptoeconómicamente seguro que puede integrarse en los procesos de IA del mundo real.

Delegados de nodos y recursos computacionales

La infraestructura de verificación descentralizada de Mira Network está impulsada por una comunidad global de colaboradores que proporcionan los recursos informáticos necesarios para ejecutar los nodos validadores. Estos colaboradores, conocidos como delegadores de nodos, desempeñan un papel clave en la ampliación de la escala de producción para el procesamiento de protocolos y la validación de los resultados de IA.

¿Qué es un delegante de nodo?

Un nodo principal es una persona o entidad que alquila o proporciona recursos informáticos de GPU a un operador de nodo verificado, en lugar de operar un nodo validador por su cuenta. Este modelo de delegación permite a los participantes contribuir a la infraestructura de Mira sin tener que gestionar complejos modelos de IA o software de nodos. Al proporcionar acceso a los recursos de GPU, las entidades principales permiten a los operadores de nodos realizar más validaciones en paralelo, lo que mejora la capacidad y la solidez del sistema.

Los delegados de nodo reciben incentivos financieros por su participación. A cambio de contribuir con potencia de cómputo, serán recompensados por la cantidad de trabajo de validación realizado por los nodos que admiten y vinculado a la calidad. Esto crea una estructura de incentivos descentralizada en la que la escalabilidad de la red está directamente relacionada con la participación de la comunidad y no con la inversión en infraestructura descentralizada.

¿Quién proporciona los operadores de nodos?

Los recursos de computación provienen de los operadores de nodos fundadores de Mira, que son participantes clave en el ecosistema de infraestructura descentralizada:

Io.Net: Red de infraestructura física descentralizada para computación GPU (DePIN), que ofrece recursos de GPU escalables y rentables.

Aethir: un proveedor de GPU como servicio de nivel empresarial, enfocado en inteligencia artificial y juegos, que ofrece infraestructura de computación en la nube descentralizada.

Hyperbolic: una plataforma de nube AI abierta que proporciona recursos GPU económicos y coherentes para el desarrollo de AI.

Exabits: pionero en la computación en la nube descentralizada de IA, que resuelve el problema de escasez de GPU y optimiza la asignación de recursos.

Spheron: una plataforma descentralizada que simplifica el despliegue de aplicaciones web, ofreciendo soluciones transparentes y verificables.

Cada socio opera un nodo validador en la red Mira, utilizando poder de cómputo delegado para validar masivamente las salidas de AI. Sus contribuciones permiten que Mira mantenga un alto rendimiento de validación, procesando miles de millones de tokens cada día, mientras mantiene velocidad, tolerancia a fallos y descentralización.

Nota: Cada participante solo puede comprar una licencia de delegado de nodo. Los usuarios deben completar el proceso KYC de "verificación de video asistido" para demostrar su participación auténtica.

Mira en el uso a gran escala y el soporte de datos en el campo de la IA

Según los datos proporcionados por el equipo, la red Mira verifica más de 3 mil millones de tokens todos los días. En un modelo de lenguaje, un token hace referencia a una pequeña unidad de texto, normalmente un fragmento de palabras, una palabra corta o un signo de puntuación. Por ejemplo, la frase "Salida de validación de Mira" se dividiría en varios tokens. Este volumen de informes indica que Mira está trabajando en una gran cantidad de contenido en varias integraciones, incluidos asistentes de chat, plataformas educativas, productos fintech y herramientas internas que utilizan API. A nivel de contenido, este rendimiento equivale a evaluar millones de párrafos por día.

El ecosistema de Mira, incluidos los programas de socios, admite más de 4,5 millones de usuarios únicos, con alrededor de 500.000 usuarios activos diarios. Estos usuarios incluyen usuarios directos de Klok, así como usuarios finales de aplicaciones de terceros que integran la capa de verificación de Mira en segundo plano. Si bien es posible que la mayoría de los usuarios no interactúen directamente con Mira, el sistema actúa como una capa de verificación silenciosa, lo que ayuda a garantizar que el contenido generado por IA cumpla con un cierto umbral de precisión antes de llegar al usuario final.

Según un trabajo de investigación realizado por el equipo de Mira, los grandes modelos de lenguaje que anteriormente eran fácticamente precisos en áreas como la educación y las finanzas tenían una tasa de precisión factual de alrededor del 70%, pero ahora han sido validados con una precisión del 96% después de ser examinados por el proceso de consenso de Mira. Es importante tener en cuenta que estas mejoras se pueden lograr sin volver a entrenar el modelo en sí. En cambio, estas mejoras se derivan de la lógica de filtrado de Mira. El sistema filtra el contenido poco fiable exigiendo que varios modelos que se ejecutan de forma independiente coincidan. Este efecto es especialmente importante para las alucinaciones, que son información falsa sin fundamento generada por IA, que se ha informado que se reduce en un 90% en aplicaciones integradas. Debido a que las alucinaciones son a menudo específicas e inconsistentes, es poco probable que pasen el mecanismo de consenso de Mira.

Además de mejorar la fiabilidad de los hechos, el Protocolo Mira está diseñado para apoyar la participación abierta. La validación no se limita a un equipo de revisión centralizado. Para alinear los incentivos, Mira ha adoptado un sistema de incentivos y castigos financieros. A los validadores que sigan sistemáticamente el consenso se les pagará en función del rendimiento, mientras que los validadores que cometan juicios manipulados o inexactos se enfrentarán a sanciones. Esta estructura fomenta el comportamiento honesto y fomenta la competencia entre diferentes configuraciones de modelos. Al eliminar la dependencia de la gobernanza centralizada e incorporar incentivos en la capa de protocolo, Mira permite la verificación descentralizada escalable en entornos de alto tráfico, al tiempo que garantiza que los estándares de salida no se vean comprometidos.

Conclusión

Mira proporciona una solución estructural a uno de los desafíos más apremiantes de la IA: la capacidad de confiar en la verificación de los resultados de producción a escala. En lugar de confiar en el nivel de confianza de un solo modelo o en la supervisión humana a posteriori, Mira introduce una capa de verificación descentralizada que se ejecuta en paralelo con la generación de IA. El sistema filtra el contenido no admitido dividiendo la salida en declaraciones de hechos, distribuyéndolas a validadores independientes y aplicando un mecanismo de consenso. Mejora la fiabilidad sin necesidad de volver a entrenar el modelo ni centralizar el control.

Los datos muestran que la tasa de adopción y la precisión de los hechos han mejorado significativamente, y el fenómeno de las alucinaciones de la IA se ha reducido considerablemente. Mira ahora está integrado en una variedad de áreas, incluidas interfaces de chat, herramientas educativas y plataformas financieras, y está emergiendo como una capa de infraestructura para aplicaciones críticas de precisión. A medida que los protocolos maduren y las auditorías de terceros se generalicen, la transparencia, la repetibilidad y la participación abierta de Mira proporcionarán un marco de confianza escalable para los sistemas de IA que operan en entornos de gran volumen o regulados.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)