En la actualidad, con el auge de la IA generativa, aún enfrentamos una cuestión fundamental: a veces, la IA puede decir tonterías con toda seriedad. Este fenómeno se conoce en la industria como "alucinación". Mira, un protocolo descentralizado diseñado para la verificación de salidas de IA, está tratando de aumentar la "credibilidad factual" de la IA a través de un mecanismo de consenso de múltiples modelos y auditoría encriptada. A continuación, veamos cómo funciona Mira, por qué es más efectivo que los métodos tradicionales y los resultados que ha obtenido en aplicaciones reales. Este informe se ha elaborado en base a un informe de investigación publicado por Messari; el texto completo se puede consultar en: Understanding AI Verification: A Use Case for Mira.
Protocolo de verificación de hechos descentralizada: el principio operativo básico de Mira
Mira no es un modelo de IA, sino una capa de verificación integrada. Cuando un modelo de IA genera una respuesta (como las respuestas de un chatbot, resúmenes, informes automatizados, etc.), Mira descompone la salida en una serie de afirmaciones independientes. Estas afirmaciones se envían a su red de verificación descentralizada, donde cada nodo (es decir, los verificadores) ejecuta diferentes arquitecturas de modelos de IA para evaluar si estas afirmaciones son verdaderas.
Cada nodo emitirá un juicio de "correcto", "incorrecto" o "incierto" respecto a la afirmación, y al final el sistema tomará una decisión general basada en el consenso de la mayoría. Si la mayoría de los modelos aceptan una afirmación como verdadera, esa afirmación será aprobada; de lo contrario, será etiquetada, rechazada o se emitirá una advertencia.
Este proceso es completamente transparente y auditado. Cada verificación genera un certificado encriptado que indica los modelos involucrados en el proceso de verificación, los resultados de la votación, las marcas de tiempo, etc., para que puedan ser verificados por terceros.
¿Por qué la IA necesita un sistema de verificación como Mira?
Los modelos de IA generativa (como GPT, Claude) no son herramientas deterministas; predicen el siguiente carácter basado en probabilidades y no tienen una "percepción de hechos" incorporada. Este diseño les permite escribir poesía y contar chistes, pero también significa que pueden generar información falsa con total seriedad.
El mecanismo de verificación propuesto por Mira busca resolver los cuatro problemas centrales actuales de la IA:
Inundación de ilusiones: los casos de IA que fabrican políticas, inventan eventos históricos y citan documentos de manera errónea son cada vez más comunes.
Caja negra: los usuarios no saben de dónde provienen las respuestas de la IA, y no se pueden rastrear.
Salida no consistente: para la misma pregunta, la IA puede dar respuestas diferentes.
Control centralizado: Actualmente, la mayoría de los modelos de IA están monopolizados por unas pocas empresas, y los usuarios no pueden verificar su lógica ni buscar una segunda opinión.
Las limitaciones de los métodos de verificación tradicionales
Las soluciones alternativas actuales, como la revisión humana (Human-in-the-loop), los filtros basados en reglas y la auto-validación de modelos, tienen sus propias deficiencias:
La revisión manual es difícil de escalar, lenta y costosa.
La filtración basada en reglas está limitada a escenarios predeterminados y es impotente ante errores creativos.
El rendimiento de autoevaluación del modelo es deficiente, y la IA a menudo tiene demasiada confianza en las respuestas incorrectas.
Aunque el Ensemble centralizado puede realizar verificación cruzada, carece de diversidad en los modelos, lo que facilita la formación de "puntos ciegos colectivos".
Mecanismo innovador de Mira: combinación de mecanismo de consenso y división de trabajo de IA
La innovación clave de Mira es llevar el concepto de consenso de blockchain a la verificación de IA. Cada salida de IA, después de pasar por Mira, se convertirá en múltiples declaraciones de hechos independientes, que son "votadas" por varios modelos de IA. El contenido se considera confiable solo si el modelo está de acuerdo más allá de cierta escala.
Las ventajas del diseño central de Mira incluyen:
Diversidad de modelos: modelos provenientes de diferentes arquitecturas y antecedentes de datos, reduciendo el sesgo colectivo.
Tolerancia a errores: incluso si algunos nodos fallan, no afectará el resultado general.
Transparencia total de la cadena: registro de verificación en la cadena, disponible para auditoría.
Escalabilidad fuerte: se pueden verificar más de 3 mil millones de tokens al día (equivalente a cientos de miles de fragmentos de texto).
Sin intervención humana: se lleva a cabo de forma automatizada, sin necesidad de verificación manual.
Infraestructura descentralizada: ¿quién proporciona los nodos y recursos de computación?
Los nodos de verificación de Mira son proporcionados por contribuyentes de computación descentralizados a nivel mundial. Estos contribuyentes son conocidos como Node Delegators ( delegadores de nodos ), quienes no operan los nodos directamente, sino que alquilan recursos de computación GPU a operadores de nodos certificados. Este modelo de "computación como servicio" amplía significativamente la escala que Mira puede manejar.
Los principales proveedores de nodos colaboradores incluyen:
Io.Net: proporciona una red de cálculo GPU con arquitectura DePIN.
Aethir: Enfocado en la encriptación y los juegos en la nube descentralizada.
Hyperbolic, Exabits, Spheron: múltiples plataformas de computación blockchain que también proporcionan infraestructura para los nodos de Mira.
Los participantes del nodo deben pasar por un procedimiento de verificación de video KYC para garantizar la unicidad y seguridad de la red.
Mira la verificación permite que la IA alcance una precisión del 96%.
Según los datos del equipo de Mira en el informe de Messari, la tasa de precisión de los hechos de los modelos de lenguaje grandes aumentó del 70% al 96% tras la filtración a través de su capa de verificación. En escenarios prácticos como la educación, las finanzas y el servicio al cliente, la frecuencia de aparición de contenido ilusorio disminuyó en un 90%. Lo importante es que estas mejoras se lograron sin necesidad de reentrenar el modelo de IA, simplemente a través de la "filtración".
Actualmente, Mira se ha integrado en múltiples plataformas de aplicación, incluyendo:
Herramienta educativa
producto de análisis financiero
AI chatbot
Servicio API de Generación Verificada de Terceros
Todo el ecosistema de Mira abarca más de 4.5 millones de usuarios, con más de 500,000 usuarios activos diarios. Aunque la mayoría de las personas no han interactuado directamente con Mira, sus respuestas de IA ya han pasado silenciosamente por su mecanismo de verificación.
Mira crea una capa base confiable para la IA
En la industria de la IA, que busca cada vez más escala y eficiencia, Mira ofrece una nueva dirección: no depender de una única IA para decidir la respuesta, sino de un grupo de modelos independientes para "votar y determinar la verdad". Esta arquitectura no solo hace que los resultados sean más confiables, sino que también establece un "mecanismo de confianza verificable" y cuenta con una alta escalabilidad.
Con la expansión de la base de usuarios y la creciente popularidad de las auditorías de terceros, Mira tiene el potencial de convertirse en una infraestructura indispensable en el ecosistema de IA. Para cualquier desarrollador y empresa que desee que su IA tenga un papel relevante en aplicaciones del mundo real, la "capa de verificación descentralizada" que representa Mira podría ser una de las piezas clave del rompecabezas.
Este artículo de Messari analiza: ¿Cómo permite el protocolo Mira que la IA sea más honesta a través del mecanismo de consenso descentralizado? Apareció por primera vez en Chain News ABMedia.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Análisis especializado de Messari: ¿Cómo el protocolo Mira permite que la IA sea más honesta a través de un mecanismo de consenso descentralizado?
En la actualidad, con el auge de la IA generativa, aún enfrentamos una cuestión fundamental: a veces, la IA puede decir tonterías con toda seriedad. Este fenómeno se conoce en la industria como "alucinación". Mira, un protocolo descentralizado diseñado para la verificación de salidas de IA, está tratando de aumentar la "credibilidad factual" de la IA a través de un mecanismo de consenso de múltiples modelos y auditoría encriptada. A continuación, veamos cómo funciona Mira, por qué es más efectivo que los métodos tradicionales y los resultados que ha obtenido en aplicaciones reales. Este informe se ha elaborado en base a un informe de investigación publicado por Messari; el texto completo se puede consultar en: Understanding AI Verification: A Use Case for Mira.
Protocolo de verificación de hechos descentralizada: el principio operativo básico de Mira
Mira no es un modelo de IA, sino una capa de verificación integrada. Cuando un modelo de IA genera una respuesta (como las respuestas de un chatbot, resúmenes, informes automatizados, etc.), Mira descompone la salida en una serie de afirmaciones independientes. Estas afirmaciones se envían a su red de verificación descentralizada, donde cada nodo (es decir, los verificadores) ejecuta diferentes arquitecturas de modelos de IA para evaluar si estas afirmaciones son verdaderas.
Cada nodo emitirá un juicio de "correcto", "incorrecto" o "incierto" respecto a la afirmación, y al final el sistema tomará una decisión general basada en el consenso de la mayoría. Si la mayoría de los modelos aceptan una afirmación como verdadera, esa afirmación será aprobada; de lo contrario, será etiquetada, rechazada o se emitirá una advertencia.
Este proceso es completamente transparente y auditado. Cada verificación genera un certificado encriptado que indica los modelos involucrados en el proceso de verificación, los resultados de la votación, las marcas de tiempo, etc., para que puedan ser verificados por terceros.
¿Por qué la IA necesita un sistema de verificación como Mira?
Los modelos de IA generativa (como GPT, Claude) no son herramientas deterministas; predicen el siguiente carácter basado en probabilidades y no tienen una "percepción de hechos" incorporada. Este diseño les permite escribir poesía y contar chistes, pero también significa que pueden generar información falsa con total seriedad.
El mecanismo de verificación propuesto por Mira busca resolver los cuatro problemas centrales actuales de la IA:
Inundación de ilusiones: los casos de IA que fabrican políticas, inventan eventos históricos y citan documentos de manera errónea son cada vez más comunes.
Caja negra: los usuarios no saben de dónde provienen las respuestas de la IA, y no se pueden rastrear.
Salida no consistente: para la misma pregunta, la IA puede dar respuestas diferentes.
Control centralizado: Actualmente, la mayoría de los modelos de IA están monopolizados por unas pocas empresas, y los usuarios no pueden verificar su lógica ni buscar una segunda opinión.
Las limitaciones de los métodos de verificación tradicionales
Las soluciones alternativas actuales, como la revisión humana (Human-in-the-loop), los filtros basados en reglas y la auto-validación de modelos, tienen sus propias deficiencias:
La revisión manual es difícil de escalar, lenta y costosa.
La filtración basada en reglas está limitada a escenarios predeterminados y es impotente ante errores creativos.
El rendimiento de autoevaluación del modelo es deficiente, y la IA a menudo tiene demasiada confianza en las respuestas incorrectas.
Aunque el Ensemble centralizado puede realizar verificación cruzada, carece de diversidad en los modelos, lo que facilita la formación de "puntos ciegos colectivos".
Mecanismo innovador de Mira: combinación de mecanismo de consenso y división de trabajo de IA
La innovación clave de Mira es llevar el concepto de consenso de blockchain a la verificación de IA. Cada salida de IA, después de pasar por Mira, se convertirá en múltiples declaraciones de hechos independientes, que son "votadas" por varios modelos de IA. El contenido se considera confiable solo si el modelo está de acuerdo más allá de cierta escala.
Las ventajas del diseño central de Mira incluyen:
Diversidad de modelos: modelos provenientes de diferentes arquitecturas y antecedentes de datos, reduciendo el sesgo colectivo.
Tolerancia a errores: incluso si algunos nodos fallan, no afectará el resultado general.
Transparencia total de la cadena: registro de verificación en la cadena, disponible para auditoría.
Escalabilidad fuerte: se pueden verificar más de 3 mil millones de tokens al día (equivalente a cientos de miles de fragmentos de texto).
Sin intervención humana: se lleva a cabo de forma automatizada, sin necesidad de verificación manual.
Infraestructura descentralizada: ¿quién proporciona los nodos y recursos de computación?
Los nodos de verificación de Mira son proporcionados por contribuyentes de computación descentralizados a nivel mundial. Estos contribuyentes son conocidos como Node Delegators ( delegadores de nodos ), quienes no operan los nodos directamente, sino que alquilan recursos de computación GPU a operadores de nodos certificados. Este modelo de "computación como servicio" amplía significativamente la escala que Mira puede manejar.
Los principales proveedores de nodos colaboradores incluyen:
Io.Net: proporciona una red de cálculo GPU con arquitectura DePIN.
Aethir: Enfocado en la encriptación y los juegos en la nube descentralizada.
Hyperbolic, Exabits, Spheron: múltiples plataformas de computación blockchain que también proporcionan infraestructura para los nodos de Mira.
Los participantes del nodo deben pasar por un procedimiento de verificación de video KYC para garantizar la unicidad y seguridad de la red.
Mira la verificación permite que la IA alcance una precisión del 96%.
Según los datos del equipo de Mira en el informe de Messari, la tasa de precisión de los hechos de los modelos de lenguaje grandes aumentó del 70% al 96% tras la filtración a través de su capa de verificación. En escenarios prácticos como la educación, las finanzas y el servicio al cliente, la frecuencia de aparición de contenido ilusorio disminuyó en un 90%. Lo importante es que estas mejoras se lograron sin necesidad de reentrenar el modelo de IA, simplemente a través de la "filtración".
Actualmente, Mira se ha integrado en múltiples plataformas de aplicación, incluyendo:
Herramienta educativa
producto de análisis financiero
AI chatbot
Servicio API de Generación Verificada de Terceros
Todo el ecosistema de Mira abarca más de 4.5 millones de usuarios, con más de 500,000 usuarios activos diarios. Aunque la mayoría de las personas no han interactuado directamente con Mira, sus respuestas de IA ya han pasado silenciosamente por su mecanismo de verificación.
Mira crea una capa base confiable para la IA
En la industria de la IA, que busca cada vez más escala y eficiencia, Mira ofrece una nueva dirección: no depender de una única IA para decidir la respuesta, sino de un grupo de modelos independientes para "votar y determinar la verdad". Esta arquitectura no solo hace que los resultados sean más confiables, sino que también establece un "mecanismo de confianza verificable" y cuenta con una alta escalabilidad.
Con la expansión de la base de usuarios y la creciente popularidad de las auditorías de terceros, Mira tiene el potencial de convertirse en una infraestructura indispensable en el ecosistema de IA. Para cualquier desarrollador y empresa que desee que su IA tenga un papel relevante en aplicaciones del mundo real, la "capa de verificación descentralizada" que representa Mira podría ser una de las piezas clave del rompecabezas.
Este artículo de Messari analiza: ¿Cómo permite el protocolo Mira que la IA sea más honesta a través del mecanismo de consenso descentralizado? Apareció por primera vez en Chain News ABMedia.