Mira como melhorar a credibilidade da IA através de nós distribuídos.

Escrito por: Messari

Resumo

A validação descentralizada permite que a Mira filtre a saída da IA através de uma rede de modelos independentes para aumentar a confiabilidade dos fatos, reduzindo alucinações sem necessidade de retrainamento ou supervisão centralizada.

O mecanismo de consenso exige que vários modelos operando de forma independente cheguem a um acordo antes que qualquer reivindicação seja aprovada, substituindo assim a confiança em um único modelo.

Mira valida 3 mil milhões de tokens todos os dias em aplicações integradas, apoiando mais de 4,5 milhões de utilizadores.

Quando a saída é filtrada no ambiente de produção através do processo de consenso da Mira, a precisão factual aumenta de 70% para 96%.

Mira atua como infraestrutura em vez de um produto final para o usuário, incorporando a verificação diretamente em aplicações de IA, como chatbots, ferramentas de fintech e plataformas educacionais.

Introdução ao Mira

Mira é um protocolo projetado para validar a saída de sistemas de IA. Sua função principal é semelhante a uma camada descentralizada de auditoria/confiança. Sempre que um modelo de IA gera uma saída, seja uma resposta ou um resumo, Mira avalia se as afirmações "factuais" nessa saída são credíveis antes de chegar ao utilizador final.

O sistema funciona dividindo cada saída de IA em reivindicações menores. Estas declarações são avaliadas de forma independente por vários validadores na rede Mira. Cada nó executa seu próprio modelo de IA, geralmente com uma arquitetura, conjunto de dados ou perspetiva diferente. O modelo vota em cada afirmação, decidindo se é verdadeira ou contextual. O resultado final é determinado pelo mecanismo de consenso: se a grande maioria dos modelos concordar com a validade da reivindicação, Mira aprovará a reivindicação. Se houver um desacordo, a reivindicação será sinalizada ou rejeitada.

Não existe uma autoridade central ou um modelo oculto para tomar a decisão final. Em vez disso, a verdade é determinada coletivamente, emergindo de um modelo distribuído e diverso. Todo o processo é transparente e auditável. Cada saída verificada vem com um certificado de criptografia: um registro rastreável mostrando quais reivindicações foram avaliadas, quais modelos participaram e como foram votadas. Aplicativos, plataformas e até mesmo reguladores podem usar esse certificado para confirmar que a saída passou pela camada de verificação do Mira.

A inspiração de Mira vem da tecnologia de integração da inteligência artificial e do mecanismo de consenso da blockchain. Em vez de agregar previsões para melhorar a precisão, ele usa avaliações agregadas para determinar a confiabilidade. Ele filtra e rejeita saídas que falham no teste de autenticidade distribuído.

Por que é que a IA precisa de um sistema de verificação como o da Mira?

Os modelos de IA não são determinísticos, o que significa que eles não retornam sempre a mesma saída para o mesmo prompt, nem garantem a veracidade dos resultados gerados. Isso não é um defeito; resulta diretamente da forma como os grandes modelos de linguagem são treinados: prevendo o próximo token com base em probabilidades em vez de determinismo.

Essa probabilidade confere flexibilidade aos sistemas de inteligência artificial. Ela lhes confere criatividade, capacidade de percepção contextual e habilidades humanoides. No entanto, isso também significa que eles podem criar coisas de maneira natural.

Já estamos a ver as consequências. O chatbot da Air Canada inventou uma política de tarifas de luto que não existia e a encaminhou para um usuário. O usuário era crédulo o suficiente para confiar no chatbot, reservava um ticket com base em informações falsas e sofria perdas financeiras. O tribunal decidiu que a companhia aérea era responsável pelas alucinações do chatbot. Em suma, a IA fez a reivindicação com confiança, e a empresa pagou por isso.

Isto é apenas um exemplo. O fenómeno da ilusão é comum. Eles aparecem em resumos de pesquisa com referências imprecisas, em aplicações educativas que apresentam factos históricos falsos, e em boletins informativos redigidos por inteligência artificial que contêm declarações falsas ou enganosas. Isto acontece porque essas saídas são frequentemente fluídas e autoritativas, e os utilizadores tendem a acreditar nelas.

Além das alucinações, existem mais problemas sistémicos:

Preconceito: Modelos de inteligência artificial podem refletir e amplificar preconceitos presentes nos dados de treinamento. Esse preconceito nem sempre é evidente. Ele pode se manifestar de forma sutil através de redação, tom ou prioridades, por exemplo. Um assistente de recrutamento pode sistematicamente favorecer um determinado grupo. Ferramentas financeiras podem gerar avaliações de risco usando linguagem distorcida ou estigmatizada.

Indeterminismo: ao fazer a mesma pergunta ao mesmo modelo duas vezes, pode-se obter duas respostas diferentes. Alterar ligeiramente o prompt pode resultar em mudanças inesperadas. Essa inconsistência torna a saída da IA difícil de auditar, reproduzir ou se tornar uma dependência a longo prazo.

Natureza da caixa preta: quando um sistema de IA dá uma resposta, geralmente não fornece nenhuma explicação ou raciocínio rastreável. Não tem pistas claras para apresentar as suas conclusões. Como resultado, quando um modelo dá errado, pode ser difícil diagnosticar a causa ou corrigi-la.

Controle centralizado: Atualmente, a maioria dos sistemas de inteligência artificial é controlada por alguns grandes empresas, utilizando modelos fechados. Se o modelo tiver falhas, preconceitos ou for censurado, as opções do usuário são limitadas. Falta uma segunda opinião, um processo de apelação transparente ou explicações contraditórias. Isso resulta em uma estrutura de controle centralizada que é difícil de desafiar ou verificar.

Métodos existentes para melhorar a confiabilidade da saída de IA e suas limitações.

Atualmente, existem várias maneiras de aumentar a confiabilidade da saída da IA. Cada método oferece algum valor, mas todos têm limitações e não conseguem atingir o nível de confiança necessário para aplicações críticas.

Colaboração humano-robô (HITL): Esta abordagem envolve uma revisão e aprovação humana da saída da IA. Funciona eficazmente em casos de utilização de baixo volume. No entanto, pode rapidamente se tornar um gargalo para sistemas que geram milhões de respostas por dia, como mecanismos de busca, bots de suporte ou aplicativos de coaching. As revisões manuais são lentas, dispendiosas e propensas a enviesamentos e inconsistências. Por exemplo, o Grok da xAI usa tutores de IA para avaliar e refinar manualmente as respostas. É uma solução temporária, e Mira a vê como uma solução de baixa alavancagem: não escala e não resolve os problemas subjacentes que existem na lógica de IA que não podem ser verificados.

Filtros de regras: Estes sistemas utilizam métodos de verificação fixos, como marcar termos proibidos ou comparar a saída com grafos de conhecimento estruturados. Embora sejam adequados para contextos mais restritos, aplicam-se apenas a casos que atendem às expectativas dos desenvolvedores. Eles não conseguem lidar com consultas novas ou abertas e têm dificuldade em lidar com erros sutis ou declarações ambíguas.

Autoavaliação: Alguns modelos contêm mecanismos para avaliar a sua confiança ou usar modelos auxiliares para avaliar as suas respostas. No entanto, é bem conhecido que os sistemas de inteligência artificial têm um desempenho fraco em reconhecer os seus próprios erros. A confiança excessiva em respostas erradas é um problema de longa data, e o feedback interno muitas vezes não consegue corrigi-lo.

Modelos integrados: Em certos sistemas, múltiplos modelos realizam verificações cruzadas entre si. Embora isso possa melhorar os padrões de qualidade, os modelos integrados tradicionais costumam ser centralizados e homogêneos. Se todos os modelos compartilham dados de treinamento semelhantes ou provêm do mesmo fornecedor, eles podem ter os mesmos pontos cegos. A diversidade de arquitetura e perspectiva será limitada.

Mira está empenhada em resolver problemas de percepção. O seu objetivo é criar um ambiente capaz de capturar e eliminar alucinações, minimizando preconceitos através da diversificação de modelos, tornando os resultados de saída verificáveis e garantindo que nenhuma entidade única possa controlar o processo de verificação da autenticidade. Estudar como o sistema Mira funciona pode abordar cada um dos problemas acima de maneira inovadora.

Mira como melhorar a fiabilidade da IA

As abordagens atuais para a confiabilidade da IA, que são centralizadas e dependem de uma única fonte de verdade, são diferentes. Mira introduziu um modelo diferente. Ele permite a verificação descentralizada, constrói consensos no nível do protocolo e usa incentivos econômicos para reforçar o comportamento de confiabilidade. Mira não é um produto independente ou ferramenta de supervisão top-down, mas sim uma camada de infraestrutura modular que pode ser integrada em qualquer sistema de IA.

O design do protocolo é baseado em vários princípios centrais:

A precisão dos fatos não deve depender da saída de um modelo.

A verificação deve ser autônoma e não pode depender de supervisão humana contínua.

A confiança deve ser construída em protocolos independentes, e não em controle centralizado.

A Mira aplica princípios de computação distribuída à validação de IA. Quando uma saída é submetida (por exemplo, recomendações políticas, resumos financeiros ou respostas de chatbots), ela é inicialmente decomposta em declarações factuais menores. Essas declarações são estruturadas como perguntas ou afirmações discretas e são roteadas para a rede de nós validadores.

Cada nó executa um modelo ou configuração de IA diferente e avalia suas declarações atribuídas de forma independente. Ele retorna um dos três julgamentos: verdadeiro, falso ou inconclusivo. Mira então retroalimenta os resultados. Se o limite de supermaioria configurável for atingido, a reivindicação será validada. Se não estiver satisfeito, é sinalizado, descartado ou um aviso é retornado.

O design distribuído da Mira possui várias vantagens estruturais:

Redundância e diversidade: verificar declarações através de modelos com diferentes arquiteturas, conjuntos de dados e perspectivas.

Tolerância a falhas: uma falha ou erro em um modelo é improvável que se reproduza em muitos modelos.

Transparência: cada resultado de validação é registrado na cadeia, fornecendo pistas auditáveis, incluindo quais modelos participaram e como votaram.

Autonomia: Mira opera de forma contínua e paralela, sem necessidade de intervenção humana.

Escalabilidade: Este sistema pode lidar com uma enorme carga de trabalho de dezenas de bilhões de tokens diariamente.

Os principais insights de Mira são baseados em estatísticas: enquanto um único modelo pode alucinar ou refletir viés, vários sistemas independentes têm uma probabilidade muito menor de cometer o mesmo erro da mesma maneira. O protocolo aproveita essa diversidade para filtrar conteúdo não confiável. O princípio de Mira é semelhante ao ensemble learning, mas estende a ideia para ser um sistema distribuído, verificável e criptoeconomicamente seguro que pode ser incorporado em processos de IA do mundo real.

Delegantes de nó e recursos computacionais

A infraestrutura de validação descentralizada da Mira Network é suportada por uma comunidade global de contribuidores, que fornecem os recursos computacionais necessários para operar nós de validação. Esses contribuidores são conhecidos como delegados de nós, e desempenham um papel fundamental na escalabilidade do processamento do protocolo e na validação da produção de saídas de IA.

O que é um delegador de nó?

Uma entidade de nó é uma pessoa ou entidade que aluga ou fornece recursos de computação de GPU a um operador de nó verificado, em vez de operar um nó validador por conta própria. Este modelo de delegação permite que os participantes contribuam para a infraestrutura do Mira sem ter que gerenciar modelos complexos de IA ou software de nó. Ao fornecer acesso aos recursos da GPU, os principais permitem que os operadores de nó realizem mais validações em paralelo, aumentando a capacidade e a robustez do sistema.

Os delegados de nós recebem incentivos econômicos por sua participação. Como recompensa por contribuir com poder computacional, eles receberão recompensas vinculadas à quantidade de trabalho de verificação executado pelos nós que apoiam e à qualidade do mesmo. Isso cria uma estrutura de incentivos descentralizada, onde a escalabilidade da rede está diretamente relacionada à participação da comunidade, em vez de investimentos em infraestrutura descentralizada.

Quem fornece os operadores de nós?

Os recursos de computação vêm dos parceiros operacionais dos nós fundadores da Mira, que são participantes chave do ecossistema de infraestrutura descentralizada.

Io.Net: Rede de infraestrutura física descentralizada para computação GPU (DePIN), que oferece recursos de GPU escaláveis e economicamente eficientes.

Aethir: um provedor de GPU como serviço, voltado para empresas e focado em inteligência artificial e jogos, que oferece infraestrutura de computação em nuvem descentralizada.

Hyperbolic: uma plataforma de nuvem de IA aberta que fornece recursos de GPU econômicos e coordenados para o desenvolvimento de IA.

Exabits: Pioneiro da computação em nuvem descentralizada com IA, resolvendo o problema da escassez de GPU e otimizando a alocação de recursos.

Spheron: uma plataforma descentralizada que simplifica o deployment de aplicações Web, oferecendo soluções transparentes e verificáveis.

Cada parceiro executa nós validadores na rede Mira, utilizando a capacidade de computação delegada para validar em grande escala as saídas de IA. As suas contribuições permitem que a Mira mantenha uma alta taxa de validação, processando diariamente bilhões de tokens, ao mesmo tempo que mantém velocidade, tolerância a falhas e descentralização.

Atenção: Cada participante pode comprar apenas uma licença de delegado de nó. Os usuários devem passar pelo processo KYC de "verificação por vídeo auxiliar" para comprovar sua participação real.

Mira no uso em larga escala e suporte de dados no campo da IA

De acordo com os dados fornecidos pela equipe, a rede Mira verifica mais de 3 bilhões de tokens todos os dias. Em um modelo de linguagem, um token refere-se a uma pequena unidade de texto, geralmente um trecho de palavras, uma palavra curta ou um sinal de pontuação. Por exemplo, a frase "Mira validation output" seria dividida em vários tokens. Esse volume de relatórios indica que Mira está trabalhando em muito conteúdo em várias integrações, incluindo assistentes de chat, plataformas educacionais, produtos fintech e ferramentas internas que usam APIs. No nível de conteúdo, essa taxa de transferência equivale a avaliar milhões de parágrafos por dia.

O ecossistema do Mira, incluindo programas de parceiros, supostamente suporta mais de 4,5 milhões de usuários únicos, com cerca de 500.000 usuários ativos diários. Esses usuários incluem usuários diretos do Klok, bem como usuários finais de aplicativos de terceiros que integram a camada de verificação do Mira em segundo plano. Embora a maioria dos usuários possa não interagir diretamente com o Mira, o sistema atua como uma camada de verificação silenciosa, ajudando a garantir que o conteúdo gerado por IA atenda a um determinado limite de precisão antes de chegar ao usuário final.

De acordo com um artigo de pesquisa da equipe de Mira, grandes modelos de linguagem que antes eram factualmente precisos em áreas como educação e finanças tinham uma taxa de precisão factual de cerca de 70%, mas agora foram validados com 96% de precisão depois de serem examinados pelo processo de consenso de Mira. É importante notar que essas melhorias podem ser alcançadas sem retreinar o modelo em si. Em vez disso, essas melhorias decorrem da lógica de filtragem do Mira. O sistema filtra o conteúdo não confiável, exigindo que vários modelos em execução independente concordem. Este efeito é especialmente importante para alucinações, que são informações falsas geradas por IA e não fundamentadas, que foram relatadas como reduzidas em 90% em aplicações integradas. Como as alucinações são muitas vezes específicas e inconsistentes, é improvável que passem pelo mecanismo de consenso de Mira.

Para além de melhorar a fiabilidade factual, o Protocolo Mira foi concebido para apoiar a participação aberta. A validação não se limita a uma equipe de revisão centralizada. Para alinhar os incentivos, Mira adotou um sistema de incentivos e punições financeiras. Os validadores que seguirem consistentemente o consenso serão pagos com base no desempenho, enquanto os validadores que cometerem julgamentos manipulados ou imprecisos enfrentarão penalidades. Esta estrutura incentiva o comportamento honesto e fomenta a competição entre diferentes configurações de modelos. Ao remover a dependência da governança centralizada e incorporar incentivos na camada de protocolo, o Mira permite a verificação descentralizada escalável em ambientes de alto tráfego, garantindo que os padrões de saída não sejam comprometidos.

Conclusão

Mira fornece uma solução estrutural para um dos desafios mais prementes em IA: a capacidade de confiar na verificação de resultados de produção em escala. Em vez de confiar no nível de confiança de um único modelo ou supervisão humana após o fato, Mira introduz uma camada de verificação descentralizada que funciona em paralelo com a geração de IA. O sistema filtra o conteúdo não suportado, dividindo a saída em declarações de fato, distribuindo-as para validadores independentes e aplicando um mecanismo de consenso. Ele melhora a confiabilidade sem a necessidade de retreinar o modelo ou centralizar o controle.

Os dados mostram que a taxa de adoção e a precisão factual foram significativamente melhoradas, e o fenômeno das alucinações de IA foi muito reduzido. Mira está agora integrado em uma variedade de áreas, incluindo interfaces de bate-papo, ferramentas educacionais e plataformas financeiras, e está emergindo como uma camada de infraestrutura para aplicações críticas de precisão. À medida que os protocolos amadurecem e as auditorias de terceiros se tornam mais difundidas, a transparência, a repetibilidade e a participação aberta do Mira fornecerão uma estrutura de confiança escalável para sistemas de IA que operam em ambientes regulados ou de alto volume.

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)