Este relatório foi elaborado pela Tiger Research e analisa como a Intuition implementa o consenso padrão através da estruturação do conhecimento baseada em átomos, do registro de tokens (TCR) e de um sistema de medição de confiança baseado em sinais, para reconstruir a infraestrutura de rede na era da IA dos agentes.
resumo dos pontos principais
A era dos Agentes Inteligentes de IA já chegou. Os agentes de IA não conseguem aproveitar plenamente seu potencial. A infraestrutura de rede atual é projetada para humanos. Os sites usam diferentes formatos de dados. As informações ainda não foram verificadas. Isso torna difícil para os agentes entenderem e processarem os dados.
Intuition evolui a visão da web semântica através de métodos Web3. Resolve as limitações existentes. O sistema estrutura o conhecimento em átomos (Atoms). Utiliza o registro de consenso de tokens (TCR) para alcançar consenso sobre o uso de dados. O sinal (Signal) determina o nível de confiança nos dados.
A Intuition irá mudar a rede. A rede atual é semelhante a uma estrada não pavimentada. A Intuition criou uma autoestrada onde os agentes podem operar com segurança. Isso se tornará o novo padrão de infraestrutura. Isso permitirá o verdadeiro potencial da era da IA dos agentes.
1. A era dos corpos inteligentes começa: a infraestrutura da rede é suficiente?
A era da IA de agentes inteligentes está em plena expansão. Podemos imaginar um futuro em que agentes pessoais lidam com tudo, desde o planejamento de viagens até a complexa gestão financeira. Mas na prática, a situação não é tão simples. O problema não está no desempenho da IA em si. A verdadeira limitação está na infraestrutura de rede atual.
A rede foi construída para que os humanos possam ler e interpretar através de navegadores. Portanto, é muito inadequada para agentes que necessitam de analisar semântica e conectar relações entre diferentes fontes de dados. Essas limitações são evidentes em serviços do dia a dia. O site da companhia aérea pode listar o horário de partida como "14:30", enquanto o site do hotel mostrará o horário de check-in como "14:30". Os humanos entendem imediatamente que ambos são o mesmo horário, mas os agentes os interpretam como formatos de dados completamente diferentes.
Fonte: Tiger Research
O problema não reside apenas nas diferenças de formato. Um desafio chave é se os agentes podem confiar nos dados em si. Os humanos podem lidar com informações incompletas confiando no contexto e na experiência prévia. Em contraste, os agentes carecem de critérios claros para avaliar a origem ou a confiabilidade. Isso os torna suscetíveis a entradas incorretas, conclusões defeituosas e até ilusões.
No final, mesmo os agentes mais avançados não conseguem prosperar em tais circunstâncias. Eles são como carros de F1: não importa quão poderosos sejam, não podem acelerar totalmente em uma estrada não pavimentada (dados não estruturados). Se sinais enganosos (dados não confiáveis) estiverem espalhados ao longo do caminho, eles podem nunca chegar ao destino.
2. Dívida técnica da rede: reconstruir a infraestrutura
Esta questão foi levantada há mais de 20 anos pelo fundador da Web, Tim Berners-Lee, através da sua proposta para a web semântica.
A ideia central da web semântica é simples: estruturar informações na rede para que as máquinas possam entendê-las, e não apenas como texto legível por humanos. Por exemplo, "Tiger Research foi fundada em 2021" é claro para os humanos, mas para as máquinas é apenas uma string. A web semântica estrutura isso como "Tiger Research (sujeito) - foi fundada em (verbo) - 2021 (objeto)" para que as máquinas possam interpretar o significado.
Este método estava à frente do seu tempo, mas acabou por falhar. A maior razão para isso são os desafios de implementação. Chegar a um consenso sobre formatos de dados e padrões de uso revelou-se difícil, e mais importante ainda, construir e manter um enorme conjunto de dados através de contribuições voluntárias dos utilizadores é praticamente impossível. Os contribuidores não recebem recompensas ou benefícios diretos. Além disso, a credibilidade dos dados criados continua a ser uma questão não resolvida.
Apesar disso, a visão da web semântica continua válida. O princípio de que as máquinas devem entender e utilizar os dados em um nível semântico não mudou. Na era da IA, essa necessidade tornou-se ainda mais crítica.
3. Intuição: revitalizar a Web Semântica de forma Web3
Intuition evolui a visão da Web Semântica através de métodos Web3 para resolver as limitações existentes. O cerne consiste em criar um sistema que incentive os usuários a participar voluntariamente na acumulação e verificação de dados estruturados de alta qualidade. Isso constrói sistematicamente um grafo de conhecimento que é legível por máquinas, com fontes claras e verificáveis. No final, isso fornece a base para o funcionamento confiável de agentes e nos aproxima do futuro que imaginamos.
3.1. Átomo: Módulos de Construção do Conhecimento
A Intuição primeiro divide todo o conhecimento em unidades mínimas chamadas átomos (Atoms). Os átomos representam conceitos como pessoas, datas, organizações ou atributos. Cada átomo possui um identificador único (usando tecnologias como identificadores descentralizados DIDs) e existe de forma independente. Cada átomo registra informações do contribuinte, permitindo que você verifique quem adicionou quais informações e quando.
A razão para desmembrar o conhecimento em átomos é clara. A informação geralmente aparece na forma de frases complexas. Máquinas como agentes enfrentam limitações estruturais ao analisar e compreender tais informações compostas. Elas também têm dificuldade em determinar quais partes estão corretas e quais estão erradas.
Sujeito: Tiger Research
Predicado: estabelecido em
Objeto: 2021
Considere a frase "Tiger Research foi fundada em 2021". Isso pode ser verdade ou apenas parcialmente errado. Se a organização realmente existe, se a "data de fundação" é um atributo apropriado e se 2021 está correto, cada um precisa ser verificado separadamente. No entanto, ao tratar toda a frase como uma unidade, torna-se difícil distinguir quais elementos são precisos e quais estão errados. Rastrear a origem de cada informação também se torna complexo.
O átomo resolveu este problema. Ao definir cada elemento como átomos independentes, como [Tiger Research], [fundado em], [2021], você pode registrar a origem e verificar cada elemento individualmente.
Sujeito: A data de fundação da Tiger Research é 2021.
Predicado: baseado em
Objeto: Registo oficial
Os átomos não são apenas ferramentas para dividir informações - eles podem ser combinados como blocos de Lego. Por exemplo, o átomo único [Tiger Research], [fundado em] e [2021] se ligam para formar um triplo. Isso cria uma informação significativa: "Tiger Research foi fundada em 2021." Isso segue a mesma estrutura dos triplos na web semântica RDF (Framework de Descrição de Recursos).
Esses tríades podem também tornar-se átomos. O tríade "Tiger Research foi fundada em 2021" pode ser expandida para novos tríades, como "A data de fundação da Tiger Research em 2021 é baseada em registos comerciais." Através desse método, átomos e tríades combinam-se repetidamente, evoluindo de pequenas unidades para estruturas maiores.
O resultado é que a Intuition construiu um gráfico de conhecimento fractal que pode se expandir infinitamente a partir de elementos básicos. Mesmo o conhecimento complexo pode ser decomposto para validação e, em seguida, recombinado.
3.2. TCRs: Consenso impulsionado pelo mercado
Se a Intuition forneceu uma estrutura conceitual de conhecimento estruturado através de átomos, ainda existem três questões-chave: quem contribuíra para a criação desses átomos? Quais átomos podem ser confiáveis? Quando diferentes átomos competem para representar o mesmo conceito, qual se torna o padrão?
Fonte: Intuition Livro Branco Leve
Intuition resolve este problema através dos TCRs. Os TCRs baseiam-se em conteúdos que a comunidade valoriza para selecionar entradas. O staking de tokens reflete esses julgamentos. Os usuários apostam $TRUST (o token nativo da Intuition) ao propor novos átomos, trios ou estruturas de dados. Outros participantes, se acharem a proposta útil, apostam tokens do lado dos apoiantes; se acharem inútil, apostam tokens do lado dos oponentes. Eles também podem apostar em alternativas competitivas. Se os dados escolhidos pelos usuários forem utilizados com frequência ou receberem altas classificações, eles receberão recompensas. Caso contrário, perderão parte do staking.
Os TCRs validam provas individuais, mas também resolvem eficazmente o problema da normalização do ontológico. A normalização ontológica significa decidir qual abordagem se torna o padrão comum quando existem várias formas de expressar o mesmo conceito. Os sistemas distribuídos enfrentam o desafio de alcançar esse consenso sem coordenação central.
Considere os predicados da avaliação de dois produtos concorrentes: [hasReview] e [customerFeedback]. Se [hasReview] for o primeiro a ser introduzido e muitos usuários se basearem nele, os primeiros contribuintes terão direitos sobre o Token no sucesso. Ao mesmo tempo, os apoiantes de [customerFeedback] recebem incentivos econômicos e gradualmente se voltam para padrões de adoção mais amplos.
Este mecanismo reflete como o padrão de Token ERC-20 é adotado naturalmente. Os desenvolvedores que adotam o ERC-20 obtêm benefícios de compatibilidade claros — integração direta em carteiras, exchanges e dApps existentes. Estas vantagens atraem naturalmente os desenvolvedores a usar o ERC-20. Isso demonstra que a escolha impulsionada apenas pelo mercado pode resolver problemas de padronização em ambientes distribuídos. Os TCRs funcionam com princípios semelhantes. Eles reduzem a luta dos agentes com formatos de dados fragmentados e oferecem um ambiente onde a informação pode ser compreendida e processada de forma mais consistente.
3.3. Sinal: Construir uma rede de conhecimento baseada na confiança
Intuition estrutura o conhecimento através de átomos e trios, e utiliza incentivos para alcançar consenso sobre "o que realmente usar".
O último desafio ainda persiste: até que ponto podemos confiar nesta informação? A Intuition introduz o Signal para preencher essa lacuna. O Signal expressa a confiança ou desconfiança do usuário em relação a um átomo ou tripla específica. Ele vai além da simples gravação da existência de dados — captura quanto apoio os dados obtêm em diferentes contextos. O Signal sistematiza o processo de validação social que usamos na vida real, como quando julgamos informações com base em "pessoas confiáveis recomendaram isto" ou "especialistas o validaram".
Os sinais acumulam-se de três maneiras. Primeiro, os sinais explícitos envolvem avaliações intencionais feitas pelos usuários, como a votação de Token. Em segundo lugar, os sinais implícitos surgem naturalmente dos padrões de uso (como consultas repetidas ou aplicações). Por fim, os sinais de transmissão criam efeitos de relação — quando uma pessoa em quem confio apoia uma informação, também tenderei a confiar mais nela. A combinação destes três cria uma rede de conhecimento que mostra quem confia em quê, quanto confia e de que forma confia.
Fonte: White Paper da Intuition
A Intuition oferece isso através dos túneis da realidade (Reality Tunnels). Os túneis da realidade fornecem uma perspectiva personalizada para visualizar dados. Os usuários podem configurar túneis que priorizam avaliações de grupos de especialistas, valorizam as opiniões de amigos próximos ou refletem a sabedoria de comunidades específicas. Os usuários podem escolher túneis confiáveis ou alternar entre vários túneis para comparação. Os agentes também podem usar métodos de interpretação específicos para propósitos específicos. Por exemplo, escolher um túnel que reflita a rede confiável de Vitalik Buterin fará com que o agente interprete informações e tome decisões a partir da "perspectiva de Vitalik".
Todos os sinais são registados na cadeia. Os usuários podem verificar de forma transparente por que determinadas informações parecem confiáveis, quais servidores servem como fonte, quem as garante e quantos tokens foram apostados. Este processo de formação de confiança transparente permite que os usuários verifiquem diretamente as evidências, em vez de aceitarem informações de forma cega. Os agentes também podem usar esta base para fazer julgamentos adequados ao contexto e à perspectiva individuais.
4. O que aconteceria se a Intuition se tornasse a próxima geração de infraestrutura de rede?
A infraestrutura da Intuition não é apenas uma ideia conceitual, mas sim uma solução prática para os problemas enfrentados pelos agentes no ambiente de rede atual.
A rede atual está cheia de dados fragmentados e informações não verificadas. A Intuition transforma os dados em gráficos de conhecimento determinísticos, fornecendo resultados claros e consistentes para qualquer consulta. O processo de sinalização e curadoria baseado em Token valida esses dados. Os agentes podem tomar decisões claras sem depender de suposições. Isso melhora simultaneamente a precisão, a velocidade e a eficiência.
Intuition também fornece a base para a colaboração entre agentes. Estruturas de dados padronizadas permitem que diferentes agentes compreendam e comuniquem informações da mesma forma. Assim como o ERC-20 criou a compatibilidade de tokens, o gráfico de conhecimento do Intuition criou um ambiente onde os agentes podem colaborar com base em dados consistentes.
Intuition ultrapassou a infraestrutura limitada a agentes inteligentes, tornando-se a camada base que todos os serviços digitais podem compartilhar. Pode substituir o sistema de confiança que cada plataforma atualmente constrói separadamente - as avaliações da Amazon, as classificações da Uber, as recomendações do LinkedIn. Assim como o HTTP fornece um padrão de comunicação universal para a web, a Intuition fornece protocolos padrão para estruturas de dados e validação de confiança.
A mudança mais importante é a portabilidade dos dados. Os usuários possuem diretamente os dados que criam e podem usá-los em qualquer lugar. Os dados isolados em várias plataformas serão conectados e irão remodelar todo o ecossistema digital.
5. Reestruturar a base para a próxima era dos agentes inteligentes
O objetivo da Intuition não é uma simples melhoria técnica. Ela visa superar a dívida técnica acumulada nos últimos 20 anos e redesenhar fundamentalmente a infraestrutura da rede. Quando a web semântica foi proposta pela primeira vez, a visão era clara. Mas faltavam incentivos para impulsionar a participação. Mesmo que a sua visão se concretizasse, os benefícios ainda não seriam claros.
A situação mudou. O avanço da IA está a tornar a era dos agentes uma realidade. Os agentes de IA agora vão além de meras ferramentas. Eles nos representam na execução de tarefas complexas. Eles tomam decisões autonomamente. Eles colaboram com outros agentes. Estes agentes necessitam de inovações fundamentais na infraestrutura de rede existente para operar de forma eficaz.
Fonte: Balaji
Como apontou o ex-CTO da Coinbase, Balaji, precisamos construir a infraestrutura adequada para que esses agentes operem. A rede atual é semelhante a uma estrada sem pavimentar, e não a uma autoestrada onde os agentes podem se mover com segurança sobre dados confiáveis. Cada site tem uma estrutura e formato diferentes. As informações não são confiáveis. Os dados ainda são não estruturados, e os agentes têm dificuldade em compreendê-los. Isso cria obstáculos significativos para que os agentes realizem trabalhos precisos e eficientes.
A Intuition busca reconstruir a rede para atender a essas necessidades. Ela visa construir uma estrutura de dados padronizada que seja fácil de entender e usar para os agentes. É necessário um sistema de validação de informações confiável. É necessário um protocolo que permita interações suaves entre os agentes. Isso é semelhante à forma como o HTTP e o HTML criaram padrões de rede nos primórdios da internet. Isso representa uma tentativa de estabelecer novos padrões para a era dos agentes.
Claro, os desafios ainda existem. Sem participação suficiente e efeitos de rede, o sistema não pode funcionar corretamente. Alcançar a massa crítica requer bastante tempo e esforço. Superar a inércia dos ecossistemas de rede existentes nunca é fácil. Existem dificuldades na criação de novos padrões. Mas este é um desafio que deve ser resolvido. A proposta de rebase da Intuition superará esses desafios. Ela abrirá novas possibilidades para a era dos agentes que estão apenas começando a ser imaginados.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Profundidade de Análise da Intuição: Como Reconstruir a Internet na Era dos Agentes de IA?
Este relatório foi elaborado pela Tiger Research e analisa como a Intuition implementa o consenso padrão através da estruturação do conhecimento baseada em átomos, do registro de tokens (TCR) e de um sistema de medição de confiança baseado em sinais, para reconstruir a infraestrutura de rede na era da IA dos agentes.
resumo dos pontos principais
1. A era dos corpos inteligentes começa: a infraestrutura da rede é suficiente?
A era da IA de agentes inteligentes está em plena expansão. Podemos imaginar um futuro em que agentes pessoais lidam com tudo, desde o planejamento de viagens até a complexa gestão financeira. Mas na prática, a situação não é tão simples. O problema não está no desempenho da IA em si. A verdadeira limitação está na infraestrutura de rede atual.
A rede foi construída para que os humanos possam ler e interpretar através de navegadores. Portanto, é muito inadequada para agentes que necessitam de analisar semântica e conectar relações entre diferentes fontes de dados. Essas limitações são evidentes em serviços do dia a dia. O site da companhia aérea pode listar o horário de partida como "14:30", enquanto o site do hotel mostrará o horário de check-in como "14:30". Os humanos entendem imediatamente que ambos são o mesmo horário, mas os agentes os interpretam como formatos de dados completamente diferentes.
Fonte: Tiger Research
O problema não reside apenas nas diferenças de formato. Um desafio chave é se os agentes podem confiar nos dados em si. Os humanos podem lidar com informações incompletas confiando no contexto e na experiência prévia. Em contraste, os agentes carecem de critérios claros para avaliar a origem ou a confiabilidade. Isso os torna suscetíveis a entradas incorretas, conclusões defeituosas e até ilusões.
No final, mesmo os agentes mais avançados não conseguem prosperar em tais circunstâncias. Eles são como carros de F1: não importa quão poderosos sejam, não podem acelerar totalmente em uma estrada não pavimentada (dados não estruturados). Se sinais enganosos (dados não confiáveis) estiverem espalhados ao longo do caminho, eles podem nunca chegar ao destino.
2. Dívida técnica da rede: reconstruir a infraestrutura
Esta questão foi levantada há mais de 20 anos pelo fundador da Web, Tim Berners-Lee, através da sua proposta para a web semântica.
A ideia central da web semântica é simples: estruturar informações na rede para que as máquinas possam entendê-las, e não apenas como texto legível por humanos. Por exemplo, "Tiger Research foi fundada em 2021" é claro para os humanos, mas para as máquinas é apenas uma string. A web semântica estrutura isso como "Tiger Research (sujeito) - foi fundada em (verbo) - 2021 (objeto)" para que as máquinas possam interpretar o significado.
Este método estava à frente do seu tempo, mas acabou por falhar. A maior razão para isso são os desafios de implementação. Chegar a um consenso sobre formatos de dados e padrões de uso revelou-se difícil, e mais importante ainda, construir e manter um enorme conjunto de dados através de contribuições voluntárias dos utilizadores é praticamente impossível. Os contribuidores não recebem recompensas ou benefícios diretos. Além disso, a credibilidade dos dados criados continua a ser uma questão não resolvida.
Apesar disso, a visão da web semântica continua válida. O princípio de que as máquinas devem entender e utilizar os dados em um nível semântico não mudou. Na era da IA, essa necessidade tornou-se ainda mais crítica.
3. Intuição: revitalizar a Web Semântica de forma Web3
Intuition evolui a visão da Web Semântica através de métodos Web3 para resolver as limitações existentes. O cerne consiste em criar um sistema que incentive os usuários a participar voluntariamente na acumulação e verificação de dados estruturados de alta qualidade. Isso constrói sistematicamente um grafo de conhecimento que é legível por máquinas, com fontes claras e verificáveis. No final, isso fornece a base para o funcionamento confiável de agentes e nos aproxima do futuro que imaginamos.
3.1. Átomo: Módulos de Construção do Conhecimento
A Intuição primeiro divide todo o conhecimento em unidades mínimas chamadas átomos (Atoms). Os átomos representam conceitos como pessoas, datas, organizações ou atributos. Cada átomo possui um identificador único (usando tecnologias como identificadores descentralizados DIDs) e existe de forma independente. Cada átomo registra informações do contribuinte, permitindo que você verifique quem adicionou quais informações e quando.
A razão para desmembrar o conhecimento em átomos é clara. A informação geralmente aparece na forma de frases complexas. Máquinas como agentes enfrentam limitações estruturais ao analisar e compreender tais informações compostas. Elas também têm dificuldade em determinar quais partes estão corretas e quais estão erradas.
Sujeito: Tiger Research
Predicado: estabelecido em
Objeto: 2021
Considere a frase "Tiger Research foi fundada em 2021". Isso pode ser verdade ou apenas parcialmente errado. Se a organização realmente existe, se a "data de fundação" é um atributo apropriado e se 2021 está correto, cada um precisa ser verificado separadamente. No entanto, ao tratar toda a frase como uma unidade, torna-se difícil distinguir quais elementos são precisos e quais estão errados. Rastrear a origem de cada informação também se torna complexo.
O átomo resolveu este problema. Ao definir cada elemento como átomos independentes, como [Tiger Research], [fundado em], [2021], você pode registrar a origem e verificar cada elemento individualmente.
Sujeito: A data de fundação da Tiger Research é 2021.
Predicado: baseado em
Objeto: Registo oficial
Os átomos não são apenas ferramentas para dividir informações - eles podem ser combinados como blocos de Lego. Por exemplo, o átomo único [Tiger Research], [fundado em] e [2021] se ligam para formar um triplo. Isso cria uma informação significativa: "Tiger Research foi fundada em 2021." Isso segue a mesma estrutura dos triplos na web semântica RDF (Framework de Descrição de Recursos).
Esses tríades podem também tornar-se átomos. O tríade "Tiger Research foi fundada em 2021" pode ser expandida para novos tríades, como "A data de fundação da Tiger Research em 2021 é baseada em registos comerciais." Através desse método, átomos e tríades combinam-se repetidamente, evoluindo de pequenas unidades para estruturas maiores.
O resultado é que a Intuition construiu um gráfico de conhecimento fractal que pode se expandir infinitamente a partir de elementos básicos. Mesmo o conhecimento complexo pode ser decomposto para validação e, em seguida, recombinado.
3.2. TCRs: Consenso impulsionado pelo mercado
Se a Intuition forneceu uma estrutura conceitual de conhecimento estruturado através de átomos, ainda existem três questões-chave: quem contribuíra para a criação desses átomos? Quais átomos podem ser confiáveis? Quando diferentes átomos competem para representar o mesmo conceito, qual se torna o padrão?
Fonte: Intuition Livro Branco Leve
Intuition resolve este problema através dos TCRs. Os TCRs baseiam-se em conteúdos que a comunidade valoriza para selecionar entradas. O staking de tokens reflete esses julgamentos. Os usuários apostam $TRUST (o token nativo da Intuition) ao propor novos átomos, trios ou estruturas de dados. Outros participantes, se acharem a proposta útil, apostam tokens do lado dos apoiantes; se acharem inútil, apostam tokens do lado dos oponentes. Eles também podem apostar em alternativas competitivas. Se os dados escolhidos pelos usuários forem utilizados com frequência ou receberem altas classificações, eles receberão recompensas. Caso contrário, perderão parte do staking.
Os TCRs validam provas individuais, mas também resolvem eficazmente o problema da normalização do ontológico. A normalização ontológica significa decidir qual abordagem se torna o padrão comum quando existem várias formas de expressar o mesmo conceito. Os sistemas distribuídos enfrentam o desafio de alcançar esse consenso sem coordenação central.
Considere os predicados da avaliação de dois produtos concorrentes: [hasReview] e [customerFeedback]. Se [hasReview] for o primeiro a ser introduzido e muitos usuários se basearem nele, os primeiros contribuintes terão direitos sobre o Token no sucesso. Ao mesmo tempo, os apoiantes de [customerFeedback] recebem incentivos econômicos e gradualmente se voltam para padrões de adoção mais amplos.
Este mecanismo reflete como o padrão de Token ERC-20 é adotado naturalmente. Os desenvolvedores que adotam o ERC-20 obtêm benefícios de compatibilidade claros — integração direta em carteiras, exchanges e dApps existentes. Estas vantagens atraem naturalmente os desenvolvedores a usar o ERC-20. Isso demonstra que a escolha impulsionada apenas pelo mercado pode resolver problemas de padronização em ambientes distribuídos. Os TCRs funcionam com princípios semelhantes. Eles reduzem a luta dos agentes com formatos de dados fragmentados e oferecem um ambiente onde a informação pode ser compreendida e processada de forma mais consistente.
3.3. Sinal: Construir uma rede de conhecimento baseada na confiança
Intuition estrutura o conhecimento através de átomos e trios, e utiliza incentivos para alcançar consenso sobre "o que realmente usar".
O último desafio ainda persiste: até que ponto podemos confiar nesta informação? A Intuition introduz o Signal para preencher essa lacuna. O Signal expressa a confiança ou desconfiança do usuário em relação a um átomo ou tripla específica. Ele vai além da simples gravação da existência de dados — captura quanto apoio os dados obtêm em diferentes contextos. O Signal sistematiza o processo de validação social que usamos na vida real, como quando julgamos informações com base em "pessoas confiáveis recomendaram isto" ou "especialistas o validaram".
Os sinais acumulam-se de três maneiras. Primeiro, os sinais explícitos envolvem avaliações intencionais feitas pelos usuários, como a votação de Token. Em segundo lugar, os sinais implícitos surgem naturalmente dos padrões de uso (como consultas repetidas ou aplicações). Por fim, os sinais de transmissão criam efeitos de relação — quando uma pessoa em quem confio apoia uma informação, também tenderei a confiar mais nela. A combinação destes três cria uma rede de conhecimento que mostra quem confia em quê, quanto confia e de que forma confia.
Fonte: White Paper da Intuition
A Intuition oferece isso através dos túneis da realidade (Reality Tunnels). Os túneis da realidade fornecem uma perspectiva personalizada para visualizar dados. Os usuários podem configurar túneis que priorizam avaliações de grupos de especialistas, valorizam as opiniões de amigos próximos ou refletem a sabedoria de comunidades específicas. Os usuários podem escolher túneis confiáveis ou alternar entre vários túneis para comparação. Os agentes também podem usar métodos de interpretação específicos para propósitos específicos. Por exemplo, escolher um túnel que reflita a rede confiável de Vitalik Buterin fará com que o agente interprete informações e tome decisões a partir da "perspectiva de Vitalik".
Todos os sinais são registados na cadeia. Os usuários podem verificar de forma transparente por que determinadas informações parecem confiáveis, quais servidores servem como fonte, quem as garante e quantos tokens foram apostados. Este processo de formação de confiança transparente permite que os usuários verifiquem diretamente as evidências, em vez de aceitarem informações de forma cega. Os agentes também podem usar esta base para fazer julgamentos adequados ao contexto e à perspectiva individuais.
4. O que aconteceria se a Intuition se tornasse a próxima geração de infraestrutura de rede?
A infraestrutura da Intuition não é apenas uma ideia conceitual, mas sim uma solução prática para os problemas enfrentados pelos agentes no ambiente de rede atual.
A rede atual está cheia de dados fragmentados e informações não verificadas. A Intuition transforma os dados em gráficos de conhecimento determinísticos, fornecendo resultados claros e consistentes para qualquer consulta. O processo de sinalização e curadoria baseado em Token valida esses dados. Os agentes podem tomar decisões claras sem depender de suposições. Isso melhora simultaneamente a precisão, a velocidade e a eficiência.
Intuition também fornece a base para a colaboração entre agentes. Estruturas de dados padronizadas permitem que diferentes agentes compreendam e comuniquem informações da mesma forma. Assim como o ERC-20 criou a compatibilidade de tokens, o gráfico de conhecimento do Intuition criou um ambiente onde os agentes podem colaborar com base em dados consistentes.
Intuition ultrapassou a infraestrutura limitada a agentes inteligentes, tornando-se a camada base que todos os serviços digitais podem compartilhar. Pode substituir o sistema de confiança que cada plataforma atualmente constrói separadamente - as avaliações da Amazon, as classificações da Uber, as recomendações do LinkedIn. Assim como o HTTP fornece um padrão de comunicação universal para a web, a Intuition fornece protocolos padrão para estruturas de dados e validação de confiança.
A mudança mais importante é a portabilidade dos dados. Os usuários possuem diretamente os dados que criam e podem usá-los em qualquer lugar. Os dados isolados em várias plataformas serão conectados e irão remodelar todo o ecossistema digital.
5. Reestruturar a base para a próxima era dos agentes inteligentes
O objetivo da Intuition não é uma simples melhoria técnica. Ela visa superar a dívida técnica acumulada nos últimos 20 anos e redesenhar fundamentalmente a infraestrutura da rede. Quando a web semântica foi proposta pela primeira vez, a visão era clara. Mas faltavam incentivos para impulsionar a participação. Mesmo que a sua visão se concretizasse, os benefícios ainda não seriam claros.
A situação mudou. O avanço da IA está a tornar a era dos agentes uma realidade. Os agentes de IA agora vão além de meras ferramentas. Eles nos representam na execução de tarefas complexas. Eles tomam decisões autonomamente. Eles colaboram com outros agentes. Estes agentes necessitam de inovações fundamentais na infraestrutura de rede existente para operar de forma eficaz.
Fonte: Balaji
Como apontou o ex-CTO da Coinbase, Balaji, precisamos construir a infraestrutura adequada para que esses agentes operem. A rede atual é semelhante a uma estrada sem pavimentar, e não a uma autoestrada onde os agentes podem se mover com segurança sobre dados confiáveis. Cada site tem uma estrutura e formato diferentes. As informações não são confiáveis. Os dados ainda são não estruturados, e os agentes têm dificuldade em compreendê-los. Isso cria obstáculos significativos para que os agentes realizem trabalhos precisos e eficientes.
A Intuition busca reconstruir a rede para atender a essas necessidades. Ela visa construir uma estrutura de dados padronizada que seja fácil de entender e usar para os agentes. É necessário um sistema de validação de informações confiável. É necessário um protocolo que permita interações suaves entre os agentes. Isso é semelhante à forma como o HTTP e o HTML criaram padrões de rede nos primórdios da internet. Isso representa uma tentativa de estabelecer novos padrões para a era dos agentes.
Claro, os desafios ainda existem. Sem participação suficiente e efeitos de rede, o sistema não pode funcionar corretamente. Alcançar a massa crítica requer bastante tempo e esforço. Superar a inércia dos ecossistemas de rede existentes nunca é fácil. Existem dificuldades na criação de novos padrões. Mas este é um desafio que deve ser resolvido. A proposta de rebase da Intuition superará esses desafios. Ela abrirá novas possibilidades para a era dos agentes que estão apenas começando a ser imaginados.