O "momento USB-C" na história da evolução da IA, em novembro de 2024, o protocolo MCP da Anthropic está causando um terremoto no Vale do Silício. Este padrão aberto, conhecido como o "USB-C do mundo da IA", não só reconstrói a conexão entre os grandes modelos e o mundo físico, mas também esconde o código para quebrar o dilema do monopólio da IA e reconstruir a relação de produção da civilização digital. Enquanto ainda estamos debatendo a escala de parâmetros do GPT-5, o MCP silenciosamente abriu o caminho para a descentralização na era AGI......
Bruce: Recentemente estou estudando o Model Context Protocol (MCP). Este é, após o ChatGPT, a segunda coisa que me entusiasma muito no campo da IA, pois tem a esperança de resolver três problemas que venho pensando há anos:
Como pessoas comuns, não cientistas e gênios, podem participar da indústria de IA e obter renda?
Quais são os pontos de combinação vantajosos entre a IA e o Ethereum?
Como implementar a d/acc de IA? Evitar o monopólio e a censura de grandes empresas centralizadas, a AGI destrói a humanidade?
01, o que é MCP?
MCP é uma estrutura de padrão aberto que pode simplificar a integração de LLM com fontes de dados e ferramentas externas. Se compararmos o LLM ao sistema operativo Windows, as aplicações como Cursor são o teclado e hardware, então MCP é a porta USB, que suporta a inserção flexível de dados e ferramentas externas, permitindo que os utilizadores leiam e utilizem esses dados e ferramentas externas.
O MCP oferece três capacidades para expandir o LLM:
O MCP pode ser desenvolvido e hospedado por qualquer pessoa, oferecendo-se como um servidor, podendo ser desligado a qualquer momento.
02, por que precisamos do MCP
Atualmente, o LLM utiliza o máximo de dados possível para realizar um grande volume de cálculos e gerar uma grande quantidade de parâmetros, incorporando conhecimento ao modelo, a fim de produzir saídas de diálogo com o conhecimento correspondente. No entanto, existem alguns problemas significativos:
Uma grande quantidade de dados e cálculos requer muito tempo e hardware, e o conhecimento utilizado para o treinamento costuma estar desatualizado.
Modelos com muitos parâmetros são difíceis de implantar e usar em dispositivos locais, mas na realidade, a maioria dos usuários pode não precisar de todas as informações para atender às suas necessidades.
Alguns modelos utilizam a técnica de web scraping para ler informações externas e realizar cálculos a fim de garantir a atualidade, mas devido às limitações do web scraping e à qualidade dos dados externos, isso pode resultar em conteúdos ainda mais enganadores.
Uma vez que a IA não trouxe grandes benefícios aos criadores, muitos sites e conteúdos começaram a implementar medidas contra a IA, gerando uma grande quantidade de lixo informativo, o que levará a uma diminuição gradual da qualidade dos LLM.
LLM é difícil de expandir para funções e operações externas em todos os aspectos, como chamar com precisão a interface do GitHub para realizar algumas operações; ele gera código com base em documentação que pode estar desatualizada, mas não consegue garantir que ele possa ser executado com precisão.
03、estrutura evolutiva do LLM gordo e LLM magro + MCP
Podemos considerar os modelos de ultra grande escala atuais como LLMs gordos, cuja arquitetura pode ser representada pelo simples diagrama abaixo:
Após o usuário inserir as informações, elas são analisadas e inferidas através da camada de Perception & Reasoning, e então uma vasta gama de parâmetros é chamada para gerar os resultados.
Após o MCP, o LLM pode focar na própria análise da linguagem, desvinculando o conhecimento e as habilidades, tornando-se um LLM enxuto:
Na arquitetura do Slim LLM, a camada de Perception & Reasoning irá focar em como transformar informações abrangentes do ambiente físico humano em tokens, incluindo, mas não se limitando a: voz, tom, cheiro, imagem, texto, gravidade, temperatura, etc., e depois, através do MCP Coordinator, organizar e coordenar até centenas de MCP Servers para completar a tarefa. O custo e a velocidade de treinamento do Slim LLM irão aumentar drasticamente, tornando os requisitos para os dispositivos de implementação muito baixos.
04, como o MCP resolve três grandes problemas
Como as pessoas comuns podem participar na indústria de IA?
Qualquer pessoa com talentos únicos pode criar o seu próprio servidor MCP para fornecer serviços ao LLM. Por exemplo, um entusiasta de aves pode disponibilizar seus anos de anotações sobre aves através do MCP. Quando alguém usa o LLM para procurar informações relacionadas a aves, o serviço MCP de anotações sobre aves será acionado. O criador também receberá uma parte da receita.
Este é um ciclo de economia de criadores mais preciso e automatizado, com conteúdos de serviço mais padronizados, e o número de chamadas e a saída de tokens podem ser contados com precisão. Os fornecedores de LLM podem até chamar simultaneamente vários servidores MCP de notas de pássaros, permitindo que os usuários escolham e classifiquem para determinar quem tem qualidade melhor e obter um peso de correspondência mais alto.
A combinação vencedora de AI e Ethereum
a. Podemos construir uma rede de incentivo para criadores OpenMCP.Network baseada em Ethereum. O MCP Server precisa hospedar e fornecer serviços estáveis, os usuários pagam aos provedores de LLM, e os provedores de LLM distribuem os incentivos reais através da rede para os MCP Servers chamados, mantendo assim a sustentabilidade e a estabilidade de toda a rede, estimulando os criadores do MCP a continuar criando e fornecendo conteúdo de alta qualidade. Este conjunto de rede precisará utilizar contratos inteligentes para implementar a automação, transparência, confiabilidade e resistência à censura dos incentivos. A assinatura, verificação de permissões e proteção de privacidade durante o processo de execução podem ser realizadas utilizando carteiras Ethereum, ZK e outras tecnologias.
b. Desenvolver servidores MCP relacionados a operações na cadeia Ethereum, como serviços de chamada de carteira AA, onde os usuários poderão realizar pagamentos da carteira dentro do LLM através da linguagem, sem expor as chaves privadas e permissões relevantes ao LLM.
c. Existem também várias ferramentas para desenvolvedores que simplificam ainda mais o desenvolvimento de contratos inteligentes Ethereum e a geração de código.
Implementar IA descentralizada
a. Os Servidores MCP descentralizam o conhecimento e as capacidades da IA, qualquer pessoa pode criar e hospedar Servidores MCP, registrando-se em plataformas como OpenMCP.Network e recebendo incentivos de acordo com as chamadas. Nenhuma empresa pode controlar todos os Servidores MCP. Se um fornecedor de LLM oferecer incentivos injustos aos Servidores MCP, os criadores apoiarão a exclusão dessa empresa, e os usuários, ao não obter resultados de qualidade, mudarão para outros fornecedores de LLM para promover uma concorrência mais justa.
b. Os criadores podem implementar um controle de permissões granular em seus MCP Servers para proteger a privacidade e os direitos autorais. Os fornecedores de LLM leves devem incentivar os criadores a contribuir com MCP Servers de alta qualidade, oferecendo incentivos razoáveis.
c. A diferença de capacidade entre LLM magros será gradualmente nivelada, pois a linguagem humana tem um limite de abrangência e a evolução é muito lenta. Os fornecedores de LLM precisarão direcionar sua atenção e recursos para servidores MCP de alta qualidade, em vez de reutilizar mais placas gráficas para mineração.
d. A capacidade do AGI será descentralizada e despriorizada, com o LLM atuando apenas como processamento de linguagem e interação com o usuário, enquanto as capacidades específicas estarão distribuídas entre os vários Servidores MCP. O AGI não representará uma ameaça para a humanidade, pois, após o desligamento dos Servidores MCP, só será possível realizar diálogos básicos em linguagem.
05, Revisão Geral
A evolução da arquitetura dos servidores LLM + MCP é, essencialmente, a descentralização das capacidades de IA, reduzindo o risco de que a AGI destrua a humanidade.
A forma de utilização do LLM permite que as chamadas aos servidores MCP e as entradas e saídas possam ser contabilizadas e automatizadas a nível de tokens, estabelecendo a base para a construção do sistema econômico de criadores de IA.
Um bom sistema econômico pode impulsionar os criadores a contribuírem ativamente com a criação de servidores MCP de alta qualidade, promovendo assim o desenvolvimento da humanidade e realizando um ciclo virtuoso. Os criadores não resistirão mais à IA, e a IA também oferecerá mais empregos e rendimentos, distribuindo racionalmente os lucros de empresas monopolistas como a OpenAI.
Este sistema econômico, combinado com suas características e as necessidades dos criadores, é muito adequado para ser implementado com base na Ethereum.
06, Perspectivas Futuras: A Próxima Evolução do Roteiro
Protocols like MCP or similar to MCP will emerge one after another, and several large companies will start competing to define the standards.
MCP Baseado LLM irá surgir, focando na análise e processamento da linguagem humana com pequenos modelos, acompanhados de um Coordenador MCP conectado à rede MCP. O LLM irá suportar a descoberta automática e o agendamento de Servidores MCP, sem necessidade de configurações manuais complexas.
Os provedores de serviços da MCP Network aparecerão, cada um com seu próprio sistema de incentivos econômicos, e os criadores da MCP poderão registrar e hospedar seu servidor para obter receita.
Se o sistema de incentivos econômicos da MCP Network for construído com Ethereum, baseado em contratos inteligentes, então as transações na rede Ethereum provavelmente aumentarão em cerca de 150 vezes (com base em uma estimativa muito conservadora de 100 milhões de chamadas diárias dos MCP Servers, considerando que atualmente um bloco é gerado a cada 12s e inclui 100 txs).
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
A IA chega ao "momento USB-C", como o MCP se funde perfeitamente com o Ethereum?
Conteúdo | Bruce
Edição & Layout | Huanhuan
Design | Daisy
O "momento USB-C" na história da evolução da IA, em novembro de 2024, o protocolo MCP da Anthropic está causando um terremoto no Vale do Silício. Este padrão aberto, conhecido como o "USB-C do mundo da IA", não só reconstrói a conexão entre os grandes modelos e o mundo físico, mas também esconde o código para quebrar o dilema do monopólio da IA e reconstruir a relação de produção da civilização digital. Enquanto ainda estamos debatendo a escala de parâmetros do GPT-5, o MCP silenciosamente abriu o caminho para a descentralização na era AGI......
Bruce: Recentemente estou estudando o Model Context Protocol (MCP). Este é, após o ChatGPT, a segunda coisa que me entusiasma muito no campo da IA, pois tem a esperança de resolver três problemas que venho pensando há anos:
01, o que é MCP?
MCP é uma estrutura de padrão aberto que pode simplificar a integração de LLM com fontes de dados e ferramentas externas. Se compararmos o LLM ao sistema operativo Windows, as aplicações como Cursor são o teclado e hardware, então MCP é a porta USB, que suporta a inserção flexível de dados e ferramentas externas, permitindo que os utilizadores leiam e utilizem esses dados e ferramentas externas.
O MCP oferece três capacidades para expandir o LLM:
O MCP pode ser desenvolvido e hospedado por qualquer pessoa, oferecendo-se como um servidor, podendo ser desligado a qualquer momento.
02, por que precisamos do MCP
Atualmente, o LLM utiliza o máximo de dados possível para realizar um grande volume de cálculos e gerar uma grande quantidade de parâmetros, incorporando conhecimento ao modelo, a fim de produzir saídas de diálogo com o conhecimento correspondente. No entanto, existem alguns problemas significativos:
03、estrutura evolutiva do LLM gordo e LLM magro + MCP
Podemos considerar os modelos de ultra grande escala atuais como LLMs gordos, cuja arquitetura pode ser representada pelo simples diagrama abaixo:
Após o usuário inserir as informações, elas são analisadas e inferidas através da camada de Perception & Reasoning, e então uma vasta gama de parâmetros é chamada para gerar os resultados.
Após o MCP, o LLM pode focar na própria análise da linguagem, desvinculando o conhecimento e as habilidades, tornando-se um LLM enxuto:
Na arquitetura do Slim LLM, a camada de Perception & Reasoning irá focar em como transformar informações abrangentes do ambiente físico humano em tokens, incluindo, mas não se limitando a: voz, tom, cheiro, imagem, texto, gravidade, temperatura, etc., e depois, através do MCP Coordinator, organizar e coordenar até centenas de MCP Servers para completar a tarefa. O custo e a velocidade de treinamento do Slim LLM irão aumentar drasticamente, tornando os requisitos para os dispositivos de implementação muito baixos.
04, como o MCP resolve três grandes problemas
Como as pessoas comuns podem participar na indústria de IA?
Qualquer pessoa com talentos únicos pode criar o seu próprio servidor MCP para fornecer serviços ao LLM. Por exemplo, um entusiasta de aves pode disponibilizar seus anos de anotações sobre aves através do MCP. Quando alguém usa o LLM para procurar informações relacionadas a aves, o serviço MCP de anotações sobre aves será acionado. O criador também receberá uma parte da receita.
Este é um ciclo de economia de criadores mais preciso e automatizado, com conteúdos de serviço mais padronizados, e o número de chamadas e a saída de tokens podem ser contados com precisão. Os fornecedores de LLM podem até chamar simultaneamente vários servidores MCP de notas de pássaros, permitindo que os usuários escolham e classifiquem para determinar quem tem qualidade melhor e obter um peso de correspondência mais alto.
A combinação vencedora de AI e Ethereum
a. Podemos construir uma rede de incentivo para criadores OpenMCP.Network baseada em Ethereum. O MCP Server precisa hospedar e fornecer serviços estáveis, os usuários pagam aos provedores de LLM, e os provedores de LLM distribuem os incentivos reais através da rede para os MCP Servers chamados, mantendo assim a sustentabilidade e a estabilidade de toda a rede, estimulando os criadores do MCP a continuar criando e fornecendo conteúdo de alta qualidade. Este conjunto de rede precisará utilizar contratos inteligentes para implementar a automação, transparência, confiabilidade e resistência à censura dos incentivos. A assinatura, verificação de permissões e proteção de privacidade durante o processo de execução podem ser realizadas utilizando carteiras Ethereum, ZK e outras tecnologias.
b. Desenvolver servidores MCP relacionados a operações na cadeia Ethereum, como serviços de chamada de carteira AA, onde os usuários poderão realizar pagamentos da carteira dentro do LLM através da linguagem, sem expor as chaves privadas e permissões relevantes ao LLM.
c. Existem também várias ferramentas para desenvolvedores que simplificam ainda mais o desenvolvimento de contratos inteligentes Ethereum e a geração de código.
Implementar IA descentralizada
a. Os Servidores MCP descentralizam o conhecimento e as capacidades da IA, qualquer pessoa pode criar e hospedar Servidores MCP, registrando-se em plataformas como OpenMCP.Network e recebendo incentivos de acordo com as chamadas. Nenhuma empresa pode controlar todos os Servidores MCP. Se um fornecedor de LLM oferecer incentivos injustos aos Servidores MCP, os criadores apoiarão a exclusão dessa empresa, e os usuários, ao não obter resultados de qualidade, mudarão para outros fornecedores de LLM para promover uma concorrência mais justa.
b. Os criadores podem implementar um controle de permissões granular em seus MCP Servers para proteger a privacidade e os direitos autorais. Os fornecedores de LLM leves devem incentivar os criadores a contribuir com MCP Servers de alta qualidade, oferecendo incentivos razoáveis.
c. A diferença de capacidade entre LLM magros será gradualmente nivelada, pois a linguagem humana tem um limite de abrangência e a evolução é muito lenta. Os fornecedores de LLM precisarão direcionar sua atenção e recursos para servidores MCP de alta qualidade, em vez de reutilizar mais placas gráficas para mineração.
d. A capacidade do AGI será descentralizada e despriorizada, com o LLM atuando apenas como processamento de linguagem e interação com o usuário, enquanto as capacidades específicas estarão distribuídas entre os vários Servidores MCP. O AGI não representará uma ameaça para a humanidade, pois, após o desligamento dos Servidores MCP, só será possível realizar diálogos básicos em linguagem.
05, Revisão Geral
06, Perspectivas Futuras: A Próxima Evolução do Roteiro