Com a combinação de Web3 e IA se tornando um tópico de destaque no mundo da criptomoeda, a infraestrutura de IA no mundo da criptomoeda está prosperando, mas há poucos aplicativos reais de IA ou construídos para a IA, e o problema da homogeneização da infraestrutura de IA está gradualmente se tornando evidente. Recentemente, nossa participação na primeira rodada de financiamento da RedPill levantou algumas compreensões mais profundas.
As principais ferramentas para construir AI Dapp incluem acesso Descentralização OpenAI, rede GPU, rede de inferência e rede de proxy.
A razão pela qual a rede GPU é mais popular do que a era de mineração BTCMineração é que: o mercado de IA é maior, e a subir é rápida e estável; a IA suporta diariamente milhões de aplicações; a IA requer uma variedade de modelos de GPU e localizações de servidores; a tecnologia é mais madura do que nunca; e o público-alvo é mais amplo.
As redes de inferência e de agente têm infraestruturas semelhantes, mas com focos diferentes. A rede de inferência é principalmente para que os desenvolvedores experientes implantem seus próprios modelos e a execução de modelos não LLM não necessariamente requer GPU. A rede de agente, por outro lado, concentra-se mais em LLM, onde os desenvolvedores não precisam trazer seus próprios modelos, mas se concentram mais na engenharia de dicas e na conexão de diferentes agentes. A rede de agente sempre requer GPU de alto desempenho.
O projeto de infraestrutura de AI tem um grande potencial e ainda está lançando novos recursos.
A maioria dos projetos de encriptação nativos ainda estão em fase de Testnet, com baixa estabilidade, configuração complexa, funcionalidade limitada e ainda precisam de tempo para comprovar sua segurança e privacidade.
Supondo que o AI Dapp se torne uma grande tendência, há muitas áreas não exploradas, como vigilância, infraestrutura relacionada ao RAG, modelos nativos da Web3, API nativa incorporada de encriptação e agentes de Descentralização de dados, avaliação de redes, etc.
A integração vertical é uma tendência significativa. Os projetos de infraestrutura tentam fornecer serviços em um só lugar para simplificar o trabalho dos desenvolvedores de AI Dapp.
O futuro será híbrido. Parte do raciocínio será feito no frontend e parte será calculada na cadeia, para considerar os custos e a verificabilidade.
Fonte: IOSG
Introdução
A combinação de Web3 e AI é um dos tópicos mais populares no campo da encriptação atualmente. Desenvolvedores talentosos estão construindo infraestrutura de IA para o mundo da encriptação, dedicados a levar a inteligência para contratos inteligentes. A criação de um AI Dapp é uma tarefa extremamente complexa, e os desenvolvedores precisam lidar com escopo que inclui dados, modelos, potência de cálculo, operações, implementação e integração com blockchain.
Para atender a essas necessidades, os fundadores da Web3 desenvolveram várias soluções preliminares, como redes GPU, anotação de dados da comunidade, modelos treinados pela comunidade, inferência e treinamento de IA verificáveis e lojas de agentes. No entanto, apesar desse cenário de infraestrutura próspero, há poucos casos reais de uso de IA ou de aplicativos construídos com IA.
Os desenvolvedores descobriram que há poucos tutoriais relacionados à infraestrutura básica de encriptação de IA nativa ao procurar por tutoriais de desenvolvimento de AI Dapp. A maioria dos tutoriais apenas aborda a chamada da API OpenAI no frontend.
Fonte: IOSG Ventures
A aplicação atual não consegue aproveitar totalmente a Descentralização e a funcionalidade verificável do blockchain, mas esta situação em breve mudará. Até agora, a maioria da infraestrutura de inteligência artificial focada em encriptação lançou redes de teste e planeia operar oficialmente nos próximos 6 meses. Esta pesquisa irá detalhar as principais ferramentas disponíveis na infraestrutura de inteligência artificial no campo da encriptação. Vamos nos preparar para a era da encriptação com GPT-3.5!
RedPill: fornecer autorização de Descentralização para a OpenAI
O RedPill em que investimos é um bom ponto de entrada, como mencionado anteriormente. A OpenAI possui vários modelos extremamente poderosos de classe mundial, como GPT-4-vision, GPT-4-turbo e GPT-4o, sendo a escolha preferida para construir Dapp de inteligência artificial avançada. Os desenvolvedores podem integrá-los ao Dapp por meio da Máquina Oracle ou da interface do front-end para chamar a API da OpenAI.
RedPill integrates the OpenAI API from different developers into one interface, providing fast, affordable, and verifiable artificial intelligence services to global users, democratizing access to top artificial intelligence model resources. RedPill's Algoritmo routing will direct developer requests to a single contributor. API requests will be executed through its distribution network, bypassing any potential restrictions from OpenAI, addressing some common issues faced by developers, such as:
• Limite de TPM (Tokens por minuto): A nova conta tem restrições no uso de Tokens, não conseguindo atender às demandas de Dapps populares e dependentes de IA.
• Restrição de acesso: alguns modelos têm restrições de acesso para novas contas ou para certos países.
Ao usar o mesmo código de solicitação, mas mudando o nome do host, os desenvolvedores podem acessar o modelo OpenAI de forma econômica, altamente escalável e ilimitada.
Rede de GPU
Além de usar a API da OpenAI, muitos desenvolvedores também optarão por hospedar os modelos em casa. Eles podem contar com a rede GPU Descentralização, como io.net, Aethir, Akash, entre outras redes populares, para construir e implantar clusters de GPU e executar uma variedade de modelos poderosos internos ou de código aberto.
Este tipo de rede GPU Descentralização, pode aproveitar o poder de cálculo de indivíduos ou pequenos centros de dados, oferecendo configurações flexíveis, mais opções de localização do servidor e custos mais baixos, permitindo que os desenvolvedores realizem facilmente experimentos relacionados com IA dentro de um orçamento limitado. No entanto, devido à natureza da Descentralização, essas redes GPU ainda têm algumas limitações em termos de funcionalidade, disponibilidade e privacidade dos dados.
Nos últimos meses, a procura por GPU tem sido muito alta, superando a febre anterior da mineração de Bitcoin. As razões para esse fenômeno incluem:
O número de clientes-alvo está a aumentar e a rede GPU agora serve os desenvolvedores de IA, cujo número não só é grande, mas também mais leal, e não será afetado pela flutuação de preços das criptomoedas.
Comparado com equipamentos especializados de mineração, as GPUs de descentralização oferecem mais modelos e especificações, atendendo melhor aos requisitos de diferentes cenários. Especialmente para o processamento de modelos grandes, é necessário ter uma VRAM mais alta, enquanto tarefas menores podem optar por GPUs mais adequadas. Além disso, as GPUs de descentralização podem fornecer serviços de baixa latência aos usuários finais.
À medida que a tecnologia amadurece, a rede GPU depende de blocos de alta velocidade, como Solana Liquidacao, tecnologia de virtualizacao Docker e clusters de computacao Ray.
Em termos de retorno de investimento, o mercado de IA está em expansão, com muitas oportunidades para o desenvolvimento de novos aplicativos e modelos. A taxa de retorno esperada do modelo H100 é de 60-70%, enquanto o BTCMineração é mais complexo, com produção limitada e os vencedores levam tudo.
Empresas de mineração de BTC, como Iris Energy, Core Scientific e Bitdeer, também estão começando a suportar redes GPU, oferecendo serviços de IA e comprando ativamente GPUs projetadas para IA, como o H100.
Recomendado: Para desenvolvedores Web2 que não dão muita importância ao SLA, o io.net oferece uma experiência simples e fácil de usar, sendo uma escolha com uma excelente relação qualidade-preço.
Esta é a base fundamental da infraestrutura nativa de encriptação. Ela suportará no futuro bilhões de operações de inferência de IA. Muitas camadas de IA de nível 1 ou nível 2 fornecem aos desenvolvedores a capacidade de chamar nativamente a inferência de IA na cadeia. Os líderes de mercado incluem Ritual, Valence e Fetch.ai.
Estas redes diferem nos seguintes aspectos: desempenho (latência, tempo de cálculo), modelos suportados de verificação de validade, custos de consumo (na cadeia, custos de raciocínio) e experiência de desenvolvimento.
3.1 Objetivo
A situação ideal seria que os desenvolvedores pudessem acessar facilmente os serviços de raciocínio de IA personalizados em qualquer lugar, de qualquer forma de prova, com integração quase sem obstáculos. A rede de raciocínio fornece todo o suporte básico necessário aos desenvolvedores, incluindo geração sob demanda e prova de validação, cálculo de raciocínio, relé e validação de dados cruzados, fornecendo interfaces Web2 e Web3, implantação de modelo com um clique, monitoramento do sistema, operações entre cadeias, integração síncrona e execução agendada, entre outras funções.
Com a ajuda destas funcionalidades, os desenvolvedores podem integrar os serviços de inferência nos seus contratos inteligentes existentes de forma transparente. Por exemplo, ao construir robôs de negociação para Finanças Descentralizadas, esses robôs utilizarão modelos de aprendizado de máquina para identificar oportunidades de compra e venda de pares de negociação específicos e executar as estratégias de negociação correspondentes na plataforma de negociação subjacente.
Em um estado ideal completo, toda a infraestrutura é hospedada na nuvem. Os desenvolvedores só precisam carregar seus modelos de estratégia de negociação em um formato comum, como o torch, e a rede de inferência armazenará e fornecerá modelos para consultas Web2 e Web3.
Após a conclusão de todas as etapas de implantação do modelo, os desenvolvedores podem chamar diretamente a inferência do modelo por meio da API Web3 ou do Contrato inteligente. A rede de inferência continuará executando essas estratégias de transação e fornecerá feedback ao Contrato inteligente subjacente. Se houver uma grande quantidade de fundos comunitários gerenciados pelos desenvolvedores, também será necessário fornecer verificação dos resultados da inferência. Uma vez recebidos os resultados da inferência, o Contrato inteligente realizará transações com base nesses resultados.
3.1.1 Assíncrono e Síncrono
Em teoria, a execução assíncrona de operações de raciocínio pode proporcionar um desempenho melhor; no entanto, esse método pode ser inconveniente em termos de experiência de desenvolvimento. Ao adotar o método assíncrono, os desenvolvedores precisam primeiro submeter as tarefas ao contrato inteligente da rede de raciocínio. Quando a tarefa de raciocínio for concluída, o contrato inteligente da rede de raciocínio retornará os resultados. Nesse modelo de programação, a lógica é dividida em duas partes: chamada de raciocínio e processamento de resultados de raciocínio.
Se os desenvolvedores tiverem chamadas de raciocínio aninhadas e muita lógica de controle, a situação ficará ainda pior.
O modo de programação assíncrono torna difícil integrá-lo aos contratos inteligentes existentes. Isso requer que os desenvolvedores escrevam muito código adicional e gerenciem dependências de maneira adequada. Por outro lado, a programação síncrona é mais intuitiva para os desenvolvedores, mas introduz problemas de design de cadeia de blocos e tempos de resposta. Por exemplo, se os dados de entrada forem dados de bloco de tempo ou preço, que são dados que mudam rapidamente, então após a conclusão do raciocínio, os dados não serão mais frescos, o que pode levar a uma reversão na execução do contrato inteligente em casos específicos. Imagine fazer uma transação com um preço desatualizado.
A maioria das infraestruturas de IA adota processamento assíncrono, mas a Valence está tentando resolver esses problemas.
3.2 Situação atual
Na verdade, muitas novas redes de raciocínio ainda estão em fase de teste, como a rede Ritual. De acordo com seus documentos públicos, as funcionalidades atuais dessas redes são bastante limitadas (como verificação, comprovação, etc., ainda não foram lançadas). Eles não oferecem atualmente uma infraestrutura de nuvem para suportar o cálculo de AI, mas fornecem um framework para auto-hospedagem de cálculos de AI e entrega de resultados à na cadeia. Esta é uma arquitetura para executar o token não fungível AIGC. O modelo de difusão gera o token não fungível e o carrega para Arweave. A rede de raciocínio usará este endereço Arweave para cunhar o token não fungível na cadeia.
Este processo é muito complexo e os desenvolvedores precisam implantar e manter a maioria das infraestruturas, como o Nó Ritual com lógica de serviço personalizada, o Nó de Difusão Estável e o Contrato Inteligente de Token não fungível. Recomenda-se: as atuais redes de inferência são bastante complexas em termos de integração e implantação de modelos personalizados, e nesta fase a maioria das redes ainda não suporta recursos de verificação. Aplicar tecnologia de IA no frontend oferecerá uma opção relativamente simples para os desenvolvedores. Se você realmente precisa de recursos de verificação, a fornecedora de ZKML Giza é uma boa escolha.
Rede de Agenciamento
A rede de agentes permite aos usuários personalizar facilmente seus agentes. Essa rede é composta por entidades ou contratos inteligentes que são capazes de executar tarefas de forma autônoma, interagir entre si e interagir com a rede de blocos, tudo isso sem intervenção direta humana. É especialmente projetado para a tecnologia LLM. Por exemplo, ele pode fornecer um chatbot GPT com um profundo entendimento do Ethereum. As ferramentas atuais para esse tipo de chatbot são limitadas e os desenvolvedores ainda não podem criar aplicativos complexos com base nelas.
No entanto, no futuro, as redes de agências fornecerão mais ferramentas para uso pelos agentes, não apenas conhecimento, mas também a capacidade de chamar APIs externas, executar tarefas específicas, etc. Os desenvolvedores poderão conectar várias agências para construir fluxos de trabalho. Por exemplo, escrever contratos inteligentes Solidity envolverá várias agências especializadas, incluindo agências de design de protocolo, agências de desenvolvimento Solidity, agências de revisão de segurança de código e agências de implantação Solidity.
Coordenamos a colaboração desses agentes através de sugestões e cenários. Alguns exemplos de redes de agentes incluem Flock.ai, Myshell e Theoriq.
Recomendação: A maioria das funções dos proxies atuais é relativamente limitada. Para casos de uso específicos, os proxies Web2 podem ser mais eficazes e possuem ferramentas de orquestração maduras, como Langchain e Llamaindex.
Diferenças entre redes de proxy e redes de inferência de quinta geração
A rede de agenciamento é mais focada na LLM, fornecendo ferramentas como Langchain para integrar vários agentes. Na maioria dos casos, os desenvolvedores não precisam desenvolver modelos de aprendizado de máquina pessoalmente, pois a rede de agenciamento já simplificou o processo de desenvolvimento e implementação do modelo. Eles só precisam conectar os agentes e ferramentas necessários. Na maioria dos casos, os usuários finais usarão esses agentes diretamente.
A rede de inferência é a infraestrutura de suporte da rede de proxy. Ele fornece aos desenvolvedores acesso de nível mais baixo. Normalmente, os usuários finais não usam diretamente a rede de inferência. Os desenvolvedores precisam implantar seus próprios modelos, não apenas LLM, e podem usá-los por meio de pontos de acesso fora da cadeia ou na cadeia. A rede de proxy e a rede de inferência não são produtos completamente independentes. Já começamos a ver alguns produtos de integração vertical. Eles fornecem capacidades de proxy e inferência ao mesmo tempo porque essas duas funções dependem de infraestruturas semelhantes.
Novo local de oportunidades
Além da inferência de modelos, treinamento e redes de agentes, há muitos novos domínios no campo da web3 que valem a pena explorar:
Dataset: Como transformar dados da cadeia de blocos em conjuntos de dados utilizáveis para aprendizado de máquina? O que os desenvolvedores de aprendizado de máquina precisam são dados mais específicos e especializados. Por exemplo, o Giza fornece conjuntos de dados de alta qualidade sobre Finanças Descentralizadas, especialmente para treinamento de aprendizado de máquina. Os dados ideais devem incluir não apenas dados de tabela simples, mas também dados gráficos que descrevam as interações do mundo da cadeia de blocos. Atualmente, ainda há deficiências nessa área. Alguns projetos estão tentando resolver esse problema recompensando indivíduos pela criação de novos conjuntos de dados, como o Bagel e o Sahara, que prometem proteger a privacidade dos dados pessoais.
Armazenamento de modelos: Alguns modelos são volumosos, como armazenar, distribuir e controlar as versões desses modelos é crucial e isso afeta o desempenho e o custo do aprendizado de máquina na cadeia. Nesse campo, projetos pioneiros como FIL, AR e 0g já fizeram progresso.
Treinamento de modelo: o treinamento de modelo distribuído e verificável é um desafio. Gensyn, Bittensor, Flock e Allora já fizeram progressos significativos. Monitoramento: como a inferência do modelo ocorre tanto na cadeia quanto fora da cadeia, precisamos de uma nova infraestrutura para ajudar os desenvolvedores web3 a rastrear o uso do modelo, identificar problemas e vieses potenciais. Com ferramentas de monitoramento adequadas, os desenvolvedores de aprendizado de máquina web3 podem ajustar e otimizar constantemente a precisão do modelo.
Infraestrutura RAG: O RAG distribuído requer um novo ambiente de infraestrutura, com alta demanda por armazenamento, computação embutida e banco de dados vetorial, ao mesmo tempo em que garante a privacidade dos dados. Isso difere muito da infraestrutura atual do Web3 AI, que depende principalmente de terceiros para concluir o RAG, como Firstbatch e Bagel.
Modelos personalizados para Web3: Nem todos os modelos são adequados para cenários Web3. Na maioria dos casos, é necessário re-treinar os modelos para se adaptarem a aplicações específicas, como previsão de preços, recomendações, etc. Com o desenvolvimento próspero da infraestrutura de IA, esperamos ter mais modelos locais web3 para servir aplicações de IA. Por exemplo, o Pond está a desenvolver a GNN da blockchain, utilizada para previsão de preços, recomendações, deteção de fraudes e lavagem de dinheiro, entre outros cenários.
Avaliação de Rede: Avaliar um agente sem feedback humano não é fácil. Com a proliferação de ferramentas de criação de agentes, haverá inúmeros agentes no mercado. Isso requer um sistema para exibir as capacidades desses agentes e ajudar os usuários a determinar qual agente funciona melhor em situações específicas. Por exemplo, Neuronets é um participante neste campo.
Mecanismo de consenso: Para tarefas de IA, PoS pode não ser a escolha ideal. A complexidade computacional, a dificuldade de verificação e a falta de determinismo são os principais desafios enfrentados pelo PoS. O Bittensor criou um novo Mecanismo de consenso inteligente, recompensando os Nós que contribuem com modelos de aprendizado de máquina e saídas para a rede.
Perspetivas futuras
Neste momento, observamos a tendência de integração vertical. Ao construir uma camada de computação básica, a rede pode suportar várias tarefas de aprendizado de máquina, incluindo treinamento, raciocínio e serviços de rede de agente. Este modelo tem como objetivo fornecer uma solução abrangente e de balcão único para os desenvolvedores de aprendizado de máquina da Web3. Atualmente, o raciocínio na cadeia, embora dispendioso e lento, oferece excelente verificabilidade e integração perfeita com sistemas de backend (como contratos inteligentes). Eu acredito que o futuro seguirá o caminho das aplicações híbridas. Parte do processamento de raciocínio será realizado na frente ou fora da cadeia, enquanto o raciocínio crítico e decisivo será realizado na cadeia. Esse modelo já está sendo aplicado em dispositivos móveis. Aproveitando as características essenciais dos dispositivos móveis, ele pode executar rapidamente modelos pequenos localmente e migrar tarefas mais complexas para a nuvem, aproveitando o maior poder de processamento.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
IOSG: Onde está a saída para a infraestrutura WEB3 + AI homogeneizada?
Autor: IOSG
TL;DR
Com a combinação de Web3 e IA se tornando um tópico de destaque no mundo da criptomoeda, a infraestrutura de IA no mundo da criptomoeda está prosperando, mas há poucos aplicativos reais de IA ou construídos para a IA, e o problema da homogeneização da infraestrutura de IA está gradualmente se tornando evidente. Recentemente, nossa participação na primeira rodada de financiamento da RedPill levantou algumas compreensões mais profundas.
As principais ferramentas para construir AI Dapp incluem acesso Descentralização OpenAI, rede GPU, rede de inferência e rede de proxy.
A razão pela qual a rede GPU é mais popular do que a era de mineração BTCMineração é que: o mercado de IA é maior, e a subir é rápida e estável; a IA suporta diariamente milhões de aplicações; a IA requer uma variedade de modelos de GPU e localizações de servidores; a tecnologia é mais madura do que nunca; e o público-alvo é mais amplo.
As redes de inferência e de agente têm infraestruturas semelhantes, mas com focos diferentes. A rede de inferência é principalmente para que os desenvolvedores experientes implantem seus próprios modelos e a execução de modelos não LLM não necessariamente requer GPU. A rede de agente, por outro lado, concentra-se mais em LLM, onde os desenvolvedores não precisam trazer seus próprios modelos, mas se concentram mais na engenharia de dicas e na conexão de diferentes agentes. A rede de agente sempre requer GPU de alto desempenho.
O projeto de infraestrutura de AI tem um grande potencial e ainda está lançando novos recursos.
A maioria dos projetos de encriptação nativos ainda estão em fase de Testnet, com baixa estabilidade, configuração complexa, funcionalidade limitada e ainda precisam de tempo para comprovar sua segurança e privacidade.
Supondo que o AI Dapp se torne uma grande tendência, há muitas áreas não exploradas, como vigilância, infraestrutura relacionada ao RAG, modelos nativos da Web3, API nativa incorporada de encriptação e agentes de Descentralização de dados, avaliação de redes, etc.
A integração vertical é uma tendência significativa. Os projetos de infraestrutura tentam fornecer serviços em um só lugar para simplificar o trabalho dos desenvolvedores de AI Dapp.
O futuro será híbrido. Parte do raciocínio será feito no frontend e parte será calculada na cadeia, para considerar os custos e a verificabilidade.
Fonte: IOSG
Introdução
A combinação de Web3 e AI é um dos tópicos mais populares no campo da encriptação atualmente. Desenvolvedores talentosos estão construindo infraestrutura de IA para o mundo da encriptação, dedicados a levar a inteligência para contratos inteligentes. A criação de um AI Dapp é uma tarefa extremamente complexa, e os desenvolvedores precisam lidar com escopo que inclui dados, modelos, potência de cálculo, operações, implementação e integração com blockchain.
Para atender a essas necessidades, os fundadores da Web3 desenvolveram várias soluções preliminares, como redes GPU, anotação de dados da comunidade, modelos treinados pela comunidade, inferência e treinamento de IA verificáveis e lojas de agentes. No entanto, apesar desse cenário de infraestrutura próspero, há poucos casos reais de uso de IA ou de aplicativos construídos com IA.
Os desenvolvedores descobriram que há poucos tutoriais relacionados à infraestrutura básica de encriptação de IA nativa ao procurar por tutoriais de desenvolvimento de AI Dapp. A maioria dos tutoriais apenas aborda a chamada da API OpenAI no frontend.
Fonte: IOSG Ventures
A aplicação atual não consegue aproveitar totalmente a Descentralização e a funcionalidade verificável do blockchain, mas esta situação em breve mudará. Até agora, a maioria da infraestrutura de inteligência artificial focada em encriptação lançou redes de teste e planeia operar oficialmente nos próximos 6 meses. Esta pesquisa irá detalhar as principais ferramentas disponíveis na infraestrutura de inteligência artificial no campo da encriptação. Vamos nos preparar para a era da encriptação com GPT-3.5!
O RedPill em que investimos é um bom ponto de entrada, como mencionado anteriormente. A OpenAI possui vários modelos extremamente poderosos de classe mundial, como GPT-4-vision, GPT-4-turbo e GPT-4o, sendo a escolha preferida para construir Dapp de inteligência artificial avançada. Os desenvolvedores podem integrá-los ao Dapp por meio da Máquina Oracle ou da interface do front-end para chamar a API da OpenAI.
RedPill integrates the OpenAI API from different developers into one interface, providing fast, affordable, and verifiable artificial intelligence services to global users, democratizing access to top artificial intelligence model resources. RedPill's Algoritmo routing will direct developer requests to a single contributor. API requests will be executed through its distribution network, bypassing any potential restrictions from OpenAI, addressing some common issues faced by developers, such as:
• Limite de TPM (Tokens por minuto): A nova conta tem restrições no uso de Tokens, não conseguindo atender às demandas de Dapps populares e dependentes de IA.
• Restrição de acesso: alguns modelos têm restrições de acesso para novas contas ou para certos países.
Ao usar o mesmo código de solicitação, mas mudando o nome do host, os desenvolvedores podem acessar o modelo OpenAI de forma econômica, altamente escalável e ilimitada.
Além de usar a API da OpenAI, muitos desenvolvedores também optarão por hospedar os modelos em casa. Eles podem contar com a rede GPU Descentralização, como io.net, Aethir, Akash, entre outras redes populares, para construir e implantar clusters de GPU e executar uma variedade de modelos poderosos internos ou de código aberto.
Este tipo de rede GPU Descentralização, pode aproveitar o poder de cálculo de indivíduos ou pequenos centros de dados, oferecendo configurações flexíveis, mais opções de localização do servidor e custos mais baixos, permitindo que os desenvolvedores realizem facilmente experimentos relacionados com IA dentro de um orçamento limitado. No entanto, devido à natureza da Descentralização, essas redes GPU ainda têm algumas limitações em termos de funcionalidade, disponibilidade e privacidade dos dados.
Nos últimos meses, a procura por GPU tem sido muito alta, superando a febre anterior da mineração de Bitcoin. As razões para esse fenômeno incluem:
O número de clientes-alvo está a aumentar e a rede GPU agora serve os desenvolvedores de IA, cujo número não só é grande, mas também mais leal, e não será afetado pela flutuação de preços das criptomoedas.
Comparado com equipamentos especializados de mineração, as GPUs de descentralização oferecem mais modelos e especificações, atendendo melhor aos requisitos de diferentes cenários. Especialmente para o processamento de modelos grandes, é necessário ter uma VRAM mais alta, enquanto tarefas menores podem optar por GPUs mais adequadas. Além disso, as GPUs de descentralização podem fornecer serviços de baixa latência aos usuários finais.
À medida que a tecnologia amadurece, a rede GPU depende de blocos de alta velocidade, como Solana Liquidacao, tecnologia de virtualizacao Docker e clusters de computacao Ray.
Em termos de retorno de investimento, o mercado de IA está em expansão, com muitas oportunidades para o desenvolvimento de novos aplicativos e modelos. A taxa de retorno esperada do modelo H100 é de 60-70%, enquanto o BTCMineração é mais complexo, com produção limitada e os vencedores levam tudo.
Empresas de mineração de BTC, como Iris Energy, Core Scientific e Bitdeer, também estão começando a suportar redes GPU, oferecendo serviços de IA e comprando ativamente GPUs projetadas para IA, como o H100.
Recomendado: Para desenvolvedores Web2 que não dão muita importância ao SLA, o io.net oferece uma experiência simples e fácil de usar, sendo uma escolha com uma excelente relação qualidade-preço.
Esta é a base fundamental da infraestrutura nativa de encriptação. Ela suportará no futuro bilhões de operações de inferência de IA. Muitas camadas de IA de nível 1 ou nível 2 fornecem aos desenvolvedores a capacidade de chamar nativamente a inferência de IA na cadeia. Os líderes de mercado incluem Ritual, Valence e Fetch.ai.
Estas redes diferem nos seguintes aspectos: desempenho (latência, tempo de cálculo), modelos suportados de verificação de validade, custos de consumo (na cadeia, custos de raciocínio) e experiência de desenvolvimento.
3.1 Objetivo
A situação ideal seria que os desenvolvedores pudessem acessar facilmente os serviços de raciocínio de IA personalizados em qualquer lugar, de qualquer forma de prova, com integração quase sem obstáculos. A rede de raciocínio fornece todo o suporte básico necessário aos desenvolvedores, incluindo geração sob demanda e prova de validação, cálculo de raciocínio, relé e validação de dados cruzados, fornecendo interfaces Web2 e Web3, implantação de modelo com um clique, monitoramento do sistema, operações entre cadeias, integração síncrona e execução agendada, entre outras funções.
Com a ajuda destas funcionalidades, os desenvolvedores podem integrar os serviços de inferência nos seus contratos inteligentes existentes de forma transparente. Por exemplo, ao construir robôs de negociação para Finanças Descentralizadas, esses robôs utilizarão modelos de aprendizado de máquina para identificar oportunidades de compra e venda de pares de negociação específicos e executar as estratégias de negociação correspondentes na plataforma de negociação subjacente.
Em um estado ideal completo, toda a infraestrutura é hospedada na nuvem. Os desenvolvedores só precisam carregar seus modelos de estratégia de negociação em um formato comum, como o torch, e a rede de inferência armazenará e fornecerá modelos para consultas Web2 e Web3.
Após a conclusão de todas as etapas de implantação do modelo, os desenvolvedores podem chamar diretamente a inferência do modelo por meio da API Web3 ou do Contrato inteligente. A rede de inferência continuará executando essas estratégias de transação e fornecerá feedback ao Contrato inteligente subjacente. Se houver uma grande quantidade de fundos comunitários gerenciados pelos desenvolvedores, também será necessário fornecer verificação dos resultados da inferência. Uma vez recebidos os resultados da inferência, o Contrato inteligente realizará transações com base nesses resultados.
3.1.1 Assíncrono e Síncrono
Em teoria, a execução assíncrona de operações de raciocínio pode proporcionar um desempenho melhor; no entanto, esse método pode ser inconveniente em termos de experiência de desenvolvimento. Ao adotar o método assíncrono, os desenvolvedores precisam primeiro submeter as tarefas ao contrato inteligente da rede de raciocínio. Quando a tarefa de raciocínio for concluída, o contrato inteligente da rede de raciocínio retornará os resultados. Nesse modelo de programação, a lógica é dividida em duas partes: chamada de raciocínio e processamento de resultados de raciocínio.
Se os desenvolvedores tiverem chamadas de raciocínio aninhadas e muita lógica de controle, a situação ficará ainda pior.
O modo de programação assíncrono torna difícil integrá-lo aos contratos inteligentes existentes. Isso requer que os desenvolvedores escrevam muito código adicional e gerenciem dependências de maneira adequada. Por outro lado, a programação síncrona é mais intuitiva para os desenvolvedores, mas introduz problemas de design de cadeia de blocos e tempos de resposta. Por exemplo, se os dados de entrada forem dados de bloco de tempo ou preço, que são dados que mudam rapidamente, então após a conclusão do raciocínio, os dados não serão mais frescos, o que pode levar a uma reversão na execução do contrato inteligente em casos específicos. Imagine fazer uma transação com um preço desatualizado.
A maioria das infraestruturas de IA adota processamento assíncrono, mas a Valence está tentando resolver esses problemas.
3.2 Situação atual
Na verdade, muitas novas redes de raciocínio ainda estão em fase de teste, como a rede Ritual. De acordo com seus documentos públicos, as funcionalidades atuais dessas redes são bastante limitadas (como verificação, comprovação, etc., ainda não foram lançadas). Eles não oferecem atualmente uma infraestrutura de nuvem para suportar o cálculo de AI, mas fornecem um framework para auto-hospedagem de cálculos de AI e entrega de resultados à na cadeia. Esta é uma arquitetura para executar o token não fungível AIGC. O modelo de difusão gera o token não fungível e o carrega para Arweave. A rede de raciocínio usará este endereço Arweave para cunhar o token não fungível na cadeia.
Este processo é muito complexo e os desenvolvedores precisam implantar e manter a maioria das infraestruturas, como o Nó Ritual com lógica de serviço personalizada, o Nó de Difusão Estável e o Contrato Inteligente de Token não fungível. Recomenda-se: as atuais redes de inferência são bastante complexas em termos de integração e implantação de modelos personalizados, e nesta fase a maioria das redes ainda não suporta recursos de verificação. Aplicar tecnologia de IA no frontend oferecerá uma opção relativamente simples para os desenvolvedores. Se você realmente precisa de recursos de verificação, a fornecedora de ZKML Giza é uma boa escolha.
A rede de agentes permite aos usuários personalizar facilmente seus agentes. Essa rede é composta por entidades ou contratos inteligentes que são capazes de executar tarefas de forma autônoma, interagir entre si e interagir com a rede de blocos, tudo isso sem intervenção direta humana. É especialmente projetado para a tecnologia LLM. Por exemplo, ele pode fornecer um chatbot GPT com um profundo entendimento do Ethereum. As ferramentas atuais para esse tipo de chatbot são limitadas e os desenvolvedores ainda não podem criar aplicativos complexos com base nelas.
No entanto, no futuro, as redes de agências fornecerão mais ferramentas para uso pelos agentes, não apenas conhecimento, mas também a capacidade de chamar APIs externas, executar tarefas específicas, etc. Os desenvolvedores poderão conectar várias agências para construir fluxos de trabalho. Por exemplo, escrever contratos inteligentes Solidity envolverá várias agências especializadas, incluindo agências de design de protocolo, agências de desenvolvimento Solidity, agências de revisão de segurança de código e agências de implantação Solidity.
Coordenamos a colaboração desses agentes através de sugestões e cenários. Alguns exemplos de redes de agentes incluem Flock.ai, Myshell e Theoriq. Recomendação: A maioria das funções dos proxies atuais é relativamente limitada. Para casos de uso específicos, os proxies Web2 podem ser mais eficazes e possuem ferramentas de orquestração maduras, como Langchain e Llamaindex.
Diferenças entre redes de proxy e redes de inferência de quinta geração
A rede de agenciamento é mais focada na LLM, fornecendo ferramentas como Langchain para integrar vários agentes. Na maioria dos casos, os desenvolvedores não precisam desenvolver modelos de aprendizado de máquina pessoalmente, pois a rede de agenciamento já simplificou o processo de desenvolvimento e implementação do modelo. Eles só precisam conectar os agentes e ferramentas necessários. Na maioria dos casos, os usuários finais usarão esses agentes diretamente.
A rede de inferência é a infraestrutura de suporte da rede de proxy. Ele fornece aos desenvolvedores acesso de nível mais baixo. Normalmente, os usuários finais não usam diretamente a rede de inferência. Os desenvolvedores precisam implantar seus próprios modelos, não apenas LLM, e podem usá-los por meio de pontos de acesso fora da cadeia ou na cadeia. A rede de proxy e a rede de inferência não são produtos completamente independentes. Já começamos a ver alguns produtos de integração vertical. Eles fornecem capacidades de proxy e inferência ao mesmo tempo porque essas duas funções dependem de infraestruturas semelhantes.
Dataset: Como transformar dados da cadeia de blocos em conjuntos de dados utilizáveis para aprendizado de máquina? O que os desenvolvedores de aprendizado de máquina precisam são dados mais específicos e especializados. Por exemplo, o Giza fornece conjuntos de dados de alta qualidade sobre Finanças Descentralizadas, especialmente para treinamento de aprendizado de máquina. Os dados ideais devem incluir não apenas dados de tabela simples, mas também dados gráficos que descrevam as interações do mundo da cadeia de blocos. Atualmente, ainda há deficiências nessa área. Alguns projetos estão tentando resolver esse problema recompensando indivíduos pela criação de novos conjuntos de dados, como o Bagel e o Sahara, que prometem proteger a privacidade dos dados pessoais.
Armazenamento de modelos: Alguns modelos são volumosos, como armazenar, distribuir e controlar as versões desses modelos é crucial e isso afeta o desempenho e o custo do aprendizado de máquina na cadeia. Nesse campo, projetos pioneiros como FIL, AR e 0g já fizeram progresso.
Treinamento de modelo: o treinamento de modelo distribuído e verificável é um desafio. Gensyn, Bittensor, Flock e Allora já fizeram progressos significativos. Monitoramento: como a inferência do modelo ocorre tanto na cadeia quanto fora da cadeia, precisamos de uma nova infraestrutura para ajudar os desenvolvedores web3 a rastrear o uso do modelo, identificar problemas e vieses potenciais. Com ferramentas de monitoramento adequadas, os desenvolvedores de aprendizado de máquina web3 podem ajustar e otimizar constantemente a precisão do modelo.
Infraestrutura RAG: O RAG distribuído requer um novo ambiente de infraestrutura, com alta demanda por armazenamento, computação embutida e banco de dados vetorial, ao mesmo tempo em que garante a privacidade dos dados. Isso difere muito da infraestrutura atual do Web3 AI, que depende principalmente de terceiros para concluir o RAG, como Firstbatch e Bagel.
Modelos personalizados para Web3: Nem todos os modelos são adequados para cenários Web3. Na maioria dos casos, é necessário re-treinar os modelos para se adaptarem a aplicações específicas, como previsão de preços, recomendações, etc. Com o desenvolvimento próspero da infraestrutura de IA, esperamos ter mais modelos locais web3 para servir aplicações de IA. Por exemplo, o Pond está a desenvolver a GNN da blockchain, utilizada para previsão de preços, recomendações, deteção de fraudes e lavagem de dinheiro, entre outros cenários.
Avaliação de Rede: Avaliar um agente sem feedback humano não é fácil. Com a proliferação de ferramentas de criação de agentes, haverá inúmeros agentes no mercado. Isso requer um sistema para exibir as capacidades desses agentes e ajudar os usuários a determinar qual agente funciona melhor em situações específicas. Por exemplo, Neuronets é um participante neste campo.
Mecanismo de consenso: Para tarefas de IA, PoS pode não ser a escolha ideal. A complexidade computacional, a dificuldade de verificação e a falta de determinismo são os principais desafios enfrentados pelo PoS. O Bittensor criou um novo Mecanismo de consenso inteligente, recompensando os Nós que contribuem com modelos de aprendizado de máquina e saídas para a rede.
Neste momento, observamos a tendência de integração vertical. Ao construir uma camada de computação básica, a rede pode suportar várias tarefas de aprendizado de máquina, incluindo treinamento, raciocínio e serviços de rede de agente. Este modelo tem como objetivo fornecer uma solução abrangente e de balcão único para os desenvolvedores de aprendizado de máquina da Web3. Atualmente, o raciocínio na cadeia, embora dispendioso e lento, oferece excelente verificabilidade e integração perfeita com sistemas de backend (como contratos inteligentes). Eu acredito que o futuro seguirá o caminho das aplicações híbridas. Parte do processamento de raciocínio será realizado na frente ou fora da cadeia, enquanto o raciocínio crítico e decisivo será realizado na cadeia. Esse modelo já está sendo aplicado em dispositivos móveis. Aproveitando as características essenciais dos dispositivos móveis, ele pode executar rapidamente modelos pequenos localmente e migrar tarefas mais complexas para a nuvem, aproveitando o maior poder de processamento.