IOSG: Onde será o próximo ponto de explosão sob Web3+AI?

Autor: IOSG Ventures

Obrigado pelos feedbacks de Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.

Esta pesquisa tem como objetivo explorar quais os campos de inteligência artificial são mais importantes para os desenvolvedores e quais podem ser as próximas oportunidades explosivas no campo da inteligência artificial e da Web3.

Antes de compartilhar novos pontos de vista de pesquisa, estamos muito felizes em participar da primeira rodada de financiamento da RedPill, no valor total de 5 milhões de dólares, e estamos muito animados e ansiosos para crescer junto com a RedPill no futuro!

IOSG:Web3+AI下一个爆发点在哪?

TL;DR

Com a combinação de Web3 e AI se tornando um tópico de destaque no mundo da encriptação, a infraestrutura de AI no mundo da encriptação está prosperando, mas a aplicação real de AI ou aplicativos construídos para AI não é longo, e o problema da homogeneização da infraestrutura de AI está gradualmente se tornando evidente. Recentemente, nossa participação na primeira rodada de financiamento da RedPill desencadeou uma compreensão mais profunda.

  • As principais ferramentas para construir um AI Dapp incluem acesso à Descentralização OpenAI, rede de GPU, rede de inferência e rede de agente.
  • Por que o GPU networking é mais popular do que o período de mineração BTC, é porque: o mercado de IA é maior e está subindo rapidamente e de forma estável; a IA suporta milhões de aplicativos todos os dias; a IA requer uma variedade de modelos de GPU e localizações de servidores; a tecnologia é mais madura do que antes; e o público-alvo é mais amplo.
  • Redes de inferência e redes de agenciamento têm infraestruturas semelhantes, mas focos diferentes. As redes de inferência são principalmente para desenvolvedores experientes implantarem seus próprios modelos, e a execução de modelos não LLM não necessariamente requer uma GPU. As redes de agenciamento, por outro lado, se concentram mais em LLM, onde os desenvolvedores não precisam trazer seus próprios modelos, mas sim se concentram em engenharia de sugestões e como conectar diferentes agentes. As redes de agenciamento sempre requerem GPUs de alto desempenho.
  • Os projetos de infraestrutura de IA prometem muito e continuam a lançar novos recursos.
  • A maioria dos projetos de encriptação nativos ainda estão na fase Testnet, com pouca estabilidade, configuração complexa, funcionalidades limitadas e ainda precisam de tempo para provar a sua segurança e privacidade.
  • Suponha que o AI Dapp se torne uma grande tendência, há muitas áreas não desenvolvidas, como monitoramento, infraestrutura relacionada ao RAG, modelos nativos da Web3, API nativa com encriptação incorporada e agente de Descentralização de dados, avaliação de rede, etc.
  • A integração vertical é uma tendência significativa. Os projetos de infraestrutura tentam fornecer serviços completos para simplificar o trabalho dos desenvolvedores de AI Dapp.
  • O futuro será híbrido. Parte do raciocínio será feito no frontend, enquanto parte será calculada na cadeia, para considerar os custos e a verificabilidade.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSG

Introdução

  • A combinação de Web3 e IA é um dos tópicos mais populares no campo de encriptação atualmente. Desenvolvedores talentosos estão construindo infraestruturas de IA para o mundo de encriptação, visando trazer inteligência aos contratos inteligentes. Construir um dApp de IA é uma tarefa extremamente complexa, os desenvolvedores precisam lidar com escopo que inclui dados, modelos, poder de computação, operações, implantação e integração com blockchain. Para atender a essas necessidades, os fundadores do Web3 desenvolveram muitas soluções preliminares, como redes GPU, marcação de dados da comunidade, modelos treinados pela comunidade, inferência e treinamento de IA verificáveis ​​e lojas de proxy.
  • E, neste contexto de infraestrutura próspera, o uso real de IA ou aplicativos construídos para IA não é longo. Os desenvolvedores que procuram tutoriais de desenvolvimento de dApp de IA descobrem que há poucos tutoriais relacionados à infraestrutura nativa de encriptação AI, a maioria dos tutoriais só envolvem a chamada do API da OpenAI na frontend.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

  • A aplicação atual não consegue aproveitar totalmente a Descentralização e a capacidade de verificação da blockchain, mas essa situação em breve mudará. Agora, a maioria da infraestrutura de inteligência artificial focada na encriptação já iniciou a rede de testes e planeia operar oficialmente nos próximos 6 meses.
  • Este estudo irá detalhar as principais ferramentas disponíveis na infraestrutura de inteligência artificial no campo da encriptação. Vamos nos preparar para o mundo da encriptação com o GPT-3.5!

1. RedPill: Autorização de Descentralização fornecida para a OpenAI

O RedPill que mencionamos anteriormente é um bom ponto de entrada para nós.

A OpenAI possui vários modelos poderosos de classe mundial, como o GPT-4-vision, GPT-4-turbo e GPT-4o, sendo a escolha ideal para construir aplicativos descentralizados de inteligência artificial avançada.

Os desenvolvedores podem integrá-lo em dApp através da Máquina Oracle ou da interface frontal OpenAI API.

RedPill integrates the OpenAI API from different developers into one interface, providing fast, affordable, and verifiable artificial intelligence services to global users, thus democratizing access to top AI model resources. RedPill's routing Algoritmo will direct developers' requests to a single contributor. API requests will be executed through its distribution network, bypassing any potential restrictions from OpenAI, solving some common issues faced by developers, such as:

  • Limitação de TPM (Tokens por minuto): O novo conta tem um uso limitado de Tokens, o que não consegue satisfazer a procura por dApps populares e dependentes de IA.
  • Restrição de acesso: Alguns modelos têm restrições de acesso para novas contas ou para certos países.

Ao usar o mesmo código de solicitação, mas alterando o nome do host, os desenvolvedores podem acessar modelos OpenAI de maneira econômica, altamente escalável e ilimitada.

IOSG:Web3+AI下一个爆发点在哪?

IOSG:Web3+AI下一个爆发点在哪?

2. Rede de GPU

Além de usar a API da OpenAI, muitos desenvolvedores também optam por hospedar os modelos em casa. Eles podem contar com redes GPU descentralizadas, como io.net, Aethir, Akash e outras redes populares, para construir e implantar clusters de GPU e executar uma variedade de modelos internos ou de código aberto poderosos.

Esta rede Descentralização GPU permite que os desenvolvedores realizem facilmente experimentos relacionados à IA dentro de um orçamento limitado, aproveitando a capacidade de computação de indivíduos ou pequenos data centers, oferecendo configurações flexíveis, opções de localização de servidor mais longas e custos mais baixos. No entanto, devido à natureza descentralizada, essas redes de GPU ainda têm algumas limitações em termos de funcionalidade, disponibilidade e privacidade dos dados.

IOSG:Web3+AI下一个爆发点在哪?

Nos últimos meses, a demanda por GPUs tem sido altíssima, superando a febre anterior da mineração de BTC. As razões para esse fenômeno incluem:

  • O número crescente de clientes-alvo faz com que a rede GPU agora sirva os desenvolvedores de IA, que não só são numerosos, mas também mais leais e não são afetados pela Flutuação de preços da Criptomoeda.
  • Comparado com equipamentos especializados de Mineração, as GPUs Descentralização oferecem modelos e especificações mais longos, mais adequados para atender aos requisitos da iez. Especialmente para o processamento de modelos grandes que exigem mais VRAM, e para tarefas menores, há opções de GPU mais adequadas. Além disso, as GPUs Descentralização podem atender aos usuários finais com latência reduzida.
  • À medida que a tecnologia amadurece, a rede GPU depende de blocos de alta velocidade como Solana Liquidação, tecnologia de virtualização Docker e clusters de cálculo Ray.
  • No que diz respeito ao retorno do investimento, o mercado de IA está em expansão, com oportunidades longo no desenvolvimento de novos aplicativos e modelos. A taxa de retorno esperada do modelo H100 é de 60-70%, enquanto o BTCMineração é mais complexo, com um vencedor levando tudo e produção limitada. Empresas de mineração de BTC como a Iris Energy, Core Scientific e Bitdeer também estão começando a oferecer suporte à rede GPU, fornecendo serviços de IA e adquirindo ativamente GPUs projetados especificamente para IA, como o H100.

Recomendação: Para desenvolvedores da Web2 que não dão muita importância ao SLA, o io.net oferece uma experiência simples e fácil de usar, sendo uma escolha de ótimo custo-benefício.

3. Rede de inferência

Este é o núcleo da infraestrutura nativa de IA encriptação. Irá suportar no futuro milhares de milhões de operações de inferência de IA. Muitas camadas de IA layer1 ou layer2 fornecem aos desenvolvedores a capacidade de chamar nativamente a inferência de IA na cadeia. Os líderes de mercado incluem Ritual, Valence e Fetch.ai.

Essas redes diferem nas seguintes áreas:

  1. Desempenho (latência, tempo de cálculo)
  2. Modelos suportados
  3. Verificabilidade
  4. Preço (custo de consumo na cadeia, custo de raciocínio)
  5. Experiência de Desenvolvimento

3.1 Objetivo

O cenário ideal é que os desenvolvedores possam acessar facilmente os serviços de inferência de IA personalizados em qualquer lugar, por meio de qualquer forma de prova, com pouca obstrução no processo de integração.

A rede de raciocínio fornece todo o suporte básico necessário para os desenvolvedores, incluindo geração sob demanda de provas de validação, cálculo de raciocínio, Relé e validação de dados de raciocínio, fornecendo interfaces para Web2 e Web3, implantação de modelos com um clique, monitoramento do sistema, interação entre cadeias, integração síncrona e execução programada, entre outras funcionalidades.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

Com esses recursos, os desenvolvedores podem integrar facilmente o serviço de inferência em seus contratos inteligentes existentes. Por exemplo, ao construir robôs de negociação para Finanças Descentralizadas, esses robôs utilizarão modelos de aprendizado de máquina para encontrar oportunidades de compra e venda de pares de negociação específicos e executar estratégias de negociação correspondentes na plataforma de negociação subjacente.

No estado totalmente ideal, todas as infraestruturas são hospedadas em nuvem. Os desenvolvedores só precisam fazer upload de seus modelos de estratégia de negociação em um formato comum, como o torch, e a rede inferencial armazenará e fornecerá modelos para consultas Web2 e Web3.

Após a conclusão de todas as etapas de implantação do modelo, os desenvolvedores podem chamar diretamente a inferência do modelo por meio da API Web3 ou contratos inteligentes. A rede de inferência continuará a executar essas estratégias de transação e fornecerá feedback ao contrato inteligente subjacente. Se a quantidade de fundos da comunidade gerenciada pelos desenvolvedores for grande, também será necessário fornecer verificação dos resultados de inferência. Assim que os resultados de inferência forem recebidos, o contrato inteligente realizará transações com base nesses resultados.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

3.1.1 Assíncrono vs. Síncrono

Teoricamente, a execução assíncrona das operações de raciocínio pode resultar em melhor desempenho; no entanto, essa abordagem pode ser inconveniente em termos de experiência de desenvolvimento.

Ao utilizar o modo assíncrono, os desenvolvedores precisam primeiro enviar a tarefa para o contrato inteligente da rede de inferência. Quando a tarefa de inferência é concluída, o contrato inteligente da rede de inferência retornará o resultado. Nesse padrão de programação, a lógica é dividida em duas partes: chamada de inferência e processamento de resultado de inferência.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

Se os desenvolvedores tiverem chamadas de raciocínio aninhadas e uma grande quantidade de lógica de controle, a situação ficará pior.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

O modo de programação assíncrona torna difícil integrá-lo com os contratos inteligentes existentes. Isso requer que os desenvolvedores escrevam uma grande quantidade de código adicional e lidem com o tratamento de erros e gerenciamento de dependências.

Por outro lado, a programação síncrona é mais intuitiva para os desenvolvedores, mas ela introduz problemas de tempo de resposta e design de Bloco. Por exemplo, se os dados de entrada forem dados de Bloco de tempo ou preço que mudam rapidamente, os dados não serão mais frescos após a conclusão do raciocínio, o que pode levar à reversão na execução de Contrato Inteligente em casos específicos. Imagine fazer uma transação com um preço desatualizado.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

A maioria das infraestruturas de IA adota processamento assíncrono, mas Valence está tentando resolver esses problemas.

3.2 Realidade atual

Na realidade, muitas novas redes de raciocínio ainda estão em fase de teste, como a rede Ritual. De acordo com os seus documentos públicos, as funcionalidades atuais destas redes são bastante limitadas (por exemplo, a verificação, a comprovação, entre outras funcionalidades, ainda não estão disponíveis). Atualmente, não fornecem uma infraestrutura de nuvem para suportar cálculos de IA na cadeia, mas sim oferecem um framework para auto-hospedar cálculos de IA e transmitir os resultados para a cadeia.

Esta é uma arquitetura que executa o token AIGC não fungível. O modelo de difusão gera tokens não fungíveis e os carrega para Arweave. A rede de inferência vai usar este endereço Arweave para cunhar o token não fungível na cadeia.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

Este processo é muito complexo e os desenvolvedores precisam implantar e manter a maioria das infraestruturas, como o nó Ritual personalizado com lógica de serviço, o nó Stable Diffusion e o Contrato Inteligente para Token Não Fungível.

Recomendação: Atualmente, as redes de raciocínio são bastante complexas na integração e implementação de modelos personalizados, e a maioria das redes ainda não suporta a função de verificação nesta fase. Aplicar a tecnologia de IA ao front-end fornecerá uma escolha relativamente simples para os desenvolvedores. Se você realmente precisa da função de verificação, o provedor de ZKML Giza é uma boa escolha.

4. Rede de Proxy

A rede de proxy permite que os usuários personalizem facilmente os proxies. Essa rede é composta por entidades ou contratos inteligentes que podem executar tarefas de forma autônoma, interagir entre si na nuvem e interagir com a rede Blockchain, tudo isso sem intervenção humana direta. Ele é projetado principalmente para a tecnologia LLM. Por exemplo, ele pode fornecer um assistente de chat GPT para entender profundamente o Ethereum. As ferramentas atuais para esse tipo de assistente de chat são limitadas e os desenvolvedores ainda não podem criar aplicativos complexos com base nisso.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

No futuro, as redes de agentes fornecerão ferramentas mais longas para uso dos agentes, não apenas conhecimento, mas também a capacidade de chamar APIs externas e executar tarefas específicas. Os desenvolvedores poderão conectar longo agentes para construir fluxos de trabalho. Por exemplo, escrever um contrato inteligente Solidity envolverá vários agentes especializados, incluindo agentes de design de protocolo, agentes de desenvolvimento Solidity, agentes de revisão de segurança de código e agentes de implantação Solidity.

IOSG:Web3+AI下一个爆发点在哪?

Fonte: IOSGVentures

Coordenamos a colaboração desses agentes por meio do uso de dicas e cenários.

Alguns exemplos de redes de agenciamento incluem Flock.ai, Myshell, Theoriq.

Recomendação: A maioria das funções dos proxies atuais é relativamente limitada. Para casos de uso específicos, os proxies Web2 podem oferecer um serviço melhor e possuem ferramentas de composição maduras, como Langchain, Llamaindex.

5. Diferenças entre a Rede de Agente e a Rede de Inferência

A rede de agências está mais focada em LLM, fornecendo ferramentas como Langchain para integrar longo um agente. Normalmente, os desenvolvedores não precisam desenvolver pessoalmente modelos de aprendizado de máquina, a rede de agências já simplificou o processo de desenvolvimento e implantação do modelo. Eles só precisam conectar os agentes e ferramentas necessários. Na maioria dos casos, os usuários finais usarão esses agentes diretamente.

A rede de raciocínio é a infraestrutura de suporte da rede de agente. Ele fornece aos desenvolvedores acesso de nível inferior. Normalmente, os usuários finais não usam diretamente a rede de raciocínio. Os desenvolvedores precisam implantar seus próprios modelos, não se limitando ao LLM, e podem usá-los por meio de pontos de acesso fora da cadeia ou na cadeia.

Redes de agente e redes de inferência não são produtos completamente independentes. Já estamos começando a ver alguns produtos de integração vertical. Eles fornecem simultaneamente capacidades de agente e inferência porque essas duas funcionalidades dependem de infraestruturas semelhantes.

IOSG:Web3+AI下一个爆发点在哪?

6. Novas Oportunidades

Além da inferência de modelos, treinamento e redes de agência, há muitas novas áreas a serem exploradas no campo do web3:

  • Conjunto de dados: Como transformar os dados da cadeia de Bloco em conjuntos de dados utilizáveis para aprendizagem automática? Os desenvolvedores de aprendizagem automática precisam de dados mais específicos e especializados. Por exemplo, Giza fornece conjuntos de dados de alta qualidade sobre Finanças Descentralizadas, especialmente para treinamento de aprendizagem automática. Os dados ideais não devem ser apenas dados tabulares simples, mas também devem incluir dados gráficos que descrevam a interação do mundo da cadeia de Bloco. Atualmente, ainda temos deficiências nesse aspecto. Alguns projetos estão lidando com esse problema incentivando a criação de novos conjuntos de dados, como Bagel e Sahara, que prometem proteger a privacidade dos dados pessoais.
  • Armazenamento de modelos: o armazenamento, distribuição e controle de versões de modelos volumosos é fundamental para o desempenho e custo da aprendizagem de máquina na cadeia. Nesse campo, projetos pioneiros como FIL, AR e 0g já fizeram progressos.
  • Treinamento de modelos: o treinamento de modelos distribuídos e verificáveis é um desafio. Gensyn, Bittensor, Flock e Allora já fizeram progressos significativos.
  • Monitorização: uma vez que a inferência do modelo ocorre tanto na cadeia como fora da cadeia, precisamos de nova infraestrutura para ajudar os developers web3 a rastrear o uso do modelo, identificar possíveis problemas e desvios a tempo. Com as ferramentas de monitorização apropriadas, os developers de machine learning web3 podem ajustar e otimizar continuamente a precisão do modelo.
  • Infraestrutura RAG: O RAG distribuído requer um novo ambiente de infraestrutura com altas demandas de armazenamento, computação incorporada e banco de dados vetorial, ao mesmo tempo em que garante a privacidade e segurança dos dados. Isso é muito diferente da infraestrutura Web3 AI existente, que depende principalmente de terceiros para concluir o RAG, como Firstbatch e Bagel.
  • Modelo personalizado para Web3: Nem todos os modelos são adequados para cenários Web3. Em muitos casos, é necessário re-treinar os modelos para se adaptarem a aplicações específicas, como previsão de preços e recomendações. Com o próspero desenvolvimento da infraestrutura de IA, esperamos que no futuro haja mais modelos web3 locais para atender às aplicações de IA. Por exemplo, Pond está desenvolvendo GNN de blockchain para previsão de preços, recomendações, detecção de fraudes e anti-lavagem de dinheiro, entre outros cenários.
  • Avaliação de rede: Avaliar agentes sem feedback humano não é fácil. Com a popularização das ferramentas de criação de agentes, haverá inúmeros agentes no mercado. Isso requer um sistema para mostrar as habilidades desses agentes e ajudar os usuários a determinar qual agente tem o melhor desempenho em situações específicas. Por exemplo, Neuronets é um participante neste campo.
  • Mecanismo de consenso:Para tarefas de IA, PoS pode não ser a melhor escolha. A complexidade computacional, a dificuldade de verificação e a falta de determinismo são os principais desafios enfrentados pelo PoS. A Bittensor criou um novo Mecanismo de consenso inteligente, recompensando os Nós que contribuem com modelos de aprendizado de máquina e saídas para a rede.

7. Perspetivas futuras

Atualmente, observamos uma tendência de integração vertical. Ao construir uma camada de computação básica, a rede pode oferecer suporte a várias tarefas de aprendizado de máquina, incluindo treinamento, inferência e serviços de rede de proxy. Esse modelo visa fornecer uma solução abrangente e única para desenvolvedores de aprendizado de máquina Web3.

Atualmente, embora a inferência na cadeia tenha custos elevados e seja mais lenta, ela oferece excelente verificabilidade e integração perfeita com sistemas backend (como contratos inteligentes). Acredito que o futuro seguirá o caminho das aplicações híbridas. Parte do processamento de inferência será realizado na frontend ou fora da cadeia, enquanto as inferências críticas e decisivas serão concluídas na cadeia. Esse modelo já está sendo aplicado em dispositivos móveis. Ao aproveitar as características intrínsecas dos dispositivos móveis, eles podem executar rapidamente modelos pequenos localmente e migrar tarefas mais complexas para a nuvem, utilizando maior capacidade de processamento.

Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
  • Recompensa
  • 3
  • Partilhar
Comentar
0/400
GaoHaifengvip
· 2024-07-30 07:21
Emboscada moeda de 100x 📈
Responder0
GaoHaifengvip
· 2024-07-30 07:19
伏击moeda de 100x 📈
Responder0
GaoHaifengvip
· 2024-07-30 07:19
Tudo em All in 🙌
Responder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)