IOSG: ¿Dónde está la salida para la infraestructura de WEB3 + AI homogeneizada?

Autor: IOSG

TL;DR

Con la combinación de Web3 y AI convirtiéndose en un tema destacado en el mundo de la encriptación, la infraestructura de AI en el mundo de la encriptación está prosperando, pero hay pocas aplicaciones reales de AI o construidas para AI, y el problema de homogeneización de la infraestructura de AI está empezando a surgir. La reciente primera ronda de financiación en la que participamos con RedPill ha suscitado una comprensión más profunda.

El conjunto principal de herramientas para construir AI Dapp incluye el acceso a OpenAI, redes GPU, redes de inferencia y redes de agente Descentralización.

La razón por la que la red GPU es más popular que en la era de la minería de BTC es porque: el mercado de la IA es más grande y crece rápido y de manera estable; la IA respalda millones de aplicaciones cada día; la IA requiere una variedad de modelos de GPU y ubicaciones de servidores; la tecnología es más madura que antes; y tiene un público objetivo más amplio.

Las redes de inferencia y las redes de proxy tienen infraestructuras similares pero diferentes enfoques. Las redes de inferencia se utilizan principalmente para que los desarrolladores experimentados implementen sus propios modelos, y no siempre se necesita una GPU para ejecutar modelos que no sean de LLM. Por otro lado, las redes de proxy se centran más en LLM, los desarrolladores no necesitan llevar sus propios modelos, sino que se centran más en la ingeniería de sugerencias y cómo conectar diferentes proxies. Siempre se requiere una GPU de alto rendimiento para las redes de proxy.

El proyecto de infraestructura básica de AI promete enormes, y aún sigue lanzando nuevas funciones.

Muchos proyectos de encriptación nativos todavía se encuentran en la fase de Testnet, con poca estabilidad, configuraciones complejas y funcionalidades limitadas, y aún necesitan tiempo para demostrar su seguridad y privacidad.

假设 AI Dapp 成为大趋势,还有许多未开发的领域,如监控、与 RAG 相关的基础设施、Web3 原生模型、内置encriptación原生 API 和数据的 Descentralización代理、评估网络等。

La integración vertical es una tendencia notable. Los proyectos de infraestructura buscan proporcionar servicios integrales para simplificar el trabajo de los desarrolladores de aplicaciones de inteligencia artificial (AI Dapp).

El futuro será híbrido. Algunas partes del razonamiento se realizarán en el frontend, mientras que otras se realizarán en cálculos on-chain. Esto se hace teniendo en cuenta el costo y la verificabilidad.

Fuente: IOSG

Introducción

La combinación de Web3 y AI es uno de los temas más destacados en el campo de la encriptación en la actualidad. Los talentosos desarrolladores están construyendo infraestructuras de AI para el mundo de la encriptación, con el objetivo de llevar la inteligencia a los contratos inteligentes. Desarrollar Dapp de AI es una tarea extremadamente compleja, que abarca desde el manejo de datos, modelos, potencia de cálculo, operaciones, despliegue e integración con blockchain.

Para satisfacer estas necesidades, los fundadores de Web3 han desarrollado muchas soluciones preliminares, como redes de GPU, etiquetado de datos comunitarios, modelos de entrenamiento comunitario, inferencia y entrenamiento de IA verificables, y tiendas de agentes. Sin embargo, a pesar de esta próspera infraestructura, hay pocas aplicaciones prácticas de IA o construidas para la IA.

Los desarrolladores que buscan tutoriales de desarrollo de AI Dapp descubren que hay pocos tutoriales relacionados con la infraestructura de encriptación nativa de AI. La mayoría de los tutoriales solo cubren la llamada a la API de OpenAI en el frontend.

Fuente: IOSG Ventures

Las aplicaciones actuales no han aprovechado al máximo la descentralización y la capacidad de verificación de la cadena de bloques, pero esta situación cambiará pronto. Ahora, la mayoría de las infraestructuras de inteligencia artificial enfocadas en el campo de la encriptación han iniciado redes de prueba y planean operar oficialmente en los próximos 6 meses. Este estudio presentará en detalle las principales herramientas disponibles en la infraestructura de inteligencia artificial en el campo de la encriptación. ¡Prepárate para el mundo de la encriptación con GPT-3.5!

  1. RedPill: proporciona autorización a OpenAI para la Descentralización

El RedPill al que hemos invertido anteriormente es un buen punto de entrada. OpenAI tiene varios modelos potentes a nivel mundial, como GPT-4-vision, GPT-4-turbo y GPT-4o, que son opciones preferidas para construir aplicaciones descentralizadas de inteligencia artificial avanzada. Los desarrolladores pueden integrarlos en sus aplicaciones a través de la Máquina de oráculo o la interfaz frontal llamando a la API de OpenAI.

RedPill integra las API de OpenAI de diferentes desarrolladores en una interfaz, ofreciendo servicios de inteligencia artificial rápidos, económicos y verificables para usuarios de todo el mundo, logrando así la democratización de los recursos de los modelos de inteligencia artificial líderes. El enrutamiento de RedPill dirigirá las solicitudes de los desarrolladores a un único contribuyente. Las solicitudes de API se ejecutarán a través de su red de distribución, evitando posibles restricciones de OpenAI y resolviendo algunos problemas comunes que los desarrolladores enfrentan en la encriptación, como: 01928374656574839201

• Límite de TPM (Tokens por minuto): La nueva cuenta tiene limitado el uso de Tokens, lo que no satisface las necesidades de las Dapp populares que dependen de la IA.

• Restricciones de acceso: algunos modelos tienen restricciones de acceso para nuevas cuentas o ciertos países.

Al utilizar el mismo código de solicitud pero cambiar el nombre de host, los desarrolladores pueden acceder a los modelos de OpenAI de manera rentable, escalable e ilimitada.

  1. Red de GPU

Además de utilizar la API de OpenAI, muchos desarrolladores también optarán por alojar los modelos en sus propios hogares. Pueden aprovechar la red GPU de Descentralización, como io.net, Aethir, Akash, entre otras redes populares, para construir y desplegar clústeres de GPU y ejecutar una variedad de potentes modelos internos o Código abierto.

Este tipo de red GPU de Descentralización puede aprovechar la potencia de cálculo de individuos o pequeños centros de datos para ofrecer una configuración flexible, más opciones de ubicación de servidores y costos más bajos, lo que permite a los desarrolladores realizar fácilmente experimentos relacionados con la IA dentro de un presupuesto limitado. Sin embargo, debido a la naturaleza de la Descentralización, este tipo de redes GPU aún presenta ciertas limitaciones en funcionalidad, disponibilidad y privacidad de datos.

En los últimos meses, la demanda de GPU ha sido muy alta, superando la fiebre anterior de la minería de BTC. Las razones de este fenómeno incluyen:

El aumento de clientes objetivo, la red GPU ahora sirve a los desarrolladores de IA, cuya cantidad no solo es grande, sino también más leal, y no se ve afectada por la precio de Activos Cripto Fluctuación.

En comparación con los dispositivos especializados de minería, las GPU de descentralización ofrecen más modelos y especificaciones que pueden satisfacer mejor las necesidades. Especialmente para el procesamiento de modelos grandes que requieren más VRAM, hay opciones de GPU más adecuadas para tareas más pequeñas. Al mismo tiempo, las GPU de descentralización pueden atender a los usuarios finales con una latencia más baja.

La tecnología está madurando, la red GPU depende de bloques de alta velocidad como Solana, el asentamiento, la tecnología de virtualización de Docker y los clústeres de cálculo de Ray.

En términos de retorno de inversión, el mercado de IA está en expansión, con muchas oportunidades para el desarrollo de nuevas aplicaciones y modelos. La tasa de retorno esperada del modelo H100 es del 60-70%, mientras que BTCMinería es más complejo, con una producción limitada y ganadores a lo grande.

Empresas de minería de BTC como Iris Energy, Core Scientific y Bitdeer también están comenzando a admitir redes GPU, ofreciendo servicios de IA y comprando activamente GPU diseñadas específicamente para IA, como H100.

Recomendación: Para los desarrolladores de Web2 que no dan mucha importancia al SLA, io.net ofrece una experiencia sencilla y fácil de usar, siendo una opción de gran relación calidad-precio.

Este es el núcleo de la infraestructura de IA nativa de encriptación. Soportará miles de millones de operaciones de inferencia de IA en el futuro. Muchas capas de IA layer1 o layer2 brindan a los desarrolladores la capacidad de llamar a la inferencia de IA nativa en la cadena. Los líderes del mercado incluyen Ritual, Valence y Fetch.ai.

Estas redes difieren en los siguientes aspectos: rendimiento (latencia, tiempo de cálculo), modelos admitidos, verificabilidad, precio (costo de consumo en la cadena, costo de razonamiento) y experiencia de desarrollo.

3.1 Objetivo

La situación ideal sería que los desarrolladores pudieran acceder fácilmente a los servicios personalizados de inferencia de IA en cualquier lugar, a través de cualquier forma de validación, sin prácticamente ninguna barrera durante el proceso de integración. La red de inferencia proporciona todo el soporte básico necesario para los desarrolladores, incluyendo la generación bajo demanda y la validación, cálculos de inferencia, repetidores y validación de datos, interfaces para Web2 y Web3, implementación de modelos con un solo clic, monitoreo del sistema, operaciones cross-chain de interacción, integración sincrónica y ejecución programada, entre otras funciones.

Con estas características, los desarrolladores pueden integrar los servicios de inferencia en sus contratos inteligentes existentes sin problemas. Por ejemplo, al construir robots de comercio para Finanzas descentralizadas, estos robots utilizan modelos de aprendizaje automático para buscar oportunidades de compra y venta en pares de comercio específicos, y ejecutan las estrategias comerciales correspondientes en la plataforma de comercio subyacente.

En un estado completamente ideal, todas las infraestructuras son alojadas en la nube. Los desarrolladores solo necesitan cargar sus modelos de estrategia de transacciones en un formato común como torch, y la red de inferencia almacenará y proporcionará el modelo para consultas Web2 y Web3.

Una vez completados todos los pasos para implementar el modelo, los desarrolladores pueden llamar directamente a la inferencia del modelo a través de la API Web3 o de contratos inteligentes. La red de inferencia continuará ejecutando estas estrategias comerciales y proporcionará los resultados al contrato inteligente subyacente. Si el fondo comunitario administrado por el desarrollador es grande, también se requiere la verificación de los resultados de la inferencia. Una vez recibidos los resultados de la inferencia, el contrato inteligente realizará transacciones en función de estos resultados.

3.1.1 Asíncrono y Síncrono

En teoría, la ejecución asincrónica de operaciones de razonamiento puede mejorar el rendimiento; sin embargo, este enfoque puede resultar incómodo en la experiencia de desarrollo. Al adoptar un enfoque asincrónico, los desarrolladores deben primero enviar tareas al contrato inteligente de la red de razonamiento. Una vez completada la tarea de razonamiento, el contrato inteligente de la red de razonamiento devolverá el resultado. En este modelo de programación, la lógica se divide en dos partes: la llamada al razonamiento y el procesamiento del resultado del razonamiento.

Si los desarrolladores tienen llamadas de razonamiento anidadas y una gran cantidad de lógica de control, la situación empeorará.

El modo de programación asincrónica hace que sea difícil integrarlo con contratos inteligentes existentes. Esto requiere que los desarrolladores escriban una gran cantidad de código adicional y manejen el manejo de errores y las dependencias. Por otro lado, la programación sincrónica es más intuitiva para los desarrolladores, pero introduce problemas en el tiempo de respuesta y el diseño de la cadena de bloques. Por ejemplo, si los datos de entrada son datos de tiempo de bloque o de precios que cambian rápidamente, después de que se complete el razonamiento, los datos ya no serán frescos, lo que puede llevar a la reversión de la ejecución del contrato inteligente en casos específicos. Imagina realizar una transacción con un precio desactualizado.

La mayoría de las infraestructuras básicas de IA utilizan procesamiento asíncrono, pero Valence está tratando de abordar estos problemas.

3.2 Situación actual

De hecho, muchas nuevas redes de inferencia aún están en fase de prueba, como la red Ritual. Según sus documentos públicos, las funciones de estas redes son actualmente limitadas (como la verificación y la prueba, que aún no están disponibles en línea). Actualmente no proporcionan una infraestructura en la nube para admitir cálculos de IA en la cadena, en su lugar ofrecen un marco para realizar cálculos de IA autohospedados y transmitir los resultados a la cadena. Esta es una arquitectura que ejecuta AIGC Token no fungible. El modelo de difusión genera Token no fungible y lo carga en Arweave. La red de inferencia utilizará esta DIRECCIÓN de Arweave para acuñar el Token no fungible en la cadena.

Este proceso es muy complejo y los desarrolladores deben implementar y mantener la mayoría de las infraestructuras, como los Nodo Ritual personalizados con lógica de servicios, los Nodo Stable Diffusion y los Contrato inteligente Token no fungible. Recomendación: las redes de inferencia actuales son bastante complejas en términos de integración y implementación de modelos personalizados, y en esta etapa la mayoría de las redes aún no admiten funciones de verificación. Aplicar la tecnología de IA en el frontend proporcionará a los desarrolladores una opción relativamente sencilla. Si necesitas funciones de verificación, Giza, proveedor de ZKML, es una buena opción.

  1. Red de agencias

La red de agentes permite a los usuarios personalizar fácilmente los agentes. Esta red está formada por entidades o contratos inteligentes que pueden realizar tareas de forma autónoma, interactuar entre sí y interactuar con la cadena de bloques sin intervención humana directa. Se centra principalmente en la tecnología LLM. Por ejemplo, puede proporcionar un chatbot GPT que brinde un conocimiento profundo sobre Ethereum. Las herramientas actuales para este tipo de chatbot son limitadas y los desarrolladores aún no pueden crear aplicaciones complejas sobre esta base.

Pero en el futuro, la red de agentes proporcionará más herramientas para que los agentes las utilicen, no solo conocimientos, sino también la capacidad de llamar a API externas, ejecutar tareas específicas, etc. Los desarrolladores podrán conectar varios agentes para construir flujos de trabajo. Por ejemplo, escribir contratos inteligentes de Solidity implicará varios agentes especializados, incluyendo el agente de diseño de protocolo, el agente de desarrollo de Solidity, el agente de revisión de seguridad del código y el agente de implementación de Solidity.

Coordinamos la colaboración de estos agentes mediante el uso de sugerencias y escenarios. Algunos ejemplos de redes de agentes incluyen Flock.ai, Myshell, Theoriq. Recomendación: la mayoría de los agentes actuales tienen funciones relativamente limitadas. Para casos de uso específicos, los agentes Web2 pueden servir mejor y tienen herramientas de orquestación maduras, como Langchain y Llamaindex.

5 diferencias entre la red de agente y la red de razonamiento

La red de agente se centra más en LLM, y proporciona herramientas como Langchain para integrar múltiples agentes. Por lo general, los desarrolladores no necesitan desarrollar personalmente modelos de aprendizaje automático, ya que la red de agentes ha simplificado el proceso de desarrollo y implementación del modelo. Solo necesitan vincular los agentes y herramientas necesarios. En la mayoría de los casos, los usuarios finales utilizarán directamente estos agentes.

La red de inferencia es la infraestructura de la red de agentes de soporte. Proporciona a los desarrolladores acceso a niveles inferiores. Normalmente, los usuarios finales no utilizan directamente la red de inferencia. Los desarrolladores necesitan implementar sus propios modelos, que no se limitan a LLM, y pueden utilizarlos a través de puntos de acceso fuera de la cadena o en la cadena. La red de agentes y la red de inferencia no son productos completamente independientes. Ya estamos viendo algunos productos de integración vertical. Debido a que estas dos funciones dependen de una infraestructura similar, ofrecen capacidades de agente e inferencia al mismo tiempo.

  1. Nuevo lugar de oportunidades Además del razonamiento, entrenamiento y redes de agentes de modelos, hay muchas áreas nuevas en el campo de Web3 que vale la pena explorar:

Conjunto de datos: ¿Cómo convertir los datos de la cadena de bloques en un conjunto de datos utilizable para el aprendizaje automático? Lo que los desarrolladores de aprendizaje automático necesitan son datos más específicos y especializados. Por ejemplo, Giza proporciona conjuntos de datos de alta calidad sobre Finanzas descentralizadas específicamente para el entrenamiento de aprendizaje automático. Los datos ideales no solo deberían ser simples datos tabulares, sino que también deberían incluir datos gráficos que describan la interacción del mundo de la cadena de bloques. Actualmente, tenemos deficiencias en este aspecto. Algunos proyectos están abordando este problema al recompensar a las personas que crean nuevos conjuntos de datos, como Bagel y Sahara, que prometen proteger la privacidad de los datos personales.

Almacenamiento de modelos: Algunos modelos tienen un gran tamaño, y es crucial cómo almacenar, distribuir y controlar las versiones de estos modelos, ya que esto afecta al rendimiento y coste del aprendizaje automático on-chain. En este ámbito, proyectos pioneros como FIL, AR y 0g ya han logrado avances.

Entrenamiento del modelo: el entrenamiento distribuido y verificable de modelos es un desafío. Gensyn, Bittensor, Flock y Allora han logrado avances significativos. Monitoreo: dado que la inferencia del modelo ocurre tanto on-chain como off-chain, necesitamos una nueva infraestructura para ayudar a los desarrolladores web3 a rastrear el uso del modelo, detectar problemas y sesgos potenciales de manera oportuna. Con las herramientas de monitoreo adecuadas, los desarrolladores de aprendizaje automático web3 pueden ajustar y optimizar continuamente la precisión del modelo.

Infraestructura RAG: La distribución de RAG requiere un entorno de infraestructura completamente nuevo, con una alta demanda de almacenamiento, computación integrada y bases de datos vectoriales, al tiempo que se asegura la privacidad de los datos. Esto difiere en gran medida de la infraestructura de IA Web3 actual, que en su mayoría depende de terceros para completar RAG, como Firstbatch y Bagel.

Un modelo personalizado para Web3: No todos los modelos son adecuados para escenarios de Web3. En la mayoría de los casos, es necesario volver a entrenar los modelos para adaptarlos a aplicaciones específicas como la predicción de precios y recomendaciones. Con el próspero desarrollo de la infraestructura de IA, esperamos tener más modelos locales de Web3 para servir a las aplicaciones de IA en el futuro. Por ejemplo, Pond está desarrollando una GNN de blockchain para escenarios como la predicción de precios, recomendaciones, detección de fraudes y lavado de dinero.

Evaluar redes: evaluar agentes sin retroalimentación humana no es fácil. Con la proliferación de herramientas de creación de agentes, habrá innumerables agentes en el mercado. Esto requiere un sistema para mostrar las capacidades de estos agentes y ayudar a los usuarios a determinar cuál es el mejor rendimiento en situaciones específicas. Por ejemplo, Neuronets es un participante en este campo.

Mecanismo de consenso:Para tareas de IA, PoS no siempre es la mejor opción. La complejidad computacional, la dificultad de verificación y la falta de determinismo son los principales desafíos a los que se enfrenta PoS. Bittensor ha creado un nuevo Mecanismo de consenso inteligente que recompensa a los Nodos que contribuyen con modelos de aprendizaje automático y salidas en la red.

  1. Perspectivas futuras

Actualmente estamos observando una tendencia de desarrollo hacia la integración vertical. Al construir una capa computacional base, la red puede proporcionar soporte para diversas tareas de aprendizaje automático, incluido el entrenamiento, la inferencia y los servicios de red de agente. Este modelo tiene como objetivo proporcionar a los desarrolladores de aprendizaje automático de Web3 una solución integral de un solo punto. Actualmente, a pesar de que la inferencia on-chain es costosa y lenta, ofrece una excelente verificabilidad y una integración perfecta con los sistemas backend (por ejemplo, Contrato inteligente). Creo que el futuro se dirige hacia la aplicación híbrida. Parte del procesamiento de inferencia se realizará en el frontend o off-chain, mientras que las inferencias críticas y decisivas se completarán on-chain. Este modelo ya se ha aplicado en dispositivos móviles. Al aprovechar la naturaleza de los dispositivos móviles, puede ejecutar rápidamente modelos pequeños localmente y migrar tareas más complejas a la nube, utilizando un mayor poder de procesamiento.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)