IOSG: ¿Cuál es el próximo punto de explosión de Web3+AI?

Autor: IOSG Ventures

Gracias por los comentarios de Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.

Esta investigación tiene como objetivo explorar cuáles son los campos de la inteligencia artificial más importantes para los desarrolladores, así como las posibles oportunidades que podrían surgir en el ámbito de la Web3 y la inteligencia artificial.

Antes de compartir nuevos puntos de investigación, estamos muy contentos de haber participado en la primera ronda de financiamiento de RedPill por un total de $5 millones de dólares, ¡y estamos muy emocionados y ansiosos de crecer junto a RedPill en el futuro!

IOSG:Web3+AI下一个爆发点在哪?

TL;DR

Con la combinación de Web3 y AI convirtiéndose en un tema destacado en el mundo de la encriptación, la infraestructura de IA en el mundo de la encriptación está prosperando, pero el uso real de la IA o las aplicaciones construidas para la IA no son largas, y el problema de homogeneización de la infraestructura de IA está empezando a emerger. Recientemente, nuestra participación en la primera ronda de financiación de RedPill ha provocado una comprensión más profunda.

  • Las principales herramientas para construir AI Dapp incluyen el acceso a Descentralización OpenAI, la red GPU, la red de inferencia y la red de proxy.
  • La razón por la que la red GPU es más popular que el período de "BTCMinería" es porque: el mercado de la IA es más grande, y subir rápido y estable; la IA respalda diariamente millones de aplicaciones; la IA requiere una variedad de modelos de GPU y ubicaciones de servidores; la tecnología es más madura que antes; el grupo de clientes al que se dirige también es más amplio.
  • Las redes de razonamiento y las redes de agente tienen una infraestructura similar, pero tienen diferentes puntos de enfoque. Las redes de razonamiento están destinadas principalmente a que los desarrolladores experimentados implementen sus propios modelos, y no necesariamente se requiere una GPU para ejecutar modelos que no sean LLM. Las redes de agente, por otro lado, se centran más en LLM, y los desarrolladores no necesitan llevar sus propios modelos, sino que se centran más en la ingeniería de sugerencias y en cómo conectar diferentes agentes. Las redes de agente siempre requieren GPU de alto rendimiento.
  • Los proyectos de infraestructura de IA tienen un enorme potencial y siguen lanzando nuevas funcionalidades.
  • La mayoría de los proyectos de encriptación nativos todavía están en la etapa de Testnet, con una estabilidad deficiente, una configuración complicada, funcionalidad limitada, y aún necesitan tiempo para demostrar su seguridad y privacidad.
  • Si suponemos que AI Dapp se convierte en una gran tendencia, todavía hay muchos campos sin desarrollar, como monitoreo, infraestructura relacionada con RAG, modelos nativos de Web3, API nativa incorporada y datos de encriptación, agentes de Descentralización, evaluación de redes, etc.
  • La integración vertical es una tendencia significativa. Los proyectos de infraestructura intentan proporcionar servicios integrales para simplificar el trabajo de los desarrolladores de aplicaciones AI Dapp.
  • El futuro será híbrido. Parte del razonamiento se realizará en el frontend, mientras que parte se calculará en la cadena, de esta manera se pueden tener en cuenta los factores de costo y verificabilidad.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSG

Introducción

La combinación de Web3 y AI es uno de los temas más destacados en el campo de la encriptación. Los desarrolladores talentosos están construyendo infraestructuras de AI para el mundo de los contratos inteligentes, con el objetivo de llevar la inteligencia a los contratos inteligentes. Construir una dApp de AI es una tarea extremadamente compleja, los desarrolladores deben abordar áreas como datos, modelos, potencia de cálculo, operaciones, implementación e integración con blockchain. Para estas necesidades, los fundadores de Web3 han desarrollado muchas soluciones preliminares, como redes GPU, etiquetado de datos comunitarios, modelos de entrenamiento comunitarios, inferencia y entrenamiento de AI verificables, y tiendas de agentes.

  • Sin embargo, en este próspero contexto de infraestructura, el uso real de la IA o la construcción de aplicaciones para la IA no es largo. Los desarrolladores que buscan tutoriales de desarrollo de dApp de IA descubren que no hay muchos tutoriales relacionados con la infraestructura nativa de encriptación de IA, y la mayoría solo se centra en llamar a la API de OpenAI en el frontend.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

  • La aplicación actual no ha logrado aprovechar al máximo la Descentralización y la funcionalidad verificable de la cadena de bloques, pero esta situación cambiará pronto. Actualmente, la mayoría de la infraestructura de inteligencia artificial centrada en el campo de la encriptación ha puesto en marcha redes de prueba y está planeando operar oficialmente en los próximos 6 meses.
  • Este estudio detallará las principales herramientas disponibles en la infraestructura de inteligencia artificial en el campo de la encriptación. ¡Prepárense para el momento de GPT-3.5 en el mundo de la encriptación!

1. RedPill: Proporcionar autorización de descentralización a OpenAI

RedPill, which we mentioned earlier, is a good entry point for us to participate in.

OpenAI tiene varios modelos poderosos de clase mundial, como GPT-4-vision, GPT-4-turbo y GPT-4o, que son la opción preferida para construir Dapp de inteligencia artificial avanzada.

Los desarrolladores pueden integrarlo en dApp a través de la Máquina de oráculo o la interfaz frontal de llamada de API de OpenAI.

RedPill integrará las API de OpenAI de diferentes desarrolladores en una única interfaz para proporcionar servicios de inteligencia artificial rápidos, económicos y verificables a usuarios de todo el mundo, democratizando así los recursos de los modelos de inteligencia artificial de vanguardia. El enrutamiento de RedPill Algoritmo dirigirá las solicitudes de los desarrolladores a un único contribuyente. Las solicitudes de API se ejecutarán a través de su red de distribución, evitando posibles restricciones de OpenAI y resolviendo algunos problemas comunes que enfrentan los desarrolladores de encriptación, como: 01928374656574839201

  • Límite de TPM (Tokens por minuto): La nueva cuenta tiene limitaciones en el uso de Tokens, lo que no puede satisfacer la demanda de dApp populares y dependientes de la IA.
  • Restricciones de acceso: algunos modelos tienen restricciones de acceso para nuevas cuentas o ciertos países.

Al utilizar el mismo código de solicitud pero cambiar el nombre de host, los desarrolladores pueden acceder al modelo de OpenAI de manera rentable, escalable e ilimitada.

IOSG:Web3+AI下一个爆发点在哪?

IOSG:Web3+AI下一个爆发点在哪?

2. Red de GPU

Además de utilizar la API de OpenAI, muchos desarrolladores también optarán por alojar los modelos en sus propios hogares. Pueden aprovechar redes GPU como io.net, Aethir, Akash, entre otras populares, para construir y desplegar clústeres GPU y ejecutar una variedad de potentes modelos internos o de código abierto.

Esta red GPU de Descentralización permite utilizar la potencia de cálculo de individuos o pequeños centros de datos para ofrecer una configuración flexible, una selección de ubicación de servidor más larga y costos más bajos, lo que permite a los desarrolladores realizar fácilmente experimentos relacionados con la IA dentro de un presupuesto limitado. Sin embargo, debido a la naturaleza de la Descentralización, esta red GPU tiene ciertas limitaciones en cuanto a funcionalidad, disponibilidad y privacidad de datos.

IOSG:Web3+AI下一个爆发点在哪?

En los últimos meses, la demanda de GPU ha sido tan alta que ha superado la fiebre de la Minería de BTC anterior. Las razones de este fenómeno incluyen:

  • El número de clientes objetivo ha aumentado y la red GPU ahora sirve a los desarrolladores de IA, que no solo son numerosos sino también leales, y no se ven afectados por la fluctuación de los precios de las Criptomonedas.
  • En comparación con los dispositivos especializados en Minería, las GPUs Descentralización ofrecen modelos y especificaciones más largos, lo que permite satisfacer mejor los requisitos de iez. Especialmente para el procesamiento de modelos grandes que requieren una mayor VRAM, hay opciones de GPU más adecuadas para tareas más pequeñas. Al mismo tiempo, las GPUs Descentralización pueden brindar un servicio de baja latencia a los usuarios finales.
  • La tecnología está madurando y las redes GPU dependen de cadenas de bloques de alta velocidad como Solana, asentamientos y tecnologías de virtualización de Docker y grupos de cálculo de Ray.
  • En cuanto a la rentabilidad de la inversión, el mercado de IA está en expansión, con oportunidades de desarrollo de nuevos aplicaciones y modelos. El rendimiento esperado del modelo H100 es del 60-70%, mientras que BTCMinería es más complejo, con ganadores se llevan todo y producción limitada.
  • Empresas de minería de BTC como Iris Energy, Core Scientific y Bitdeer también están comenzando a admitir redes GPU, ofreciendo servicios de IA y comprando activamente GPU diseñadas específicamente para IA, como H100.

Recomendado: Para los desarrolladores de Web2 que no le dan mucha importancia al SLA, io.net ofrece una experiencia simple y fácil de usar, siendo una opción con una excelente relación calidad-precio.

3. Redes de inferencia

Este es el núcleo de la infraestructura de inteligencia artificial nativa de encriptación. En el futuro, admitirá miles de millones de operaciones de inferencia de inteligencia artificial. Muchas capas de inteligencia artificial layer1 o layer2 ofrecen a los desarrolladores la capacidad de llamar a la inferencia de inteligencia artificial nativa en on-chain. Los líderes del mercado incluyen Ritual, Valence y Fetch.ai.

Estas redes difieren en los siguientes aspectos:

  1. Rendimiento (latencia, tiempo de cálculo)
  2. Modelos soportados
  3. Verificabilidad
  4. Precio (costo de consumo en la cadena, costo de razonamiento)
  5. Experiencia de desarrollo

3.1 Objetivo

El escenario ideal es que los desarrolladores puedan acceder fácilmente a los servicios de inferencia de IA personalizados en cualquier lugar y a través de cualquier forma de validación, con muy poca resistencia en el proceso de integración.

La red de razonamiento proporciona todo el soporte básico que los desarrolladores necesitan, incluyendo la generación bajo demanda y la validación de prueba, cálculo de razonamiento, repetidor y validación de datos de razonamiento, interfaces para Web2 y Web3, implementación de modelos con un solo clic, monitoreo del sistema, operaciones de interacción cross-chain, integración de sincronización y ejecución programada, etc.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

Con estas funcionalidades, los desarrolladores pueden integrar los servicios de inferencia en sus contratos inteligentes existentes. Por ejemplo, al construir robots de trading para finanzas descentralizadas, estos robots utilizarán modelos de aprendizaje automático para buscar oportunidades de compra y venta en pares de transacciones específicas, y ejecutarán estrategias de transacción correspondientes en la plataforma de transacciones subyacente.

En un estado ideal completo, todas las infraestructuras están alojadas en la nube. Los desarrolladores solo necesitan cargar sus modelos de estrategia de transacciones en un formato común como torch, y la red de inferencia almacenará el modelo y lo pondrá a disposición de consultas Web2 y Web3.

Una vez que se hayan completado todos los pasos de implementación del modelo, los desarrolladores pueden llamar directamente a la inferencia del modelo a través de la API de Web3 o contratos inteligentes. La red de inferencia ejecutará continuamente estas estrategias de transacción y proporcionará resultados al contrato inteligente subyacente. Si la cantidad de fondos administrados por los desarrolladores en la comunidad es grande, también se requiere la validación de los resultados de inferencia. Una vez recibidos los resultados de inferencia, el contrato inteligente realizará transacciones basadas en estos resultados.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

3.1.1 Asynchronous and Synchronous

En teoría, las operaciones de razonamiento asincrónicas pueden ofrecer un mejor rendimiento; sin embargo, este enfoque puede resultar incómodo desde la perspectiva de la experiencia de desarrollo.

Cuando se utiliza el modo asíncrono, el desarrollador debe enviar primero la tarea al contrato inteligente de la red de inferencia. Una vez completada la tarea de inferencia, el contrato inteligente de la red de inferencia devolverá los resultados. En este modelo de programación, la lógica se divide en dos partes: la llamada a la inferencia y el procesamiento de los resultados de la inferencia.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

Si los desarrolladores tienen llamadas de razonamiento anidadas y una gran cantidad de lógica de control, la situación empeorará.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

El modo de programación asíncrona hace que sea difícil integrarlo con los contratos inteligentes existentes. Esto requiere que los desarrolladores escriban una gran cantidad de código adicional y manejen el manejo de errores y la gestión de dependencias.

Relativamente, la programación sincrónica es más intuitiva para los desarrolladores, pero introduce problemas en el tiempo de respuesta y el diseño de la cadena de bloques. Por ejemplo, si los datos de entrada son datos de rápido cambio como tiempo del bloque o precio, después de que se complete el razonamiento, los datos ya no estarán frescos, lo que podría provocar la necesidad de Retroceso en la ejecución de contratos inteligentes en situaciones específicas. Imagina que haces una transacción con un precio obsoleto.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

La mayoría de las infraestructuras de IA utilizan el procesamiento asíncrono, pero Valence está intentando resolver estos problemas.

3.2 situación actual

De hecho, muchas de las nuevas redes de inferencia todavía están en la etapa de pruebas, como la red Ritual. Según sus documentos públicos, las funciones actuales de estas redes son bastante limitadas (por ejemplo, la verificación, la demostración, etc., aún no están en línea). Actualmente no proporcionan una infraestructura en la nube para admitir cálculos de IA en cadena, sino que ofrecen un marco para la autohospedaje de cálculos de IA y la transmisión de resultados a la cadena.

Este es un sistema que ejecuta la arquitectura de Token no fungible AIGC. El modelo de difusión genera Token no fungible y los sube a Arweave. La red de inferencia utilizará esta DIRECCIÓN de Arweave para acuñar el Token no fungible en la cadena.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

Este proceso es muy complejo y los desarrolladores deben implementar y mantener la mayoría de la infraestructura, como los nodos Ritual con lógica de servicio personalizada, los nodos Stable Diffusion y los contratos inteligentes de Token no fungible.

Recomendación: actualmente, las redes de inferencia son bastante complicadas en términos de integración y implementación de modelos personalizados, y en esta etapa, la mayoría de las redes aún no admiten la función de validación. Aplicar la tecnología de inteligencia artificial al front-end proporcionará una opción relativamente sencilla para los desarrolladores. Si necesita mucho la función de validación, Giza, proveedor de ZKML, es una buena opción.

4. Red de agentes

La red de agentes permite a los usuarios personalizar fácilmente los agentes. Esta red está compuesta por entidades o contratos inteligentes que pueden realizar tareas de forma autónoma, interactuar entre sí y con la red de bloques, todo ello sin necesidad de intervención humana directa. Está destinada principalmente a la tecnología LLM. Por ejemplo, puede proporcionar un chatbot GPT que profundice en el conocimiento de Ethereum. Las herramientas actuales para este tipo de chatbot son limitadas, y los desarrolladores aún no pueden crear aplicaciones complejas basadas en ellas.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

Pero en el futuro, la red de agentes proporcionará herramientas más amplias para que los agentes las utilicen, no solo conocimiento, sino también la capacidad de llamar API externas y realizar tareas específicas. Los desarrolladores podrán conectar una larga cadena de agentes para construir flujos de trabajo. Por ejemplo, escribir un contrato inteligente Solidity implicará varios agentes especializados, incluidos los agentes de diseño de protocolo, los agentes de desarrollo de Solidity, los agentes de revisión de seguridad de código y los agentes de implementación de Solidity.

IOSG:Web3+AI下一个爆发点在哪?

Fuente: IOSGVentures

Coordinamos la colaboración de estos agentes mediante el uso de indicaciones y situaciones.

Algunos ejemplos de redes de agentes incluyen Flock.ai, Myshell, Theoriq.

Recomendación: la mayoría de los proxies actuales tienen funcionalidades limitadas. Para casos de uso específicos, los proxies Web2 pueden ofrecer un mejor servicio y tienen herramientas de orquestación más maduras, como Langchain y Llamaindex.

5. Diferencias entre la red de agentes y la red de inferencia

La red de agentes se centra más en LLM, y proporciona herramientas como Langchain para integrar una gran cantidad de agentes. Por lo general, los desarrolladores no necesitan desarrollar modelos de aprendizaje automático por sí mismos, ya que la red de agentes ha simplificado el proceso de desarrollo y implementación del modelo. Solo necesitan enlazar los agentes y herramientas necesarios. En la mayoría de los casos, los usuarios finales utilizarán directamente estos agentes.

La red de inferencia es la infraestructura de la red de agentes de soporte. Proporciona acceso de nivel inferior a los desarrolladores. Normalmente, los usuarios finales no utilizan directamente la red de inferencia. Los desarrolladores necesitan implementar sus propios modelos, no solo LLM, y pueden usarlos a través de puntos de acceso off-chain u on-chain.

Las redes de agentes y de inferencia no son productos completamente independientes. Ya hemos empezado a ver algunos productos de integración vertical que ofrecen tanto la capacidad de agente como la de inferencia al mismo tiempo porque ambos dependen de una infraestructura similar.

IOSG:Web3+AI下一个爆发点在哪?

6. Nuevo campo de oportunidades

Además de la inferencia de modelos, el entrenamiento y las redes de agentes, hay muchos otros campos en el ámbito web3 que vale la pena explorar:

  • Conjunto de datos: ¿Cómo convertir los datos de la cadena Bloquear en conjuntos de datos utilizables para el aprendizaje automático? Los desarrolladores de aprendizaje automático necesitan datos más específicos y especializados. Por ejemplo, Giza ofrece conjuntos de datos de alta calidad sobre Finanzas descentralizadas específicamente para el entrenamiento de aprendizaje automático. Los datos ideales no solo deben ser datos simples en forma de tabla, sino que también deben incluir datos gráficos que describen la interacción del mundo de la cadena Bloquear. Actualmente, todavía tenemos deficiencias en este aspecto. Algunos proyectos están abordando este problema mediante la recompensa de personas que crean nuevos conjuntos de datos, como Bagel y Sahara, que prometen proteger la privacidad de los datos personales.
  • Almacenamiento de modelos: algunos modelos tienen un gran volumen, y es fundamental cómo almacenar, distribuir y controlar las versiones de estos modelos, lo que está relacionado con el rendimiento y costos del aprendizaje automático on-chain. En este ámbito, proyectos pioneros como FIL, AR y 0g ya han avanzado.
  • Entrenamiento de modelos: el entrenamiento de modelos distribuidos y verificables es un problema difícil. Gensyn, Bittensor, Flock y Allora han logrado avances significativos.
  • Monitoreo: Dado que el razonamiento del modelo ocurre tanto en la cadena como fuera de ella, necesitamos nueva infraestructura para ayudar a los desarrolladores de web3 a rastrear el uso del modelo, detectar problemas y desviaciones potenciales de manera oportuna. Con las herramientas de monitoreo adecuadas, los desarrolladores de aprendizaje automático de web3 pueden ajustar y mejorar continuamente la precisión del modelo.
  • Infraestructura base de RAG: La RAG distribuida requiere un entorno de infraestructura completamente nuevo, con una alta demanda de almacenamiento, computación integrada y bases de datos vectoriales, al mismo tiempo que asegura la privacidad de los datos. Esto es muy diferente a la infraestructura de inteligencia artificial Web3 actual, que en su mayoría depende de terceros para completar la RAG, como Firstbatch y Bagel.
  • Modelo personalizado para Web3: no todos los modelos son adecuados para situaciones de Web3. En muchos casos, es necesario volver a entrenar el modelo para adaptarlo a aplicaciones específicas como pronóstico de precios, recomendaciones, etc. Con el desarrollo próspero de la infraestructura de IA, esperamos contar con modelos web3 locales más amplios para servir a aplicaciones de IA. Por ejemplo, Pond está desarrollando una GNN basada en blockchain para escenarios como pronóstico de precios, recomendaciones, detección de fraudes y anti lavado de dinero.
  • Evaluación en línea: Evaluar a los agentes sin comentarios humanos no es fácil. Con la proliferación de herramientas para crear agentes, habrá innumerables agentes en el mercado. Es necesario tener un sistema que muestre las capacidades de estos agentes y ayude a los usuarios a determinar cuál es el mejor rendimiento en situaciones específicas. Por ejemplo, Neuronets es un participante en este campo.
  • Mecanismo de consenso: Para tareas de inteligencia artificial, PoS no siempre es la mejor opción. La complejidad computacional, la dificultad de verificación y la falta de determinismo son los principales desafíos a los que se enfrenta PoS. Bittensor ha creado un nuevo mecanismo de consenso inteligente que recompensa a los nodos que contribuyen con modelos y salidas de aprendizaje automático en la red.

7. Perspectivas futuras

Actualmente estamos observando una tendencia al desarrollo de la integración vertical. Al construir una capa de cálculo base, la red puede brindar soporte para diversas tareas de aprendizaje automático, incluyendo entrenamiento, inferencia y servicios de red de proxy. Este modelo tiene como objetivo proporcionar una solución integral y todo en uno para los desarrolladores de aprendizaje automático de Web3.

Actualmente, aunque el razonamiento on-chain es costoso y lento, ofrece una excelente verificabilidad e integración perfecta con sistemas backend (como contratos inteligentes). Creo que el futuro se dirige hacia aplicaciones híbridas. Parte del procesamiento del razonamiento se realizará en el frontend o off-chain, mientras que el razonamiento crucial y decisivo se llevará a cabo on-chain. Este patrón ya se ha aplicado en dispositivos móviles. Aprovechando las características inherentes de los dispositivos móviles, pueden ejecutar rápidamente modelos pequeños localmente y migrar tareas más complejas a la nube, utilizando una mayor capacidad de procesamiento (LLM).

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • 3
  • Compartir
Comentar
0/400
GaoHaifengvip
· 2024-07-30 07:21
Emboscada moneda 100x 📈
Responder0
GaoHaifengvip
· 2024-07-30 07:19
Emboscada moneda 100x 📈
Responder0
GaoHaifengvip
· 2024-07-30 07:19
Todo dentro 🙌
Responder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)