Descubrir una herramienta de IA médica llamada QBio, enfocada en la clasificación de la densidad mamaria y la generación de informes claros. Sube la radiografía y en unos minutos te dirá si la densidad mamaria es A, B, C o D, y además incluirá un informe detallado que explica el proceso de decisión.
Fue desarrollado en colaboración entre Fetch y Hybrid; QBio es solo un aperitivo, el verdadero protagonista es ASI-1 Mini.
Fetch es un proyecto muy antiguo, que durante los años en que DeFi ocupó toda la atención del mercado, se centró en AI + Crypto, dedicándose constantemente al desarrollo y aplicación de tecnología general para agentes de múltiples modelos.
¿Qué es ASI-1 Mini?
En febrero de este año, Fetch lanzó el primer modelo de lenguaje de gran escala (LLM) nativo de Web3 en el mundo: ASI-1 Mini. ¿Qué significa nativo de Web3? En pocas palabras, significa que está integrado sin problemas con blockchain, a través del token $FET y la billetera ASI, lo que te permite no solo usar AI, sino también invertir, entrenar y poseer AI.
¿Qué es exactamente el ASI-1 Mini?
Es un modelo de lenguaje diseñado específicamente para la IA agente (Agentic AI), capaz de coordinar múltiples agentes de IA y manejar tareas complejas de múltiples pasos.
Por ejemplo, el agente de inferencia ASI detrás de QBio es parte del ASI-1 Mini. No solo puede clasificar la densidad mamaria, sino que también puede explicar el proceso de toma de decisiones, resolviendo el problema de la "caja negra" de la IA. Lo más impresionante es que el ASI-1 Mini solo necesita dos GPU para funcionar, en comparación con otros LLM (como DeepSeek que necesita 16 GPU H100), lo que lo hace muy económico y adecuado para su uso en instituciones pequeñas y medianas.
¿Cómo innova realmente ASI-1 Mini?
El rendimiento del ASI-1 Mini es comparable al de los LLM líderes, pero el costo del hardware se reduce significativamente. Posee un modo de inferencia dinámica y capacidades avanzadas de adaptación, lo que permite decisiones más eficientes y con mayor conciencia contextual.
MoM y MoA
Son acrónimos, no te preocupes, es muy sencillo: Modelo Mixto Mixture of Models (MoM), Agente Mixto Mixture of Agents (MoA)
Imagina un equipo de expertos en IA, cada uno enfocado en diferentes tareas, trabajando en perfecta sincronía. Esto no solo puede aumentar la eficiencia, sino que también hace que el proceso de toma de decisiones sea más transparente. Por ejemplo, en el análisis de imágenes médicas, MoM puede elegir un modelo especializado en reconocimiento de imágenes y otro especializado en generación de texto, mientras que MoA se encarga de coordinar la salida de estos dos modelos, asegurando que el informe final sea tanto preciso como fácil de leer.
Transparencia y escalabilidad
Los LLM tradicionales suelen ser "cajas negras"; le haces una pregunta y te da una respuesta, pero ¿por qué responde así? Lo siento, no hay información disponible. ASI-1 Mini es diferente; a través de un razonamiento continuo y en múltiples pasos, puede decirte que eligió esta respuesta por estas razones, lo cual es crucial, especialmente en el campo médico.
La ventana de contexto del ASI-1 Mini se expandirá a 10 millones de tokens, soportando capacidades multimodales (como procesamiento de imágenes y videos). En el futuro, se lanzará la serie de modelos Cortex, enfocándose en campos de vanguardia como la robótica y la biotecnología.
eficiencia de hardware
Otros LLM requieren altos costos de hardware, ASI-1 Mini solo necesita dos GPU para funcionar. Esto significa que incluso una pequeña clínica puede permitírselo, sin necesidad de un centro de datos de un millón de dólares.
¿Por qué es tan eficiente? Porque la filosofía de diseño del ASI-1 Mini es "menos es más". Optimiza los algoritmos y la estructura del modelo para maximizar el uso de recursos computacionales limitados. En comparación, otros LLM a menudo persiguen modelos de mayor escala, lo que resulta en un enorme consumo de recursos.
impulsado por la comunidad
A diferencia de otros grandes modelos de lenguaje, ASI-1 Mini se entrena de manera descentralizada y está impulsado por la comunidad. ASI-1 Mini es un producto de valor añadido gratuito por niveles dirigido a los poseedores de $FET, quienes pueden conectar su billetera Web3 para desbloquear todas las funciones. Cuantos más tokens FET se posean en la billetera, más se podrá explorar las funcionalidades de este modelo.
Este modelo impulsado por la comunidad es como el crowdfunding, solo que se utiliza para entrenar y validar la inteligencia artificial, es de alta tecnología, ya no pertenece solo a la élite, sino que todos pueden participar.
Hoy en día, con los LLM relativamente maduros, ¿por qué aún crear un ASI-1 Mini por separado? Es fácil de entender, llena el vacío entre Web3 y la fusión con la IA.
Los LLM actuales (como ChatGPT, Grok) sirven principalmente a entornos centralizados, mientras que ASI-1 Mini es el primer LLM diseñado para un ecosistema descentralizado. No solo hace que la IA sea más transparente y eficiente, sino que también permite a los miembros de la comunidad beneficiarse directamente del crecimiento de la IA.
La aparición del ASI-1 Mini marca la transición de la IA de "caja negra" a "transparente", de "centralizada" a "descentralizada", y de "herramienta" a "activo". No solo puede desempeñar un papel en el campo médico (como QBio), sino que también puede mostrar su potencial en múltiples campos como las finanzas, el derecho y la investigación científica.
Este mes, Fetch se ha asociado con Rivalz para integrar el ASI-1 Mini en el sistema de coordinación de datos Agentic (ADCS) de Rivalz, logrando la inferencia de IA en la cadena. Con esta colaboración, las aplicaciones descentralizadas podrán acceder directamente a capacidades avanzadas de inferencia de IA en la blockchain.
Los entornos tradicionales de blockchain tienen recursos limitados, y los contratos inteligentes solo pueden manejar tareas livianas, a menudo obteniendo datos simples (como precios) a través de oráculos, y no pueden ejecutar directamente modelos complejos de IA. ADCS resuelve este problema a la perfección, con cálculos complejos para la inferencia de IA que se realizan fuera de la cadena, y los resultados se devuelven de forma segura a la cadena de bloques, lo que garantiza la descentralización y la confianza.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Interpretación del modelo de lenguaje nativo de Web3 ASI-1 Mini
Descubrir una herramienta de IA médica llamada QBio, enfocada en la clasificación de la densidad mamaria y la generación de informes claros. Sube la radiografía y en unos minutos te dirá si la densidad mamaria es A, B, C o D, y además incluirá un informe detallado que explica el proceso de decisión.
Fue desarrollado en colaboración entre Fetch y Hybrid; QBio es solo un aperitivo, el verdadero protagonista es ASI-1 Mini.
Fetch es un proyecto muy antiguo, que durante los años en que DeFi ocupó toda la atención del mercado, se centró en AI + Crypto, dedicándose constantemente al desarrollo y aplicación de tecnología general para agentes de múltiples modelos.
¿Qué es ASI-1 Mini?
En febrero de este año, Fetch lanzó el primer modelo de lenguaje de gran escala (LLM) nativo de Web3 en el mundo: ASI-1 Mini. ¿Qué significa nativo de Web3? En pocas palabras, significa que está integrado sin problemas con blockchain, a través del token $FET y la billetera ASI, lo que te permite no solo usar AI, sino también invertir, entrenar y poseer AI.
¿Qué es exactamente el ASI-1 Mini?
Es un modelo de lenguaje diseñado específicamente para la IA agente (Agentic AI), capaz de coordinar múltiples agentes de IA y manejar tareas complejas de múltiples pasos.
Por ejemplo, el agente de inferencia ASI detrás de QBio es parte del ASI-1 Mini. No solo puede clasificar la densidad mamaria, sino que también puede explicar el proceso de toma de decisiones, resolviendo el problema de la "caja negra" de la IA. Lo más impresionante es que el ASI-1 Mini solo necesita dos GPU para funcionar, en comparación con otros LLM (como DeepSeek que necesita 16 GPU H100), lo que lo hace muy económico y adecuado para su uso en instituciones pequeñas y medianas.
¿Cómo innova realmente ASI-1 Mini?
El rendimiento del ASI-1 Mini es comparable al de los LLM líderes, pero el costo del hardware se reduce significativamente. Posee un modo de inferencia dinámica y capacidades avanzadas de adaptación, lo que permite decisiones más eficientes y con mayor conciencia contextual.
MoM y MoA
Son acrónimos, no te preocupes, es muy sencillo: Modelo Mixto Mixture of Models (MoM), Agente Mixto Mixture of Agents (MoA)
Imagina un equipo de expertos en IA, cada uno enfocado en diferentes tareas, trabajando en perfecta sincronía. Esto no solo puede aumentar la eficiencia, sino que también hace que el proceso de toma de decisiones sea más transparente. Por ejemplo, en el análisis de imágenes médicas, MoM puede elegir un modelo especializado en reconocimiento de imágenes y otro especializado en generación de texto, mientras que MoA se encarga de coordinar la salida de estos dos modelos, asegurando que el informe final sea tanto preciso como fácil de leer.
Transparencia y escalabilidad
Los LLM tradicionales suelen ser "cajas negras"; le haces una pregunta y te da una respuesta, pero ¿por qué responde así? Lo siento, no hay información disponible. ASI-1 Mini es diferente; a través de un razonamiento continuo y en múltiples pasos, puede decirte que eligió esta respuesta por estas razones, lo cual es crucial, especialmente en el campo médico.
La ventana de contexto del ASI-1 Mini se expandirá a 10 millones de tokens, soportando capacidades multimodales (como procesamiento de imágenes y videos). En el futuro, se lanzará la serie de modelos Cortex, enfocándose en campos de vanguardia como la robótica y la biotecnología.
eficiencia de hardware
Otros LLM requieren altos costos de hardware, ASI-1 Mini solo necesita dos GPU para funcionar. Esto significa que incluso una pequeña clínica puede permitírselo, sin necesidad de un centro de datos de un millón de dólares.
¿Por qué es tan eficiente? Porque la filosofía de diseño del ASI-1 Mini es "menos es más". Optimiza los algoritmos y la estructura del modelo para maximizar el uso de recursos computacionales limitados. En comparación, otros LLM a menudo persiguen modelos de mayor escala, lo que resulta en un enorme consumo de recursos.
impulsado por la comunidad
A diferencia de otros grandes modelos de lenguaje, ASI-1 Mini se entrena de manera descentralizada y está impulsado por la comunidad. ASI-1 Mini es un producto de valor añadido gratuito por niveles dirigido a los poseedores de $FET, quienes pueden conectar su billetera Web3 para desbloquear todas las funciones. Cuantos más tokens FET se posean en la billetera, más se podrá explorar las funcionalidades de este modelo.
Este modelo impulsado por la comunidad es como el crowdfunding, solo que se utiliza para entrenar y validar la inteligencia artificial, es de alta tecnología, ya no pertenece solo a la élite, sino que todos pueden participar.
Hoy en día, con los LLM relativamente maduros, ¿por qué aún crear un ASI-1 Mini por separado? Es fácil de entender, llena el vacío entre Web3 y la fusión con la IA.
Los LLM actuales (como ChatGPT, Grok) sirven principalmente a entornos centralizados, mientras que ASI-1 Mini es el primer LLM diseñado para un ecosistema descentralizado. No solo hace que la IA sea más transparente y eficiente, sino que también permite a los miembros de la comunidad beneficiarse directamente del crecimiento de la IA.
La aparición del ASI-1 Mini marca la transición de la IA de "caja negra" a "transparente", de "centralizada" a "descentralizada", y de "herramienta" a "activo". No solo puede desempeñar un papel en el campo médico (como QBio), sino que también puede mostrar su potencial en múltiples campos como las finanzas, el derecho y la investigación científica.
Este mes, Fetch se ha asociado con Rivalz para integrar el ASI-1 Mini en el sistema de coordinación de datos Agentic (ADCS) de Rivalz, logrando la inferencia de IA en la cadena. Con esta colaboración, las aplicaciones descentralizadas podrán acceder directamente a capacidades avanzadas de inferencia de IA en la blockchain.
Los entornos tradicionales de blockchain tienen recursos limitados, y los contratos inteligentes solo pueden manejar tareas livianas, a menudo obteniendo datos simples (como precios) a través de oráculos, y no pueden ejecutar directamente modelos complejos de IA. ADCS resuelve este problema a la perfección, con cálculos complejos para la inferencia de IA que se realizan fuera de la cadena, y los resultados se devuelven de forma segura a la cadena de bloques, lo que garantiza la descentralización y la confianza.