Interprétation du modèle de langage natif Web3 ASI-1 Mini

robot
Création du résumé en cours

Découvrez un outil d'IA médicale QBio, axé sur la classification de la densité mammaire et la génération de rapports transparents. Téléchargez des radiographies, et en quelques minutes, il vous informera si la densité mammaire est A, B, C ou D, tout en fournissant un rapport détaillé expliquant le processus de décision.

Il a été développé en collaboration entre Fetch et Hybrid, QBio n'est qu'une mise en bouche, le véritable protagoniste est l'ASI-1 Mini.

Fetch est un projet très ancien. Pendant les années où le DeFi a occupé toute l'attention du marché, Fetch s'est concentré sur l'IA + Crypto, se consacrant au développement et à l'application de technologies générales pour des agents multi-modèles.

Qu'est-ce que l'ASI-1 Mini

En février de cette année, Fetch a lancé le premier modèle de langage de grande taille (LLM) natif Web3 au monde - ASI-1 Mini. Qu'est-ce que cela signifie, natif Web3 ? En termes simples, cela signifie qu'il s'intègre de manière transparente à la blockchain, vous permettant non seulement d'utiliser l'IA grâce au jeton $FET et au portefeuille ASI, mais aussi d'investir, de former et de posséder de l'IA.

Qu'est-ce que l'ASI-1 Mini ?

C'est un grand modèle de langage conçu spécialement pour l'IA agentique, capable de coordonner plusieurs agents IA et de traiter des tâches complexes en plusieurs étapes.

Par exemple, l'agent d'inférence ASI derrière QBio fait partie d'ASI-1 Mini. Il peut non seulement classifier la densité mammaire, mais aussi expliquer le processus de décision, résolvant ainsi le problème de la "boîte noire" de l'IA. Ce qui est encore plus impressionnant, c'est qu'ASI-1 Mini ne nécessite que deux GPU pour fonctionner, ce qui est très peu coûteux par rapport à d'autres LLM (comme DeepSeek qui nécessite 16 GPU H100), ce qui le rend adapté à une utilisation par de petites et moyennes institutions.

Comment l'ASI-1 Mini innove-t-il vraiment

Le ASI-1 Mini offre des performances comparables à celles des LLM de pointe, mais à un coût matériel considérablement réduit. Il dispose d'un mode de raisonnement dynamique et de capacités d'adaptation avancées, permettant des décisions plus efficaces et plus contextuellement sensibles.

MoM et MoA

Ce sont tous des acronymes, n'ayez pas peur, c'est très simple : Modèles Mixtes Mixture of Models (MoM), Agents Mixtes Mixture of Agents (MoA)

Imaginez une équipe d’experts en IA, chacun concentré sur une tâche différente, soyeuse. afin d’améliorer l’efficacité et de rendre le processus décisionnel plus transparent. Par exemple, dans l’analyse d’images médicales, le MoM peut choisir un modèle spécialisé dans la reconnaissance d’images et l’autre spécialisé dans la génération de texte, et le MoA coordonne le résultat des deux modèles pour s’assurer que le rapport final est à la fois précis et facile à lire.

Transparence et évolutivité

Les LLM traditionnels sont souvent des « boîtes noires » : vous lui posez une question, il vous donne une réponse, mais pourquoi il répond comme ça, désolé, je ne peux pas vous le dire. L'ASI-1 Mini est différent ; grâce à un raisonnement continu en plusieurs étapes, il peut vous dire que j'ai choisi cette réponse pour ces raisons, ce qui est particulièrement important dans le domaine médical.

La fenêtre contextuelle de l'ASI-1 Mini sera étendue à 10 millions de tokens, prenant en charge des capacités multimodales (comme le traitement d'images et de vidéos). À l'avenir, la série de modèles Cortex sera lancée, se concentrant sur des domaines de pointe tels que la robotique et la biotechnologie.

efficacité matérielle

D'autres LLM nécessitent des coûts matériels élevés, tandis que l'ASI-1 Mini ne nécessite que deux GPU pour fonctionner. Cela signifie qu'une petite clinique peut se le permettre, sans avoir besoin d'un centre de données à un million de dollars.

Pourquoi est-ce si efficace ? Parce que la philosophie de conception de l'ASI-1 Mini est "moins c'est plus". Il maximise l'utilisation des ressources de calcul limitées grâce à l'optimisation des algorithmes et de la structure des modèles. En revanche, d'autres LLM cherchent souvent à avoir des modèles de plus grande taille, ce qui entraîne une consommation de ressources énorme.

communauté dirigée

Contrairement à d'autres grands modèles linguistiques, l'ASI-1 Mini est formé de manière décentralisée et est piloté par la communauté. L'ASI-1 Mini est un produit freemium de niveau destiné aux détenteurs de $FET, qui peuvent connecter leur portefeuille Web3 pour débloquer toutes les fonctionnalités. Plus il y a de jetons FET détenus dans le portefeuille, plus il est possible d'explorer les fonctionnalités de ce modèle.

Ce modèle communautaire, semblable au crowdfunding, est utilisé pour former et valider l'intelligence artificielle, une technologie de pointe qui n'appartient plus seulement aux élites, mais à laquelle tout le monde peut participer.

Aujourd'hui, alors que les LLM sont relativement matures, pourquoi créer un ASI-1 Mini ? Il est facile de comprendre qu'il comble le vide entre le Web3 et l'IA.

Les LLM actuels (comme ChatGPT, Grok) servent principalement des environnements centralisés, tandis que l'ASI-1 Mini est le premier LLM conçu pour un écosystème décentralisé. Il rend non seulement l'IA plus transparente et plus efficace, mais permet également aux membres de la communauté de bénéficier directement de la croissance de l'IA.

L'apparition de l'ASI-1 Mini marque le passage de l'IA de "boîte noire" à "transparente", de "centralisée" à "décentralisée", de "outil" à "actif". Il peut non seulement jouer un rôle dans le domaine médical (comme QBio), mais aussi montrer son potentiel dans plusieurs domaines tels que la finance, le droit, et la recherche scientifique.

Ce mois-ci, Fetch s'est associé à Rivalz pour intégrer l'ASI-1 Mini dans le système de coordination des données Agentic (ADCS) de Rivalz, permettant ainsi le raisonnement AI en chaîne. Grâce à cette collaboration, les applications décentralisées peuvent accéder directement aux capacités avancées de raisonnement AI sur la blockchain.

L'environnement blockchain traditionnel est limité en ressources, les contrats intelligents ne peuvent traiter que des tâches légères, généralement en obtenant des données simples (comme les prix) via des oracles, et ne peuvent pas exécuter directement des modèles d'IA complexes. ADCS résout parfaitement ce problème, les calculs complexes de raisonnement IA étant effectués hors chaîne, les résultats étant renvoyés de manière sécurisée à la blockchain, garantissant décentralisation et confiance.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)