À l'époque de la révolution industrielle, plus le charbon était bon marché, plus tout le monde le brûlait. Maintenant, dans l'ère de l'IA, le Token fonctionne de la même manière


Quand le Token devient bon marché, les produits IA peuvent en consommer encore plus
Avant, tu posais une question, le modèle répondait, et c'était fini
Maintenant, tu cliques, l'Agent décompose la tâche en arrière-plan, recherche des informations, ajuste des outils, écrit du code, corrige des erreurs, résume, et exécute tout un processus
Donc, un seul Token est devenu moins cher, mais une seule tâche consomme beaucoup plus de Tokens
C'est la raison pour laquelle la facture continue d'augmenter
Après que la machine à vapeur ait permis d'économiser du charbon, le Royaume-Uni n'a pas réduit sa consommation. Parce que le charbon est devenu plus rentable, plus de machines, d'usines, de chemins de fer ont commencé à brûler du charbon
Le Token suit la même logique
Une fois devenu moins cher, l'Agent, la Recherche Profonde, la programmation IA, le contexte long, l'automatisation d'entreprise ont vraiment décollé
Ainsi, le centre de coût de l'IA passe de l'entraînement à l'inférence
L'entraînement consomme pendant un moment, l'inférence consomme en continu. Quand l'utilisateur est en ligne, ça consomme. Quand l'Agent fonctionne, ça consomme. Plus le contexte est long, plus la mémoire cache est grande, et la consommation de mémoire, de bande passante, d'électricité, de refroidissement augmente
C'est aussi pourquoi la chaîne de valeur de l'IA ne peut pas se limiter aux GPU
HBM, DRAM, SSD, emballages avancés, modules optiques, puces d'échange, CPU, puces d'inférence, seront tous revalorisés par cette vague de demande d'inférence
Les entreprises d'applications IA seront également forcées de stratifier
Les entreprises qui ne proposent qu'une interface, entièrement dépendantes d'API propriétaires, verront leur facture augmenter avec le nombre d'utilisateurs, et leur marge diminuer
Les véritables barrières vont descendre : routage, quantification, cache, traitement par lots, découpage de contexte, substitution de grands modèles par de petits modèles
Hum, le Token, c'est le charbon
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler