Des milliers de puces NVIDIA Blackwell pour alimenter l'IA d'Akamai en périphérie

Akamai (NASDAQ : AKAM) a annoncé le déploiement de milliers de GPU NVIDIA Blackwell pour établir une plateforme d’inférence AI distribuée à l’échelle mondiale. Cette initiative vise à acheminer les charges de travail d’inférence vers des clusters GPU optimisés et localisés à travers le vaste réseau mondial d’Akamai de plus de 4 400 emplacements, réduisant ainsi considérablement la latence jusqu’à 2,5 fois et pouvant potentiellement réduire les coûts d’inférence AI jusqu’à 86 % par rapport à l’infrastructure traditionnelle des hyperscalers. Ce mouvement soutient le changement de focus de l’entraînement centralisé des modèles AI vers l’inférence décentralisée, abordant la latence comme un obstacle majeur au déploiement de l’AI à grande échelle.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler