【AI+Mémoire】Google annonce la nouvelle technologie TurboQuant pour la mémoire et le stockage, les actions de semi-conducteurs — Morgan Stanley qualifie cela de « un autre moment DeepSeek » — Analyse : bénéfice pour les géants du cloud

robot
Création du résumé en cours

Google (US: GOOGL) a publié un algorithme de compression de mémoire AI super efficace, ce qui a entraîné une vente massive de titres de puces, avec les actions de Micron Technology (US: MU) et Sandisk (US: SNDK) chutant respectivement de près de 7 % et 11 %, tandis que les actions des puces GPU Nvidia (US: NVDA) et AMD (US: AMD) ont baissé de 4 % et plus de 7 %.

Un analyste boursier a déclaré dans une émission vidéo de ce journal que la récente frénésie de l’IA avait stimulé la demande de stockage, entraînant une forte hausse des actions connexes. Maintenant qu’il y a une nouvelle percée technologique, un ajustement est normal, et une légère correction à court terme pourrait se produire, car cette nouvelle technologie réduit considérablement la capacité de mémoire requise pour les grands modèles AI, améliorant l’efficacité et réduisant la demande pour les puces traditionnelles. À long terme, les produits bas de gamme seront sous pression, mais la demande pour des puces à haute performance et haute technologie reste présente.

L’analyste a indiqué que le prix de l’action Micron avait récemment montré des signes de faiblesse technique. Si l’ajustement atteint une zone raisonnable d’environ 330 dollars, à moyen et long terme, il pourrait être intéressant d’acheter par paliers. D’autre part, les grandes entreprises technologiques liées aux services cloud et aux modèles d’IA, telles que Google, Amazon (US: AMZN) et Microsoft (US: MSFT), pourraient bénéficier de cette nouvelle percée technologique. De plus, avec des fonds solides, elles sont adaptées pour un maintien à moyen et long terme, et il serait judicieux d’envisager d’acheter lorsque les prix des actions corrigent.

Google a présenté une toute nouvelle technologie de compression appelée « TurboQuant », affirmant que cet algorithme peut réaliser une compression de mémoire de 6 fois lors de l’exécution de modèles de langage de grande taille (LLM) et améliorer l’efficacité de 8 fois, suscitant l’attention du monde technologique. Cela est considéré comme une technologie révolutionnaire pouvant résoudre le coût élevé de calcul des grands modèles AI et le manque de mémoire.

Morgan Stanley a déclaré qu’il ne s’agit pas d’une réduction de six fois de la demande de stockage ou de matériel global, mais d’une augmentation significative du débit par GPU. L’apparition de « TurboQuant » est qualifiée de « nouvel instant DeepSeek », redéfinissant la courbe des coûts de déploiement de l’IA, les plus grands gagnants étant les géants des services cloud et les plateformes de grands modèles, comme Google et Microsoft. La chute vertigineuse des coûts d’inférence augmentera directement les marges bénéficiaires. De plus, les appareils terminaux qui étaient auparavant limités par le « goulet d’étranglement de la mémoire », comme Apple (US: AAPL), devraient également en bénéficier. Cette nouvelle technologie est un grand avantage pour la stratégie AI d’Apple.

		Finance Hot Talk
	





	Ventes de voitures en Chine en tête du monde : les prix élevés du pétrole favorisent-ils l'exportation des voitures électriques ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler