La percée de TurboQuant de Google secoue les actions des fabricants de puces mémoire

Les actions des fabricants de matériel mémoire ont chuté cette semaine suite à l’annonce d’Alphabet $GOOGL -1,40 % d’une technologie conçue pour réduire drastiquement les besoins en mémoire de travail pour les modèles d’intelligence artificielle.

Les marchés sud-coréens ont vu Samsung perdre près de 5 %, et SK Hynix a chuté de 6 %. Kioxia, un fabricant de stockage flash basé au Japon, a connu une baisse de près de 6 %. La séance de mercredi aux États-Unis a entraîné une baisse des actions de Sandisk et Micron $MU -4,45 %.

Contenu associé

SpaceX vise une valorisation de 1,75 trillion de dollars lors d’une introduction en bourse historique

Le PDG de BlackRock avertit qu’un prix du pétrole à 150 dollars pourrait déclencher une récession mondiale

Google Research a publié la technologie le 24 mars. L’algorithme fonctionne sans dégrader la précision du modèle, en concentrant sa compression sur le cache clé-valeur — la zone responsable de conserver les calculs historiques pour éviter les traitements redondants. Selon les chercheurs, la performance sur des tâches telles que la génération de code, la réponse à des questions et la synthèse de texte est restée entièrement intacte malgré la réduction du stockage du cache d’au moins un facteur six.

Des comparaisons ont rapidement été faites entre cette avancée et les secousses dans l’industrie provoquées l’année dernière par DeepSeek, une entreprise d’IA basée en Chine. Sur la plateforme X $TWTR 0,00 %, le responsable de Cloudflare, Matthew Prince, a comparé le nouvel algorithme à « DeepSeek de Google ». Il a ajouté que l’industrie a encore un potentiel énorme pour améliorer « la vitesse, l’utilisation de la mémoire, la consommation d’énergie et l’utilisation multi-locataire » en matière d’inférence en intelligence artificielle.

Les analystes ont mis en garde contre une lecture trop optimiste de la vente massive. Interrogé par CNBC, le chercheur de SemiAnalysis, Ray Wang, a souligné que la réduction des contraintes techniques ouvre souvent la voie à des modèles plus avancés qui, en fin de compte, nécessitent un support matériel accru. « Quand le modèle devient plus puissant, il faut du meilleur matériel pour le supporter », a-t-il déclaré.

La récente baisse des cours est probablement due à des actionnaires qui liquident après une période de croissance soutenue dans un marché cyclique, a expliqué à CNBC Ben Barringer, responsable de la recherche technologique chez Quilter Cheviot. TurboQuant « a accentué la pression, mais il s’agit d’une évolution, pas d’une révolution », a-t-il ajouté. « Cela ne modifie pas la demande à long terme dans l’industrie. »

L’algorithme a ses limites. Une analyse de TechCrunch a noté que la technologie n’offre aucun soulagement pour la RAM massive nécessaire à la formation des modèles d’IA, puisqu’elle compresse strictement les données lors de la phase d’inférence. Actuellement, l’outil de compression n’est pas encore largement déployé et reste une avancée purement expérimentale.

Une analyse publiée par Forbes a théorisé que la réduction des barrières matérielles pourrait en réalité accélérer les projets d’intelligence artificielle localisés, un changement qui pourrait paradoxalement augmenter la consommation totale de puces à long terme.

Les détails de l’algorithme seront présentés lors de l’événement ICLR 2026 prévu en avril.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler