“Père de HBM” prédit que l’architecture IA sera révolutionnée : la mémoire remplacera le GPU en tant que composant central

robot
Création du résumé en cours

Lorsque l’IA passe de la « génération » à « des actions autonomes », le goulot d’étranglement en puissance de calcul pourrait se déplacer des GPU vers la mémoire.

D’après des médias locaux coréens, dont le quotidien « Asia Economy », le professeur Joungho Kim du Korea Advanced Institute of Science and Technology (KAIST), salué dans l’industrie comme le « père de HBM », a récemment lancé une prédiction : l’architecture d’IA centralisée autour des GPU, actuellement dominée par NVIDIA, sera finalement remplacée par une nouvelle architecture dont le cœur sera la mémoire.

Derrière ce constat se trouve un changement fondamental de la forme que prennent les applications d’IA. En passant de l’IA générative à l’IA d’agents (Agentic AI), le système doit traiter simultanément d’immenses volumes de documents, de vidéos et de données multimodales — Kim qualifie cette tendance de « montée de l’ingénierie du contexte » (context engineering). Il indique que, pour garantir la vitesse et la précision, la bande passante et la capacité de la mémoire doivent augmenter jusqu’à un maximum 1000 fois.

Les chiffres sont encore plus impressionnants du côté de la demande : selon ce que Money Today Broadcasting a rapporté plus tôt à partir des propos de Kim, si la taille d’entrée augmente de 100 à 1000 fois, les besoins en mémoire pourraient bondir de façon exponentielle, avec un accroissement total pouvant aller jusqu’à 1 million de fois.

Le HBM atteindra le plafond, le HBF prendra le relais

Kim a clairement déclaré que la technologie HBM actuelle — qui permet des transmissions ultra-rapides via l’empilement vertical de DRAM, et qui domine actuellement le marché de la mémoire des accélérateurs d’IA — ne pourra pas tenir dans l’ère de l’IA d’agents.

Sa prochaine solution, c’est HBF (High Bandwidth Flash, flash à haute bande passante) : en remplaçant la DRAM par une mémoire NAND empilée, pour construire une « mémoire à long terme de type gigantesque bibliothèque », avec une capacité bien supérieure aux limites actuelles.

Par analogie, le HBM ressemble à des post-it sur un bureau : rapide, mais capacité limitée ; le HBF ressemble à un mur entier de livres, avec des ordres de grandeur de données totalement différents.

Au niveau de l’architecture, SK hynix a déjà proposé l’architecture « H3 » dans un article publié par l’IEEE — d’après le rapport de « The Korea Economic » de février, cette architecture déploierait le HBM et le HBF côte à côte à proximité du GPU, et non, comme dans la conception actuelle, avec seulement le HBM collé au processeur. Cela signifie que le rôle du GPU passera de « protagoniste » à « second rôle », les unités de calcul étant intégrées dans un système où la mémoire sera le composant principal.

La feuille de route devient peu à peu plus claire.

Selon la prévision de Kim, des échantillons d’ingénierie de HBF devraient apparaître autour de 2027, et Google, NVIDIA ou AMD adopteront cette technologie au plus tôt en 2028.

Ce calendrier est très similaire à la trajectoire suivie par le HBM à l’époque, du laboratoire vers une commercialisation à grande échelle, et indique également que la fenêtre de l’industrie est désormais ouverte.

SK hynix et Samsung, à nouveau face à face

Kim indique par ailleurs que le paysage concurrentiel dans le domaine du HBF reproduira le scénario de l’ère du HBM — SK hynix et Samsung Electronics redeviendront les acteurs principaux.

À l’heure actuelle, SK hynix a déjà, en février de cette année, formé une alliance de normalisation HBF avec SanDisk, dans le but de s’assurer une position dominante dans l’écosystème. De son côté, Samsung, d’une part, continue de faire progresser des produits HBM de prochaine génération comme HBM4E, et d’autre part investit en parallèle dans la recherche et le développement d’une architecture NAND compatible avec le concept de HBF, selon Aju News.

Les trajectoires de déploiement des deux géants diffèrent, mais l’objectif vise la même voie. Celui qui réussira le cycle complet — de l’établissement de normes jusqu’à la livraison en production de masse — décidera dans une large mesure de la configuration du prochain marché de la mémoire pour l’IA.

Avertissement sur les risques et clause de non-responsabilité

        Le marché comporte des risques ; investissez avec prudence. Cet article ne constitue pas un conseil d’investissement personnel et ne prend pas en compte les objectifs d’investissement particuliers, la situation financière ou les besoins spécifiques de certains utilisateurs. Les utilisateurs doivent évaluer si les opinions, points de vue ou conclusions contenus dans cet article correspondent à leur situation particulière. En investissant sur cette base, vous en assumez la responsabilité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler