Le stockage piloté par l'IA continue d'itérer ! La production en série de la technologie PIM de Samsung est imminente, permettant de contourner le CPU et le GPU pour un calcul direct

robot
Création du résumé en cours

L’IA est en train de remodeler le marché du stockage avec une puissance sans précédent, tout en engendrant de nouvelles technologies. Après l’apparition de “technologies noires” telles que HBF, H³, un tout nouveau domaine dans le secteur du stockage commence à émerger.

Selon les médias, Samsung Electronics prévoit d’appliquer la technologie PIM aux mémoires LPDDR5X. Actuellement, Samsung collabore avec ses principaux clients pour développer la technologie PIM pour LPDDR5X, avec des échantillons prévus pour la seconde moitié de cette année. De plus, les deux parties explorent activement la normalisation de la technologie PIM pour la prochaine génération de LPDDR6.

PIM, abréviation de Processing in Memory, signifie gestion intégrée du traitement. Elle consiste à placer directement l’unité de calcul (ALU) au niveau du stockage de la mémoire. La méthode traditionnelle nécessite souvent de transférer les données vers le CPU ou le GPU pour le traitement, alors que PIM exécute directement les calculs dans la mémoire, ce qui pourrait surmonter le “mur de stockage”.

Lors du discours principal lors du “SEMICON Korea 2026” récemment organisé en Corée, Sun Gyo-min, responsable de l’équipe de conception DRAM de Samsung Electronics, a souligné la nécessité de la technologie PIM, déclarant : « Actuellement, en raison du manque de bande passante mémoire, l’IA ne peut pas exploiter à 100 % les performances du GPU. » Selon lui, PIM peut non seulement augmenter considérablement la bande passante, mais aussi améliorer l’efficacité énergétique.

Actuellement, Samsung Electronics a terminé la validation technologique (PoC) de produits tels que HBM-PIM et autres, et entre dans la phase de produits commercialisables, en préparation pour la production de masse. La technologie clé de cette gamme est la série LPDDR, optimisée pour les smartphones et les appareils AI terminaux.

En outre, SK Hynix travaille également sur PIM. Lors du salon “CES 2026” aux États-Unis cette année, l’entreprise a présenté plusieurs produits et technologies innovants, dont AiMX basé sur l’architecture PIM. La Shanghai Securities News indique que, pour accélérer la mise en œuvre de l’IA et stimuler la croissance du flux d’informations, les puces de stockage sont passées de composants ordinaires à des produits clés de l’industrie de l’IA. Grâce à des avancées technologiques et à la collaboration écologique, il est possible de construire une compétitivité centrale dans le stockage pour l’IA.

China Post Securities affirme qu’en tant que nouvelle architecture de calcul, l’intégration du stockage et du calcul repose sur la fusion complète du stockage et du traitement, en superposant la capacité de calcul dans la mémoire. Elle permet des calculs matriciels en 2D et 3D avec une nouvelle architecture de traitement efficace, combinée à des technologies telles que l’emballage avancé de l’ère post-Moore et de nouveaux dispositifs de stockage, ce qui peut efficacement surmonter le goulet d’étranglement de l’architecture von Neumann et réaliser une augmentation exponentielle de l’efficacité énergétique du calcul. PIM intègre l’unité de calcul dans la puce de mémoire, conférant à la mémoire une capacité de calcul, adaptée aux tâches intensives en données, et pouvant considérablement améliorer l’efficacité du traitement des données et le rapport énergie/performances.

CITIC Securities indique qu’en analysant l’architecture mémoire actuelle pour le calcul, la performance du DRAM (“bande passante” et “capacité”) constitue le principal goulot d’étranglement. Plus le modèle d’entraînement est grand, plus la capacité de mémoire vidéo est requise. Lors de l’inférence, avec plus d’utilisateurs simultanés, la demande en bande passante augmente (l’entraînement étant limité par la “capacité”, l’inférence par la “bande passante”), rendant la mise à niveau urgente. La mise à niveau nécessaire pour l’ère de l’IA, avec une évolution vers une intégration du stockage et du calcul, est une tendance inévitable à long terme. “Calcul près de la mémoire” (PNM) est actuellement une voie efficace.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler