Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Le stockage piloté par l'IA continue d'itérer ! La production en série de la technologie PIM de Samsung est imminente, permettant de contourner le CPU et le GPU pour un calcul direct
L’IA est en train de remodeler le marché du stockage avec une puissance sans précédent, tout en engendrant de nouvelles technologies. Après l’apparition de “technologies noires” telles que HBF, H³, un tout nouveau domaine dans le secteur du stockage commence à émerger.
Selon les médias, Samsung Electronics prévoit d’appliquer la technologie PIM aux mémoires LPDDR5X. Actuellement, Samsung collabore avec ses principaux clients pour développer la technologie PIM pour LPDDR5X, avec des échantillons prévus pour la seconde moitié de cette année. De plus, les deux parties explorent activement la normalisation de la technologie PIM pour la prochaine génération de LPDDR6.
PIM, abréviation de Processing in Memory, signifie gestion intégrée du traitement. Elle consiste à placer directement l’unité de calcul (ALU) au niveau du stockage de la mémoire. La méthode traditionnelle nécessite souvent de transférer les données vers le CPU ou le GPU pour le traitement, alors que PIM exécute directement les calculs dans la mémoire, ce qui pourrait surmonter le “mur de stockage”.
Lors du discours principal lors du “SEMICON Korea 2026” récemment organisé en Corée, Sun Gyo-min, responsable de l’équipe de conception DRAM de Samsung Electronics, a souligné la nécessité de la technologie PIM, déclarant : « Actuellement, en raison du manque de bande passante mémoire, l’IA ne peut pas exploiter à 100 % les performances du GPU. » Selon lui, PIM peut non seulement augmenter considérablement la bande passante, mais aussi améliorer l’efficacité énergétique.
Actuellement, Samsung Electronics a terminé la validation technologique (PoC) de produits tels que HBM-PIM et autres, et entre dans la phase de produits commercialisables, en préparation pour la production de masse. La technologie clé de cette gamme est la série LPDDR, optimisée pour les smartphones et les appareils AI terminaux.
En outre, SK Hynix travaille également sur PIM. Lors du salon “CES 2026” aux États-Unis cette année, l’entreprise a présenté plusieurs produits et technologies innovants, dont AiMX basé sur l’architecture PIM. La Shanghai Securities News indique que, pour accélérer la mise en œuvre de l’IA et stimuler la croissance du flux d’informations, les puces de stockage sont passées de composants ordinaires à des produits clés de l’industrie de l’IA. Grâce à des avancées technologiques et à la collaboration écologique, il est possible de construire une compétitivité centrale dans le stockage pour l’IA.
China Post Securities affirme qu’en tant que nouvelle architecture de calcul, l’intégration du stockage et du calcul repose sur la fusion complète du stockage et du traitement, en superposant la capacité de calcul dans la mémoire. Elle permet des calculs matriciels en 2D et 3D avec une nouvelle architecture de traitement efficace, combinée à des technologies telles que l’emballage avancé de l’ère post-Moore et de nouveaux dispositifs de stockage, ce qui peut efficacement surmonter le goulet d’étranglement de l’architecture von Neumann et réaliser une augmentation exponentielle de l’efficacité énergétique du calcul. PIM intègre l’unité de calcul dans la puce de mémoire, conférant à la mémoire une capacité de calcul, adaptée aux tâches intensives en données, et pouvant considérablement améliorer l’efficacité du traitement des données et le rapport énergie/performances.
CITIC Securities indique qu’en analysant l’architecture mémoire actuelle pour le calcul, la performance du DRAM (“bande passante” et “capacité”) constitue le principal goulot d’étranglement. Plus le modèle d’entraînement est grand, plus la capacité de mémoire vidéo est requise. Lors de l’inférence, avec plus d’utilisateurs simultanés, la demande en bande passante augmente (l’entraînement étant limité par la “capacité”, l’inférence par la “bande passante”), rendant la mise à niveau urgente. La mise à niveau nécessaire pour l’ère de l’IA, avec une évolution vers une intégration du stockage et du calcul, est une tendance inévitable à long terme. “Calcul près de la mémoire” (PNM) est actuellement une voie efficace.