Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
LPU expédition à croissance élevée confirmée ? Nvidia lance la plateforme Vera Rubin avec 256 unités par rack
Lors du discours principal de GTC 2026, une nouvelle puce nommée Nvidia Groq 3 LPU a été dévoilée officiellement.
Tôt mardi matin, Nvidia a lancé la plateforme Vera Rubin, comprenant sept types de puces, dont le Groq 3 LPU (abrégé en LPU), à savoir le CPU Vera, le GPU Rubin, le commutateur NVLink 6, la carte réseau super ConnectX-9, le DPU BlueField-4 et le commutateur Ethernet Spectrum-6.
Selon les informations, Nvidia construira un rack Groq 3 LPX contenant 256 LPUs, offrant 128 Go de SRAM (avec 500 Mo de SRAM intégré par LPU) et une bande passante d’accélération d’inférence de 40 PB/s, connectés via une interface d’extension dédiée de 640 TB/s par rack. Ce rack sera intégré avec quatre autres racks, notamment Vera Rubin NVL72 et Vera CPU, pour former la plateforme de supercalcul AI complète Vera Rubin.
Nvidia indique que le Groq 3 LPX est un accélérateur d’inférence pour Vera Rubin, conçu pour répondre aux besoins des systèmes intelligents en faible latence et en contexte étendu. Vera Rubin et LPX, grâce à une architecture conçue en collaboration, combinent parfaitement la performance exceptionnelle du GPU Rubin et du LPU, offrant une latence extrêmement faible et un débit élevé.
Jensen Huang a déclaré que, combiné à la plateforme Vera Rubin, le rapport débit/puissance de l’inférence avec LPX pourrait augmenter de 35 fois. La puce LPU sera fabriquée par Samsung, et le déploiement du rack devrait commencer en seconde moitié de cette année.
Hier, l’analyste Ming-Chi Kuo a publié une note indiquant qu’après l’investissement de Nvidia dans Groq, les prévisions de livraison de LPU ont été considérablement révisées à la hausse. La livraison totale pour 2026-2027 est estimée entre 4 et 5 millions d’unités. La production en série du nouveau rack devrait commencer au quatrième trimestre de cette année, avec environ 300 à 500 racks en 2026 et 15 000 à 20 000 en 2027.
Selon lui, la croissance rapide de la demande pour LPU provient principalement de facteurs externes. D’une part, LPU est fortement intégré à l’écosystème Nvidia (comme CUDA), ce qui réduit considérablement les barrières de développement et de déploiement d’applications. D’autre part, la demande pour une inférence à très faible latence dans l’industrie augmente rapidement, notamment pour les agents intelligents (AI Agents), le traitement en temps réel, les applications grand public (Consumer-Facing) et l’IA physique (Physical-AI).
Il est également à noter que Jensen Huang a souligné lors du discours principal que l’IA a franchi une étape clé, passant de l’intelligence perceptive à l’intelligence générative, puis à l’intelligence physique et aux agents intelligents.
Caitong Securities indique que, lors de l’inférence, les grands modèles présentent des latences, qui affectent directement l’expérience utilisateur. La latence lors de l’inférence des grands modèles se concentre principalement dans la phase de décodage, le goulot d’étranglement étant la bande passante mémoire. La LPU, avec une bande passante mémoire plus rapide, peut réduire la latence lors de l’inférence de grands modèles. De plus, les grands modèles basés sur LPU offrent non seulement une vitesse d’inférence plus rapide, mais aussi un meilleur rapport coût-efficacité, améliorant ainsi l’expérience utilisateur.
L’institution note que la consommation de tokens augmente considérablement, stimulant la croissance du marché des puces d’inférence. La LPU devrait progressivement pénétrer le marché des puces d’inférence, offrant un potentiel de croissance élevé. La société reste optimiste quant à la forte croissance de la LPU et aux opportunités de PCB liées à la livraison en rack, recommandant de suivre : Zhimei Intelligence (participation dans Yuan Chuan Micro), Xingchen Technology (plusieurs tours de financement dans Yuan Chuan Micro), Shudian Co. (fournisseur de PCB pour Nvidia), Shenghong Technology (fournisseur de PCB pour Nvidia), Shennan Circuit.
(Article source : Caixin)