Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
CITIC Securities : Recommandation de suivre les principaux fabricants nationaux d'IA PCB/stratifié en cuivre (CCL), fabricants de mémoire, etc.
CITIC Securities a déclaré dans un rapport de recherche que NVIDIA a indiqué lors de la GTC 2026 que la demande en puissance de calcul AI continuera de croître fortement en 2027. CITIC Securities estime qu’avec l’ajout de LPU et de midplane dans l’architecture Rubin/Rubin Ultra, les spécifications et la quantité augmentées stimuleront davantage l’expansion de la demande, et les PCB AI en bénéficieront pleinement ; le CPO devrait être le premier à se concrétiser dans l’architecture Scale-out de Rubin, tandis que les applications Scale-up devraient commencer sur la plateforme Feynman en 2028. Nous sommes optimistes quant à la manière dont la conférence GTC 2026 de NVIDIA renforcera la confiance du marché dans la croissance continue de l’industrie AI et la réalisation de la logique d’augmentation, et nous recommandons de suivre les principaux fabricants de PCB AI/CCL nationaux, ainsi que les fabricants de stockage.
Texte complet ci-dessous
Électronique|Retour sur la GTC 2026 de NVIDIA : Progrès optoélectroniques
NVIDIA a déclaré lors de la GTC 2026 que la demande en puissance de calcul AI continuera de croître fortement en 2027. Nous pensons qu’avec l’ajout de LPU et de midplane dans l’architecture Rubin/Rubin Ultra, les spécifications et la quantité augmentées stimuleront davantage l’expansion de la demande, et les PCB AI en bénéficieront pleinement ; le CPO devrait être le premier à se concrétiser dans l’architecture Scale-out de Rubin, tandis que les applications Scale-up devraient commencer sur la plateforme Feynman en 2028. Nous sommes optimistes quant à la manière dont la conférence GTC 2026 de NVIDIA renforcera la confiance du marché dans la croissance continue de l’industrie AI et la réalisation de la logique d’augmentation, et nous recommandons de suivre les principaux fabricants de PCB AI/CCL nationaux, ainsi que les fabricants de stockage.
▍NVIDIA prévoit que la demande en commandes atteindra 1 trillion de dollars d’ici 2027.
Le 16 mars, lors de la conférence GTC 2026, le PDG Jensen Huang a prévu que les commandes pour Blackwell et Rubin s’élèveraient à 500 milliards de dollars en 2026 ; l’entreprise a prévu lors de cette réunion que la demande en commandes atteindra 1 trillion de dollars d’ici 2027. Actuellement, 60 % des activités de NVIDIA proviennent des cinq plus grands fournisseurs de services cloud à grande échelle au monde, les 40 % restants étant répartis dans divers domaines tels que le cloud régional, le cloud souverain, l’entreprise, l’industrie, la robotique et le edge computing. D’après les derniers rapports financiers des quatre plus grands CSP nord-américains, pour le quatrième trimestre 2025, l’état d’exploitation global des géants technologiques nord-américains continue d’être meilleur que les attentes du marché, avec une accélération supplémentaire de la croissance des revenus de l’activité cloud, une structure d’offre et de demande tendue, et une augmentation des prix des puces de stockage qui devraient pousser les prévisions de dépenses en capital pour 2026 largement au-dessus des attentes. Nous prévoyons que les CAPEX des quatre grands CSP nord-américains pour 2026 augmenteront de 58 % par rapport à l’année précédente, et que les CAPEX AI augmenteront de 117 % par rapport à l’année précédente, ce qui devrait soutenir la réalisation des performances des puces de calcul AI.
▍NVIDIA lance cinq plateformes de calcul de niveau rack Vera Rubin.
NVIDIA a lancé sa toute nouvelle plateforme Vera Rubin/POD, combinant cinq systèmes de calcul de niveau rack en un superordinateur AI, afin de soutenir le raisonnement efficace de l’AI Agentic. Plus précisément : 1) Le rack Vera Rubin NVL72 possède une puissance de calcul de raisonnement de 3,6 exaflops (FP4), soit cinq fois celle de Blackwell ; 2) Le rack CPU Vera est principalement utilisé pour la gestion des flux de travail et la planification d’Agentic ; 3) Le rack Groq 3 LPX (équipé de 256 Groq 3 LPU) servira d’accélérateur de raisonnement token, utilisé en conjonction avec le Vera Rubin NVL72, reposant sur sa mémoire SRAM statique sur puce à grande échelle pour un raisonnement efficace ; 4) Le rack BlueField-4 STX est conçu pour soutenir le stockage nécessaire au raisonnement en contexte long d’Agentic AI ; 5) Le rack de commutation Spectrum-X CPO est destiné à l’échelle, et est déjà en production de masse.
▍Concernant les PCB, les applications de backplanes orthogonaux, de cartes mères LPX et de cartes mères pour armoires CPU sont confirmées.
NVIDIA a officiellement dévoilé le rack Rubin Ultra NVL144 Kyber, composé de 144 GPU formant un domaine NVLink unique, les nœuds de calcul et les commutateurs NVLink étant insérés et connectés respectivement des deux côtés, le rack Kyber (NVLink 144) étant ensuite étendu à NVLink 576 via des câbles en cuivre/optique Oberon. Selon SemiAnalysis, l’utilisation d’un backplane orthogonal PCB permet d’obtenir une transmission de signal à haute densité et à haute vitesse, tout en réduisant la perte de signal et la complexité du câblage, avec un design multi-couches ultra-élevé sur le plan technologique, et l’utilisation de matériaux de pointe tels que le matériau M9, nous estimons que le backplane orthogonal PCB pourrait apporter une augmentation de plus de 200 dollars de l’ASP par GPU ; en même temps, NVIDIA a confirmé que la puce Grok LPU LP30 sera fabriquée par Samsung, qui est déjà en production de masse, avec des expéditions prévues au troisième trimestre 2026 sous forme de racks LPX, NVIDIA recommande que si des besoins en génération de code ou en tokens à haute vitesse sont présents, 25 % de la puissance de calcul soit configurée pour Grok, tandis que les 75 % restants restent sur Vera Rubin. Selon SemiAnalysis, les cartes mères des racks LPX pourraient adopter un design 50L+ haute multi-couche + M9 CCL, nous estimons que l’ASP par GPU pourrait atteindre plusieurs centaines de dollars ; en outre, NVIDIA a confirmé qu’elle lancera une armoire CPU, qui utilisera également une carte mère PCB, renforçant ainsi l’espace de croissance potentiel futur pour les PCB AI.
▍La plateforme Feynman utilise de nouvelles puces pour une intégration hétérogène profonde, le plan scale-up supporte les câbles en cuivre et le CPO.
La feuille de route produit de NVIDIA indique que la société lancera l’architecture Feynman en 2028, cette plateforme intégrera matériellement les CPU (Rosa), GPU (Feynman) et LPU (LP40) de manière profondément hétérogène, et dans les interconnexions scale-up, elle utilisera à la fois des câbles en cuivre et des solutions CPO. Parmi celles-ci : 1) Les GPU seront fabriqués avec le processus de fabrication A16 (1,6 nm) de TSMC ; 2) Le CPU Rosa pourra gérer plus efficacement le flux de tokens entre le GPU, le stockage et le réseau, optimisant le traitement de tâches de prise de décision logique extrêmement complexes ; 3) Le LP40 (LPU) a pour objectif de résoudre complètement les défis de latence de raisonnement et de “mur de mémoire” en intégrant les GPU de NVIDIA avec la technologie Groq au niveau micro-architecture ; 4) En matière de réseau, cette plateforme adopte un rack Kyber qui supporte simultanément les deux modes d’extension en cuivre et CPO.
▍Facteurs de risque :
Fluctuations macroéconomiques et risques géopolitiques, lancement de nouveaux produits par les leaders du calcul à l’étranger en dessous des attentes, croissance de la demande du marché AI en dessous des attentes, hausse continue des prix des composants tels que le stockage, risques de transformations technologiques et d’itérations de produits, risques de réglementation politique et de confidentialité des données, risque d’intensification de la concurrence dans l’industrie PCB.
▍Stratégie d’investissement :
Dans un contexte de demande mondiale en calcul dépassant les attentes, la dynamique et les hausses des segments en amont devraient se poursuivre, la principale ligne de la chaîne d’inflation de calcul reste la direction de “croissance de qualité” la plus certaine dans le secteur technologique actuel. Nous sommes optimistes quant à la manière dont la conférence GTC 2026 de NVIDIA renforcera la confiance du marché dans la croissance continue de l’industrie AI et la réalisation de la logique d’augmentation.
(Source : Securities Times)