Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les exportations de puces électroniques sud-coréennes ont explosé de 160,8 %, établissant un nouveau record historique mensuel
Sources : Securities Times Network Auteur : Mu Yang
Deux grandes nouvelles dans le domaine mondial des semi-conducteurs !
Premièrement, les semi-conducteurs sud-coréens ont encore explosé les ventes. Le 1er mars, les données publiées par la Corée montrent que, en février, les exportations de semi-conducteurs sud-coréens ont augmenté de 160,8 % en glissement annuel pour atteindre 25,16 milliards de dollars, établissant un nouveau record mensuel historique. Certains analystes estiment que ces chiffres indiquent qu’avec l’investissement dans l’IA, le marché mondial des mémoires est en pleine « croissance explosive de la demande » dans un « super cycle ».
Deuxièmement, Nvidia prévoit de lancer une toute nouvelle puce spécialement conçue pour OpenAI et d’autres clients. Selon des rapports, OpenAI a accepté de devenir l’un des plus grands clients de ce nouveau processeur, ce qui constitue une « victoire majeure » pour Nvidia.
Explosion des exportations de semi-conducteurs sud-coréens de 160,8 %
Le 1er mars, le ministère sud-coréen de l’Industrie, du Commerce et de l’Énergie a publié les « tendances des importations et exportations de février », indiquant que, en février, les exportations sud-coréennes ont augmenté de 29 % en glissement annuel pour atteindre 67,45 milliards de dollars, un record pour le mois de février. La moyenne quotidienne des exportations a augmenté de 49,3 %, atteignant 3,55 milliards de dollars, dépassant pour la première fois 3 milliards de dollars.
Plus précisément, les performances à l’exportation de semi-conducteurs ont été remarquables, entraînant une croissance globale des exportations. La forte demande stimulée par l’investissement dans l’intelligence artificielle et la hausse significative des prix des mémoires ont permis aux exportations de semi-conducteurs sud-coréens de bondir de 160,8 % en février, atteignant 25,16 milliards de dollars, un sommet mensuel, avec des exportations dépassant 20 milliards de dollars pour trois mois consécutifs.
Parmi les 15 principales catégories d’exportation, cinq, dont les semi-conducteurs, ont connu une augmentation en glissement annuel, tandis que les exportations de voitures (4,81 milliards de dollars) et de pièces détachées automobiles (1,45 milliard de dollars) ont respectivement diminué de 20,8 % et 22,4 % en glissement annuel.
En février, les importations sud-coréennes ont augmenté de 7,5 % en glissement annuel pour atteindre 51,94 milliards de dollars. Le solde commercial de ce mois-là a été excédentaire de 15,51 milliards de dollars, un record pour le même mois, avec un excédent pour le 13e mois consécutif.
De plus, les géants sud-coréens des semi-conducteurs Samsung Electronics et SK Hynix ont également de nouvelles initiatives.
Le 1er mars, Samsung Electronics a annoncé le lancement d’un plan de transformation numérique basé sur l’IA pour ses activités de fabrication mondiales, visant à moderniser toutes ses usines d’ici 2030 en « usines pilotées par l’IA ». Cette stratégie couvre toute la chaîne, de l’approvisionnement en matériaux à la sortie des produits finis, en intégrant des systèmes de jumeaux numériques, des agents IA dédiés et des robots humanoïdes/tâches, pour la gestion de la qualité, la maintenance prédictive, la logistique et la sécurité EHS. La transformation vise à améliorer l’efficacité opérationnelle, la qualité et la sécurité sur site. Samsung prévoit de présenter ses résultats en IA industrielle lors du MWC 2026.
Par ailleurs, SK Hynix a récemment co-organisé avec SanDisk une réunion de lancement de l’alliance de normalisation HBF (High Bandwidth Flash), établissant la stratégie de standardisation mondiale pour la prochaine génération de mémoire adaptée à l’ère de l’inférence IA. SK Hynix a indiqué qu’elle collaborerait avec SanDisk pour faire de HBF une norme industrielle universelle. Les deux entreprises ont créé un groupe de travail dédié dans le cadre de l’OCP pour lancer officiellement la normalisation de HBF, renforçant ainsi leur position sur le marché des puces pour IA.
Le géant de l’IA Nvidia prévoit de lancer une nouvelle puce
Il est également important de noter que le client majeur de Samsung Electronics et SK Hynix — le géant de l’IA Nvidia — a également de grandes nouveautés.
Selon le Wall Street Journal, Nvidia prévoit de lancer un tout nouveau processeur dédié à aider OpenAI et d’autres clients à construire des outils plus rapides et plus efficaces. Cette importante réorientation de ses activités pourrait redéfinir la compétition dans le domaine de l’IA.
Il est rapporté que Nvidia conçoit un nouveau système pour le calcul d’inférence IA, responsable de faire répondre les modèles IA aux requêtes des utilisateurs. Cette nouvelle plateforme sera officiellement dévoilée lors de la conférence des développeurs Nvidia GTC à San José le mois prochain, intégrant une puce conçue par la startup Groq.
Actuellement, le calcul d’inférence est au cœur de la compétition sectorielle. Les concurrents de Nvidia, Google et Amazon, ont également lancé leurs propres puces pour rivaliser avec ses produits phares. Par ailleurs, la croissance explosive des technologies de codage autonome dans le secteur technologique a créé une demande pour de nouvelles puces capables de traiter plus efficacement des tâches IA complexes.
Selon des sources proches du dossier, OpenAI aurait accepté de devenir l’un des plus grands clients de cette nouvelle puce, ce qui constitue une « victoire majeure » pour Nvidia. OpenAI, le développeur de ChatGPT, est déjà un client clé de Nvidia, cherchant depuis plusieurs mois une alternative plus performante à ses puces, et a récemment signé un contrat avec une startup de puces pour diversifier ses fournisseurs.
Au début de la semaine, OpenAI a annoncé qu’il allait massivement acheter des « capacités de calcul d’inférence dédiées » auprès de Nvidia et a accepté un investissement de 30 milliards de dollars de la société, laissant entendre l’existence de cette nouvelle puce. OpenAI a également signé un nouvel accord important pour utiliser les puces Trainium d’Amazon.
Nvidia domine depuis longtemps la conception et la vente de processeurs graphiques (GPU), capables d’exécuter simultanément des milliards de tâches simples. Mais depuis l’émergence de la vague IA, la société fait face pour la première fois aux limites de ses produits phares. Avec le marché qui se tourne vers l’inférence, Nvidia ressent la pression de certains clients qui exigent des puces plus efficaces pour faire fonctionner l’IA.
Les GPU haut de gamme de Nvidia, comme Hopper, Blackwell et Rubin, sont reconnus comme les meilleurs pour entraîner des modèles IA de grande taille, mais leur prix est élevé. La majorité des analystes estiment que Nvidia détient plus de 90 % du marché des GPU.
Le PDG de Nvidia, Jensen Huang, affirme depuis longtemps que ses GPU dominent à la fois pour l’entraînement et l’inférence, cette polyvalence étant le principal attrait de ses produits. Cependant, au cours de l’année écoulée, alors que les entreprises déploient des agents IA pour transformer des centaines d’industries et générer d’énormes profits via des abonnements, la demande pour des calculs de haute performance s’est déplacée de l’entraînement vers l’inférence. Les agents IA sont des systèmes capables d’accomplir des tâches de façon relativement autonome pour les utilisateurs.
De nombreuses entreprises développant et exploitant des agents IA ont constaté que les GPU sont trop coûteux, consomment trop d’énergie et ne répondent pas entièrement aux besoins réels des modèles en fonctionnement. Avec l’essor rapide des agents IA, Nvidia doit rapidement développer des puces d’inférence plus économiques et plus efficaces.
En janvier, OpenAI a conclu un partenariat de plusieurs milliards de dollars avec Cerebras, spécialisé dans les puces d’inférence, dont le PDG, Andrew Feldman, affirme que cette puce est plus rapide que les GPU de Nvidia. Selon des rapports antérieurs, dès l’automne dernier, des ingénieurs d’OpenAI avaient exprimé le besoin de puces d’inférence plus rapides pour les applications de codage d’agents, et la société avait commencé à négocier avec Cerebras.
En février, Nvidia a annoncé étendre sa collaboration avec Meta, notamment avec le déploiement pour la première fois à grande échelle de CPU pour soutenir l’agent IA publicitaire de Meta. Cette opération révèle la stratégie de Nvidia : sortir du marché des GPU pour s’attaquer à des segments plus spécialisés de l’IA.
Fin 2022, Nvidia a accepté d’acquérir pour 20 milliards de dollars la technologie clé de Groq et d’intégrer son équipe de direction, y compris le fondateur Jonathan Ross, dans l’une des plus grandes opérations de rachat de talents de la Silicon Valley.
Les puces conçues par Groq utilisent une architecture totalement différente de celle de Nvidia, appelée unité de traitement du langage, très efficace pour l’inférence. Cependant, Nvidia n’a pas encore révélé comment elle compte exploiter la technologie de Groq.
(Édition : Wen Jing)