Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Il y a des nouvelles intéressantes sur Groq qui circulent concernant la stratégie de NVIDIA dans le domaine de l'inférence. Il s'avère que Jensen Huang a récemment expliqué la véritable réflexion derrière leur décision de s'attaquer à Groq en premier lieu.
En décembre dernier, NVIDIA a dépensé $20 milliards pour acquérir l'activité de puces d'inférence de Groq. Le fondateur Jonathan Ross et son équipe principale ont rejoint NVIDIA, mais voici le point important — Groq fonctionne toujours de manière indépendante. Ensuite, lors du GTC en mars dernier, ils ont présenté la puce Groq 3 LPU construite sur le procédé 4nm de Samsung. Les chiffres de performance sont assez impressionnants : 35 fois le débit d'inférence par mégawatt sur des modèles à milliards de paramètres par rapport au Blackwell NVL72 de NVIDIA.
Mais ce qui a vraiment attiré mon attention, c'est l'explication de Huang sur la dynamique du marché qui motive cela. Il parle de la façon dont le marché de l'inférence se divise en différents segments. Pendant des années, tout le monde s'est concentré sur une seule chose : maximiser le débit. Mais cela change. L'économie des tokens a connu une évolution spectaculaire. Différents utilisateurs valorisent désormais différemment la rapidité de réponse, et sont prêts à payer en conséquence.
Huang l'a expliqué très clairement : si vous pouvez fournir aux développeurs des tokens à réponse plus rapide qui augmentent leur productivité, ils paieront des prix premium pour cette capacité. C'est un marché relativement nouveau qui n'a émergé que récemment. Il étend essentiellement la frontière de Pareto — en ajoutant un segment à faible latence et à prix par token plus élevé, en complément des solutions à haut débit existantes.
C'est là que l'architecture LPU de Groq entre en jeu. Elle est conçue pour une latence déterministe faible, ce qui est presque l'opposé de ce que les GPU optimisent. Les GPU excellent en débit. Donc, l'acquisition de Groq comble essentiellement une lacune dans la stratégie produit de NVIDIA. Vous pouvez exécuter le même modèle de deux manières différentes : maximiser le débit sur GPU, ou obtenir une latence ultra-faible avec le LPU de Groq. Des modèles de tarification différents pour des cas d'utilisation différents.
Les nouvelles concernant Groq mettent vraiment en lumière comment le marché de l'inférence IA mûrit au-delà du simple calcul brut. Il s'agit de comprendre ce dont différents clients ont réellement besoin et de construire l'outil adapté à chaque segment. Une move plutôt intelligente si vous me demandez.