Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les petits modèles rencontrent Terafab : la superstition concernant l’échelle de l’IA commence à vaciller
Les petits modèles remettent en question la foi dans la « taille »
Elon Musk a d’abord laissé entendre que V15 était le prochain grand modèle de xAI, puis a reconnu que les petits modèles évoluaient plus rapidement. Ce revirement est notable : la superstition autour de la taille des paramètres est en train de s’éroder.
En regardant la chronologie : en novembre 2025, Grok 4.1 se tourne vers l’optimisation par apprentissage renforcé, suivi par l’expansion de la puissance de calcul de Terafab. La source d’avantage concurrentiel passe de « modèles grands » à « inférence rapide + synergie hardware et software ».
Ce n’est pas un cas isolé. O1 d’OpenAI, Claude 3.5 d’Anthropic, privilégient tous la « qualité de l’inférence » avant la « pile de paramètres ». La déclaration de Musk renforce la tendance à privilégier l’efficacité des coûts, mettant sous pression la voie des infrastructures lourdes. La communauté technique débat aussi pour savoir si cela confirme l’avantage des petits modèles en périphérie ; les sceptiques soulignent que les spécifications de V15 n’ont encore été vues par personne.
Par ailleurs, Terafab et Intel collaborent pour mettre en avant une puissance de calcul annuelle de 1 TW. Si xAI lie ses progrès en modèles à son écosystème hardware, et que le cluster Colossus s’étend à moindre coût grâce à l’apprentissage renforcé, la position de Nvidia pourrait être comprimée.
Une narration a été exagérée : considérer V15 comme un « futur tueur de GPT ». Sans benchmarks solides, ce ne sont que des bruits. La clé est dans les indicateurs de déploiement, pas dans la feuille de route.
Terafab en train de réécrire la carte du calcul
Ce tweet, publié en avril 2026, précède le lancement de Terafab et concrétise la question de la latence des modèles et des goulots d’étranglement hardware. Les chercheurs soulignent que l’expansion par apprentissage renforcé de xAI (par exemple, la capacité d’utilisation d’outils de Grok 4) permet aux petits modèles de rattraper grâce à l’efficacité des données plutôt qu’à la pile de paramètres. Sur les réseaux sociaux, la rumeur d’une fusion « SpaceX + X + xAI » circule, valorisée à 12.5k de dollars. Cela profite aux acteurs intégrés verticalement, mais attire aussi l’attention réglementaire sur la concentration du capital.
Le marché interprète souvent le retard de xAI comme une faiblesse, alors qu’il s’agit probablement d’une « patience stratégique » pour aligner le hardware. Cela fragilise aussi la trajectoire d’Anthropic, qui privilégie la « sécurité » et l’expansion à grande échelle.
Conclusion :
Importance : élevée
Catégorie : lancement de modèles, tendances industrielles, insights technologiques
Jugement : nous sommes encore au début du « tout efficacité + intégration verticale ». Les plus avantagés sont ceux qui construisent un cercle fermé autour du modèle, des données et du calcul, ainsi que ceux qui se tournent dès maintenant vers une inférence à faible coût ; les acteurs purement GPU sont désavantagés.