Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Une blague sur "Deux livres pour entraîner l'IA" qui illustre justement que la puissance de calcul est la clé
Cette blague, en réalité, remet en question les illusions du « minimalisme des données »
Elon Musk plaisantait en disant que Grok a été entraîné avec « seulement ces deux livres », « c’est réglé » — une pique typiquement moqueuse de Musk. Il vise une certaine illusion : croire qu’on peut créer une IA compétitive sans une immense puissance de calcul. En réalité, xAI fait progresser l’entraînement sur de gigantesques grappes de GPU. Quels sont exactement ces deux livres, il ne le dit pas (et ce point n’a finalement pas vraiment d’importance), mais le message est clair : dans les domaines où la loi d’échelle reste déterminante, il se moque d’un récit trop simplifié.
Ce tweet a suscité des réactions polarisées. Certains y voient un indice de formation efficace ; d’autres comprennent que c’est plutôt un déplacement de l’attention — ce que xAI fait réellement, c’est déployer à grande échelle l’apprentissage par renforcement sur l’infrastructure Colossus de chez lui. Les scores de Grok (par exemple Grok 3 Think à 93,3 % à l’AIME) viennent de la puissance de calcul et du paradigme d’entraînement, pas de « la lecture de deux petits livres ».
La puissance de calcul gagne ; le « minimalisme des données » ne tient pas
La diffusion de ce tweet met en évidence l’écart entre des slogans « faciles à viraliser » (« seulement deux livres ! ») et « les leviers qui construisent réellement de grands modèles » (un entraînement massif sur des méga-clusters). À mesure que l’attention du public sur la conformité et les fuites des données d’entraînement augmente — par exemple, le récent enregistrement de Stanford sur le phénomène où les modèles restituent des romans protégés par le droit d’auteur — cela devient encore plus crucial.
xAI positionne Grok 4 comme le niveau le plus élevé en raisonnement de type agent, en appliquant RL à l’échelle de l’entraînement préentraîné. Contrairement à des approches plus prudentes chez OpenAI et Anthropic, xAI plaisante d’un côté sur « l’efficacité », tout en livrant en pratique des outils multimodaux. Interpréter ce tweet comme une « ouverture » ou une « révolution de l’efficacité » correspond davantage à un espoir émotionnel — l’essentiel de la C-round de 6 milliards de dollars de xAI est destiné à l’infrastructure, pas à la « simplification extrême des jeux de données ».
Cela entraîne aussi un mauvais alignement entre tarification et narration. Si le marché se focalise excessivement sur l’efficacité des coûts, il risque d’ignorer un poids plus élevé : le fossé de puissance de calcul. xAI a un avantage relatif sur l’infrastructure ; des entreprises comme Meta, si elles ne disposent pas d’un niveau équivalent de RL et de puissance de calcul d’entraînement, pourraient ne pas suivre en profondeur de raisonnement.
Conclusion : la vraie variable que cette blague masque, c’est l’avance en puissance de calcul de xAI. Les bâtisseurs qui ne sont pas passés à un RL extensible ont déjà pris du retard ; les investisseurs qui parient sur la puissance de calcul et le fossé d’infrastructure en sont encore à un stade précoce ; les acheteurs professionnels utilisent désormais les outils d’agent de Grok, et auront un avantage par rapport aux adversaires qui continuent de croire au « mythe du minimalisme des données ».
Importance : Moyenne
Catégorie : Perspectives techniques, tendances de l’industrie, impact sur le marché
Jugement : À ce stade, entrer dans cette narration est un « avantage précoce » pour les investisseurs et les acheteurs d’entreprise qui misent sur les fonds et sur les infrastructures RL de puissance de calcul ; pour les bâtisseurs qui s’en tiennent encore à une approche de données minimalistes, c’est « plutôt tard ». Les participants qui en tirent le plus de bénéfice de manière concrète sont ceux qui contrôlent ou accèdent à de vastes grappes de GPU et à la pile d’ingénierie RL : les bâtisseurs d’infrastructure et les fonds à moyen/long terme en profitent le plus ; les acheteurs entreprise qui déploient tôt la chaîne d’outils d’agent de Grok sont également avantagés ; pour les traders à court terme, sans catalyse clair d’approvisionnement en puissance de calcul, l’avantage marginal reste limité.