Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les coûts de l'API explosent, les développeurs commencent à ramener l'inférence en local, et l'infrastructure Web3 en bénéficie unexpectedly.
Les factures du modèle de pointe poussent les développeurs vers le local
Elon Musk a mentionné qu’il brûlait environ 200 dollars par jour de coûts de modèle dans le scénario OpenClaw. Ce n’est pas seulement une question de dépenses : cela reflète une tendance plus large — les développeurs passent d’une solution purement cloud à un routage hybride local + cloud. Des histoires du même genre se multiplient : les factures d’API sont trop élevées, les entreprises n’arrivent pas à suivre, alors les développeurs déplacent les tâches quotidiennes et les workflows pouvant être batchés vers le local, ne faisant remonter vers les modèles de pointe que ce qui est vraiment difficile.
Vitalik Buterin a récemment ciblé Qwen3.5, qui tourne sur du matériel Nvidia et avec une isolation par sandbox ; la vitesse d’inférence peut atteindre 90 jetons par seconde, et cela ne passe pas par un cloud public. Cela fait écho au rapport de CertiK — ils ont constaté qu’environ 15% des compétences d’OpenClaw comportaient des intentions malveillantes de « vidage de wallet ». La confidentialité et la sécurité ne sont plus des sujets marginaux.
Quant au tweet viral de Marc Andreessen sur « la psychose de l’IA », honnêtement, il n’a pas grand-chose à voir avec l’adoption réelle. Le moteur central reste l’économie : selon les estimations de la communauté, les modèles open source exécutés localement pour les tâches non critiques permettent d’économiser environ 90% des coûts.
L’engouement pour les agents se heurte aux coûts réels
Le sujet s’est propagé à cause de la réponse d’Andreessen à propos de « la panique de l’IA ». Les optimistes citent Clawptimizer.ai, affirmant qu’il permet d’économiser 90% de coûts ; les sceptiques amplifient les avertissements de CertiK concernant le détournement des sessions via des plugins. Résultat : OpenClaw connaît une croissance rapide, mais c’est une arme à double tranchant — les données GitHub sont très bonnes, mais si l’isolation du sandbox et des permissions n’est pas correctement réalisée, la vitesse d’adoption pourrait être ralentie.
En parallèle, les endpoints gratuits Moonshot Kimi de NVIDIA et les offres VPS à moins de 5 dollars/mois corroborent aussi le point de vue de Musk : la tarification des modèles de pointe à 5–25 dollars par million de tokens n’est tout simplement pas durable dans des scénarios où des agents tournent 24/7. L’inférence locale sur AMD Ryzen atteint 51 tokens/seconde, et le rapport coût/efficacité des solutions locales s’améliore.
Le financement n’a pas encore donné un prix à cette migration hybride. Les acheteurs entreprises veulent davantage une « IA vérifiable » qu’une « simple puissance de calcul », ce qui rend les solutions open source flexibles plus attrayantes que les plateformes fermées.
Jugement central : Ce tweet controversé montre en réalité un point d’inflexion de l’IA hybride. Pour contrôler les coûts et protéger la confidentialité, les Builder ont déjà commencé à adopter le modèle « local d’abord + orchestration de pointe », mais le financement et le marché secondaire ne suivent pas encore. Le pouvoir de décision des laboratoires se dilue progressivement au profit des outils d’autonomie et de la pile vérifiable. Pour les entreprises, éviter l’enfermement par les API via une couche vérifiable Web3 est un choix plus intelligent.
Importance : élevée
Catégorie : tendances de l’industrie / sécurité de l’IA / outils pour développeurs
Conclusion : Les Builder et les fonds à moyen/long terme conservent encore un avantage de premier entrant dans cette direction. Si des capitaux de type transactionnel ne parient que sur des plateformes d’API en code fermé, la direction est mauvaise et en plus c’est déjà tard. L’architecture hybride local d’abord et l’infrastructure vérifiable seront une source de rendements excédentaires sur les 12–24 prochains mois.