Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
« Combien de puissance de calcul à acheter ? Tout » : Le co-fondateur d'OpenAI affirme que 1100 milliards de dollars ne suffisent toujours pas à répondre à la demande, la pré-formation s'oriente désormais vers une optimisation conjointe des coûts
Selon le suivi de 1M AI News, le cofondateur d’OpenAI, Greg Brockman, a, lors d’une interview, évoqué la progression spectaculaire des capacités de programmation de l’IA en décembre 2025. Il a utilisé, pour mesurer l’avancée, un test qu’il conserve depuis des années : faire construire par l’IA un site web qu’il avait, à l’époque, mis plusieurs mois à apprendre à programmer et à terminer. Sur l’ensemble de l’année 2025, cette tâche exigeait plusieurs cycles de prompts et environ quatre heures pour être correctement réalisée ; en décembre, un seul prompt suffit, et la qualité était excellente. Il affirme que son nouveau modèle permet à l’IA de passer de « capable de réaliser environ 20 % des tâches » à « environ 80 % », et que ce saut a contraint tout le monde à « réorganiser impérativement ses processus de travail autour de l’IA ».
Concernant l’utilisation des 110 milliards de dollars de financement, Brockman compare la puissance de calcul à « l’embauche de commerciaux » : tant que le produit dispose de canaux de vente capables d’être mis à l’échelle, embaucher davantage de commerciaux génère davantage de revenus. La puissance de calcul n’est pas un centre de coûts, mais un centre de revenus. Il se remémore une discussion avec son équipe juste avant la publication de ChatGPT : « Ils ont demandé : “De combien de puissance de calcul avons-nous besoin ?” J’ai dit : “Toute.” Ils ont dit : “Non non non, sérieusement, de combien exactement ?” J’ai dit : “Peu importe comment on construit, on ne pourra pas suivre la demande.” » Ce constat reste valable à ce jour, et l’achat de puissance de calcul doit être verrouillé 18 à 24 mois à l’avance.
Au sujet de la manière d’utiliser cette puissance de calcul, Brockman révèle qu’OpenAI ne cherche plus à tout prix à maximiser la taille de l’entraînement préalable, mais qu’elle fait de la capacité de pré-entraînement et du coût d’inférence des objectifs d’optimisation conjointe : « Vous n’avez pas forcément besoin d’être aussi grand que possible, parce que vous devez aussi tenir compte de l’importante quantité de scénarios d’utilisation en aval, où il y a beaucoup d’inférence. Ce que vous voulez vraiment, c’est la solution optimale en termes d’intelligence multipliée par le coût. » Mais il s’oppose clairement à l’idée que « le pré-entraînement n’est plus important », estimant qu’un modèle de base plus intelligent améliore l’efficacité des étapes ultérieures d’apprentissage par renforcement et d’inférence et que, par conséquent, il « faut absolument » encore des GPU Nvidia pour soutenir un entraînement centralisé à grande échelle.