Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le co-fondateur d'OpenAI affirme que $110 milliard ne suffit toujours pas à répondre à la demande, le pré-entraînement se déplace vers une optimisation conjointe des coûts
Selon le suivi de 1M AI News, le cofondateur d’OpenAI, Greg Brockman, a réfléchi, lors d’une interview, à l’ampleur des progrès attendus des capacités de programmation de l’IA d’ici décembre 2025. Il a utilisé un prompt de test qu’il avait gardé pendant des années pour mesurer l’avancement : demander à l’IA de construire un site web qui lui avait pris des mois à réaliser quand il apprenait à programmer. Tout au long de 2025, cette tâche nécessitait plusieurs prompts et environ quatre heures pour être accomplie ; d’ici décembre, elle pouvait être réalisée avec un seul prompt, avec une qualité élevée. Il a déclaré que le nouveau modèle permettait à l’IA de passer de « être capable d’accomplir environ 20% des tâches » à « environ 80% », un changement qui oblige tout le monde à « réorganiser les flux de travail autour de l’IA ». Concernant l’allocation des 110 milliards de dollars de financement, Brockman a comparé la puissance de calcul à « l’embauche de commerciaux » : tant que le produit dispose d’un canal de vente évolutif, embaucher davantage de commerciaux peut générer davantage de revenus. La puissance de calcul n’est pas un centre de coûts, mais un centre de revenus. Il a rappelé une conversation avec son équipe à la veille de la sortie de ChatGPT : « Ils ont demandé : “De quelle puissance de calcul devons-nous acheter ?” J’ai répondu : “Tout.” Ils ont répliqué : “Non, non, non, sérieusement, de combien faut-il acheter ?” J’ai répondu : “Peu importe comment on s’y prend, on ne pourra pas suivre la demande.” » Ce jugement reste vrai aujourd’hui, et l’achat de puissance de calcul doit être verrouillé 18 à 24 mois à l’avance. Quant à la manière d’exploiter cette puissance de calcul, Brockman a révélé qu’OpenAI ne poursuit plus uniquement la recherche de la plus grande échelle de pré-entraînement, mais optimise conjointement les capacités de pré-entraînement et les coûts d’inférence : « Vous n’avez pas nécessairement besoin que ce soit aussi grand que possible, parce qu’il faut aussi tenir compte des nombreux cas d’utilisation en aval de l’inférence ; ce que vous voulez vraiment, c’est la solution optimale d’intelligence multipliée par le coût. » Cependant, il s’est fermement opposé à l’idée que « le pré-entraînement n’est plus important », estimant que plus le modèle de base est intelligent, plus l’efficacité des étapes ultérieures de renforcement et d’inférence est élevée, et qu’il existe encore un « besoin absolu » de GPU Nvidia pour soutenir un entraînement centralisé à grande échelle.