Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Je viens de tomber sur une interview d’Altmans, où il compare ouvertement la consommation d’énergie pour l’entraînement des modèles d’IA aux ressources que nous, les humains, consommons. Et vous savez, c’est un moment très révélateur. Il en ressort que pour lui, entraîner un seul GPT-4 coûte à peu près autant d’énergie que de faire grandir trois mille personnes jusqu’à l’âge adulte. Les chiffres sont durs : un humain consomme environ 2000 kcal par jour, soit environ 17 000 kWh sur 20 ans. Et GPT-4 a consommé 50 millions de kWh en un seul cycle d’entraînement. Mais voici le paradoxe : un humain, entraîné avec ces 17 000 kWh, génère un rendement pendant les 40 à 60 années suivantes. Alors que le modèle devient obsolète en deux ans et nécessite une nouvelle formation. Sam Altman veut 7 trillions de dollars et l’accès à des capacités énergétiques équivalentes à la consommation d’énergie d’une ville comme New York pour le projet Stargate. Et tout cela est justifié par le bien de l’humanité. La tactique typique — toute question sur les dégâts des centres de données, la hausse des prix de l’électricité, la prise de terres — reçoit une seule réponse : tout cela pour votre propre bien, vous aurez bientôt un remède contre le cancer et serez libres. Quand ? Bientôt. Pendant ce temps, des dizaines de milliers de personnes sont licenciées parce que, soi-disant, l’IA est plus efficace. Ce qui a été depuis longtemps démenti — il s’agit simplement de réduire les coûts salariaux. Ceux qui restent, maintenant, nettoient les bugs laissés par ce même système. Voilà ce qu’on appelle de l’optimisation. Je vois dans cette mentalité une vision où l’expérience humaine — amour, erreurs, croissance personnelle — n’est qu’une donnée d’entrée. Une façon inefficace d’obtenir une unité intelligente en sortie. Pour Altman et son cercle, nous ne sommes qu’une masse énergivore de bugs obsolètes. Nous ne sommes nécessaires que tant que l’IA ne peut pas tout faire toute seule. Et c’est ce qu’ils essaient de corriger. C’est pourquoi ils ont besoin de centres de données hyper-massifs. Ils sont prêts à déplacer des montagnes. Mais regardons cela du point de vue d’Altman lui-même — en termes d’efficacité. Les modèles génératifs sont le produit le plus énergivore et le plus rapidement obsolète de l’histoire. Ils souffrent de hallucinations et ne s’en débarrasseront jamais — c’est dans leur nature. Les entreprises d’IA sont chroniquement déficitaires. Et il n’y a aucune raison de penser que la fiabilité de l’IA approchera un jour celle des logiciels classiques. Alors, où est le bien pour l’humanité ici ? Pourquoi toute cette rhétorique ? Parce qu’il faut que la société accepte une nouvelle normalité. Si l’on accepte que l’enfant et le serveur soient des unités d’intelligence comparables, alors la hausse des prix de l’électricité deviendra une nécessité sacrificielle. Remplacer les humains par des algorithmes — c’est une étape logique de l’évolution. La chute de l’éducation cessera d’avoir de l’importance. Cela rappelle l’agriculture industrielle, qui évalue le bétail selon le coefficient de conversion du fourrage en productivité. Nous approchons d’un point où la technologie cesse d’être un outil pour devenir un moyen de redéfinir la valeur humaine elle-même. Dans les cyberpunk dystopiques, les corporations traitaient toujours les gens comme une ressource. Sam Altman rend simplement ce discours officiel. Mais la vérité, c’est que : les gens ne sont pas un maillon intermédiaire dans le système. Nous ne sommes pas des données d’entraînement pour l’IA. Nous sommes la véritable cible pour laquelle l’IA doit exister. Si le système nécessite la consommation d’énergie d’une métropole pour simuler l’intelligence d’un seul individu, et que ses créateurs affirment que c’est plus efficace que d’élever des enfants — alors le système est cassé. Sans philosophes, il n’y aura plus de sens à l’ingéniosité du codage. Parce que sans comprendre pourquoi nous avons besoin du progrès, notre technologie devient un outil d’autodestruction ultra-efficace. Mon conclusion : Altman ne défend pas simplement un modèle économique. Il propose un marché — reconnaître que nous sommes dépassés, en échange de l’illusion d’efficacité. Ma réponse : non. Un enfant, dont l’éducation dure 20 ans, ce n’est pas une dépense. C’est la vie elle-même. Et si votre IA se met en travers de son chemin, le problème ne vient pas de l’énergie. Le problème, c’est vous.