Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Je viens de lire quelque chose qui m'a laissé assez déconcerté. The New Yorker vient de publier une enquête massive où des journalistes comme Ronan Farrow ont obtenu des documents internes d'OpenAI révélant un schéma préoccupant : apparemment, Sam Altman a menti systématiquement au conseil d'administration et aux cadres sur des questions critiques de sécurité.
Le point de départ est brutal. Ilya Sutskever, le principal scientifique d'OpenAI, a compilé un document de 70 pages il y a quelques années basé sur des messages Slack, des communications RH et des procès-verbaux de réunions. Sa conclusion en première ligne : Sam montre un schéma cohérent de mensonges. Un exemple concret mentionné dans l’enquête : en décembre 2022, Altman a assuré au conseil que plusieurs fonctionnalités de GPT-4 avaient passé une revue de sécurité. Lorsqu'ils ont demandé à voir les documents d’approbation, ils ont découvert que deux des caractéristiques les plus controversées n’avaient jamais été examinées par le panel de sécurité.
Mais ce qui m’a vraiment frappé, c’est ce qu’ils ont trouvé dans les notes personnelles de Dario Amodei, fondateur d’Anthropic et ancien responsable de la sécurité chez OpenAI. Plus de 200 pages où il documente comment l’entreprise reculait étape par étape sous la pression commerciale. Un détail clé : lorsque Microsoft a investi en 2019, ils ont négocié une clause de « fusion et assistance » qui garantissait que si un autre concurrent trouvait une voie plus sûre vers l’AGI, OpenAI devrait aider. Ça sonne bien sur le papier. Le problème, c’est que Microsoft a aussi obtenu un droit de veto sur cette même clause, ce qui en a fait une promesse vide dès le jour de la signature.
Il y a quelque chose qui paraît presque absurde mais qui est totalement réel : l’équipe de « superalignement » d’OpenAI. Altman a annoncé publiquement qu’ils consacreraient 20 % de leur capacité de calcul existante à la recherche sur l’alignement de l’IA, avec une valeur potentielle supérieure à un milliard de dollars. C’était une annonce sérieuse, évoquant des risques d’extinction humaine et tout ça. Mais quand des journalistes ont parlé à quatre personnes ayant travaillé dans cette équipe, la réalité était différente : la puissance de calcul allouée représentait seulement entre 1 % et 2 % du total, en plus d’être du matériel ancien. L’équipe a été dissoute sans avoir accompli sa mission.
Pendant ce temps, la CFO d’OpenAI, Sarah Friar, avait de graves divergences avec Altman concernant une éventuelle IPO. Friar pense que l’entreprise n’est pas prête à entrer en bourse cette année, compte tenu de la quantité de travail restant et des risques financiers liés à l’engagement d’Altman de dépenser 600 milliards en capacité de calcul en cinq ans. Mais voici le truc étrange : Friar ne reporte plus directement à Altman, mais à Fidji Simo, qui vient de prendre un congé pour raisons de santé. Une entreprise se préparant à une IPO avec de telles dynamiques internes, c’est, disons, compliqué.
Un ancien membre du conseil a décrit Altman avec deux traits simultanés : un désir sincère de plaire à chaque interaction en face à face, mais en même temps une indifférence presque sociopathique face aux conséquences de mentir aux autres. Selon le rapport, cette combinaison est rare chez les personnes mais parfaite pour un vendeur.
Ce qui m’inquiète, c’est que ce n’est pas seulement du gossip d’entreprise. OpenAI développe ce qu’ils décrivent eux-mêmes comme peut-être la technologie la plus puissante de l’histoire humaine. Une technologie qui pourrait reconfigurer l’économie, créer des armes biochimiques à grande échelle, ou lancer des attaques cybernétiques. Et les garde-fous de sécurité censés protéger contre ces risques ont été démantelés. L’ancien scientifique principal et l’ancien responsable de la sécurité considèrent le PDG comme peu fiable. Les cadres de Microsoft le comparent à SBF.
La réponse d’OpenAI à The New Yorker a été minimisatrice : ils ont dit que l’article reprend des événements déjà rapportés en utilisant des affirmations anonymes. Altman n’a pas répondu aux accusations spécifiques, il a seulement mis en doute les motivations des sources.
Dix ans d’OpenAI résumés : un groupe d’idéalistes crée une organisation à but non lucratif pour protéger l’humanité des risques liés à l’IA. Ils réalisent des avancées extraordinaires. Le capital afflue massivement. La mission commence à céder. L’équipe de sécurité est dissoute. Les critiques disparaissent. La structure à but non lucratif se transforme en entité à but lucratif. Le conseil qui avait le pouvoir de fermer l’entreprise est désormais rempli d’alliés du CEO. La société qui promettait de consacrer 20 % de sa puissance à la sécurité humaine a maintenant des porte-parole disant que la recherche sur la sécurité existentielle « n’est pas vraiment quelque chose qui existe ».
Et le protagoniste de cette histoire est sur le point de faire entrer OpenAI en IPO avec une valorisation supérieure à 850 milliards de dollars. Des centaines de témoins oculaires lui ont donné la même étiquette : il n’est pas soumis à la vérité.