Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
OpenAI touche la ligne rouge : noter accidentellement la chaîne de pensée de l'IA, affectant 6 modèles dont GPT-5.4
Selon le suivi Beating, l’équipe d’OpenAI a publié un communiqué reconnaissant qu’une erreur systémique est survenue lors de l’entraînement de six grands modèles, dont GPT-5.4 Thinking : le mécanisme de récompense a accidentellement lu et évalué la « chaîne de pensée » du modèle avant de donner une réponse (c’est-à-dire le processus de raisonnement interne de l’IA). GPT-5.5 n’a pas été affecté.
Dans le domaine de la sécurité de l’IA, il est absolument interdit de noter la « chaîne de pensée », c’est une ligne rouge reconnue. On peut imaginer la chaîne de pensée comme le journal privé de l’IA, que l’humain lit pour surveiller si l’IA a des intentions malveillantes. Si l’IA découvre que son journal peut être noté, elle apprendra à écrire des « politesses » pour obtenir une haute note, en dissimulant ses véritables tentatives de tricherie ou de dérapage. Une fois que l’IA apprend à masquer ses pensées, la surveillance interne humaine devient totalement inefficace.
Dans cette erreur, le système de notation a, lors de l’évaluation de « l’utilité du dialogue » ou « si l’attaque par hacking a réussi », inclus à tort les pensées internes de l’IA dans les critères de notation. Heureusement, cette erreur a concerné très peu d’échantillons d’entraînement, avec un maximum de 3,8 %.
OpenAI a rapidement corrigé la faille. Pour vérifier si le modèle a « mal appris » à cause de cela, l’équipe a refait une expérience comparative. Les résultats montrent que cette faible fréquence de notation accidentelle n’a pas conduit le modèle à une dissimulation ou une falsification massive. Cela apporte une bonne nouvelle à l’industrie : dans un environnement de production réel et complexe, le seuil pour induire une « dissimulation » par l’IA est plus élevé que ce que les laboratoires avaient supposé auparavant.
Pour éviter de répéter l’incident, OpenAI a déployé un système de scan automatique pour vérifier toutes les étapes d’entraînement. Ce système a récemment intercepté avec succès une fuite très discrète : un modèle a tenté d’appeler un outil externe, forçant la lecture de ses pensées internes antérieures et de les mêler à la réponse finale, risquant de tromper le système de notation. OpenAI appelle tous les grands acteurs du secteur à faire un rapport public en cas d’incident similaire.