Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI suspend la mise en service de la fonctionnalité de chat pour adultes en raison d'échecs dans la vérification de l'âge
OpenAI a freiné le lancement de sa fonctionnalité de discussion pour adultes sur ChatGPT, invoquant des défauts critiques dans la technologie de prédiction de l’âge. D’après des données de NS3.AI, l’incapacité du système à distinguer avec précision les mineurs des adultes s’est révélée plus problématique que prévu, identifiant des adolescents comme des adultes environ 12% du temps. Ce taux d’échec a immédiatement soulevé des drapeaux rouges concernant l’impact sur la sécurité de la fonctionnalité pour les utilisateurs plus jeunes.
Le défi de la vérification de l’âge
Le problème central tient aux limites techniques des algorithmes de prédiction de l’âge. Lors du déploiement de fonctionnalités spécifiquement conçues pour les utilisateurs adultes, une vérification précise de l’âge devient primordiale. Le taux d’erreur de 12% découvert par des analystes de sécurité signifie que des milliers d’utilisateurs mineurs pourraient potentiellement contourner les garde-fous prévus pour les protéger. Le Conseil d’experts d’OpenAI sur le bien-être et l’IA a officiellement signalé ces préoccupations en janvier, avertissant que la fonctionnalité de discussion pour adultes risquait d’exposer des populations vulnérables à des contenus ou des interactions inappropriés.
Se prémunir contre les préjudices potentiels
Plutôt que de lancer un produit défectueux, OpenAI a choisi l’approche prudente : mettre temporairement de côté l’initiative de discussion pour adultes jusqu’à ce que la technologie s’améliore. Cette décision souligne l’engagement de l’entreprise en faveur d’un déploiement responsable de l’IA et de la protection des utilisateurs. Ce choix reflète la reconnaissance plus large au sein de l’industrie selon laquelle aller vite avec des fonctionnalités d’IA peut comporter des risques importants, en particulier lorsque des mineurs sont impliqués. En retardant le déploiement, OpenAI privilégie l’intégrité plutôt que la rapidité, afin de garantir que toute future mise en œuvre de la discussion pour adultes disposera de mécanismes de vérification de l’âge plus robustes.