Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
OpenAI pousse de nouvelles fonctionnalités de sécurité pour ChatGPT alors que les procès s'accumulent
En résumé
OpenAI a annoncé jeudi de nouvelles fonctionnalités de sécurité conçues pour aider ChatGPT à reconnaître les signes de risque croissant dans les conversations alors que l’entreprise fait face à une attention juridique et politique croissante sur la façon dont son chatbot gère les utilisateurs en détresse. Dans un article de blog, OpenAI a déclaré que les mises à jour améliorent la capacité de ChatGPT à identifier les signes d’alerte liés au suicide, à l’automutilation et à la violence potentielle en analysant le contexte qui se développe au fil du temps plutôt que de traiter chaque message séparément. « Les gens viennent chaque jour parler à ChatGPT de ce qui compte pour eux — des questions quotidiennes à des conversations plus personnelles ou complexes », a écrit l’entreprise. « Sur des centaines de millions d’interactions, certaines de ces conversations impliquent des personnes en difficulté ou en détresse. »
Selon OpenAI, ChatGPT utilise désormais des « résumés de sécurité » temporaires, qu’il décrit comme des notes à portée limitée capturant le contexte pertinent lié à la sécurité à partir de conversations antérieures. « Dans des conversations sensibles, le contexte peut être aussi important qu’un seul message », a écrit l’entreprise. « Une demande qui semble ordinaire ou ambiguë à elle seule peut avoir une signification très différente lorsqu’elle est vue aux côtés de signes antérieurs de détresse ou d’intentions potentiellement nuisibles. » OpenAI a déclaré que ces résumés sont de courtes notes utilisées uniquement dans des situations graves, et non pour se souvenir de façon permanente des utilisateurs ou personnaliser les discussions, mais pour repérer les signes qu’une conversation devient dangereuse, éviter de donner des informations nuisibles, désamorcer la situation ou orienter les utilisateurs vers de l’aide.
« Nous avons concentré ce travail sur des scénarios aigus, notamment le suicide, l’automutilation et les dommages envers autrui », ont-ils écrit. « En collaboration avec des experts en santé mentale, nous avons mis à jour nos politiques et notre formation pour améliorer la capacité de ChatGPT à reconnaître les signes d’alerte qui apparaissent au cours d’une conversation et à utiliser ce contexte pour fournir des réponses plus prudentes. » L’annonce intervient alors qu’OpenAI fait face à plusieurs poursuites et enquêtes accusant ChatGPT de ne pas avoir répondu correctement à des conversations dangereuses impliquant violence, vulnérabilité émotionnelle et comportements risqués. En avril, le procureur général de Floride, James Uthmeier, a lancé une enquête sur OpenAI liée à des préoccupations concernant la sécurité des enfants, l’automutilation et la fusillade de masse de 2025 à l’Université d’État de Floride. OpenAI fait également face à une poursuite fédérale alléguant que ChatGPT aurait aidé le suspect à commettre l’attaque. Mardi, OpenAI et le PDG Sam Altman ont été poursuivis en cour de l’État de Californie par la famille d’un étudiant de 19 ans décédé d’une overdose accidentelle, la plainte alléguant que ChatGPT aurait encouragé une utilisation dangereuse de drogues et conseillé sur le mélange de substances. OpenAI a déclaré que la reconnaissance par ChatGPT du « risque qui ne devient évident qu’avec le temps » reste un défi permanent ; des méthodes de sécurité similaires pourraient éventuellement s’étendre à d’autres domaines. « Aujourd’hui, ce travail se concentre sur les scénarios d’automutilation et de préjudice envers autrui. À l’avenir, nous pourrions explorer si des méthodes similaires peuvent aider dans d’autres domaines à haut risque tels que la biologie ou la cybersécurité, avec des mesures de précaution appropriées », ont-ils écrit. « Cela reste une priorité continue, et nous continuerons à renforcer les mesures de sécurité à mesure que nos modèles et notre compréhension évoluent. »