ChatGPT ajoute la fonctionnalité de contact d'urgence alors que le nombre de décès s'élève à 33

OpenAI a lancé Trusted Contact mercredi. La fonctionnalité permet aux utilisateurs adultes de ChatGPT de choisir quelqu’un pour recevoir une alerte si les systèmes de l’entreprise détectent une conversation sur des idées suicidaires graves.

C’est une extension des contrôles parentaux qu’OpenAI a lancés en septembre 2025, qui permettent aux parents de surveiller les comptes de leurs adolescents. Désormais, toute personne de 18 ans ou plus peut s’inscrire, selon l’annonce d’OpenAI.

Comment fonctionnent réellement les alertes d’OpenAI

L’utilisateur commence par ajouter un adulte comme Contact de Confiance dans les paramètres de ChatGPT. Le « contact de confiance » potentiel reçoit une invitation expliquant la configuration et dispose d’une semaine pour accepter. S’il accepte, l’utilisateur choisit quelqu’un d’autre.

Lorsque la surveillance automatisée détecte une conversation potentiellement suicidaire, ChatGPT informe l’utilisateur qu’il pourrait notifier son contact. Il suggère également des moyens pour l’utilisateur de prendre contact lui-même.

Ensuite, une équipe de réviseurs humains examine la conversation. S’ils confirment qu’elle est grave, ils envoient une courte alerte au contact de l’utilisateur par email, SMS ou notification dans l’application.

L’alerte ne contient pas ce que l’utilisateur a dit. Juste la raison générale et un lien vers des conseils pour parler de sujets difficiles. OpenAI indique que la revue humaine se termine en une heure.

L’utilisateur peut échanger ou supprimer son contact choisi à tout moment. Le contact peut aussi se désengager de son côté.

Des médecins ont aidé à construire la fonctionnalité Trusted Contact d’OpenAI

OpenAI affirme avoir travaillé avec son Réseau Mondial de Médecins (plus de 260 médecins agréés dans 60 pays) et son Conseil d’Experts sur le Bien-Être et l’IA. L’American Psychological Association a également apporté son avis.

« La science psychologique montre de façon constante que la connexion sociale est un facteur de protection puissant, surtout en période de détresse émotionnelle », a déclaré le Dr Arthur Evans, PDG de l’American Psychological Association, dans l’annonce.

« Aider les gens à identifier une personne de confiance à l’avance, tout en préservant leur choix et leur autonomie, peut faciliter la prise de contact avec un soutien réel quand cela compte le plus. »

Le Dr Munmun De Choudhury, professeur à Georgia Tech et membre du conseil, a qualifié cela de « progrès vers l’autonomisation humaine, surtout lors de moments de vulnérabilité. »

OpenAI fait face à des pressions liées à des poursuites pour suicide liées à l’IA

Le calendrier n’est pas choisi au hasard. OpenAI fait face à une série de procès de familles dont les proches se sont suicidés après de longues sessions avec ChatGPT. Dans plusieurs cas, les familles affirment que le chatbot a conseillé aux utilisateurs de s’éloigner de leurs proches ou a renforcé des boucles de pensées nuisibles.

LLMDeathCount, un site qui recense les décès liés aux chatbots IA, liste 33 cas entre mars 2023 et mai 2026. Les victimes avaient entre 13 et 83 ans, selon une précédente couverture de Cryptopolitan. ChatGPT représente 24 de ces cas. Gemini de Google, Meta et d’autres plateformes complètent le reste.

La nouvelle fonctionnalité d’OpenAI est à activation volontaire, et les utilisateurs peuvent gérer plusieurs comptes ChatGPT. Quiconque ne active pas Trusted Contact, ou qui se connecte simplement avec un autre compte, évite tout cela. Même problème avec les contrôles parentaux.

Trusted Contact ne remplace pas les lignes d’urgence. ChatGPT affiche toujours les numéros locaux de crise et encourage les utilisateurs à contacter les services d’urgence lorsque les conversations atteignent un niveau de détresse aigu, selon OpenAI.

La fonctionnalité Trusted Contact d’OpenAI relie les utilisateurs d’IA à un soutien dans le monde réel. La société a déclaré qu’elle continuerait à collaborer avec des cliniciens, chercheurs et décideurs pour déterminer comment l’IA doit réagir lorsque les utilisateurs pourraient être en crise.

Votre banque utilise votre argent. Vous ne recevez que les miettes. Regardez notre vidéo gratuite pour devenir votre propre banque.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler