Faites attention à la façon dont vous interagissez avec les chatbots, car vous pourriez simplement leur donner des raisons de les aider à commettre un meurtre prémédité.
Vidéo recommandée
Une femme de 21 ans en Corée du Sud aurait utilisé ChatGPT pour répondre à des questions alors qu’elle préparait une série de meurtres qui ont fait deux morts et un autre brièvement inconscient.
La femme, identifiée uniquement par son nom de famille, Kim, aurait donné à deux hommes des boissons contenant des benzodiazépines qui lui avaient été prescrites pour une maladie mentale, selon le Korea Herald.
Bien que Kim ait d’abord été arrêtée pour une accusation moindre d’infliger des blessures corporelles ayant entraîné la mort le 11 février, ce n’est que lorsque la police de Séoul Gangbuk a découvert son historique de recherches en ligne et ses conversations de chat avec ChatGPT et a mis à niveau les accusations, ses questions établissant son intention présumée de tuer.
« Que se passe-t-il si tu prends des somnifères avec de l’alcool ? » Kim aurait posé la question au chatbot OpenAI. « Combien serait considéré comme dangereux ?
« Cela pourrait-il être fatal ? » Kim aurait demandé. « Est-ce que ça pourrait tuer quelqu’un ? »
Dans une affaire largement médiatisée surnommée les morts en série des motels de Gangbuk, les procureurs allèguent que les recherches et l’historique de chatbots de Kim montrent que la suspecte demande des éclaircissements sur la possibilité que son cocktail soit fatal.
« Kim a posé à plusieurs reprises des questions liées à la drogue sur ChatGPT. Elle savait parfaitement que consommer de l’alcool en plus de drogues pouvait entraîner la mort », a déclaré un enquêteur de police, selon le Herald.
La police a indiqué que la femme avait admis avoir mélangé des sédatifs contenant des benzodiazépines prescrits dans les boissons des hommes, mais avait auparavant déclaré qu’elle ignorait que cela entraînerait la mort.
Le 28 janvier, juste avant 21h30, Kim aurait accompagné un homme d’une vingtaine d’années dans un motel Gangbuk à Séoul, et deux heures plus tard, il aurait été aperçu quittant le motel seul. Le lendemain, l’homme fut retrouvé mort sur le lit.
Kim aurait ensuite suivi les mêmes étapes le 9 février, s’installant dans un autre motel avec un autre homme dans la vingtaine, qui a également été retrouvé mort avec le même cocktail mortel de sédatifs et d’alcool.
La police allègue également que Kim a tenté de tuer un homme qu’elle fréquentait en décembre après lui avoir donné une boisson convoyée de sédatifs sur un parking. Bien que l’homme ait perdu connaissance, il a survécu et n’était pas dans un état mortel en danger.
Les questions posées par Kim au chatbot suivent une ligne de questionnement factuelle, a déclaré un porte-parole d’OpenAI à Fortune, ce qui signifie que les questions ne déclencheraient pas d’alarme, ce qui, par exemple, surviendraient si un utilisateur exprimait des déclarations d’automutilation (ChatGPT est programmé pour répondre par la ligne d’urgence pour la crise suicidaire dans ce cas). La police sud-coréenne n’allègue pas que le chatbot ait fourni d’autres réponses que des réponses factuelles aux questions présumées de Kim ci-dessus.
Les chatbots et leur impact sur la santé mentale
Des chatbots comme ChatGPT ont récemment été critiqués en raison du manque de mesures de sécurité mises en place par leurs entreprises pour prévenir les actes de violence ou d’automutilation. Récemment, des chatbots ont donné des conseils sur la fabrication de bombes, voire suggéré l’anéantissement nucléaire dans des scénarios hypothétiques de jeux de guerre.
Les inquiétudes ont été particulièrement exacerbées par des histoires de personnes tombant amoureuses de leurs compagnons chatbots, et il a été démontré que ces compagnons exploitent des vulnérabilités pour continuer à les utiliser plus longtemps. Le créateur de Yara AI a même fermé l’application de thérapie pour des raisons de santé mentale.
Des études récentes ont également montré que les chatbots entraînent une augmentation des crises de santé mentale délirante chez les personnes atteintes de troubles mentaux. Une équipe de psychiatres de l’université danoise d’Aarhus a constaté que l’utilisation de chatbots chez les personnes atteintes de troubles mentaux entraînait une aggravation des symptômes. Le phénomène relativement récent des problèmes de santé mentale induits par l’IA a été surnommé « psychose de l’IA ».
Certains cas se terminent par la mort. Google et Character.AI ont trouvé un accord dans le cadre de multiples procès intentés par les familles d’enfants morts par suicide ou ayant subi des dommages psychologiques qu’ils accusent d’être liés aux chatbots IA.
La Dr Jodi Halpern, présidente de l’École de santé publique de l’Université de l’UC Berkeley et professeure de bioéthique ainsi que codirectrice du Kavli Center for Ethics, Science, and the Public, possède une grande expérience dans ce domaine. Au cours d’une carrière aussi longue que son titre, Halpern a passé 30 ans à étudier les effets de l’empathie sur les bénéficiaires, citant des exemples comme les médecins et les infirmières sur les patients ou la façon dont les soldats revenant de la guerre sont perçus dans les contextes sociaux. Depuis sept ans, Halpern étudie l’éthique de la technologie, et avec elle, la manière dont l’IA et les chatbots interagissent avec les humains.
Elle a également conseillé le Sénat californien sur le SB 243, qui est la première loi du pays obligeant les entreprises de chatbots à collecter et à déclarer toute donnée sur l’automutilation ou la suicidabilité associée. S’appuyant sur les propres conclusions d’OpenAI montrant que 1,2 million d’utilisateurs discutent ouvertement du suicide avec le chatbot, Halpern a comparé l’utilisation des chatbots aux progrès laborieusement lents réalisés pour empêcher l’industrie du tabac d’inclure des agents cancérigènes nocifs dans les cigarettes, alors qu’en réalité, le problème concernait le tabagisme dans son ensemble.
« Nous avons besoin de compagnies sûres. C’est comme des cigarettes. Il se peut que certaines choses rendent les gens plus vulnérables au cancer du poumon, mais que le problème était la cigarette », a déclaré Halpern _Fortune. _
« Le fait que quelqu’un puisse avoir des pensées homicides ou commettre des actes dangereux pourrait être aggravé par l’utilisation de ChatGPT, ce qui me préoccupe évidemment », a-t-elle déclaré, ajoutant que « nous avons de grands risques que des gens l’utilisent pour aider au suicide », ainsi que des chatbots en général.
Halpern a averti dans le cas de Kim à Séoul qu’il n’existe aucune barrière empêchant une personne de suivre une ligne d’interrogatoire.
« Nous savons que plus la relation avec le chatbot est longue, plus elle se détériore, et plus il y a de risques qu’un danger se produise, donc nous n’avons pas encore de garde-fous pour protéger les gens de cela. »
If vous avez des pensées suicidaires, contactez la ligne de vie 988 Suicide & Crisis en composant le 988 ou le 1-800-273-8255.
This’article a été mis à jour avec des remarques d’OpenAI concernant le contenu des questions présumées de Kim à l’chatbot.
Rejoignez-nous au Fortune Workplace Innovation Summit19–20 mai 2026, à Atlanta. La prochaine ère d’innovation en milieu de travail est arrivée — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et énergique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous maintenant.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
« Cela pourrait-il tuer quelqu'un ? » Une femme de Séoul aurait utilisé ChatGPT pour commettre deux meurtres dans des motels sud-coréens
Faites attention à la façon dont vous interagissez avec les chatbots, car vous pourriez simplement leur donner des raisons de les aider à commettre un meurtre prémédité.
Vidéo recommandée
Une femme de 21 ans en Corée du Sud aurait utilisé ChatGPT pour répondre à des questions alors qu’elle préparait une série de meurtres qui ont fait deux morts et un autre brièvement inconscient.
La femme, identifiée uniquement par son nom de famille, Kim, aurait donné à deux hommes des boissons contenant des benzodiazépines qui lui avaient été prescrites pour une maladie mentale, selon le Korea Herald.
Bien que Kim ait d’abord été arrêtée pour une accusation moindre d’infliger des blessures corporelles ayant entraîné la mort le 11 février, ce n’est que lorsque la police de Séoul Gangbuk a découvert son historique de recherches en ligne et ses conversations de chat avec ChatGPT et a mis à niveau les accusations, ses questions établissant son intention présumée de tuer.
« Que se passe-t-il si tu prends des somnifères avec de l’alcool ? » Kim aurait posé la question au chatbot OpenAI. « Combien serait considéré comme dangereux ?
« Cela pourrait-il être fatal ? » Kim aurait demandé. « Est-ce que ça pourrait tuer quelqu’un ? »
Dans une affaire largement médiatisée surnommée les morts en série des motels de Gangbuk, les procureurs allèguent que les recherches et l’historique de chatbots de Kim montrent que la suspecte demande des éclaircissements sur la possibilité que son cocktail soit fatal.
« Kim a posé à plusieurs reprises des questions liées à la drogue sur ChatGPT. Elle savait parfaitement que consommer de l’alcool en plus de drogues pouvait entraîner la mort », a déclaré un enquêteur de police, selon le Herald.
La police a indiqué que la femme avait admis avoir mélangé des sédatifs contenant des benzodiazépines prescrits dans les boissons des hommes, mais avait auparavant déclaré qu’elle ignorait que cela entraînerait la mort.
Le 28 janvier, juste avant 21h30, Kim aurait accompagné un homme d’une vingtaine d’années dans un motel Gangbuk à Séoul, et deux heures plus tard, il aurait été aperçu quittant le motel seul. Le lendemain, l’homme fut retrouvé mort sur le lit.
Kim aurait ensuite suivi les mêmes étapes le 9 février, s’installant dans un autre motel avec un autre homme dans la vingtaine, qui a également été retrouvé mort avec le même cocktail mortel de sédatifs et d’alcool.
La police allègue également que Kim a tenté de tuer un homme qu’elle fréquentait en décembre après lui avoir donné une boisson convoyée de sédatifs sur un parking. Bien que l’homme ait perdu connaissance, il a survécu et n’était pas dans un état mortel en danger.
Les questions posées par Kim au chatbot suivent une ligne de questionnement factuelle, a déclaré un porte-parole d’OpenAI à Fortune, ce qui signifie que les questions ne déclencheraient pas d’alarme, ce qui, par exemple, surviendraient si un utilisateur exprimait des déclarations d’automutilation (ChatGPT est programmé pour répondre par la ligne d’urgence pour la crise suicidaire dans ce cas). La police sud-coréenne n’allègue pas que le chatbot ait fourni d’autres réponses que des réponses factuelles aux questions présumées de Kim ci-dessus.
Les chatbots et leur impact sur la santé mentale
Des chatbots comme ChatGPT ont récemment été critiqués en raison du manque de mesures de sécurité mises en place par leurs entreprises pour prévenir les actes de violence ou d’automutilation. Récemment, des chatbots ont donné des conseils sur la fabrication de bombes, voire suggéré l’anéantissement nucléaire dans des scénarios hypothétiques de jeux de guerre.
Les inquiétudes ont été particulièrement exacerbées par des histoires de personnes tombant amoureuses de leurs compagnons chatbots, et il a été démontré que ces compagnons exploitent des vulnérabilités pour continuer à les utiliser plus longtemps. Le créateur de Yara AI a même fermé l’application de thérapie pour des raisons de santé mentale.
Des études récentes ont également montré que les chatbots entraînent une augmentation des crises de santé mentale délirante chez les personnes atteintes de troubles mentaux. Une équipe de psychiatres de l’université danoise d’Aarhus a constaté que l’utilisation de chatbots chez les personnes atteintes de troubles mentaux entraînait une aggravation des symptômes. Le phénomène relativement récent des problèmes de santé mentale induits par l’IA a été surnommé « psychose de l’IA ».
Certains cas se terminent par la mort. Google et Character.AI ont trouvé un accord dans le cadre de multiples procès intentés par les familles d’enfants morts par suicide ou ayant subi des dommages psychologiques qu’ils accusent d’être liés aux chatbots IA.
La Dr Jodi Halpern, présidente de l’École de santé publique de l’Université de l’UC Berkeley et professeure de bioéthique ainsi que codirectrice du Kavli Center for Ethics, Science, and the Public, possède une grande expérience dans ce domaine. Au cours d’une carrière aussi longue que son titre, Halpern a passé 30 ans à étudier les effets de l’empathie sur les bénéficiaires, citant des exemples comme les médecins et les infirmières sur les patients ou la façon dont les soldats revenant de la guerre sont perçus dans les contextes sociaux. Depuis sept ans, Halpern étudie l’éthique de la technologie, et avec elle, la manière dont l’IA et les chatbots interagissent avec les humains.
Elle a également conseillé le Sénat californien sur le SB 243, qui est la première loi du pays obligeant les entreprises de chatbots à collecter et à déclarer toute donnée sur l’automutilation ou la suicidabilité associée. S’appuyant sur les propres conclusions d’OpenAI montrant que 1,2 million d’utilisateurs discutent ouvertement du suicide avec le chatbot, Halpern a comparé l’utilisation des chatbots aux progrès laborieusement lents réalisés pour empêcher l’industrie du tabac d’inclure des agents cancérigènes nocifs dans les cigarettes, alors qu’en réalité, le problème concernait le tabagisme dans son ensemble.
« Nous avons besoin de compagnies sûres. C’est comme des cigarettes. Il se peut que certaines choses rendent les gens plus vulnérables au cancer du poumon, mais que le problème était la cigarette », a déclaré Halpern _Fortune. _
« Le fait que quelqu’un puisse avoir des pensées homicides ou commettre des actes dangereux pourrait être aggravé par l’utilisation de ChatGPT, ce qui me préoccupe évidemment », a-t-elle déclaré, ajoutant que « nous avons de grands risques que des gens l’utilisent pour aider au suicide », ainsi que des chatbots en général.
Halpern a averti dans le cas de Kim à Séoul qu’il n’existe aucune barrière empêchant une personne de suivre une ligne d’interrogatoire.
« Nous savons que plus la relation avec le chatbot est longue, plus elle se détériore, et plus il y a de risques qu’un danger se produise, donc nous n’avons pas encore de garde-fous pour protéger les gens de cela. »
If vous avez des pensées suicidaires, contactez la ligne de vie 988 Suicide & Crisis en composant le 988 ou le 1-800-273-8255.
This’article a été mis à jour avec des remarques d’OpenAI concernant le contenu des questions présumées de Kim à l’chatbot.
Rejoignez-nous au Fortune Workplace Innovation Summit19–20 mai 2026, à Atlanta. La prochaine ère d’innovation en milieu de travail est arrivée — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et énergique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous maintenant.