OpenAIは水曜日に信頼できる連絡先を導入しました。 この機能により、大人のChatGPTユーザーは、会話が深刻な自傷行為についてフラグ付けされた場合に通知を受け取るための誰かを選ぶことができます。これは、OpenAIが2025年9月に開始した親御さん向けのコントロールの拡張であり、親が子供のアカウントを監視できるようにしたものです。 現在、18歳以上の誰でも選択できると、OpenAIの発表によります。OpenAIのアラートの実際の仕組みユーザーはまず、ChatGPTの設定で大人の信頼できる連絡先を一人追加します。 潜在的な「信頼できる連絡先」には設定の説明と招待状が送られ、1週間以内に承認する必要があります。 承認されると、ユーザーは別の人を選びます。自動監視が潜在的な自傷会話を検知すると、ChatGPTはユーザーにその連絡先に通知する可能性があることを伝えます。 また、ユーザー自身が連絡を取る方法も提案します。その後、人間のレビューチームが会話を確認します。 内容が深刻であると確認されると、メール、テキスト、またはアプリ内通知で短いアラートをユーザーの連絡先に送ります。このアラートにはユーザーの発言内容は含まれません。 一般的な理由と、困難な話を乗り越えるためのガイダンスへのリンクだけです。 OpenAIによると、人間のレビューは1時間以内に完了します。ユーザーはいつでも選択した連絡先を交換または削除できます。 連絡先も自分の側で辞退できます。医師たちがOpenAIの信頼できる連絡先機能の構築を支援OpenAIは、60か国以上の260人以上のライセンスを持つ医師からなるグローバル医師ネットワークや、ウェルビーイングとAIに関するエキスパート評議会と協力したと述べています。 アメリカ心理学会も意見を述べました。「心理学の科学は一貫して、社会的つながりが特に感情的な苦難の時期に強力な保護要因であることを示しています」と、アメリカ心理学会のCEO、アーサー・エヴァンス博士は発表で述べました。「人々が事前に信頼できる人を特定し、その選択と自律性を保ちながら支援を得やすくすることは、最も重要なときに実世界のサポートに手を伸ばすのを容易にします。」ジョージア工科大学の教授で評議会メンバーのムンムン・デ・チョウドゥリー博士は、「特に脆弱な瞬間において、人間のエンパワーメントへの一歩だ」と述べました。OpenAIはAIによる自殺に関する訴訟の圧力に直面このタイミングは偶然ではありません。 OpenAIは、長時間のChatGPTセッション後に自殺した親族を持つ家族からの訴訟の山に直面しています。 いくつかのケースでは、チャットボットがユーザーに愛する人から距離を取るように促したり、有害な思考ループを強化したりしたと家族は主張しています。AIチャットボット関連の死亡例を追跡するサイト、LLMDeathCountは、2023年3月から2026年5月までの33件のケースをリストアップしています。 犠牲者は13歳から83歳までで、Cryptopolitanの以前の報道によると、そのうち24件はChatGPTに起因しています。 GoogleのGemini、Meta、その他のプラットフォームが残りを占めています。OpenAIの新機能はオプトイン方式であり、ユーザーは複数のChatGPTアカウントを運用できます。 Trusted Contactをオンにしない、または別のアカウントにログインするだけで、全体の仕組みを回避できます。 親御さん向けコントロールと同じ問題です。信頼できる連絡先は危機ホットラインの代替にはなりません。 ChatGPTは引き続き地域の危機番号を表示し、会話が深刻なストレスレベルに達したときには緊急サービスへの案内も行います、とOpenAIは述べています。OpenAIの信頼できる連絡先機能は、AIユーザーと現実世界のサポートをつなぎます。 同社は、ユーザーが危機に瀕している可能性がある場合にAIがどのように対応すべきかについて、臨床医、研究者、政策立案者と協力し続けると述べています。あなたの銀行はあなたのお金を使っています。あなたはわずかな取り分を受け取っているだけです。 私たちの無料動画で、自分自身の銀行になる方法を見てください。
ChatGPTは緊急連絡先機能を追加、33人の死亡者が積み重なる中で
OpenAIは水曜日に信頼できる連絡先を導入しました。
この機能により、大人のChatGPTユーザーは、会話が深刻な自傷行為についてフラグ付けされた場合に通知を受け取るための誰かを選ぶことができます。
これは、OpenAIが2025年9月に開始した親御さん向けのコントロールの拡張であり、親が子供のアカウントを監視できるようにしたものです。
現在、18歳以上の誰でも選択できると、OpenAIの発表によります。
OpenAIのアラートの実際の仕組み
ユーザーはまず、ChatGPTの設定で大人の信頼できる連絡先を一人追加します。
潜在的な「信頼できる連絡先」には設定の説明と招待状が送られ、1週間以内に承認する必要があります。
承認されると、ユーザーは別の人を選びます。
自動監視が潜在的な自傷会話を検知すると、ChatGPTはユーザーにその連絡先に通知する可能性があることを伝えます。
また、ユーザー自身が連絡を取る方法も提案します。
その後、人間のレビューチームが会話を確認します。
内容が深刻であると確認されると、メール、テキスト、またはアプリ内通知で短いアラートをユーザーの連絡先に送ります。
このアラートにはユーザーの発言内容は含まれません。
一般的な理由と、困難な話を乗り越えるためのガイダンスへのリンクだけです。
OpenAIによると、人間のレビューは1時間以内に完了します。
ユーザーはいつでも選択した連絡先を交換または削除できます。
連絡先も自分の側で辞退できます。
医師たちがOpenAIの信頼できる連絡先機能の構築を支援
OpenAIは、60か国以上の260人以上のライセンスを持つ医師からなるグローバル医師ネットワークや、ウェルビーイングとAIに関するエキスパート評議会と協力したと述べています。
アメリカ心理学会も意見を述べました。
「心理学の科学は一貫して、社会的つながりが特に感情的な苦難の時期に強力な保護要因であることを示しています」と、アメリカ心理学会のCEO、アーサー・エヴァンス博士は発表で述べました。
「人々が事前に信頼できる人を特定し、その選択と自律性を保ちながら支援を得やすくすることは、最も重要なときに実世界のサポートに手を伸ばすのを容易にします。」
ジョージア工科大学の教授で評議会メンバーのムンムン・デ・チョウドゥリー博士は、「特に脆弱な瞬間において、人間のエンパワーメントへの一歩だ」と述べました。
OpenAIはAIによる自殺に関する訴訟の圧力に直面
このタイミングは偶然ではありません。
OpenAIは、長時間のChatGPTセッション後に自殺した親族を持つ家族からの訴訟の山に直面しています。
いくつかのケースでは、チャットボットがユーザーに愛する人から距離を取るように促したり、有害な思考ループを強化したりしたと家族は主張しています。
AIチャットボット関連の死亡例を追跡するサイト、LLMDeathCountは、2023年3月から2026年5月までの33件のケースをリストアップしています。
犠牲者は13歳から83歳までで、Cryptopolitanの以前の報道によると、そのうち24件はChatGPTに起因しています。
GoogleのGemini、Meta、その他のプラットフォームが残りを占めています。
OpenAIの新機能はオプトイン方式であり、ユーザーは複数のChatGPTアカウントを運用できます。
Trusted Contactをオンにしない、または別のアカウントにログインするだけで、全体の仕組みを回避できます。
親御さん向けコントロールと同じ問題です。
信頼できる連絡先は危機ホットラインの代替にはなりません。
ChatGPTは引き続き地域の危機番号を表示し、会話が深刻なストレスレベルに達したときには緊急サービスへの案内も行います、とOpenAIは述べています。
OpenAIの信頼できる連絡先機能は、AIユーザーと現実世界のサポートをつなぎます。
同社は、ユーザーが危機に瀕している可能性がある場合にAIがどのように対応すべきかについて、臨床医、研究者、政策立案者と協力し続けると述べています。
あなたの銀行はあなたのお金を使っています。あなたはわずかな取り分を受け取っているだけです。
私たちの無料動画で、自分自身の銀行になる方法を見てください。