この記事でわかること:
- ChatGPTが繊細な会話の文脈を理解する新機能「セーフティ・サマリー」の仕組み
- 自殺や自傷に関する安全な応答率が最大50%向上した背景
- 2026年5月に登場した「信頼できる連絡先」機能の詳細
- 世界で週120万人が自殺関連の会話をしているAIメンタルヘルスの現状
- 日本でもAI安全性の議論が広がっており、技術進歩と安全性のバランスが求められている
ChatGPTが「繊細な会話」を理解する新機能とは
OpenAI(オープンエーアイ)は2026年5月、ChatGPT(チャットジーピーティー)が繊細な会話の文脈をより適切に認識できるよう改善したと発表しました。特に注目されるのは、メンタルヘルス(心の健康)に関する会話での安全性向上です。
新しい仕組みは「セーフティ・サマリー」と呼ばれています。これは、過去の会話の中から安全に関わる重要な情報を短い要約として保存する技術です。たとえば、1つのメッセージだけを見ると普通の質問に見えても、過去の会話で悩みを打ち明けていた場合、その文脈を踏まえて適切に対応できるようになりました。
OpenAIのチームは、安全性を専門に判断するAIモデルを訓練しました。このモデルが会話の履歴を分析し、リスクが高まっているかを見極めます。つまり、ChatGPTは「今この瞬間の言葉」だけでなく、「これまでの会話の流れ」も理解して答えるようになったのです。
重要なのは、これらの要約は限られた期間だけ保存され、深刻な安全上の懸念がある場合にのみ使われる点です。プライバシー保護にも配慮した設計となっています。
安全な応答率が最大50%向上した理由
OpenAIは、メンタルヘルス専門家と2年以上かけて協力してきました。その結果、自殺や自傷行為に関する会話で、安全な応答をする確率が50%も向上したと報告しています。他人を傷つける恐れがある会話でも、16%の改善が見られました。
さらに注目すべきは、最新モデル「GPT-5.5 Instant」での成果です。このモデルでは、他害のケースで52%、自殺・自傷のケースで39%も安全応答率が向上しました。これは、AIが長い会話の中で徐々に高まるリスクの兆候を捉えられるようになった証拠です。
どうしてこれほど改善したのでしょうか。理由は3つあります。1つ目は、長時間の会話をシミュレーション(模擬実験)する新しい評価手法を導入したこと。2つ目は、メンタルヘルス分野の専門家が警告サインの認識方法をAIに教えたこと。3つ目は、モデルのポリシー(ルール)と訓練方法を更新したことです。
つまり、単なる技術改善だけでなく、人間の専門家の知見をAIに組み込んだことが、大きな成果につながったのです。これは、AIと人間が協力することの重要性を示す好例といえます。
5月に登場した「信頼できる連絡先」機能
2026年5月、OpenAIは「Trusted Contact(トラステッド・コンタクト)」という新機能を発表しました。日本語では「信頼できる連絡先」という意味です。これは、成人のChatGPTユーザーが、友人や家族を1人登録できる機能です。
この機能の仕組みはこうです。まず、ユーザーがChatGPTの設定画面で信頼できる連絡先を登録します。登録された人には招待が送られ、1週間以内に承諾すると機能が有効になります。その後、もしChatGPTの自動監視システムが「このユーザーは自傷行為について深刻な話をしているかもしれない」と判断した場合、専門トレーニングを受けた少人数のチームが状況を確認します。
そして、本当に深刻な安全上の懸念があると判断された場合のみ、登録された連絡先にメールやテキストメッセージで通知が送られます。ただし、会話の内容やスクリーンショットは送られません。あくまで「安全上の懸念がある」という一般的な通知だけです。
この機能は、プライバシーを守りながら、困難な状況にいる人を助ける仕組みとして設計されました。臨床医や自殺予防の専門機関からの助言を受けて開発されています。現在、対象地域の個人ユーザー向けに提供されており、企業や教育機関のアカウントでは利用できません。
週120万人が自殺関連の会話—AIメンタルヘルスの現状
OpenAIによると、ChatGPTは毎週9億人以上に利用されています。そのうち約120万人が自殺に関する会話をしていると推計されています。これは全体の約0.13%にあたります。また、利用者の0.07%が、メンタルヘルスの緊急兆候を示していると報告されています。
この数字は、AIが現代社会でメンタルヘルスの分野において大きな役割を担いつつあることを示しています。専門家によると、対話型AI(会話ができるAI)は、24時間いつでも相談できる利点がある一方で、臨床的な判断力が不足しているという課題も指摘されています。
たとえば、アメリカの非営利団体とスタンフォード大学の調査では、ChatGPTなどの対話型AIは10代の若者のメンタルヘルスに対して「完全に安全とは言えない」という結果が出ています。AIは適切なケアを提供するための専門知識や、危機的状況を正確に判断する能力がまだ十分ではないのです。
だからこそ、OpenAIは継続的に安全対策を強化しています。2025年9月には保護者が子どものChatGPT利用を管理できるペアレンタルコントロール(保護者向け制限機能)を導入しました。そして今回の「信頼できる連絡先」機能も、その延長線上にある取り組みです。
日本でも広がるAI×メンタルヘルスの議論
日本でも、AIとメンタルヘルスをめぐる議論が活発になっています。日本のメディアは、OpenAIの今回の発表を「週120万人が自殺兆候を含む会話をしている」という衝撃的な数字とともに報じました。
海外では規制の動きも進んでいます。アメリカのニューヨーク州は2026年11月、対話型AIに対して自殺念慮や自傷行為の兆候を検知し、専門機関へ案内する安全対策を義務付ける法律を施行しました。カリフォルニア州でも、未成年を保護するための同様の規制法が2026年1月に施行されています。
日本では現在、AIに特化したメンタルヘルス規制はありませんが、労働者のデジタルメンタルヘルス支援の議論が進んでいます。また、精神科医や心療内科の専門家からは、「AIメンタル相談はメリットもあるが、症状を悪化させるリスクもある」という警告も出されています。
重要なのは、AIはあくまで補助的な役割であり、専門的な医療の代わりにはならないという認識です。OpenAIも公式に「ChatGPTは医療アドバイスを提供するものではない」と明記しており、深刻な悩みがある場合は必ず専門家に相談するよう呼びかけています。
今後、AIがメンタルヘルス分野でどのような役割を果たすべきか、日本でも議論が深まることが期待されます。技術の進歩と安全性のバランスをどう取るかが、大きな課題となるでしょう。
まとめ
- OpenAIはChatGPTに「セーフティ・サマリー」機能を追加し、会話の文脈を理解して安全性を高めた
- メンタルヘルス専門家との協力により、自殺・自傷関連の安全応答率が最大50%向上
- 2026年5月に「信頼できる連絡先」機能が登場し、危機的状況で家族や友人に通知できるようになった
- 世界で週120万人が自殺関連の会話をしており、AIのメンタルヘルス対応が重要な課題に
- 日本でもAI安全性の議論が広がっており、技術進歩と安全性のバランスが求められている

