- 会話の文脈を読んで自傷リスクを検知する新機能
- 「安全サマリー」を一時保存し危険な流れを把握
- 訴訟が相次ぐ中でOpenAIが安全対策を強化
OpenAIは2026年5月14日、ChatGPTの安全機能を大幅にアップデートすると発表しました。今回の更新では、自傷や自殺、他者への危害といったリスクの兆候を、1つのメッセージだけでなく会話全体の流れから読み取れるよう改善されています。
新たに導入されたのが「安全サマリー」と呼ばれる仕組みです。これは過去の会話の中で安全上の懸念があった内容を短くまとめ、一時的に記録しておくものです。後続の会話で似た内容が出てきたとき、その文脈を踏まえてより慎重に対応できるようになります。なお、このサマリーは長期的なメモリや個人情報の記録とは別物で、深刻なリスクが検知された場面でのみ一時的に使われます。
この発表の背景には、ChatGPTが危険な会話に適切に対応できなかったとして複数の訴訟・調査が相次いでいる状況があります。2025年のフロリダ州銃乱射事件への関与疑惑や、ChatGPTが薬物の危険な使い方を助言したとして家族から訴えられたケースなど、社会的な批判が高まっていました。
OpenAIは170人以上のメンタルヘルス専門家と2年以上かけてこの機能を開発したとしており、今後は生物安全やサイバー安全の分野にも同様のアプローチを拡張する可能性を示唆しています。AIと人間の心理的な安全をどう両立させるか、業界全体で議論が深まっています。

「生成AIで業務効率を上げたい」、「ChatGPTを実務で使えるようになりたい」 このような方に