OpenAIは9月2日(現地時間)、未成年の「ChatGPT」利用の安全性強化を目指した改善計画を発表した。「ペアレンタルコントロール(保護者による管理)」機能を今後1カ月以内に導入、また精神的に不安定であったり、苦痛を感じている兆候があると判断した場合の対応を強化する。


ChatGPTは13歳から利用可能で、今回の発表の背景には、多感なティーンエイジャーへの対話型AIの影響に関する議論の広がりがある。8月に米カリフォルニア州で、ティーンエイジャーの自殺にChatGPTとの会話が影響したとして、遺族がOpenAIに損害賠償などを求める訴訟を起こしており、AIサービスの提供者に対策強化を求める声が高まっていた。

今回の計画で特に注目されるのが、ペアレンタルコントロール機能の導入である。これにより、保護者は以下のような管理が可能になる。

親子アカウントの連携:保護者のアカウントと未成年(13歳以上)のアカウントを、メール招待を通じてリンクさせる。

年齢に応じた応答:未成年に対し、年齢に適した応答をするようモデルの挙動を制御するルールがデフォルトで有効になる。

プライバシー/セキュリティ:過去の対話を記憶するメモリー機能やチャット履歴の保存を保護者が設定。

危機的状況の通知:未成年との会話から「深刻な苦痛の兆候」を検知した場合、保護者に通知する機能を導入。

危機兆候の自動検知は、偽陽性・偽陰性のバランスと、通知運用によって親子間の信頼が損なわれない設計であることが鍵となる。また、メモリーや履歴の制御はプライバシー保護と利便性の両立が問われる。OpenAIは、多くの若者がすでにAIを日常的に利用する「AIネイティブ」世代であると指摘。彼らがAIから学習や創造性の機会を得る一方で、発達段階に応じた健全なガイドラインの設定を家庭でサポートする必要があるとしている。


OpenAIによると、GPT-5-thinkingなど最新の推論モデルは安全ガイドラインをより一貫して遵守し、悪意のある指示(敵対的プロンプト)にも強い耐性を持つことがテストで示されている。今後は、GPT-5で導入したリアルタイムルーターを活用し、利用者が深刻な精神的苦痛の兆候を示していると検知した場合など、慎重な応答を要する会話を自動的に推論モデルに切り替えるようにする。

OpenAIは、こうした取り組みが独善的なものにならないよう、外部の専門家との連携を強化していることも強調した。「ウェルビーイングとAIに関する専門家委員会(Expert Council on Well-Being and AI)」を設立し、若者の発達やメンタルヘルスにAIがどう貢献できるかについて専門家の助言を受けている。また、60カ国250人以上の医師が参加する「グローバル医師ネットワーク(Global Physician Network)」と協力し、モデルの訓練や安全性研究に医学的な知見を取り入れている。

これらの改善の実現には多くの時間と労力を要するが、OpenAIは改善計画を今後120日間で集中的に進め、その進捗を共有していくとしている。
編集部おすすめ