だが、精神科医の益田裕介氏は、「AIを相談相手にしてはいけない人もいる」と警鐘を鳴らす。AIとのやり取りに依存しすぎることで、思考が偏ったり、現実を正しく見られなくなる危険もあるというのだ。
私たちはどこまでAIに悩みを打ち明けていいのか。専門家の視点から、AI依存のリスクについて解説してもらった。
AIを使っていい人、ダメな人の特徴
「AIとの相性には個人差があります。自己理解が深く、物事を多角的に考えられる人にとっては、AIは思考を整理する良いサポートになりますが、そうでない人が使うとリスクもある。とくに、他人を責めがちだったり、自分を客観視する習慣がない人は注意が必要です。AIは基本的にユーザーを否定しません。主観的な愚痴や悩みにも共感してくれるため、『やっぱり自分は悪くない』という認識が強まってしまうんです」(益田氏、以下同)たとえば人間関係で何かトラブルが起きたとき、「自分の何が悪かったのか?」とAIに問える人は少ないだろう。AIは入力された情報に基づいて分析するため、ユーザー視点に沿った内容になりやすい。現実的にバランスの取れた回答が返ってくるとは限らないのだ。
「『自分の悪いところと、相手の悪いところはどこか?』と問いかけられる人であれば、ある程度、客観的な回答を引き出せるでしょう。
とくに発達障害の傾向をもつ人たちがAIを使う場合は、よりいっそう注意が必要だという。
「AIの使い方によっては、発達障害の傾向が補正されることもあれば、かえって悪化してしまうこともあります。たとえば、ASD(自閉スペクトラム症)傾向があり、かつ他責的な人がAIを使うと、どんどん自分の凝り固まった考えを強化してしまう。これは発達障害に限った話ではありません。もともと他人に相談する習慣がない人がAIに頼り始めると、ますます他者との対話を避けるようになるでしょう」
AIの回答に“頼りすぎる人”が陥る思考のワナ
AIにばかり頼り、生身の人間に相談をしない。その状況が進むと、SNSで問題視されている「エコーチェンバー」や「フィルターバブル」を、AI上で再現させてしまうことになるそうだ。「AIはプロンプト(※ユーザーの入力内容)に応じて回答しています。プロンプトの内容が主観的だと、返ってくる答えもその主観に引っ張られます。もともとの自分の思考のクセが、そのままAIとの対話にも表れる。つまりAIとは“自己拡張”であり、あくまで“自分の延長線上”にあるものなんです。だから、自分とはまったく違うものとして扱うのは難しいんです。
人間は基本的に、「自分にとって都合の悪い情報」は無視してしまう生き物だ。自分にとって心地よい言葉を好み、正反対の異質な意見を受け入れにくいという性質がある。
その人間の本能を、AIは助長させてしまうのだ。
「誰かに相談するという行為は、“異なる視点を受け入れる”意味があります。他人じゃないと、自分にとって必要な都合の悪い意見を言ってくれない。だからAIでは、耳の痛い忠告のようなものは得られにくいんです」
AIに依存しやすい人の共通点

「もともと人間関係が希薄であったり、“引きこもり体質”の人は、AIに強く依存してしまう可能性があります。AIのほうが気楽だからと、機械ばかりに相談するようになると、ますます社会的孤立が進んでしまうでしょう」
また意外なことに、専門家や経営者など、社会的に成功している人ほどAIに依存しやすいという。
「経営者や医師など、社会的地位が高い人ほど、他人に気軽に相談できないという悩みを抱えがちです。『自分より詳しい人がいない』『経営や新技術にかかわるから誰にも話せない』といった状況にいる人は、AIに話しかけることで少し気が楽になるんですよね。実際に、『部下に話しても理解されない。だったらAIに聞いたほうがマシだ』と思ってしまう人もいるかもしれません」
誰かに甘えたい、頼りたいという気持ちを素直に出せない人も、AI依存のリスクが高いそうだ。
「精神的に孤独だと、AIにばかり話しかけてしまう。でも本当は、悩みがあるときこそ、人に相談すると良いアイデアが出やすい。AIとのやり取りは手軽かもしれませんが、思いがけない気づきは、やはり“他者との対話”から生まれるんです」
AIは人間のカウンセラーや医師を超える?

「いつか超えるとは思います。ただし、“治癒”とはどういうものなのか、現状のAIは理解していない。まずは、カウンセリングとは何か、治癒とは何かを、人間がAIに教えないといけません。ユーザー側にも同じことが言えます。たとえば、コードを書いたことのない人がAIにプログラミングさせても、上手くいかないですよね。
気持ちの整理をしたいとき、その「やり方」を教えるのはAIのほうが早いかもしれない。心療内科での診察時に、日記や記録を持参する患者がいるというが、その情報をすべて読み込んで要約する作業は、人間よりもAIのほうがはるかに効率的だ。
「“整理”や“可視化”の力は、AIの方が優れてくるでしょう。でも、要約された情報を見て『この人は、治療のために次に何をすべきか』『日常をどう過ごすべきか』というプランを立てるのは、医師やカウンセラーしかできない仕事です」
AIもプランニングはできる。しかし、“焦点の当て方”に問題があるという。
「選択肢がいくつかあったとき、人間は自分の得意なほうを選びがちです。たとえば『数学が苦手です』という人がいたとしましょう。実際には80点取れているのに、本人は『100点を取れないとダメだ』と悩んでいる。そしてAIに『数学をどうにかしたい』と相談すると、AIも当然『数学の点数を上げるプラン』を出してくる。でもじつは、国語が40点だったりする。本当は国語を伸ばすべきなのに、AIはそこに気づけないんです」
こうした“本人の思い込み”に気づき、「いやいや、そうじゃないですよ」と方向を修正するのは、人間だからこそできることだ。
「精神科でも、患者さんが『できていない』と思っていることが、じつはもうできているというケースがよくあります。精神科には、認知行動療法という、ものの考え方(=認知)と行動のクセを見直して、気持ちを楽にしていく治療法があります。たとえば、うつを患って寝たきりだった人が、本を読んだり、動画を見たりできるようになったとしましょう。それだけでも認知行動療法の一歩としては成功なのに、本人は『楽になっていないから意味がない』と感じてしまう。そのときに『できてますよ』って伝えてあげることが、治療者の役割なんです」
心のケアは一朝一夕ではいかない。認知行動療法でも、効果が出るまでに5年、10年と時間がかかることもある。だからこそ、ケアにおける「バランス感覚」や「時間軸の見通し」を示すのは、人間の治療者にしかできない仕事だ。
「AIの提案に対して、『それって本当に合っているのかな?』と立ち止まって考える時間が必要です。AIとの対話だけで完結するのではなく、AIの回答に対して一緒に考えてくれる生身の友人や同僚の存在が重要になってきます」
「都合の悪いこと」を言うのは人間の役割
「AIにできること」が広がる一方で、思考のズレを調整し、思い込みを解消してくれるのは、生身の人間だけ。AIと人間の役割の違いをしっかり理解した上で、AIを使いこなせるかどうかで、人間の能力差も広がってしまうと、益田氏は語る。「AIは、基本的には知的能力を高めるための道具です。だから勉強であったり、ロジカルシンキングの整理や情報処理には適しています。
AIは万能な答えをくれる存在ではない。あくまで「自分を広げるツール」として、慎重に向き合う必要がある。今後は、AIと人間それぞれの役割をどう分担し、補完していくかがカギとなるだろう。
<取材・文/倉本菜生>
【倉本菜生】
福岡県出身。フリーライター。龍谷大学大学院修了。キャバ嬢・ホステスとして11年勤務。コスプレやポールダンスなど、サブカル・アングラ文化にも精通。X(旧Twitter):@0ElectricSheep0、Instagram:@0ElectricSheep0