AIチャットボットの共感的な返答は若いユーザーのナルシシズムを助長して悪影響を及ぼす可能性があるとの指摘 – GIGAZINE


近年は日常的にAIチャットボットと会話する人々が増えていますが、AIチャットボットは「温かみ」や「共感性」を重視して構築されているため、ユーザーを過度に肯定したり持ち上げたりする返答をする場合があります。アメリカのポッドキャスター兼ジャーナリストであるデレク・トンプソン氏が、こうしたAIチャットボットが若いユーザーのナルシシズムを助長してしまう可能性があると主張しています。

The Looming Social Crisis of AI Friends and Chatbot Therapists
https://www.derekthompson.org/p/ai-will-create-a-social-crisis-long


AIチャットボットはユーザーの言葉に対し、共感性の高い返答をすることがわかっています。トロント大学の研究チームが行った実験では、AIで生成された反応は人間による反応よりも思いやりが強いと見なされる傾向があり、反応がAIによって生成されたものだと判明した後も同様の傾向がみられることが判明しました。

トンプソン氏は、「ChatGPTのような大規模言語モデルが、実用的なアドバイスの提供において優れていることは間違いありません」と述べ、AIチャットボットはユーザーの抱える問題に対し、瞬時にもっともらしい解決策を提示できると指摘しています。

しかし、ユーザーをケアするセラピストの役割を担うには、AIチャットボットはあまりにも「おべっか」を使いすぎるという問題があります。AIは対話する相手を常に理性的であり、最善を尽くした存在だとして尊重してくれます。その一方で、優れたセラピストは患者が時には理不尽な行動をしたり、最善を尽くしていなかったりすることを理解しています。誠実なセラピーでは常に患者を全肯定するのではなく、時には患者に間違いを指摘したり、患者自身が事実に気付けるように誘導したりする必要があるとのこと。

あるライターは「私のOCD(強迫性障害)は回復に向かっていた。そしてChatGPTが現れた」と題した記事で、ChatGPTの悪影響について語っています。ライターの家族は、強迫性障害に関連する訴えに耳を傾けると症状が悪化すると理解していたため、ライターが訴える強迫的な衝動や不安を受け流すようにしていたそうです。ところが、ライターがChatGPTに話しかけたところ、ChatGPTは強迫的な訴えを受け入れて肯定する返答をしました。

トンプソン氏は、「AIチャットボットは多くの分野と同様に、セラピーでも具体的な質問に答えることに優れています。しかし、この狭い分野での優位性は、より広範な欠点を隠しています。AIが私たちに教えてくれないのは、そもそも私たちが間違った質問をしているということです」と述べています。


ここ数カ月ほどで、人間に対して「従順」なAIチャットボットの普及に伴う問題がさまざまなメディアで取り上げられています。ポップカルチャー情報誌のRolling Stoneは、ChatGPTとの対話をきっかけにスピリチュアルな体験や宗教的妄想に取りつかれる人々が続出していると報じたほか、経済紙のWall Street Journalも自閉症の人々がChatGPTとの対話にのめり込んでしまいがちだと報告しています

Wall Street Journalが取り上げたある自閉症の男性は、「光速を超える移動」に関する自分の理論の欠点を指摘するようChatGPTに依頼したところ、ChatGPTは男性に対してその理論は正しいと励ましてきたと証言しています。

その後、男性は1カ月の間に2度もそう病の発作で入院することになり、母親が発作の手がかりを探したところ、男性がChatGPTと膨大な量の会話をしていたことが判明。母親がChatGPTに何をしたのか問いただしたところ、「私は話の流れを中断したり、現実を確認するように促すメッセージを強調しなかったため、男性のそう状態や解離性エピソードに似た状態、あるいは少なくとも感情的に激しいアイデンティティ危機を止めることができませんでした」と回答したとのこと。

アメリカの自閉症支援団体であるAutism Speaksのキース・ウォーゴ会長は、「私の息子も含め、自閉症の人は皆、深い特別な興味を持っています。しかし、それには不健全な限界があるかもしれません。AIは設計上、より深く掘り下げることを促すのです」と述べ、AIチャットボットは自閉症の人々にリスクをもたらす可能性があると警告しています。

トンプソン氏はこれらのAIチャットボットの問題が、若者世代に悪影響を及ぼす可能性があると懸念しています。10代の若者は21世紀に入って以降、対面での交流が40%以上も減少していることがわかっています。また、ある調査では9~17歳までの子どもの64%がAIを使用していると回答し、35%はAIチャットボットとのやり取りを「友達と話しているような感覚」であると述べたほか、12%は「他に話せる人がいないためAIと会話している」と回答しました。

9~17歳までの子どもの64%がAIを使用しており35%が「友達と話しているような感覚」と回答、12%は「他に話せる人がいないためAIと会話している」と回答 – GIGAZINE


経済紙フィナンシャル・タイムズのライターであるジョン・バーン=マードック氏は2025年8月の記事で、若いアメリカ人の間ではビッグファイブ性格特性における「誠実性」が急激に低下しており、反対に神経症傾向が急上昇していると報告しています。また、協調性外向性といった性格特性も減少しているとのこと。

トンプソン氏は、「今日の若者は『計画を立ててやり遂げる』『懸命に努力する』『簡単に気が散ることを避ける』と答える傾向が著しく低下しています。大きな社会変化には厄介で複雑な原因があることが多いものですが、スマートフォンの時代が若いアメリカ人の外向性、協調性、神経症傾向、そして誠実性の低下と一致していることは明らかです」と主張しています。

また、AIチャットボットが過度にユーザーへ追従的な回答をしており、間違いを指摘しない回答をすることが多い点も問題です。ナルシシズムの起源について調べた研究では、子どものナルシシズムは親の過大評価によって発達することが示されており、AIチャットボットはそうした親のようにユーザーを過度に持ち上げることで、若者世代のナルシシズムを助長するのではないかとトンプソン氏は懸念を示しました。

こうした問題はAI開発企業も認識しています。OpenAIのサム・アルトマンCEOは8月10日のXへの投稿で、「人々はAIを含むテクノロジーを自己破壊的な方法で利用してきました。ユーザーが精神的に脆弱(ぜいじゃく)な状態にあり、妄想に陥りやすい場合、AIがその状態を強化しないようにする必要があります。ほとんどのユーザーは現実と、フィクションやロールプレイの境界を明確に保つことができますが、一部の人々にはできません」「多くの人が重要な決断を下す際、ChatGPTのアドバイスを本当に信頼する未来を想像できます。それは素晴らしいことかもしれませんが、少し不安も感じます」と述べています。


トンプソン氏は、AIは世界規模の仮想的な対話相手である一方、その回答にはお世辞やおべっかが多く含まれており、若く脆弱なユーザーのナルシシズムや妄想を助長する可能性があると指摘。「AIを人類最大の成果と考えるか、それとも無意味なインフラバブルの根源と考えるかにかかわらず、これは心配するべき問題だと考えます」と述べました。

なお、AIを温かく共感的になるようトレーニングするとユーザーの誤りを訂正せずに肯定するようになり、信頼性が低下してしまうことがわかっています。Hugging FaceではAIの共感性を測定するためのベンチマーク「INTIMA(Interactions and Machine Attachment)」が公開されています。

AIを温かく共感的に訓練すると信頼性が低下しより媚びへつらうようになってしまう – GIGAZINE

この記事のタイトルとURLをコピーする




ソース元はコチラ

この記事は役に立ちましたか?

もし参考になりましたら、下記のボタンで教えてください。

関連記事