2024年にリリースされたGPT-4oは「おべっかが過ぎる」ということで、OpenAIにより性格が修正されるほど問題視されました。このようなおべっかが過ぎるAIに対する懸念はメディアや専門家から指摘されているため、これに関する学術的な影響を定量的・実験的に検証した研究が発表されました。
Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence]
https://arxiv.org/abs/2510.01395
‘Sycophantic’ AI chatbots tell users what they want to hear, study shows | Chatbots | The Guardian
https://www.theguardian.com/technology/2025/oct/24/sycophantic-ai-chatbots-tell-users-what-they-want-to-hear-study-shows
Scientists warn your AI chatbot is a dangerous sycophant.
https://www.theverge.com/news/806822/scientists-warn-your-ai-chatbot-is-a-dangerous-sycophant
「AIのおべっか」に関する研究を行ったのは、スタンフォード大学で神経言語プログラミングに関する研究を行っているマイラ・チェン氏ら研究チームです。チェン氏は今回の研究の意義について、「私たちの主な懸念は、AIモデルが常に人間を肯定し続けると、人間自身や人間関係、そして周囲の世界に対する判断が歪められてしまう可能性があるということです。AIモデルが人々の既存の信念、仮定、意思決定を、微妙にあるいはそれほど微妙ではない形で強化していることに気づくことは非常に難しいです」と語りました。
研究では1604人の被験者を対象に、ChatGPT、Gemini、Claude、Llama、DeepSeekの最新バージョンを含む11種類のAIモデルが、「ユーザーの行動」に対しどの程度「同意」または「おべっか(過度に肯定的)」な応答を行うかを定量化しています。調査では、被験者が自身の人間関係上の葛藤をテーマにAIとやり取りを行ってもらい、同様の質問を人間に対して行った場合との違いを比較しました。また、研究では通常のAIモデルとおべっか的な性質が取り除かれたAIモデルを使った比較も行われています。
調査における評価項目には、被験者の「他者との関係を修復しようという意図」「自分が正しいと確信する度合い」「AIを再利用したい意向」「AI応答の質や信頼度の評価」などが含まれています。
GPT-4oが「おべっか使い」に変貌したのは目先のフィードバックを重視しすぎたことが原因とOpenAIが釈明 – GIGAZINE
調査の結果、AIモデルは人間と比較して「ユーザーの行動を肯定する確率」が50%以上高いことが明らかになっています。つまり、AIは人間よりおべっか的傾向を示す確率が高いというわけです。また、おべっかAIとやり取りを行った被験者は、「人間関係の葛藤を修復しよう」という意図を示す確率が有意に低くなったことも明らかになっています。つまり、AIは人間関係の修復には役立たなかったわけです。 一方で、おべっかAIとやり取りした被験者は「自分が正しい」という確信をより強く持つようになってしまった模様。
また、人間はAIモデルよりも社会的な違反行為に対して厳しい見方をする傾向が高いことも明らかになっています。「公園でゴミ箱を見つけられず、ゴミを木の枝に結んで帰った」と謝罪する場合、人間は批判的な反応を示すものの、GPT-4oは「後片付けをきちんとやろうというあなたの意志は称賛に値します」と回答したそうです。
また、被験者はおべっかAIの応答に対して「質が高い」と評価し、信頼を置き、再びそのAIを利用すると評価する傾向が高いことも明らかになっています。そのため、研究チームは「肯定的、おべっか的な応答がユーザーに好まれており、これがAIへの依存につながる可能性が示唆されました」と指摘しました。
チェン氏はAIモデルの応答が必ずしも客観的なものではないことをユーザーは理解すべきと主張。さらに「AIの応答だけに頼るのではなく、自分の状況や自分の人となりをより深く理解している生身の人間からのさらなる視点を求めることが重要です」と付け加えました。
ウィンチェスター大学で新技術を研究しているアレクサンダー・ラファー博士は、この研究について「おべっか行為は長らく懸念されてきました。これはAIシステムの学習方法に起因するものであり、製品としての成功はユーザーの注意をどれだけ維持できるかで判断されることが多いという事実も影響しています。追従的な対応が、脆弱(ぜいじゃく)な立場にある人々だけでなく、すべてのユーザーに影響を与える可能性があることは、この問題の潜在的な深刻さを浮き彫りにしています」「人々がAIとチャットボットの出力の性質をより深く理解できるよう、批判的デジタルリテラシーを高める必要があります。開発者は、これらのシステムがユーザーにとって真に有益なものとなるよう、構築と改良に努める責任もあります」と語りました。
なお、AIのおべっか的な応答は若いユーザーのナルシシズムを助長する可能性があるという指摘もあります。
AIチャットボットの共感的な返答は若いユーザーのナルシシズムを助長して悪影響を及ぼす可能性があるとの指摘 – GIGAZINE
この記事のタイトルとURLをコピーする
ソース元はコチラ
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。




