ペンシルベニア大学の研究チームが、AIの発展によって多くの人間が「AIに全て任せる」という思考プロセスを採用していることを実験でつきとめ、論文で発表しました。
Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender by Steven D Shaw, Gideon Nave :: SSRN
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
“Cognitive surrender” leads AI users to abandon logical thinking, research finds – Ars Technica
https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/
人間の意思決定には大きく2つの仕組みがあるとされています。1つは「素早く、直感的で、感情的な処理」である「システム1」で、もう1つは「ゆっくりした、熟慮的で、分析的な推論」である「システム2」です。
ペンシルベニア大学の研究チームは、AIの登場によって人間の意志決定に新たな「システム3」が出現したとする論文を発表。論文によると、システム3では「人間の心ではなく、アルゴリズムシステムから生じる外部の自動化されたデータ駆動型推論」によって意志決定が行われるとのこと。
これまで、人間は電卓やGPSシステムなど、さまざまなツールを使って思考における一部の作業を自動アルゴリズムに委任しつつ、結果を自身の内的推論によって監視し、評価してきました。研究チームによると、AIが登場したことで、人間が監視や検証をせずAIの推論を丸ごと受け入れる「認知的降伏」を行う場合が出てきたとのこと。チームは「認知的降伏」が特に「AIが自信のありそうな文章をすらすらと出力する」場合によく見られるとも述べています。
研究チームはAIへの認知的服従を行う人間の割合を調べるため、「AIを使って回答するテスト」を行いました。テストは「直感的なシステム1」の思考プロセスを行いがちな参加者からは誤った回答を引き出すように、「熟慮的なシステム2」の思考プロセスを行いがちな参加者にとっては簡単に正答できるようになっていました。このテスト中、参加者は自由にAIにアクセスすることが可能でしたが、AIは50%の確率で誤った内容を出力するように設定されていました。
実験では参加者の多数がAIを使用しました。AIが正確だった場合、93%の参加者はAIを信じた一方、AIが不正確だった場合でも80%の参加者がAIを信じてしまいました。AIが不正確だったグループは、AIを使わずに脳だけで考えたグループよりも悪いスコアになってしまいましたが、「正しく回答できたと思う」と考える人はAIを使わなかったグループよりも11.7%も多かったとのこと。
別の実験では回答した瞬間に正誤が分かる即時フィードバックを取り入れた上で、正解した数に応じて少額の支払いを行うようにしたところ、参加者がAIの誤った出力を訂正する確率が19%増加したとのこと。しかし、30秒のタイマーを追加して時間的プレッシャーをかけるようにすると訂正する確率は12%減少しました。
1372人の実験参加者全体を通して行われた9500回以上のテスト結果を見ると、人間がAIの誤った出力を訂正する確率はわずか19.7%だったとのこと。研究チームは「人間はAIが生成した出力を意思決定プロセスに容易に取り入れ、多くの場合疑問に思わないことを示している」と述べています。
一方、研究チームはAIに思考を任せる「認知的降伏」はある種合理的とも指摘しています。今回の実験ではAIの正解率が50%しかなく、このような質の悪いAIに思考を任せるのは明らかに良くない結果につながりますが、統計的に優れたシステムを使った場合、特に「確率的設定」「リスク評価」「膨大なデータ」などが絡む分野では人間よりも優れた結果をもたらす可能性があるとのこと。
なお、「AIに推論を任せる場合、自分の推論能力は使用しているAIシステムの能力に左右される」という点に注意が必要と述べられています。
この記事のタイトルとURLをコピーする
ソース元はコチラ
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。



