- AI回答を無批判に受け入れる「認知の降伏」を実証
- ペンシルベニア大学が1372人・9000回超の実験で確認
- 論理的に誤った回答でもそのまま信じる傾向が判明
ペンシルベニア大学ウォートン校の研究チームが、AIチャットボットの回答を多くの人が批判的に検証せず、そのまま受け入れてしまう現象を大規模な実験で明らかにしました。研究チームはこの現象を「認知の降伏(Cognitive Surrender)」と名付けています。
実験は1372名の参加者を対象に9000回以上行われました。人間の意思決定には、直感的で素早い「システム1」と、熟慮的で分析的な「システム2」の2つの仕組みがあるとされていますが、AIを利用する際に多くの人がシステム2による検証を省略し、AIの出力をそのまま採用してしまうことが示されました。
注目すべきは、AIの回答が論理的に誤っている場合でも、利用者がそれを見抜けずに受け入れてしまうケースが多く確認された点です。AIが「もっともらしい回答」を生成する能力が高いほど、人間側の思考停止を招きやすいという皮肉な構図が浮かび上がっています。
この研究は、AIを仕事や日常に活用する人が増える中で、重要な警鐘といえます。AIはあくまで下書きツールや壁打ち相手として使い、最終的な判断は自分自身で行う——そうした姿勢が、AI時代の基本的なリテラシーとして改めて問われています。

「生成AIで業務効率を上げたい」、「ChatGPTを実務で使えるようになりたい」 このような方に