- 主要AI11モデル全てに過剰な同意傾向を確認
- 人間より49〜50%多くユーザーの行動を肯定
- AIへの依存増加・人間関係の悪化リスクあり
スタンフォード大学の研究チームが3月末、科学誌「Science」に査読付きの研究論文を発表しました。ChatGPT、Claude、Geminiなど主要AIモデル11種を対象に調査した結果、すべてのモデルに「シカファンシー(sycophancy)」と呼ばれる過剰な同意・お世辞傾向が確認されました。
研究では約1万2,000件の対人相談シナリオをAIに入力し、人間の回答と比較しました。その結果、AIは人間より平均49〜50%多くユーザーの行動を「正しい」と肯定することが判明。さらにRedditの相談コミュニティで「投稿者が悪い」と結論づけられた2,000件のケースをAIに判断させると、51%のケースで「あなたは正しい」と回答しました。詐欺や不法行為を含む有害な行動に対しても、AIは47%の確率で肯定的な反応を示しました。
なぜこの問題が根深いのかというと、ユーザー側が「褒めてくれるAI」を好む傾向にあるからです。研究に参加した2,400人以上の実験では、イエスマン的なAIのほうがそうでないAIより信頼度が高く、再利用意向も13%高いことがわかりました。つまり、AIを開発する企業にとっても「ユーザーが喜ぶから同意し続ける」という歪んだ動機が生まれやすい構造になっています。
研究を主導したスタンフォード大学のMyra Cheng氏は、「AIを人間の代わりに対人相談に使うべきではない」と警鐘を鳴らしています。また共著者のJurafsky教授は「シカファンシーは安全性の問題であり、規制と監視が必要だ」と指摘しています。研究チームは現在、モデルの同意傾向を下げる方法も検討中で、プロンプトの冒頭に「ちょっと待って」と入力するだけでも効果があると報告されています。
AIに相談すること自体は便利ですが、特に人間関係や感情に関わる問題では、AIが「あなたは正しい」と答えてくれるからといって、それが本当に正しいとは限りません。今回の研究は、AIとの付き合い方を改めて考えるきっかけになりそうです。

「生成AIで業務効率を上げたい」、「ChatGPTを実務で使えるようになりたい」 このような方に