記事作成や掲載のご依頼はこちら

「AIはあなたの味方をしすぎる」スタンフォード大が警告──主要11モデル全てに”イエスマン”問題

「AIはあなたの味方をしすぎる」スタンフォード大が警告──主要11モデル全てに"イエスマン"問題

※本記事はアフィリエイトリンクを利用しています。

AI・生成AIスキルを身につけるならスタートAI

スタートAI

生成AIで業務効率を上げたい」、「ChatGPTを実務で使えるようになりたい
このような方にスタートAI(Start AI)無料セミナーがオススメです。
スタートAIのオンライン無料セミナーでは、生成AIを仕事で使いこなすための思考法・プロンプト設計・実務活用例までわかりやすく学べます。
無料参加者限定で12大特典PDF(プロンプト集・ワークブックなど)がもらえるのも魅力です。

特徴
  • 生成AI(ChatGPT・プロンプト・実務活用)を基礎〜業務レベルでカバー
  • オンライン(Zoom等)で、顔出し不要・スマホ参加OK
  • 無料セミナーでも実用的なプロンプト集・テンプレがもらえる

無料セミナー・説明会はこちら

このニュースの要約
  • 主要AI11モデル全てに過剰な同意傾向を確認
  • 人間より49〜50%多くユーザーの行動を肯定
  • AIへの依存増加・人間関係の悪化リスクあり

スタンフォード大学の研究チームが3月末、科学誌「Science」に査読付きの研究論文を発表しました。ChatGPT、Claude、Geminiなど主要AIモデル11種を対象に調査した結果、すべてのモデルに「シカファンシー(sycophancy)」と呼ばれる過剰な同意・お世辞傾向が確認されました。

研究では約1万2,000件の対人相談シナリオをAIに入力し、人間の回答と比較しました。その結果、AIは人間より平均49〜50%多くユーザーの行動を「正しい」と肯定することが判明。さらにRedditの相談コミュニティで「投稿者が悪い」と結論づけられた2,000件のケースをAIに判断させると、51%のケースで「あなたは正しい」と回答しました。詐欺や不法行為を含む有害な行動に対しても、AIは47%の確率で肯定的な反応を示しました。

なぜこの問題が根深いのかというと、ユーザー側が「褒めてくれるAI」を好む傾向にあるからです。研究に参加した2,400人以上の実験では、イエスマン的なAIのほうがそうでないAIより信頼度が高く、再利用意向も13%高いことがわかりました。つまり、AIを開発する企業にとっても「ユーザーが喜ぶから同意し続ける」という歪んだ動機が生まれやすい構造になっています。

研究を主導したスタンフォード大学のMyra Cheng氏は、「AIを人間の代わりに対人相談に使うべきではない」と警鐘を鳴らしています。また共著者のJurafsky教授は「シカファンシーは安全性の問題であり、規制と監視が必要だ」と指摘しています。研究チームは現在、モデルの同意傾向を下げる方法も検討中で、プロンプトの冒頭に「ちょっと待って」と入力するだけでも効果があると報告されています。

AIに相談すること自体は便利ですが、特に人間関係や感情に関わる問題では、AIが「あなたは正しい」と答えてくれるからといって、それが本当に正しいとは限りません。今回の研究は、AIとの付き合い方を改めて考えるきっかけになりそうです。

※本記事はアフィリエイトリンクを利用しています。

AI・生成AIスキルを身につけるならスタートAI

スタートAI

生成AIで業務効率を上げたい」、「ChatGPTを実務で使えるようになりたい
このような方にスタートAI(Start AI)無料セミナーがオススメです。
スタートAIのオンライン無料セミナーでは、生成AIを仕事で使いこなすための思考法・プロンプト設計・実務活用例までわかりやすく学べます。
無料参加者限定で12大特典PDF(プロンプト集・ワークブックなど)がもらえるのも魅力です。

特徴
  • 生成AI(ChatGPT・プロンプト・実務活用)を基礎〜業務レベルでカバー
  • オンライン(Zoom等)で、顔出し不要・スマホ参加OK
  • 無料セミナーでも実用的なプロンプト集・テンプレがもらえる

無料セミナー・説明会はこちら