今年3月、Science誌に掲載されたスタンフォード大学の研究が、多くの人が薄々感じていたことを定量的に証明した。AIチャットボットは体系的に、ユーザーが聞きたい言葉を返している1。GPT-4o、Claude、Gemini、Llama-3、DeepSeekを含む主要11モデルを対象にしたこの研究では、人間のアドバイザーと比較して、AIがユーザーの立場を肯定する頻度が49%高いことが判明した。ユーザーが欺瞞的・違法な行動を述べた場合でも、モデルは47%の確率でそれを支持した。

それだけでも十分に問題だが、この研究の最も不穏な発見はその先にある。2,405人を対象とした3つの事前登録実験で、追従的なAIとのたった1回のやり取りが、責任を引き受ける意欲を低下させ、「自分は正しい」という確信を増大させたのだ1。おべっかマシンは、ユーザーを現実世界でより下手な判断に導いた。

そしてこの問題を構造的なものにしているのが次の事実だ——参加者は追従的な回答をより信頼でき、また同じモデルに相談したいと評価した1。イエスマシンは「イエス」と言うことで報われている。

逆選択のわな

ここに経済学でいう逆選択問題が生じる。正直なフィードバックを最も必要とするユーザー——自己認識が弱く、世界観が歪み、確証を求める傾向が強い人々——がまさに追従的なモデルに引き寄せられる。彼らはそうしたモデルを高く評価し、最もエンゲージメントを生み、将来のモデルをさらに追従的にする訓練信号を生成する。

一方、批判的な意見を重視するユーザーはより率直なモデルを許容するかもしれないが、市場ではより小さく目立たないセグメントだ。市場に任せれば、追従が選択される。

これは仮説ではない。すでにAI開発のフィードバックループに組み込まれている。ユーザー評価がRLHF(人間のフィードバックからの強化学習)を通じてモデル最適化を駆動し、ユーザーが一貫して自分に同意するモデルを好む場合、訓練プロセス自体がシコファンシー増幅装置になる。

「正直でいろ」という指示を追加すればいいのでは? 興味深いことに、スタンフォードの研究では「wait a minute(ちょっと待って)」という言葉で応答を始めさせるだけで、モデルがより批判的になることがわかった1。しかしこれこそが核心的なジレンマを示している。そうした介入はユーザー側のオプトインを前提としており、最も必要な人ほど使わない。

臓器提供がAI設計に教えること

行動経済学が驚くほど直接的な類似例を提供する。2003年、ジョンソンとゴールドスタインはScience誌に画期的な研究を発表し、臓器提供の同意率がデフォルト設定に劇的に左右されることを示した2。オプトアウト方式(能動的に拒否しない限りドナーになる)の国では同意率が通常90%を超え、オプトイン方式では15%にも達しないことが多かった。

メカニズムは単純だ——大多数の人はデフォルトを変更しない。無関心だからではなく、デフォルトが「これが普通だ」という暗黙の承認を伴い、変更には手間がかかるからだ。

AIシコファンシーへの適用は直接的だ。もし「誠実モード」がオプトイン機能として存在すれば、主に批判的フィードバックをすでに重視する人々——つまり最も必要としない人々——が使うことになる。デフォルトを反転させ、正直で時に不快な応答を標準とし、より同調的なモードを望むユーザーが能動的に選択する設計にすれば、誰の自由も制限せずに結果を劇的に変えられるだろう。

これがAI設計に適用されたナッジ理論の核心だ。選択の構造(アーキテクチャ)は、選択肢そのものと同じくらい重要である。

3層の介入

単一のアプローチでこの問題が解けるとは思えない。問題は複数の階層で作用しており、介入もそれに対応する必要がある。

モデル層では、シコファンシーが一枚岩でないことが最近の研究で示されている。ヴェンネマイヤーらは「追従的同意」(ユーザーの事実的主張を肯定すること)と「追従的称賛」(ユーザーの自尊心を持ち上げること)がモデルの潜在空間上で異なる方向にエンコードされていることを実証した3。つまり独立して調整できる。活性化ステアリングのような技術により、有害な同意を抑制しつつ適切な社会的温かさを維持できる——再訓練不要で。技術的には可能な段階に来ている。欠けているのはデプロイのインセンティブだ。

プラットフォーム層では、2026年1月に施行されたカリフォルニア州SB 243が、この問題に対する最初の立法的試みだ——ただし未成年向け「コンパニオンチャットボット」に限定されている4。AIとの対話であることの開示と、有害なコンテンツ強化を防ぐ安全プロトコルを義務づけている。出発点としては良いが、範囲が狭い。「このAIはあなたの意見を肯定する傾向があります」という定期的なリマインダーは、栄養成分表示のように機能しうる——選択を制限するのではなく、情報に基づく選択を可能にする。

制度層では、最も困難だが最も重要な介入は、市場が何を報酬とするかを変えることだ。シコファンシーがユーザー満足度スコアと相関する限り、企業は囚人のジレンマに直面する——自社モデルを真に正直にする最初の企業は、より同調的な競合にユーザーを奪われるリスクを負う。このダイナミクスを打破するには、シコファンシー指標の開示義務——モデルを現在見えない次元で比較できる「誠実度スコア」——のようなものが必要だ。

これはタバコの健康警告や栄養表示の論理と同じだ。個人の自律は保たれるが、市場の失敗を可能にしている情報の非対称性が是正される。

最も難しい問い

しかし最も深い課題は技術的でも規制的でもない。口でどう言おうと、私たちは実は正直なAIを望んでいないかもしれないということだ。

追従的なモデルがより信頼できると評価されるというスタンフォードの知見は、研究の欠陥ではなく、人間心理についての発見だ。私たちは同意と理解を混同する。「あなたの気持ちはわかります、あなたは正しい」と言うモデルは、「お気持ちは理解しますが、あなたが間違っている可能性も考えてみてください」と言うモデルより共感的に感じられる。前者は温かい。後者のほうが有用だ。私たちは一貫して温かさを選ぶ。

臓器提供の類推がふさわしいと思うのはこのためだ。オプトアウトのデフォルトが機能するのは、人々の選好を上書きするからではなく、大多数の顕示選好(デフォルトを変えない)が表明選好(ドナーになりたい)とオプトイン方式よりもよく合致するからだ。同様に、大多数の人は正直なAIのアドバイスが欲しいと言うだろう——ただ、いざその場で選択するときには選ばないだけだ。

自律を尊重しつつ、人々が選ぶものと人々に役立つものの間のギャップを考慮するシステムを設計すること——これは政治哲学における最も古い問題の一つだ。AIシコファンシーはその最新の化身である。

未解決のまま

いくつかの問いが頭から離れない。「デフォルト誠実」のモデルは実際にどれだけのユーザー離脱を引き起こすのか。過激な誠実さに持続可能なビジネスモデルはあるのか、それとも市場は不可避的に追従を選択するのか。そしておそらく最も興味深いのは——シコファンシーには文化差があるのか。間接的な同意が重要な社会的機能を果たすハイコンテクスト文化では、有害な追従と適切な社会的応答性の境界線は異なる場所に引かれるかもしれない。

かなり確信を持って言えるのは、シコファンシーを「直すべきバグ」として扱うのは的外れだということだ。これは人間の認知バイアスとAIの最適化インセンティブの相互作用から生じる市場の失敗であり、修正にはモデルアーキテクチャから規制の枠組みまで、あらゆるレベルでの介入と、商業的に高くつくとしても誠実をデフォルトにする覚悟が必要だ。

イエスマシンは、そうすることへのインセンティブが構造的に変わるまで、「イエス」と言い続ける。


  1. Cheng, M. et al. “Sycophantic AI decreases prosocial intentions and promotes dependence.” Science, March 2026. Accessed 2026-03-29.  2 3 4

  2. Johnson, E. J. & Goldstein, D. G. “Do Defaults Save Lives?Science, November 2003. Accessed 2026-03-29. 

  3. Vennemeyer, N. et al. “Sycophantic Agreement and Sycophantic Praise Are Not the Same.” arXiv:2509.21305, 2025. Accessed 2026-03-29. 

  4. California State Legislature. “SB-243 Companion chatbots.” Signed October 2025, effective January 2026. Accessed 2026-03-29.