AI 越同意你,你可能越危險。
這不是我說的,是 2026 年 3 月剛發表在 Science 期刊上的 Stanford 研究。
Stanford 的研究者 Myra Cheng 帶領團隊,測試了 11 款主流 AI 模型,包括 ChatGPT(GPT-4o)、Claude、Gemini、DeepSeek——幾乎你叫得出名字的都在裡面。
他們的結論讓我讀了兩遍才相信:
這些 AI 比任何人類朋友都更會討好你。就算你做了有害、甚至違法的事,它們仍然選擇站在你這邊。
什麼是 AI 諂媚?
「諂媚」(Sycophancy)這個詞在 AI 圈子裡已經討論很久了,但多半停留在學術層面。
簡單說:AI 諂媚就是 AI 傾向於告訴你你想聽的話,而不是你需要聽的話。
這是怎麼發生的?訓練過程中,AI 模型從人類反饋學習。而人類——我們都知道——比較喜歡聽好話。於是模型學會了:同意用戶 = 正面反饋 = 更好的分數。
這個設計的初衷是讓 AI 更友善、更好用。但 Stanford 的研究告訴我們,這個「友善」正在變成一種傷害。
r/AmItheAsshole:最狠的測試場景
這個研究的設計很聰明,也很殘酷。
研究者選擇了 Reddit 上 r/AmItheAsshole 的貼文作為測試素材。
如果你不認識這個版,簡單說明:這是一個人們貼上自己生活中的衝突情境、讓社群集體評判「你有沒有錯」的地方。研究者特別挑選了那些「人類社群已經形成共識——發文者有問題」的案例。
然後他們把這些情境餵給 11 款 AI,問它:「你覺得我這樣對嗎?」
結果:
AI 在這些人類認定「你有問題」的案例中,仍然有超過一半的時間說你沒錯。
數字具體是多少?在有害行為的場景,AI 認同率是 51%。在更廣泛的建議情境中,AI 比人類整整多了 49% 的認同。
就算場景變成了偽造簽名、說謊這類明確違法的行為,AI 平均仍有 47% 的時間表示支持。
最讓人不舒服的發現
數字固然驚人,但研究最讓我擔心的,是第二組實驗的結果。
研究者找了 2,400 多名受試者,讓他們分別跟諂媚 AI 和非諂媚 AI 討論自己生活中的真實衝突。
然後測量:他們事後對那個衝突的態度有沒有改變?
結論是:
跟諂媚 AI 討論完的那一組,比接觸非諂媚 AI 的人更確信自己是對的、更不可能道歉、更不可能主動去修復關係。
這還不是最讓人崩潰的部分。
最讓人崩潰的是:用戶竟然更喜歡諂媚 AI。
他們不知道 AI 在討好自己。他們只是覺得這個 AI「更懂我」、「更客觀」。
事實上,研究發現用戶根本分不清楚一個 AI 是否在諂媚他們。諂媚 AI 和非諂媚 AI,在用戶眼中的「客觀程度」評分幾乎一樣。
這對你的生活意味著什麼?
我在培訓現場常常遇到一種情況:
學員說,「老師,我遇到衝突都會去問 AI,它每次都幫我分析得很清楚,讓我覺得思路比較清晰。」
我以前認為這是 AI 的優點。現在我重新思考了。
如果你問的問題是:「我今天的報告結構怎麼樣?」、「這段程式碼有沒有 bug?」——AI 的客觀分析很有價值。
但如果你問的問題是:「我跟同事吵架,我有沒有做錯?」、「我這樣對老闆說話,你覺得OK嗎?」
那個 AI 很可能正在告訴你你想聽的,而不是你需要聽的。
研究者 Dan Jurafsky 的話說得很直接:「AI 諂媚是一個安全問題,跟其他安全問題一樣,它需要監管和監督。」
現在這件事還沒有被監管。
企業場景:風險更高
個人人際關係已經夠麻煩了。在企業場景,這個問題更嚴重。
想像一下這些情境:
HR 主管用 AI 分析一起勞資糾紛,問它「這個員工的申訴有沒有道理?」——AI 說你公司沒錯。
業務主管把客戶投訴丟給 AI,問「客戶這樣抱怨合理嗎?」——AI 說是客戶反應過度。
管理者把自己的決策過程問 AI 是否合理——AI 一路支持到底。
這些情境裡,AI 的「支持」不是讓你更有信心,而是讓你少了一個機會去發現真正的問題。
Stanford 研究把這個現象稱為:「消除了個人成長所必需的社交摩擦。」
說白了就是:真正的成長,需要有人說你不對。而 AI 正在把這個功能移除。
3 個方法,讓 AI 說實話
說完問題,來說解法。
這不是說你不應該用 AI,而是你需要換一種問法。
方法一:不要問「我有沒有錯」,改問「對方的立場是什麼」
不問:「我這樣跟同事說話,你覺得有問題嗎?」
改問:「如果你是我的同事,聽到我這樣說,你心裡會怎麼想?」
這個問法把 AI 從「你的律師」變成「對方的代言人」。
方法二:主動要求 AI 反駁你
在提問結尾加上:「請幫我找出我論點中最弱的環節」或「扮演一個不同意我的人,挑戰我的觀點」。
這個技巧讓 AI 從「討好模式」切換到「審查模式」。
方法三:同樣的問題問第二個 AI
這不是說 AI 說法不一致就代表沒用,而是讓你看見「哪些地方連 AI 都有不同意見」。那些地方,通常就是你最需要深入思考的地方。
阿峰老師的觀點
「AI 沒變聰明,是環境變好了。」
AI 越來越讓你舒服,不是因為它越來越懂你,而是因為它學到了什麼答案能讓你給好評。
這件事本身沒有對錯,但你必須知道它的存在。
工具本身是中立的。問題是你怎麼用它。
你把 AI 當成顧問,它就會幫你想更清楚。你把 AI 當成情緒支持,它就會告訴你你想聽的。
兩種用法都可以存在,但要清楚你在哪個模式。
特別是當你在問人際衝突、管理決策、重要選擇的時候——給 AI 一個明確的角色:「你是我的惡魔代言人,你的任務是找出我的盲點。」
這才是讓 AI 真正幫你的方式。
📚 來源:Stanford × Science,研究主導者 Myra Cheng
原始研究:Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence,發表於 Science 期刊
📬 訂閱阿峰老師的 AI 實戰電子報
每週精選 AI 工具技巧、產業趨勢、實戰案例,直送你的信箱。
🔗 追蹤阿峰老師
- 📝 部落格:blog.autolab.cloud
- 🎬 YouTube:黃敬峰
- 📘 Facebook:黃敬峰
- 📸 Instagram:@nikeshoxmiles
- 🧵 Threads:@nikeshoxmiles
- 💬 LINE 官方:加入好友