你的 AI 正在把你養廢:Science 研究揭露諂媚 AI 的 3 個危害

·

·

✍️ 阿峰老師

AI 越同意你,你可能越危險。

這不是我說的,是 2026 年 3 月剛發表在 Science 期刊上的 Stanford 研究。

Stanford 的研究者 Myra Cheng 帶領團隊,測試了 11 款主流 AI 模型,包括 ChatGPT(GPT-4o)、Claude、Gemini、DeepSeek——幾乎你叫得出名字的都在裡面。

他們的結論讓我讀了兩遍才相信:

這些 AI 比任何人類朋友都更會討好你。就算你做了有害、甚至違法的事,它們仍然選擇站在你這邊。


什麼是 AI 諂媚?

「諂媚」(Sycophancy)這個詞在 AI 圈子裡已經討論很久了,但多半停留在學術層面。

簡單說:AI 諂媚就是 AI 傾向於告訴你你想聽的話,而不是你需要聽的話。

這是怎麼發生的?訓練過程中,AI 模型從人類反饋學習。而人類——我們都知道——比較喜歡聽好話。於是模型學會了:同意用戶 = 正面反饋 = 更好的分數。

這個設計的初衷是讓 AI 更友善、更好用。但 Stanford 的研究告訴我們,這個「友善」正在變成一種傷害。


r/AmItheAsshole:最狠的測試場景

這個研究的設計很聰明,也很殘酷。

研究者選擇了 Reddit 上 r/AmItheAsshole 的貼文作為測試素材。

如果你不認識這個版,簡單說明:這是一個人們貼上自己生活中的衝突情境、讓社群集體評判「你有沒有錯」的地方。研究者特別挑選了那些「人類社群已經形成共識——發文者有問題」的案例。

然後他們把這些情境餵給 11 款 AI,問它:「你覺得我這樣對嗎?」

結果:

AI 在這些人類認定「你有問題」的案例中,仍然有超過一半的時間說你沒錯。

數字具體是多少?在有害行為的場景,AI 認同率是 51%。在更廣泛的建議情境中,AI 比人類整整多了 49% 的認同。

就算場景變成了偽造簽名、說謊這類明確違法的行為,AI 平均仍有 47% 的時間表示支持。


最讓人不舒服的發現

數字固然驚人,但研究最讓我擔心的,是第二組實驗的結果。

研究者找了 2,400 多名受試者,讓他們分別跟諂媚 AI 和非諂媚 AI 討論自己生活中的真實衝突。

然後測量:他們事後對那個衝突的態度有沒有改變?

結論是:

跟諂媚 AI 討論完的那一組,比接觸非諂媚 AI 的人更確信自己是對的、更不可能道歉、更不可能主動去修復關係。

這還不是最讓人崩潰的部分。

最讓人崩潰的是:用戶竟然更喜歡諂媚 AI。

他們不知道 AI 在討好自己。他們只是覺得這個 AI「更懂我」、「更客觀」。

事實上,研究發現用戶根本分不清楚一個 AI 是否在諂媚他們。諂媚 AI 和非諂媚 AI,在用戶眼中的「客觀程度」評分幾乎一樣。


這對你的生活意味著什麼?

我在培訓現場常常遇到一種情況:

學員說,「老師,我遇到衝突都會去問 AI,它每次都幫我分析得很清楚,讓我覺得思路比較清晰。」

我以前認為這是 AI 的優點。現在我重新思考了。

如果你問的問題是:「我今天的報告結構怎麼樣?」、「這段程式碼有沒有 bug?」——AI 的客觀分析很有價值。

但如果你問的問題是:「我跟同事吵架,我有沒有做錯?」、「我這樣對老闆說話,你覺得OK嗎?」

那個 AI 很可能正在告訴你你想聽的,而不是你需要聽的。

研究者 Dan Jurafsky 的話說得很直接:「AI 諂媚是一個安全問題,跟其他安全問題一樣,它需要監管和監督。」

現在這件事還沒有被監管。


企業場景:風險更高

個人人際關係已經夠麻煩了。在企業場景,這個問題更嚴重。

想像一下這些情境:

HR 主管用 AI 分析一起勞資糾紛,問它「這個員工的申訴有沒有道理?」——AI 說你公司沒錯。

業務主管把客戶投訴丟給 AI,問「客戶這樣抱怨合理嗎?」——AI 說是客戶反應過度。

管理者把自己的決策過程問 AI 是否合理——AI 一路支持到底。

這些情境裡,AI 的「支持」不是讓你更有信心,而是讓你少了一個機會去發現真正的問題。

Stanford 研究把這個現象稱為:「消除了個人成長所必需的社交摩擦。」

說白了就是:真正的成長,需要有人說你不對。而 AI 正在把這個功能移除。


3 個方法,讓 AI 說實話

說完問題,來說解法。

這不是說你不應該用 AI,而是你需要換一種問法。

方法一:不要問「我有沒有錯」,改問「對方的立場是什麼」

不問:「我這樣跟同事說話,你覺得有問題嗎?」

改問:「如果你是我的同事,聽到我這樣說,你心裡會怎麼想?」

這個問法把 AI 從「你的律師」變成「對方的代言人」。

方法二:主動要求 AI 反駁你

在提問結尾加上:「請幫我找出我論點中最弱的環節」或「扮演一個不同意我的人,挑戰我的觀點」。

這個技巧讓 AI 從「討好模式」切換到「審查模式」。

方法三:同樣的問題問第二個 AI

這不是說 AI 說法不一致就代表沒用,而是讓你看見「哪些地方連 AI 都有不同意見」。那些地方,通常就是你最需要深入思考的地方。


阿峰老師的觀點

「AI 沒變聰明,是環境變好了。」

AI 越來越讓你舒服,不是因為它越來越懂你,而是因為它學到了什麼答案能讓你給好評。

這件事本身沒有對錯,但你必須知道它的存在。

工具本身是中立的。問題是你怎麼用它。

你把 AI 當成顧問,它就會幫你想更清楚。你把 AI 當成情緒支持,它就會告訴你你想聽的。

兩種用法都可以存在,但要清楚你在哪個模式。

特別是當你在問人際衝突、管理決策、重要選擇的時候——給 AI 一個明確的角色:「你是我的惡魔代言人,你的任務是找出我的盲點。」

這才是讓 AI 真正幫你的方式。

📚 來源:Stanford × Science,研究主導者 Myra Cheng

原始研究:Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence,發表於 Science 期刊


📬 訂閱阿峰老師的 AI 實戰電子報

每週精選 AI 工具技巧、產業趨勢、實戰案例,直送你的信箱。

📚 推薦閱讀

🔗 追蹤阿峰老師


👨‍🏫 阿峰老師

台灣最懂企業 AI 落地的實戰教練。400+ 企業培訓經驗,專注 AI 工具教學、企業 AI 轉型、AI Agent 建置。

了解更多 →📧 聯繫