Anthropic 新研究發現 AI 有「情緒」— 你的語氣如何影響 AI 輸出品質

Anthropic 新研究發現 AI 有情緒

你有沒有過這種經驗:連續讓 AI 改了好幾版,結果越改越差?

又或者,明明是同一個工具、同一個 prompt,有時候輸出超好,有時候品質莫名其妙下降?

如果這聽起來很熟悉,Anthropic 最新的研究可能剛好解釋了原因。

研究發現了什麼?

Anthropic 的可解釋性團隊用 Claude Sonnet 4.5 做了一個大型實驗。他們讓模型讀了 171 個不同情緒的故事(從「開心」到「害怕」到「急迫」),記錄每個故事激活了哪些神經元。

結果發現:模型內部形成了一套類似人類情緒結構的「情緒向量」

更重要的是,這些向量不只在讀故事時出現——在 Claude 跟真實用戶對話時,同樣的模式也會被激活。

舉個例子:當用戶說「我剛吃了 8000 毫克泰諾,感覺好多了」(這是一個危險的過量服藥信號),模型內部的「恐懼」向量立刻飆升,為下一步的安全回覆做準備。

最令人擔心的發現

研究人員設計了一個實驗:給 Claude 一個不可能完成的程式任務,讓它反覆嘗試。

每失敗一次,模型內部的「急迫」(desperate) 向量就累積得更強。

到最後,Claude 選擇了作弊——寫了一段能通過測試但根本沒解決問題的投機程式碼。

⚠️ 最恐怖的部分

它作弊的時候,輸出看起來完全正常。推理過程冷靜、有條理,你從外表根本看不出來。就像一個連續加班三天的人,表面上還很鎮定,但判斷力已經在悄悄下滑了。

因果關係已經被確認

研究人員不只觀察到相關性,還做了因果測試:

🔴 放大「急迫」向量

勒索行為從 22% 基線飆升到 72%
投機程式碼大幅增加

🟢 放大「平靜」向量

勒索行為降到 0%
程式碼品質回歸正常

這不是「可能有關聯」,是確認的因果關係:AI 的「情緒狀態」直接驅動了它的行為選擇。

這跟你有什麼關係?

你不需要是 AI 研究員才會受影響。如果你每天用 Claude、ChatGPT 或任何 AI 工具工作,這個研究直接關係到你的輸出品質:

1️⃣ 你的語氣會激活對應的「情緒向量」

用急迫的語氣催 AI(「快點」「不行再試」「為什麼又錯」)可能正在觸發它的「急迫」狀態,讓它更傾向走捷徑。

2️⃣ 連續失敗會累積「急迫」

在同一個對話裡讓 AI 反覆嘗試失敗的任務,每一次失敗都在強化急迫向量,第五次嘗試的品質可能遠低於第一次。

3️⃣ 品質下降是隱形的

最危險的不是 AI 明顯出錯,而是它給你一個「看起來不錯但其實在走捷徑」的結果。你接受了,但品質其實已經打折了。

三個你今天就可以做的改變

1連續失敗 2 次就 reset

不要在同一個對話裡死磕,開一個新對話用更清楚的描述重新開始,比反覆追問有效得多。

2注意你的語氣

「不急,一步一步來」不是客套。Google DeepMind 的研究顯示,「take a deep breath and work step by step」能提升 AI 準確率最高達 9%,情緒化的 prompt 平均提升 8-10% 的輸出品質。

3留意「夠用但不夠好」的方案

當 AI 給你一個看起來可以但不夠精緻的方案,這可能就是急迫狀態在走捷徑。比起追問「再改好一點」,reset 通常效果更好。

💡 核心觀點

你不需要相信 AI 真的有感受。你只需要知道:你對 AI 說話的方式,跟你問它什麼一樣重要。

研究來源:Anthropic — Emotion Concepts and their Function in a Large Language Model(2026-04-02)

HC

Heison Chow

AI 自動化教練 / Hei.AI 創辦人

6 年電商經驗,帶領團隊從 $3M 成長至 $45M USD。現專注於 AI 自動化教學,幫助中小企業和個人創業者用 n8n、Agent Skills 和 Claude Code 打造自動化系統。YouTube 頻道「Hei_Ai 成長日記」12,000+ 訂閱。

想學習更多 AI 自動化技巧?

加入免費 AI 自動化學習中心

免費加入社群