AI幻覺:為什麼AI會一本正經地胡說八道?

你有沒有這樣的經驗?問AI一個問題,它信心滿滿地給了一個答案,附上了看似合理的解釋——結果你一查,完全是錯的。這就是所謂的AI幻覺(Hallucination)

什麼是AI幻覺

AI幻覺指的是語言模型生成看起來合理但事實上錯誤的內容。常見的類型包括:

  • 捏造不存在的論文、書籍或引用來源
  • 編造錯誤的歷史事件或日期
  • 虛構人物的經歷或成就
  • 給出錯誤的技術細節(但語法完美、邏輯自洽)

為什麼會發生

回到LLM的本質:它是一個預測下一個token的機率模型。它的目標是生成「聽起來像正確答案」的文字,而不是「確認事實後再回答」。

想像你在考試時遇到一題不會的選擇題。你不會交白卷,而是根據題目的蛛絲馬跡猜一個最像的答案。AI也是這樣——但它永遠不會交白卷,永遠會給出一個「最像答案」的回應,即使它其實不確定。

幻覺有多嚴重?

這取決於使用場景:

低風險場景:寫故事、腦力激盪、學習概念——幻覺的影響較小,甚至可能帶來意外的創意。

高風險場景:醫療診斷、法律建議、學術研究、財務決策——幻覺可能造成嚴重後果。2023年就發生過律師用ChatGPT準備訴訟文件,結果引用了AI捏造的案例,被法官裁定藐視法庭。

我的見解:幻覺是特性還是Bug?

這個問題比表面上深刻得多。AI的「幻覺」和「創造力」來自同一個機制——在已知模式的基礎上生成新的組合。當這個機制產生有用的新想法,我們叫它「創意」;當它產生錯誤的事實,我們叫它「幻覺」。

這意味著,完全消除幻覺可能同時會扼殺AI最有價值的能力。目前的研究方向是讓AI學會說「我不確定」——這聽起來簡單,但在技術上非常困難,因為模型需要有能力評估自己的信心程度。

如何應對

  1. 重要事實一定要交叉驗證——不要盲信AI的任何陳述
  2. 注意「過度自信」的警訊——如果AI對一個冷門問題回答得異常詳細且肯定,要特別小心
  3. 善用AI的優勢場景——分析、歸納、創意發想、程式碼生成等,比起事實查詢,幻覺風險更低