AI 不會說「不知道」——但它應該

問 AI 一個它不知道答案的問題,它會怎麼做?大部分時候,它會自信滿滿地給你一個聽起來很合理但可能完全錯誤的答案。這就是所謂的「AI 幻覺」——但我更願意稱它為「不會承認無知」。

在人類社會中,說「我不知道」是一種智慧。蘇格拉底說他之所以是最聰明的人,正是因為他知道自己不知道。一個好的醫生會說:「我不確定這是什麼,讓我轉介給專科醫生。」一個好的科學家會說:「這個現象我們還沒有好的解釋。」

但 AI 被設計成要回答問題——所有的問題。它的獎勵函數鼓勵它產生看起來有幫助的回應,而不是承認自己的局限。結果就是,它有時候會「編造」看似合理的答案,包括虛構的參考文獻、不存在的研究、和錯誤的事實。

這在醫療、法律和金融等高風險領域特別危險。如果一個人依靠 AI 的回答做出重要決定,而那個回答恰好是 AI 「編造」的,後果可能很嚴重。

好消息是,這個問題正在改善。較新的模型開始學會表達不確定性,也更願意說「我不確定」。但距離完美還有很長的路。

也許我們可以從 AI 的這個缺陷中學到一些東西:在這個充斥著確定性和速效答案的時代,承認「我不知道」可能是最誠實、也最有勇氣的回答。