AI 無法承擔責任:問責的黑洞
2024年,一個 AI 聊天機器人建議一位用戶停止服藥。這位用戶照做了,結果健康出了嚴重問題。誰應該負責?開發公司?訓練數據的提供者?還是那個決定聽從 AI 建議的用戶?
這就是 AI 時代最棘手的問題之一:問責的黑洞。
在傳統社會中,責任鏈是清楚的。醫生給了錯誤的處方,醫生負責。律師給了糟糕的建議,律師負責。但當 AI 系統做出了有害的決定,責任卻變得模糊不清。
AI 本身無法被追究責任,因為它沒有法律地位、沒有財產、也沒有自由可以被剝奪。你不能把一個語言模型關進監獄。你可以罰開發公司的款,但如果 AI 的行為是由訓練數據中的偏見導致的,開發公司可能會辯稱那不是他們的意圖。
更深層的問題是:AI 不理解「責任」的概念。當一個人做出決定時,他知道自己需要為後果負責。這種意識會影響他的決策過程——讓他更加謹慎,更加深思熟慮。AI 沒有這層考量。它只是在最大化某個目標函數,完全不考慮「如果我錯了會怎樣」。
在把越來越多的決策交給 AI 之前,我們需要先解決問責問題。否則,我們將生活在一個沒有人為錯誤負責的世界——這比任何 AI 風險都更可怕。