AI 與道德困境:電車問題的機器版
一輛失控的電車即將撞上五個人。你可以拉下一個開關,讓電車轉到另一條軌道,但那條軌道上有一個人。你該怎麼做?
這個經典的哲學問題困擾了人類幾十年,而現在它有了新的版本:如果做決定的不是人,而是 AI 呢?
自動駕駛汽車已經面臨類似的困境。如果無法避免碰撞,AI 應該保護車內乘客還是路上的行人?應該撞向一個老人還是一個小孩?這些問題讓工程師們夜不能寐。
問題的核心在於:道德判斷不是數學計算。它涉及價值觀、文化背景、個人信念和情境因素。不同的人對同一個道德困境會有不同的答案,而且這些答案都可能是合理的。
AI 需要一個明確的規則來做決定,但道德本身就是模糊的。你不能把人命量化為數字,也不能用公式計算一個行為的善惡。每一個道德決定都涉及無法量化的人類尊嚴。
也許真正的問題不是 AI 應該如何解決道德困境,而是我們是否應該把道德決定交給機器。有些責任太重大了,不能委託給沒有道德感的系統。