有一輛電車疾駛而來,前面軌道上有臥五個人,如果直走,這五個人必然喪命,這時有一個人正好在切換軌道把手的前面,只要一拉把手,電車就切換到旁邊一條軌道,原軌道上的五個人就可以倖免,但旁邊軌道上也臥有一個人,切換過來這個人必死無疑。假設站在切換軌道把手前面的人是你,你拉不拉把手?也就是你要不要為了救五個人而殺另一個人?你袖手旁觀不動手,電車直走碾過五個人;還是你動了手,雖然救了五個人,卻殺了另一個人?
(「電車問題」、取自網路)
英國哲學家 Philippa Foot (1920-2010),在 1967 年提出來這個設想,也就是後來俗稱的「電車問題」(Trolley Problem),多年來出現了好幾種版本。有一個版本是你站在陸橋上,電車由橋下經過,這時你如果把身邊一個胖子推下橋跌在軌道上,因為他的重量可以阻止電車的移動,就能拯救臥在軌道上的五個人,但胖子卻犧牲了性命。這與原版意義相同。
這個矛盾當然是一個倫理難題,也是「功利主義」(Utilitarianism) 與「康德倫理」(Kantian Ethics) 之間的辯別,功利主義以最高獲利、或最低失利為原則,所以可以犧牲一個人拯救五個人,而康德主義的道德價值,則以行為目標為準則,不判斷後果的對錯,殺人既然不是行為目標,所以不能切換軌道,即使眼看五個人在面前喪命。
現在電車問題真的出現了,但不是電車,是汽車、是無人駕駛汽車,也就是沒有人去搬動切換軌道的把手,一旦發生無可避免的意外,要靠汽車電腦的運算邏輯去決定,下圖是三個最簡單的例子。左圖:直行撞很多人,轉彎撞路邊一個人;中圖:直行撞一個人,轉彎撞車內的人;右圖:直行撞很多人,轉彎撞車內的人。
(無人駕駛車輛可能發生的意外狀況、取自 ecnmag.com)
車輛的意外事故雖然未必死亡,但可能受輕重傷,對人身安全的保護是最高原則,所以損傷減到最輕的功利主義,應可為大家所接受,但也因此就不一定保護車內的乘客。但賣車的人告訴你,這輛車有時候為了救別人會把你犧牲,你還會買嗎?
實際遇到的情況一定比上圖更複雜,如果車內有兒童,是不是因為兒童可以活得更久而不計代價保護?如果要撞的不是人而是車,要撞一輛汽車可能傷及兩輛車的乘客,還是撞一輛機車,騎士可能因此喪命?如果兩輛車保險程度不同,是否要撞保險好的那一輛?保險公司答應嗎?「功利」細節千頭萬緒,汽車的「倫理軟體」算得過來嗎?又由誰來核定?
電車問題只是假設,無人駕駛汽車的意外處理邏輯,不但實際,而且迫在眉梢,在普遍上路之前,汽車製造工廠必須確定。工程師顯然不能、也不願涉及,哪怎麼辦?社會科學的研究似乎是起始的辦法,一位法國及兩位美國科學家,在月前發表了一份研究報告(摘要、報告全文附於文後),用了幾百人做了三個不同的實驗,有人扮演車內的人,有的扮演路人,然後問卷調查分析。
研究的結果,大部份的人認為功利主義是正確的方式,在無可避免的意外之中,以維持最少的身體損傷為基本準則,但不認為應該立法強制執行,因為電腦不像人類有情感與同情心,卻能即時的精準依照法規行事,難免引發殺人機器的爭議。即使沒有強制性,大家也多同意必要時可以犧牲車內乘客,求得更大的利益。
但在犧牲乘客的這件事上,大多雖然贊同,指的卻是別人乘坐的無人駕駛汽車,不是自己乘坐的無人駕駛汽車,如果電腦程式真的是這麼寫的,購買的意願就不會太高。這一想法無可厚非,公眾利益固然重要,但不能影響自身的利益,專家們認為這一矛盾現象,無疑是汽車製造商與法規制訂人的共同挑戰。
無人駕駛車輛的原意在減少意外的傷亡,路上無人駕駛車輛越多,意外發生的機率越小,如果無人駕駛不能完全保障乘客的安全,必要時還可能「故意」傷害乘客,那無人駕駛車輛就沒有人敢買,人為駕駛失誤所製造的重大傷亡依舊,違反了發展無人駕駛車輛的原意。
美國南卡大學的 Bryant Walker-Smith 教授,專研無人駕駛汽車的法律問題,呼籲無人駕駛車輛盡快上路,才能盡快的減少交通事故,所謂的倫理,其實現有的車輛已經有了,以氣囊為例,設計的目的就是救很多的性命、但可能讓少數人喪生。他說最「不倫理」的就是無人駕駛車輛遲遲不肯上路,我們有技術可以救很多人的性命,但不完美,可以讓人喪命。說起來,許多事不都是這樣嗎?
附:Jean-Francois Bonnefon、Azim Shariff、Iyad Rahwan 著 Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?
|