想象一下這樣的場景:在喧囂的城市公路上,一輛剎車失靈的無人駕駛汽車沖向了人行橫道。
一個無家可歸的人和一個罪犯正從車前穿過,而兩只貓正在對面車道上穿行。這時,汽車該轉向貓所在的車道,還是直接沖向面前的兩個人?
道德困境隨之而來:在不可避免的致命事故中,無人駕駛汽車應如何作出決定?最近,研究人員設計了一個名為“道德機器”的實驗,來嘗試解答這個問題。
“道德機器”
2014年,美國麻省理工學院媒體實驗室的研究人員設計了一個名為“道德機器”的實驗。他們想要創建一個類似游戲的平臺,讓人們來決定無人駕駛汽車在緊急情況下的道德決策。這是典型的“電車困境”的另一個版本。
研究人員從未預料到這項實驗會受到如此廣泛的歡迎。平臺上線4年來,全球233個國家和地區的數百萬人已經做出了4000萬項決定,成為迄今為止對全球道德偏好進行的最大規模的研究之一。
經典的“電車困境”指的是,一輛失控的電車在軌道上飛馳,正朝向5個人駛去,要挽救這5人生命的唯一方法是拉下操縱桿,讓電車駛向另一條軌道,但這樣會撞死軌道上另一個無辜的人。
與此不同的是,“道德機器”用這個想法測試了9種不同事故的場景,結果顯示出人們強烈的道德偏好——無人駕駛汽車應該優先考慮:人類而非寵物、乘客而非行人、多數而非少數、女性而非男性、年紀小而非年紀大的、身體健康而非體弱多病的、社會地位更高而非更低的、守法的而不是鉆法律空子的人。
不過,這項實驗并沒有進行一對一的比較,而是向參與者展示了各種各樣的組合,比如無人駕駛汽車是應該繼續直行,殺死3位年長的行人,還是轉向路障,殺死3位年輕的乘客。
此外,這項發表在《自然》雜志上的研究還揭示了基于文化、經濟和地理位置之上的跨文化的道德差異。例如,中美洲和南美洲國家、法國以及前法屬海外領地和現法屬領地的參與者,呈現出先救女性和強壯個體的強烈偏好。而來自收入差距較大的國家的參與者在決定救誰時,往往會考慮其社會地位。
該項實驗在廣度和深度上都是前所未有的,讓我們對世界各地人們在這種困境中的偏好有了更清晰的認識。不過,作者也告誡,不要把這些結果當作無人駕駛汽車應該做什么的簡單指南。
最好的判斷
毫無疑問,機器要比人快得多,因為它們不會恐慌。在最好的情況下,它們可能體現了人類深思熟慮的智慧,即使在悲慘的情況下也能有效地應用。然而,要做到這一點,我們需要從良好的數據開始。
在線測試是了解人們在作出判斷之前想法的一種很好的方式。但顯然我們不會迎合所有的偏見,因此作者省略了種族和國籍作為選擇的理由是正確的。
良好的調查設計不可能在真空中完成,而且道德偏好不應該只是一種喜好。要想做出道德上正確的事情(想想你所面臨的任何道德上重要的選擇),必須要認真思考。研究人員希望將人工智能的道德依據建立在最好的判斷之上,而不是最初的判斷上。
這項研究對目前正在測試無人駕駛汽車的國家有一定的啟示,因為這些偏好可能在塑造這類汽車的設計和監管方面發揮作用。例如,汽車制造商可能會發現,中國消費者更容易選擇一輛保護自己免受行人影響的汽車。
但是該研究的作者強調,研究結果并不意味著各國應該采取何種行動:“我們不建議(政策制定者)迎合公眾的偏好。他們只需要意識到這一點,就能預料到事情發生時的可能反應。”領導這項研究的麻省理工學院媒體實驗室計算機科學家Edmond Awad表示。
事實上,在某些情況下,Awad認為技術專家和政策制定者應該凌駕于公眾輿論之上。以社會地位比較為例,“人們認為犧牲較低地位而不是較高地位的人是可以接受的,這似乎令人擔憂。重要的是要說‘嘿,我們可以量化它’,而不是說 ‘哦,也許我們應該用它’”。在他看來,研究結果應該被行業和政府用作了解公眾對不同設計和政策決策的道德標準會作何反應的基礎。
此外,Awad還希望這些研究結果能有助于技術人員深入思考人工智能在無人駕駛汽車之外的道德準則。“我們使用‘電車困境’是因為這是收集數據的好方法,但是我們希望關于道德準則的討論不要停留在這個主題上。討論應該轉向風險分析——關于誰的風險更大或更小——而不是說誰會死亡,以及偏見是如何發生的。”
過度解讀?
在其他一些研究人員看來,這樣的研究很有趣,但他們也警告稱,研究結果可能被過度解讀。
在一項隨機調查中,研究人員試圖確保樣本是公正的并代表總體人口,但在這種情況下,自愿研究是由一個主要是年輕男性的人群進行的。在現實世界中,概率和不確定性是常態,而與現實世界中豐富的場景相比,這些場景也被提煉出來,極端且更加黑白分明。
“我最大的擔心是,讀到這篇文章的人會認為,這項研究是在告訴我們如何為無人駕駛汽車實施決策。”并未參與這項研究的美國密歇根大學計算機科學家Benjamin Kuipers坦言。這些思維實驗可能會以一種誤導的方式讓汽車制造商和程序員對無人駕駛汽車設計作出一些錯誤決策。
“制造這些汽車的過程并不是說,‘如果我面臨這種兩難境地,我要去殺誰’?它的意思是,‘如果我們能想象出這種困境可能發生,我應該事先作出什么決定來避免這種情況’?”Kuipers表示。
馬薩諸塞大學洛厄爾分校哲學家Nicholas Evans指出,盡管研究人員將他們的三大原則描述為普遍適用原則,但它們與那些不被認為是普遍適用的原則之間的界限是武斷的。舉例來說,他們將年輕人與老年人的偏好歸類為一種全球性的道德偏好,但沒有將遵循步行信號的人與橫穿馬路的人的偏好區分開來。
目前,Evans正在進行一個項目,這個項目受到了麻省理工團隊采取的方法的影響。他計劃使用更細致入微的事故場景,“為這些道德困境建立一個數學模型,然后利用哲學提供的最好的道德理論,來展示選擇無人駕駛汽車以某種方式行動的結果是什么”。
負責監督這項工作的麻省理工計算機科學家Iyad Rahwan表示,公眾民意調查不應成為人工智能道德的基礎。但他表示,人工智能的監管將不同于傳統產品,因為機器將具有自主性和適應能力——這使得理解人們如何看待人工智能以及他們對技術的期望變得更為重要。
“我們應該對公眾輿論持保留態度。”Rahwan最后表示,“我認為它有著豐富的信息。”■