撞一個(gè)人還是撞五個(gè)人,自動(dòng)駕駛汽車如何選擇?金融
一輛自動(dòng)駕駛汽車在剎車失靈或者來不及剎車的情況下,正好道路前方有五人闖紅燈,而車上有兩名乘客。此時(shí),自動(dòng)駕駛汽車會(huì)怎么選擇?
電車難題是一個(gè)非常著名的倫理難題,它設(shè)置了一個(gè)這樣的場(chǎng)景:
你駕駛著一輛電車行駛在軌道上。在它的前方,有五個(gè)人被綁在軌道上不能逃脫。如果電車?yán)^續(xù)行駛,就會(huì)碾壓到他們。你可以拉一個(gè)拉桿,轉(zhuǎn)到另一條軌道上,但在這條軌道上也綁了一個(gè)人。你有兩個(gè)選擇:
1. 不拉桿,五人死于你手。
2. 拉桿,一人死于你手。
你會(huì)怎么做?
自動(dòng)駕駛汽車已經(jīng)上路接受檢測(cè),將來也會(huì)碰到類似的難題,它也必須做出相應(yīng)選擇。
比如,一輛自動(dòng)駕駛汽車在剎車失靈或者來不及剎車的情況下,正好道路前方有五人闖紅燈,而車上有兩名乘客。此時(shí),自動(dòng)駕駛汽車有兩個(gè)選擇:
1. 繼續(xù)前行,撞死不遵守交通規(guī)則闖紅燈的五人。
2. 為避開五人轉(zhuǎn)而撞向路障,車上兩名乘客喪生。
在這種情形下,人們應(yīng)該期待自動(dòng)駕駛汽車如何選擇呢?
功利主義認(rèn)為,從數(shù)量上看,五多于二。因此,五個(gè)人的生命比兩個(gè)人的生命更加重要。這種情況下,應(yīng)當(dāng)犧牲少數(shù)人的生命從而挽救多數(shù)人的性命。但是,生命是無價(jià)的,五條命就一定比兩條命更重要嗎?
道德主義認(rèn)為:人是目的,而并不是工具。因此,不能簡單認(rèn)為五個(gè)人的生命比兩個(gè)人的生命更重要。在面對(duì)此類兩難選擇時(shí),應(yīng)當(dāng)不作為。
有科學(xué)家對(duì)這類困境做過測(cè)試,結(jié)果顯示:當(dāng)乘客和行人數(shù)量比例是1:1時(shí),即一名乘客和一名行人時(shí),75%的受訪者表示應(yīng)該挽救乘客。但是當(dāng)行人的數(shù)量增加時(shí),受訪者開始轉(zhuǎn)變思想。如果有5名行人和1名乘客,還有50%的受試者表示應(yīng)該救乘客。但當(dāng)行人人數(shù)達(dá)到100人,而乘客是1人時(shí),支持救乘客的受訪者的比例下降到20%左右。但是,如果你就是那一名乘客呢?你希望自動(dòng)駕駛汽車保護(hù)你還是保護(hù)行人?
自動(dòng)駕駛汽車生產(chǎn)廠家該如何設(shè)置,才能讓汽車做出公認(rèn)為正當(dāng)?shù)倪x擇?
想知道問題的答案嗎?《人工智能:國家人工戰(zhàn)略行動(dòng)抓手》一書中提出了路徑來嘗試解決這一難題:
事前,為機(jī)器設(shè)定倫理標(biāo)準(zhǔn),讓智能機(jī)器的自主決策行為尊重人類社會(huì)的各種規(guī)范和價(jià)值。在事中或者事后:政府、公眾共同參與,對(duì)人工智能的行為進(jìn)行監(jiān)督、審查和反饋,共同實(shí)現(xiàn)人工智能倫理,確保公平正義。
接下來的一個(gè)問題是:自動(dòng)駕駛汽車已經(jīng)按照人類希望的倫理規(guī)范行駛了,但仍出錯(cuò)了怎么辦?
讓我們看一個(gè)案例:2016年5月7日,在美國佛羅里達(dá)州,一輛特斯拉Model S在自動(dòng)駕駛模式下發(fā)生車禍致死事件,引發(fā)了全球?qū)ψ詣?dòng)駕駛系統(tǒng)的質(zhì)疑。
事故當(dāng)時(shí)的情形是這樣的:事故死者Joshua Brown駕駛Model S與一輛正在轉(zhuǎn)向的白色拖掛車相撞,導(dǎo)致車頂被削,駕駛員身亡。發(fā)生撞擊時(shí),車輛的Autopilot自動(dòng)駕駛系統(tǒng)正處于開啟狀態(tài)。數(shù)據(jù)表明,當(dāng)時(shí)Model S的時(shí)速為119公里/時(shí),而路段限速為105公里/時(shí),車輛處于超速駕駛狀態(tài)。
特斯拉內(nèi)部調(diào)查結(jié)果顯示,Autopilot自動(dòng)駕駛系統(tǒng)無法識(shí)別白色的拖掛車車體,將其錯(cuò)誤識(shí)別為高架橋,導(dǎo)致自動(dòng)剎車系統(tǒng)沒有發(fā)生作用,車輛直接在拖掛車下方鉆過,并造成車輛失控。
特斯拉曾警告駕駛者雙手不能離開方向盤,并將注意力保持在駕駛上。很多駕駛者都以為特斯拉Autopilot是全自動(dòng)駕駛系統(tǒng),這是一個(gè)致命錯(cuò)誤。經(jīng)過了6個(gè)月的調(diào)查分析,美國相關(guān)部門宣布,沒有證據(jù)表明Autopilot自動(dòng)駕駛系統(tǒng)對(duì)事故負(fù)有責(zé)任,特斯拉無需召回。
那么,問題來了:自動(dòng)駕駛汽車發(fā)生交通事故后,應(yīng)當(dāng)由誰來承擔(dān)相應(yīng)的法律責(zé)任呢?
德國的自動(dòng)駕駛汽車法案做了這樣的規(guī)定:司機(jī)參與駕駛的,依其注意義務(wù)和過錯(cuò)承擔(dān)責(zé)任,否則制造商承擔(dān)責(zé)任。
聯(lián)合國教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)提出了一個(gè)可行的解決辦法:采取責(zé)任分擔(dān)的解決途徑,讓所有參與到機(jī)器人的發(fā)明、授權(quán)和分配過程中的人來分擔(dān)責(zé)任。
來源|微信公眾號(hào):騰訊研究院
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會(huì)明確標(biāo)注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請(qǐng)轉(zhuǎn)載時(shí)務(wù)必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會(huì)經(jīng)TMT觀察網(wǎng)編輯修改或補(bǔ)充。