熱線電話:13121318867

登錄
首頁精彩閱讀自動駕駛車面對的道德困境:“出事了,撞誰?”
自動駕駛車面對的道德困境:“出事了,撞誰?”
2021-04-25
收藏
自動駕駛車面對的道德困境:“出事了,撞誰?”

CDA數據分析師 出品

編譯:Mika

【導讀】

雖然自動駕駛車可能比手動駕駛更安全、更方便,但也并不能完全避免事故的發生。如果遇到不可避免的事故,自動駕駛車該如何被編程來應對呢?

在本文中帕特里克·林就探討了領略了自動駕駛車帶來的道德問題。

自動駕駛中的道德難題

我們來做一個思維實驗。

假定某一天,你坐在自動駕駛汽車里,在高速公路上飛馳。

這時,你發現周圍全是車。

自動駕駛車面對的道德困境:“出事了,撞誰?”

突然,一個又大又沉的物體從你前方的卡車上掉下來,你的車來不及剎車來避免碰撞。

自動駕駛車面對的道德困境:“出事了,撞誰?”

問題1:因此它必須做一個決定:

A.繼續往前,然后撞在這個物體上

B.迅速左轉撞向一輛SUV

C.迅速右轉撞向一輛摩托車

自動駕駛車面對的道德困境:“出事了,撞誰?”

你的車應該以你的安全為重,而撞向摩托車嗎?

還是為了降低對他人的危險,不轉彎,即使這樣會撞上巨大的物體,并給你帶來生命危險犧?

或是選擇折中,撞向SUV,因為SUV的安全性能較高?

自動駕駛汽車應該怎么做呢?

這種情況下,如果我們掌握著方向盤,不管我們怎么做,都會被理解為瞬間的反應,而不是經過深思熟慮的決定。我們是在驚恐之下做出本能反應,并未深謀遠慮或懷揣惡意。

自動駕駛車面對的道德困境:“出事了,撞誰?”

但是如果是程序員要指示這輛車,在未來的特定情況下做出某一決定,這聽上去有點像蓄意謀殺。

不過話說回來,自動駕駛汽車預計可以大大減少交通事故和死亡率,因為這中間避免了人類會犯的錯誤,而且還有很多其他的潛在好處,比如不再擁堵的路面,汽車尾氣排放的減少,以及沒有了開車的浪費時間和壓力。

自動駕駛車面對的道德困境:“出事了,撞誰?”

如遇事故,自動駕駛車如何編程應對

但是交通意外肯定還是會發生,當它們發生時意外的后果可能在很久以前,就已經被程序員或政策制定者設定好了。

這些決定可不好做,我們傾向于提供籠統的指導決定的原則,比如最小化傷害。但是這很快也會導致道德上模棱兩可的決定。

再舉個例子,假定前面的情況一致。但此時,在你的左邊騎摩托車的人戴著頭盔,而右邊騎摩托車的人沒戴頭盔。

問題2:如果必須要選擇,你的自動駕駛汽車應該撞哪個?

A.戴著頭盔騎摩托車的人

B.沒戴頭盔騎摩托車的人

自動駕駛車面對的道德困境:“出事了,撞誰?”

如果說撞那個戴著頭盔的人 ,因為她的存活率更高,你難道不是在懲罰更負責任的騎摩托車者嗎?

反之,如果說撞那個沒戴頭盔的人,因為不戴頭盔是不負責任的行為。但是這樣你就徹底違反了,原先的“最小化傷害”的原則,自動駕駛汽車現在成了在主持公路正義了。

道德的問題還要復雜得多,兩種情況下其背后的設計都是基于某種目標算法。換句話說,它系統地傾向或者歧視某一類特定目標。

而目標車輛的車主,就得承擔這一算法的消極后果。雖然他們自己并沒有犯任何錯,這些最新的科技還引起了其他的道德困境。

問題3:如果你從以下兩輛車中選擇:

A.一輛在事故發生時,總是試圖拯救盡可能多生命的車

B.一輛不顧一切拯救你的車

你會買哪一輛?

自動駕駛車面對的道德困境:“出事了,撞誰?”

如果汽車開始分析并考慮,車里的乘客以及他們的生存概率情況又會怎樣?一個隨機的決定會不會還是比以“最小化傷害”為原則事先設計的決定更好?

誰又應該做這些決定呢?

程序員?

公司?

政府?

自動駕駛車面對的道德困境:“出事了,撞誰?”

現實可能跟我們的思維實驗有所出入,但是這不重要。

思想實驗的目的是,對我們的道德本能進行分離和壓力測試,就像物理世界的科學實驗一樣。

現在識別這些道德的急轉彎,能幫助我們更好地掌控科技及其道德問題的未知之路,并讓我們充滿信心和正義地駛向勇敢、嶄新的未來。

自動駕駛車面對的道德困境:“出事了,撞誰?”

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢