如果你能設定自動駕駛系統,當自動駕駛車煞車失靈時,會選擇撞上路人還是路障?又或者,你會選擇撞上小孩還是老人?麻省理工學院(MITMedia Lab 發布線上測驗「Moral Machine」,讓人選擇在不同情境下,煞車失靈的自動駕駛車應該撞上哪一側,希望當自動駕駛車面臨生死攸關的兩難抉擇時,能做出更具有人性的選擇。

MIT Moral Machine

你會選擇撞上一群小孩(左),還是撞上一群老人(右)?(SourceMIT Moral Machine

在測驗中,自動駕駛車可選擇直行或轉彎,不過不論選擇哪種都會造成死亡,可能是乘客、路人或動物。測驗中也將人細分為男女、小孩或老人、身材胖或瘦、動物或人類、罪犯或守法人士、社經地位高或低等,這些都會影響判斷,人數多寡也列入考慮。

MIT Moral Machine

你會選擇撞上闖紅燈的成人(左),還是撞上一名守法的兒童(右)?(SourceMIT Moral Machine

MIT Moral Machine

你會選擇撞上 3 名路人(左),還是選擇直行讓車內的動物死亡(右)?(SourceMIT Moral Machine

最後,測驗會將個人結果和其他人的平均結果比較,看你的道德觀是否和其他人相仿。結果顯示,比起男性,多數參與調查的人會傾向救女性;比起動物,更傾向救人類;比起老人,更傾向救年輕人;比起竊盜,更傾向救社經地位更高的人;不過當面臨該救乘客還是行人的問題時,結果顯示各半。

MIT Moral Machine

測驗結束可和其他人的測驗結果相比。(SourceMIT Moral Machine

MIT 在結果頁面下方提醒,這份測驗只是參考用,「我們的目標不是去評斷任何人,而是希望幫助反映出大眾對重要且困難的議題態度為何。」

過去,Gizmodo 曾報導,儘管多數人希望自動駕駛車應該預設為「盡可能減低傷亡人數」,不過,當詢問自己是否願意搭乘這種自動駕駛車時,多數人卻不願意。進行這份調查的 MIT 教授 Iyad Rahwan 表示:「多數人希望自動駕駛車可將傷亡減到最低,但卻希望他們的汽車不計成本來保護他們。」

或許這項測驗現在看來像是個小遊戲,但在自動駕駛車普及的將來,自動駕駛系統的程式碼就是判斷行人或乘客的生命孰輕孰重的依據。道德議題對人類來說始終是難解的問題,尤其當生死攸關時更是如此,而這卻是自動駕駛系統開發者需要正視的問題。

arrow
arrow
    全站熱搜

    Win Driver Blog 發表在 痞客邦 留言(0) 人氣()