[No.L001]
未來人工智能(AI)在極端情況下會擁有和人一樣的道德判斷嗎?如果未來無人駕駛汽車要大量投入使用,必須為它確定社會普遍接受的道德標準才行。
英國《自然》雜志日前就發(fā)表了一項有關(guān)方面的人工智能研究:美國麻省理工學(xué)院(MIT)以“在無法避免的事故中,無人駕駛汽車應(yīng)如何作出決定拯救哪一方”為調(diào)查內(nèi)容做了項全球道德偏好調(diào)查。
該研究團隊搭建了一個名為“道德機器”的大型在線調(diào)查平臺,參與者可置身于一個不可避免的事故場景,事故中行人與乘客身處不同的危險中,參與者可選擇駕駛路線決定究竟救誰,該平臺總共記錄了約4000萬個參與者決定,該結(jié)果將用于為制定社會普遍接受的人工智能(AI)道德標準提供重要借鑒。
其中,研究人員將道德偏好給予分類,譬如救多數(shù)不救少數(shù)、救小孩不救老人、救人不救動物等,同時還發(fā)現(xiàn)了不同文化間的道德偏好差異:來自中美洲和南美洲國家、法國以及前法屬海外領(lǐng)地和現(xiàn)法屬領(lǐng)地的參與者,更偏向于先救女性和強壯個體;而來自收入差距較大國家的參與者在決定救誰時,一般會考慮其社會地位。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...