日新月異的 AI 人工智能,逐漸改變我們的生活方式,取代市場所需人力,各個科技大廠爭相發展 AI 技術,人工智慧的在科技產品上的應用,可見蘋果的 siri 助理、亞馬遜的 Alexa,再到最近谷歌推出 AI 語音客服 CallJoyDuplex Google Assistant

AI 的應用淺力越是無窮,發展越快,也不禁讓人擔心,若是不盡早研究對策進行管制,會不會真如特斯拉總裁馬斯克所說,出現 AI 自行散布假新聞的情形出現?

(圖片:AFP)

畢竟 AI 不是人類,我們要怎麼規範其行為,以避免出現類似上述的犯罪行為?

EE Times 報導,2018 IEEE/ACM 網路學報,綜合許多組織和研究,針對管制 AI 的商業道德與公平,發表了一篇論文。論文中發表 20 多種不同的 AI 發展指南,來定義該如何規範人工智慧的演算和模組發展。

為了符合商業平等性,許多機構也試圖將這些指南,融入進現有法律,不過其中最有名的指南,應該是歐盟委員會 (EC) 4月發布的,人工智慧道德準則《ETHICS GUIDELINES FOR TRUSTWORTHY AI》。

EC 發表的這份大綱反映了過去幾年,AI 發展上受到市場普遍認為,備受爭議的商業道德,進行了定義與分類。

IBM AI 道德全球領導者 Francesca Rossi EC 人工智慧研究團隊的 52 名成員之一,該組織發布了人工智慧道德準則《ETHICS GUIDELINES FOR TRUSTWORTHY AI》。

EE Times 引述 Rossi 表示,他們是從國際人權法律、歐盟條約和歐盟憲章開始擬草稿,先列出四個基本倫理準則,最後為值得信賴的 AI 定義了七項關鍵要素。「所有這些努力,都是為了建立人類和人工智慧的信任,並且能讓業者採用透明化的方式發展 AIRossi 說道。

人工智慧道德準則ETHICS GUIDELINES FOR TRUSTWORTHY AI

l  AI 系統需涵蓋的基本四項倫理準則:

尊重人自主性 respect for human autonomy

預防傷害 prevention of harm

公平性 fairness        

可解釋性 explicability

l  AI 應符合的三個基本條件為:

合法的 (lawful)

具備倫理的 (Ethical)

穩健性的 (robust)

l  值得信賴的 AI 應符合的七項關鍵要素:

人力資源和監督 Human agency and oversight

技術穩健性和安全性 technical robustness and safety

隱私和數據管理 privacy and data governance

技術透明性 transparency

多樣性、非歧視性和公平 diversity, non-discrimination and fairness

環境和社會福祉 societal and environmental wellbeing

問責制 accountability

現已知 IBM 正在為人工智慧打造更完善的 AI 指南,可以幫助未來研發 AI 的業者,能在開發階段時能針對,值得信賴的 AI 的核心去進行審視和考量。Rossi 再次強調,「是否值得人類信賴的人工智慧,這點相當重要,因為一旦系統預設值已經啟動也設定了,就無法將不可信任的 AI 搭載進系統中」

 

全站熱搜

Win Driver Blog 發表在 痞客邦 留言(0) 人氣()