日新月異的 AI 人工智能,逐漸改變我們的生活方式,取代市場所需人力,各個科技大廠爭相發展 AI 技術,人工智慧的在科技產品上的應用,可見蘋果的 siri 助理、亞馬遜的 Alexa,再到最近谷歌推出 AI 語音客服 CallJoy、Duplex 等 Google Assistant。
但 AI 的應用淺力越是無窮,發展越快,也不禁讓人擔心,若是不盡早研究對策進行管制,會不會真如特斯拉總裁馬斯克所說,出現 AI 自行散布假新聞的情形出現?
畢竟 AI 不是人類,我們要怎麼規範其行為,以避免出現類似上述的犯罪行為?
據 EE Times 報導,2018 年 IEEE/ACM 網路學報,綜合許多組織和研究,針對管制 AI 的商業道德與公平,發表了一篇論文。論文中發表 20 多種不同的 AI 發展指南,來定義該如何規範人工智慧的演算和模組發展。
為了符合商業平等性,許多機構也試圖將這些指南,融入進現有法律,不過其中最有名的指南,應該是歐盟委員會 (EC) 於4月發布的,人工智慧道德準則《ETHICS GUIDELINES FOR TRUSTWORTHY AI》。
由 EC 發表的這份大綱反映了過去幾年,AI 發展上受到市場普遍認為,備受爭議的商業道德,進行了定義與分類。
IBM 的 AI 道德全球領導者 Francesca Rossi 是 EC 人工智慧研究團隊的 52 名成員之一,該組織發布了人工智慧道德準則《ETHICS GUIDELINES FOR TRUSTWORTHY AI》。
EE Times 引述 Rossi 表示,他們是從國際人權法律、歐盟條約和歐盟憲章開始擬草稿,先列出四個基本倫理準則,最後為值得信賴的 AI 定義了七項關鍵要素。「所有這些努力,都是為了建立人類和人工智慧的信任,並且能讓業者採用透明化的方式發展 AI」Rossi 說道。
人工智慧道德準則《ETHICS GUIDELINES FOR TRUSTWORTHY AI》
l AI 系統需涵蓋的基本四項倫理準則:
尊重人自主性 respect for human autonomy
預防傷害 prevention of harm
公平性 fairness
可解釋性 explicability
l AI 應符合的三個基本條件為:
合法的 (lawful)
具備倫理的 (Ethical)
穩健性的 (robust)
l 值得信賴的 AI 應符合的七項關鍵要素:
人力資源和監督 Human agency and oversight
技術穩健性和安全性 technical robustness and safety
隱私和數據管理 privacy and data governance
技術透明性 transparency
多樣性、非歧視性和公平 diversity, non-discrimination and fairness
環境和社會福祉 societal and environmental wellbeing
問責制 accountability
現已知 IBM 正在為人工智慧打造更完善的 AI 指南,可以幫助未來研發 AI 的業者,能在開發階段時能針對,值得信賴的 AI 的核心去進行審視和考量。Rossi 再次強調,「是否值得人類信賴的人工智慧,這點相當重要,因為一旦系統預設值已經啟動也設定了,就無法將不可信任的 AI 搭載進系統中」
留言列表