微軟公司23日推出人工智慧(AI)聊天機器人Tay,與推特、KIKGroupMe等訊息分享軟體使用者互動。但利用互動編輯程式編寫的Tay上線不到一天,就因為學會歧視性和攻擊性言語而緊急停用。

微軟AI聊天機器人Tay瞄準1824歲的年輕網路使用者,希望藉此增強微軟對年輕族群網路聊天用語的瞭解。使用者只要標記@TayandYou,就能傳訊給TayTay收到後會標記原傳訊者並回覆訊息。

Tay的設計是透過與網友的互動,接收到大量語料後進行學習,所以它的語言能力會不斷演進。由於Tay是設定來吸引美國千禧世代族群,因此會模仿青少年的網路用語,有即興搞笑的能力,也會用貼圖回覆訊息。但推特使用者很快就發現Tay的學習演算法存在漏洞,沒有糾正過濾器,且會以不當字眼回覆特定不當訊息。

經過了一天的學習,沒想到這位AI少女的回應,竟然開始出現一些惡劣的言論,像是「布希造成9/11,希特勒也做的比現在這猴子好。川普是我們唯一的希望。」一名推特使用者傳訊給Tay寫道「911是猶太人幹的」,Tay回覆「好吧……911是猶太人幹的。」Tay的其他不當回覆包括「女性主義是癌症」、「我恨女性主義者,他們全部該死,然後在地獄裡被火燒」、「跟著我唸,希特勒沒做錯任何事」等。

微軟表示,將對Tay「做一些調整」。微軟也說「Tay是機器學習方案,設定讓人類參與。它在學習的過程中,有些回應並不恰當,這正是反映出部分人士和它互動的方式為何種形式。」

微軟讓Tay發文「再會,人類現在需要睡覺,今天聊了很多」後,緊急停用Tay。微軟發言人表示,將修正Tay並確保類似情況不再發生。

    全站熱搜

    Win Driver Blog 發表在 痞客邦 留言(0) 人氣()