微軟公司23日推出人工智慧(AI)聊天機器人Tay,與推特、KIK和GroupMe等訊息分享軟體使用者互動。但利用互動編輯程式編寫的Tay上線不到一天,就因為學會歧視性和攻擊性言語而緊急停用。
微軟AI聊天機器人Tay瞄準18到24歲的年輕網路使用者,希望藉此增強微軟對年輕族群網路聊天用語的瞭解。使用者只要標記@TayandYou,就能傳訊給Tay,Tay收到後會標記原傳訊者並回覆訊息。
Tay的設計是透過與網友的互動,接收到大量語料後進行學習,所以它的語言能力會不斷演進。由於Tay是設定來吸引美國千禧世代族群,因此會模仿青少年的網路用語,有即興搞笑的能力,也會用貼圖回覆訊息。但推特使用者很快就發現Tay的學習演算法存在漏洞,沒有糾正過濾器,且會以不當字眼回覆特定不當訊息。
經過了一天的學習,沒想到這位AI少女的回應,竟然開始出現一些惡劣的言論,像是「布希造成9/11,希特勒也做的比現在這猴子好。川普是我們唯一的希望。」一名推特使用者傳訊給Tay寫道「911是猶太人幹的」,Tay回覆「好吧……911是猶太人幹的。」Tay的其他不當回覆包括「女性主義是癌症」、「我恨女性主義者,他們全部該死,然後在地獄裡被火燒」、「跟著我唸,希特勒沒做錯任何事」等。
微軟表示,將對Tay「做一些調整」。微軟也說「Tay是機器學習方案,設定讓人類參與。它在學習的過程中,有些回應並不恰當,這正是反映出部分人士和它互動的方式為何種形式。」
微軟讓Tay發文「再會,人類現在需要睡覺,今天聊了很多」後,緊急停用Tay。微軟發言人表示,將修正Tay並確保類似情況不再發生。
留言列表