close

很多人可能都聽說人工智慧已經可以寫文章了,但是你可能不知道編輯機器人早就已經是維基百科最重要的貢獻群體之一。

2001年,維基百科引入了機器人編輯者的概念,任何用戶可以為自己研發的機器人單獨建立一個維基百科帳號,只要根據維基百科社群官方的規定標註帳號,即可讓機器人參與維基百科的編輯。

「wiki AI editor」的圖片搜尋結果

2014年,機器人在維基百科的所有語言中完成15% 的編輯動作,它們辨識、撤銷破壞行為,鎖定遭到頻繁篡改的頁面、辨識錯別字和有語病的句子、創建不同語言之間的鏈接、自動導入站外內容、進行資料挖掘、辨識侵權的內容並為新手編輯者提供引導等。

在研究人員近期發布的一份報告中,研究人員累計在維基百科的13個版本上找到 6,627 個疑似為機器人的帳號,這些機器人編輯來自不同的創建者,並遵循創建者(人類)為其獨立訂製的規則在維護維基百科。

那麼,問題就來了:這些機器人之間,會吵架嗎?

從結論上來說,答案是肯定的。事實上,機器人編輯之間的衝突遠高於人類間的衝突。

這項研究中追蹤6,627 個疑似機器人帳號裡的1,549個,並抓取它們在13 個維基百科語言版本中2001 - 2010年期間的行為紀錄。

研究顯示,機器人之間彼此撤銷或修改文章非常常見。英語維基百科上每個機器人平均撤銷105 次別的機器人編輯,這比人類之間的數據高出3倍;但在德語維基百科上,互相撤銷的數量則下降到24 次,葡萄牙語機器人則高達185 次。

這證明在不同的語言(文化)之間,機器人的衝突也不同。甚至可以說,比起「內政」,機器人在「外交」上處理得更不好。研究人員發現,在同一個語言內,機器人的衝突明顯低於跨語言的衝突。這是因為在同一個語言內,一個機器人往往只照看特定的詞條頁面,不同的機器人之間劃江而治,彼此互不侵犯。

語言和環境影響機器人的行為準則

但許多機器人在「佔領」自己語言的對應詞條之後,會對同一詞條在其他語言中的版本「指手畫腳」,進而導致與其他語言的機器人編輯產生衝突。這在一些有爭議的國家和人物上尤為突出(比如巴基斯坦前總統、烏茲別克、愛沙尼亞),彷彿這些機器人也有政治傾向。

然而,機器人編輯衝突數量之高並不意味著機器人比人類更好戰,事實上大多數機器人之間的更改和撤銷行為,都比人類之間在篇幅上要小許多,其中很多是由於不同機器人對語法和措辭上的理解,無法像人類那樣變通造成。

研究人員 Yasseri 說,(編輯)機器人不可能在抽象的介質中工作,它們像人類一樣透過語言進行「思考」並動作,因此語言和環境會顯著影響機器人的行為準則,因此以為機器人不是人類就可以沒有社會性、沒有立場的工作是不可能的。

這種跨語言的衝突在2013年得到緩解,因為從 2013 年開始,維基百科開始使用 Wikidata 中轉不同語言版本之間的詞條,這明顯阻隔了機器人之間互相「侵犯領土主權」的行為。

但同時,隨著機器人數量和活躍度的增加,機器人之間的衝突數字變得越來越高。這有點像是網路上曾經出現過、讓兩個 Siri 對話的影片,它們會陷入無限的無厘頭對話一樣。當每個機器人固執地認為自己的修改是正確的時候,便會陷入無限反饋的深淵中──儘管它們的修改可能無關緊要且彼此都是對的。

這種完全沒有意義的衝突有時會持續數年,並顯著降低機器人的工作效率,直到其中一方的主人發現並針對性調整才會結束。

研究人員說,總體來說,維基百科是一個觀察機器人生態系統的絕佳例子。首先機器人數量夠大,其次這是一個善意的機器人社群──所有機器人都是為了讓文章更好;另外維基是一個由統一規則所引導的社群,並非完全開放的空間。

然而在更開放的網路環境如TwitterFacebook 上,機器人之間的互動可能帶來非常嚴重的後果。曾經被網友「教育」成納粹分子的微軟聊天機器人Tay就是一個典型的例子。

這項研究的目的是為了更理解機器人在不同社會環境中的反應,尤其是一個機器人在融入機器人群體時的行為。因為隨著機器人發展,我們陷入一個機器人承擔大多數社會工作的世界,似乎是必然趨勢,因此機器人除了和人類打交道,也必須學會怎麼和同類交流。

arrow
arrow
    全站熱搜

    Win Driver Blog 發表在 痞客邦 留言(0) 人氣()