麻省理工學院(MIT)研究人員已訓練一組彼此連繫的電腦軟體,讓它們理解人類的肢體語言,進而預測眼前的兩個人將會如何互動。

MIT的計算機科學與人工智慧實驗室讓實驗室其中一個「神經網路」觀看600小時的影片,包含「慾望師奶」、「辦公室瘋雲」等。之後,研究人員再讓該演算法觀看新的影片,並在片中角色即將要進行動作的前一秒按下暫停鍵,請演算法預測角色接下來會如何互動,選項有擁抱、接吻、擊掌或握手。

「fall in love」的圖片搜尋結果

結果這個深度學習程式的預測準確率達逾 43% ,儘管沒有很高,但研究人員指出,人類的預測準確率也僅有 71%

攻讀資訊工程及人工智慧博士學位的博士生凡德瑞克說:「我們想證明,電腦只需透過觀看大量影片,就能獲得足夠的知識以不斷預測它們周圍即將發生的事。」

    全站熱搜

    Win Driver Blog 發表在 痞客邦 留言(0) 人氣()