自殺是一個不容忽視的公眾健康問題,因為每年全球自殺致死的人數高達 80 萬。所以提前發現自殺傾向及時預防就顯得特別重要。不幸的是,由於自殺是一種高度個人化的行為,而且人類普遍在辨識自殺傾向的能力都相對糟糕。不過好消息是研究人員已經利用機器學習找到預測自殺傾向的方法,且精確率出奇的高;但我們因此需要面對一些倫理方面的問題。

一個人自殺會給親朋好友留下心碎和悲痛,以及如果他們換個心態會怎樣的無解問題。Colin Walsh 是美國范德比大學醫學中心的資料科學家,他在預測自殺風險方面做了一些出色的工作,他希望自己的工作能提出「我能做什麼?」問題以及預防的機會。

「commit suiciding」的圖片搜尋結果

Walsh 和同事建立一些機器學習演算法,這些演算法可以預測病人嘗試自殺的可能性,精確度高得嚇人。試驗結果表明,演算法對某人在兩年內是否有自殺傾向的預測精準度達 80%~90%,而預測下週是否會嘗試自殺的準確度則高達 92%

預測的資料基礎來自各種入院資訊,包括年齡、性別、郵遞區號、用藥及先期診斷等。Walsh和團隊一共收集了范德比大學醫學中心5,167名病人資料,這些病人均承認有過自殘或自殺傾向。他們閱讀每個病例,辨識出其中3,250 個自殺企圖案例。

這組超過5000個病例的資料隨後用來訓練機器,辨識那些有自殺傾向風險的人,並且區分有自殘行為但無自殺企圖的人。研究人員還開發演算法預測一組人的自殺傾向,這群人的數量達12,695,都是隨機選擇、沒有自殺企圖歷史的人。結果表明,在預測這群人的自殺傾向準確度方面,演算法甚至比醫院的預測還準。

Walsh 的論文已在今年 4 月發表在《臨床心理科學》雜誌,這只是研究工作的第一階段。他現在正致力於驗證自己的演算法應用到另一家醫院、完全不同的資料集時也一樣有效。一旦該模型證明有效,Walsh 希望跟更大團隊一起合作建立一套適當的預防方法。他預期在兩年內有一套預防計劃用於測試。他補充說:「我當然傾向於相當快,但在醫療保健方面相當快往往也意味著要幾個月。」

自殺是一種極強烈的個人行為,以至於從人類角度來看,僅根據一組粗糙的資料集不可能做出精準預測。Walsh 說臨床醫生自然會問預測是怎麼得出的,但演算法實在太複雜了(注:其實不是複雜,而是因為機器學習內部是黑箱),抽出單個風險因素不可能。他說:「是風險因素的組合讓我們得出答案。」

話雖如此,Walsh 和團隊仍驚訝地發現,服用褪黑激素(腦白金主要成分)似乎是計算風險的一個重要因素。Walsh 說:「我並不認為褪黑激素是導致產生自殺想法的原因。這一點沒有生理學依據。但對自殺風險來說有一個東西十分重要,就是睡眠失調。」有可能開褪黑激素的處方捕捉到睡眠失調的風險──儘管這點仍是假設,尚有待驗證。

這項研究還引起更廣泛的倫理問題,也就是電腦在醫療保健中的角色是什麼,以及真實的個人資訊應該如何使用。Walsh 說:「意外後果的風險一直都存在。我們的意圖是好的,想建立一套系統來幫助大家,但有時候結果可能會事與願違。」

研究人員還必須確定基於電腦的決策將如何確定對病人的護理。身為一名初級醫療的保健醫生,Walsh 說意識到自己可以按照機器的指令行事這一點令人不安。他說:「如果機器告訴我高風險,但我的臨床現象卻沒有證實這一點,會不會出問題?你會不會因為電腦告訴你而改變原來的護理方式?」

目前為止,機器學習算法基於入院資料。但 Walsh 意識到許多有自殺風險的人並沒有住過院。他說:「我們大部分生活都在醫療保健設施以外的地方度過。如果我們只是依賴醫院的資料來做這項工作,那麼我們也只能取得一部分成果。」

但研究人員還可從哪裡獲得資料?網路是相對有希望的選項之一。Walsh 說,花了那麼多時間在 Facebook Twitter 面,這些社群媒體資料也許可以用來預測自殺風險。「但我們需要工作來證明這一點是正確的。」

Facebook稍早宣布使用自家人工智慧審核有自殘跡象的發文。結果據說已比 Facebook 從那些人的朋友標記為有風險的結果更準確。

訓練機器辨識自殺的告警訊號遠不是那麼直截了當。要想成功預測和預防,Walsh 認為消除自殺污名化必不可少。他說:「如果我們對討論這件事情感到不舒服,就永遠沒辦法幫助那些人。」

不過,隨著自殺導致全球每年 80 萬人死亡,這已成為一個無法忽視的公眾健康問題。鑑於大多數人類包括醫生,辨識自殺風險的能力方面都相當糟糕,機器學習也許可以提供一個重要的解決方案。

arrow
arrow
    全站熱搜

    Win Driver Blog 發表在 痞客邦 留言(0) 人氣()