VentureBeat 報導,Google AI 利用人工智慧系統,藉助數千個帶有高品質標籤的資料庫,精準解讀胸部 X 光圖像。論文已發表在《自然》雜誌。

近年來,Google AI 不斷將目光投向醫療領域。去年,紐約大學利用 Google Inception v3 機器學習模型檢測出肺癌。今年5月,Google AI 和美國西北大學醫學院的科學家們創建模型,透過篩查檢測出肺癌,水準超過了有8年經驗的放射科醫生。

此外,Google AI 曾透過眼部掃描,診斷糖尿病視網膜病變的進展;Alphabet 子公司DeepMindAI曾為50種眼部疾病推薦合適的治療方案,準確率高達 94%

那麼,胸部 X 光圖像解讀是否也可以與人工智慧相結合?

實際上,用機器學習演算法分析胸部 X 光圖像,說起來容易做起來難。這是由於在一般情況下,訓練演算法所需的臨床標籤,是透過基於規則的自然語言處理或人工註釋獲得的,兩者往往不一致,且錯誤較多。同時,僅以圖像為依據,很難收集包含大量病例的資料庫,並建立一致的、具有臨床意義的標籤。

近日,為推進 X 光圖像分類的目標,Google 的研究人員發現,利用人工智慧模型分析胸部 X 光圖像,可檢測 4 項指標:氣胸(肺萎陷)、結節和腫塊、骨折和氣腔模糊(樹芽徵)。在發表於《Nature》雜誌的論文中,研究小組稱,經專家獨立審查,這個模型已達到放射科醫生的水平。

這項最新研究,利用了來自兩個反辨識資料庫的 60 多萬張圖像。其一是與印度阿波羅醫院合作開發的資料庫,包含多年來從各地收集到的 X 光圖像。其二是由美國國立衛生研究院發布的 ChestX-ray14 公開圖像庫,該圖像庫曾為人工智慧研究提供支援,但在準確性方面存在不足。

綜觀整個研究,首先,研究人員開發了一個基於文本的系統,提取每張 X 光片的放射學報告並加以運用,為阿波羅醫院資料庫中超過 56 萬幅圖像提供標籤。為了減少基於文本的標籤提取過程中可能出現的錯誤,並為若干 ChestX-ray14 圖像提供相關標籤,他們專門招募放射科醫生,檢查這兩個資料庫中的約37000萬幅圖像。

下一步是生成用於模型評估的高品質參考標籤。3 名放射科醫生以小組合作的形式,審查所有結果,測試資料庫圖像,並線上討論解決相互之間的分歧。這項研究的合著者也表示,經由這種方式,原先只能透過放射科醫生檢測到的結果,也能被準確地辨識並記錄下來。

Google 指出,儘管這些模型的準確性總體上達到專家水平,但各個資料庫的結果卻各不相同。例如,對於 ChestX-ray14 圖像,同一放射科醫生檢測氣胸的靈敏度約為 79%,但對於其他資料庫,檢測氣胸的靈敏度僅有 52%

Google 科學家 David Steiner 博士和 Google Health 技術負責人 Shravya Shetty 均為該論文做了貢獻,兩人在一篇文章中提到:資料庫之間的差異,證明了建立具有明確參考指標的標準化評估圖像庫的必要性,方便在不同研究之間進行比較;但同時,將人工智慧和放射科醫生各自的優勢相結合,很可能是人工智慧應用於醫學圖像解讀的最佳方式。

研究小組已經在開源中創建了 ChestX-ray14 資料庫,資料庫包含 2,412 個訓練、驗證集圖像,1,962 個測試集圖像,總共 4,374 個圖像。David Steiner Shravya Shetty 表示,他們希望透過 ChestX-ray14 資料庫的判定標籤,為以後的機器學習奠定基礎,並推動機器學習模型之間的比較,進而更精準地解讀胸部 X 光圖像。

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 Win Driver Blog 的頭像
    Win Driver Blog

    Win Driver Blog

    Win Driver Blog 發表在 痞客邦 留言(0) 人氣()