跳到主要內容
第1796期
2024-10-18

【記者楊凱傑報導】醫學界近幾年積極推動數位病理融合AI,國立成功大學資訊工程學系教授蔣榮先指導智慧型資訊擷取實驗室研究生蘇芳毅、方郁文、曾堯麟、黃維立組成研發團隊,首創「弱監督式多實例學習框架精準解析數位病理影像之基因表現及存活預測」增進效率,並輔以AI解析病患的數位病理,榮獲2024年未來科技獎,在17日至19日於臺灣創新技術博覽會中展出。

藉由AI模型能以細胞的不穩定狀態,預測大腸直腸癌患者的預後狀況。圖/蔣榮先提供

藉由AI模型能以細胞的不穩定狀態,預測大腸直腸癌患者的預後狀況。圖/蔣榮先提供

研究細胞時,會將細胞切一小塊,製作成病理切片,再轉化成數位影像進行研究。雖然現今切片已數位化,但詳細情形仍需醫生親自分析、註解,完整標記資料後,才能交給AI分析,不僅資訊龐大,也容易造成醫生負荷過重。在人力不足應付的狀況下,導致沒有足夠標註的資料進行運算,蘇芳毅說明:「 AI所需的資料龐大,但現階段的標記過程缺乏人力及效率。」

相較於未經多實例學習判斷的影像(左圖),運算過後能有效減少像素,縮小檔案容量(右圖)。圖/蔣榮先提供

相較於未經多實例學習判斷的影像(左圖),運算過後能有效減少像素,縮小檔案容量(右圖)。圖/蔣榮先提供

研發團隊利用機器學習,解決標註效率外,透過演算法分析切片中的病徵,可以快速提供醫生需要的資訊,協助他們做出更精準的判斷。蔣榮先表示,醫生可以使用系統,以患者當前狀況推估未來經過治療後可能的結果,並分析與切片之間的關聯性,同時減少人為差異導致診斷不一致的可能。

原本細胞數位影像需要放大成百萬級影像,藉由多實例學習,AI能自動辨識細胞所含的元素。圖/蔣榮先提供

原本細胞數位影像需要放大成百萬級影像,藉由多實例學習,AI能自動辨識細胞所含的元素。圖/蔣榮先提供

為了使AI模型更快標註切片資料,研究團隊採用「弱監督式學習」方式,用於處理資訊不完整的情況 。傳統的監督學習,需要有完整標註完的資料,但弱監督可以從完整不一的資料中提取有效訊息,自行標註每個有問題的地方並區分種類,蔣榮先進一步解釋:「 傳統監督學習需要在一張切片影像中,人為標註裡面各種不同細胞類型如癌細胞等,弱監督則只要給圖片就能自行判斷、標註。 」此外,大量的標註資料會影響運算效率,因此計畫採用多實例學習框架。蘇芳毅補充,模型只需判斷影像是否具大腸癌病徵,「像是一張海景照片對電腦而言,會被拆成單獨元素如陽傘、沙子和人,但多實例只需要判斷是否包含沙子(病徵),而不用區分剩餘元素。」

傳統監督式學習需要人為標記每件物品,弱監督式學習只需標記類似物件為球體,AI即可自行辨識物體種類。

傳統監督式學習需要人為標記每件物品,弱監督式學習只需標記類似物件為球體,AI即可自行辨識物體種類。

蔣榮先期望利用AI技術為醫療領域帶來更多突破,他表示,「AI開發中,如何確保模型的公平性是最具挑戰。」針對專案驗證與臨床整合,團隊也與哈佛大學合作,盼能盡早應用在醫療現場。林口長庚紀念醫院解剖病理科主治醫師黃士強認為若該技術能廣泛應用,有望解決判斷癌症切片低效率的問題,但他也提醒同為癌症,不同器官仍有巨大差異,在臨床研究上仍有進步的空間。

置頂