
商傳媒|康語柔/綜合外電報導
隨著人工智慧(AI)技術廣泛應用於醫療領域,相關倫理與數據安全挑戰也日益浮現。根據美國醫院協會(American Hospital Association)2025年的一項健康科技調查顯示,美國約有八成四的醫院已採用至少一種AI輔助的臨床決策支援工具。然而,一份2025年發表於《JAMA Network Open》期刊的同儕審查分析指出,當AI診斷模型遇到一個或多個「未定義資料」欄位時,其準確度會顯著下降,平均降低幅度達17%至31%。
所謂「未定義狀態」(undefined state),是指AI模型接收到其訓練時未曾處理過的變數,例如資料欄位空白、數值超出正常範圍,或是資料類型不符。病患病歷中常有種族、族裔、過往用藥史、家族基因背景或專科轉診紀錄等資料缺失的情況,尤其是在醫療資源取得較為零碎的病患群體中,此現象更為普遍。
AI模型處理這些數據缺口的方式,取決於開發商對「空值」(null values)的設定,而這類處理方式鮮少會向臨床醫師揭露。常見的處理方式包括靜默預設(無預警地替換為人口平均值)、錯誤抑制(標示信心度低但易被忽略)、結果省略(不提供建議)及連鎖錯誤分類(根據相關欄位猜測缺失值)。
這些數據缺漏對黑人、拉丁裔及低收入病患產生了不成比例的影響。史丹佛醫學院(Stanford Medicine)與芝加哥大學醫學院(University of Chicago Medicine)在2025年下半年發布的研究顯示,這些群體因其醫療系統關係不穩定,更容易產生零碎的醫療紀錄,進而使AI工具暴露於未定義狀態的風險中。約翰霍普金斯彭博公共衛生學院(Johns Hopkins Bloomberg School of Public Health)的瑪麗安·塔利卜(Mariam Talib)博士指出,這種不透明的假設運作方式,同時引發了知情同意和病患安全問題。
目前,美國食品藥物管理局(FDA)截至2026年初已核准超過950項AI醫療器材。儘管FDA在2024年的指引中,要求AI/機器學習軟體醫療器材(SaMD)的變更控制計畫需文件化模型處理分佈轉變的方式,但並未強制要求向終端使用者揭露未定義資料的處理協定。為此,美國參議員羅恩·懷登(Ron Wyden)與比爾·卡西迪(Bill Cassidy)於2025年9月提出兩黨合作的「醫學演算法責任法案」(Algorithmic Accountability in Medicine Act),該法案已於2026年2月通過委員會審查,正等待參議院全院表決。此法案將要求所有經FDA核准用於聯邦醫療保險和醫療補助請款的AI診斷工具,必須以簡明語言公開其空值處理協定。
面對此挑戰,美國國家衛生研究院(NIH)自2022年起推動「Bridge2AI」計畫,五年投入1.3億美元,旨在建立能最大程度減少未定義狀態的訓練資料集。該計畫在2025年末發布的初期成果顯示,經其資料集重新訓練的AI模型,相較於使用標準電子健康紀錄(EHR)資料集訓練的模型,能將未定義輸入的錯誤率降低約四成。Bridge2AI計畫預計將於2026年第三季發布首個公開的訓練資料集。
然而,公眾對於醫療AI的認知仍有不足。皮尤研究中心(Pew Research Center)2025年的調查發現,高達67%的美國成年人不知道醫院正在使用AI診斷工具,僅有19%的受訪者表示曾被醫護人員告知其診斷或治療建議有AI輔助。未來,如何提升透明度、確保數據品質,並在AI發展與病患權益之間取得平衡,將是醫療界必須面對的關鍵課題。


