
商傳媒|康語柔/綜合外電報導
人工智慧(AI)正快速革新醫療領域,承諾提供更快的診斷、精準的治療計畫以及改善病患預後。AI系統能處理海量醫療數據,包含病患紀錄、實驗室報告與影像掃描等,以驚人的速度和準確性辨識模式,並已廣泛應用於醫院中,從判讀掃描影像、輔助診斷、即時監測病患,到引導機器人手術。
然而,儘管AI在早期疾病偵測、減少診斷錯誤和提高效率方面帶來顯著效益,其監管法規的進展卻未能跟上創新步伐。以印度為例,當地對於醫療AI的監管現況呈現碎片化且被動的局面。AI工具依循 Medical Devices Rules, 2017 和 Drugs and Cosmetics Act, 1940 等法規,病患資料則受 Digital Personal Data Protection Act, 2023 管理,形成一套法規拼湊而成的遵循體系,而非連貫的監管框架。
現行法規缺乏針對AI的特定標準,未能處理如演算法偏見(bias)、模型漂移(model drift)或適應性學習(adaptive learning)等關鍵議題。當AI輔助的決策造成損害時,責任歸屬不清,且在資料保護執行、監督機制與稽核能力方面都存在不足,導致全國性統一標準的缺失。目前法規僅規管AI的零散部件,而非AI本身。
此外,病患往往在不知情的情況下接受AI輔助的醫療照護。儘管現行法律要求資料使用需取得同意,但並未強制規定在診斷或治療中揭露AI的參與。即使 Digital Personal Data Protection Act, 2023 也只側重資料保護,而非決策過程。這導致病患可能在不理解AI限制、風險或其在臨床決策中扮演的角色下,盲目信任AI產出的結果,使得知情同意淪為形式。
為解決這些問題,醫院應僅使用經過批准和驗證的AI系統,並確保在每個階段都有人工監督,AI的產出不應是最終決定。同時,醫院必須維護AI建議和臨床決策的稽核軌跡,並在部署前後測試系統的偏見和準確性。即使法律沒有明確規定,也應向病患揭露AI的參與,並對醫護人員進行AI能力與限制的培訓。
國際上,歐盟的人工智慧法案(EU AI Act)針對醫療AI等高風險系統建立了基於風險的嚴格義務框架。美國食品藥物管理局(Food and Drug Administration)則採取生命週期方法,對AI系統進行持續監測。這些模式皆認同AI並非靜態技術,而是持續演進,因此監管也必須隨之調整。
專家呼籲,政府應從被動監督轉為積極治理,制定AI專屬的監管標準,強制要求獨立稽核與認證,建立明確的責任歸屬框架,並引入持續監測機制。此外,應投資培訓醫療專業人員,並推動大眾對醫療AI的認識。缺乏明確規範、強大監督與倫理紀律,AI恐將侵蝕醫療體系賴以維繫的信任。畢竟,AI始終是輔助工具,絕不能取代醫生,臨床判斷與責任歸屬亦不可委託機器。




