創科宇宙/AI+醫療冒起 完善監管不宜遲\梁頴宇
人工智能(AI)浪潮席捲全球,醫療健康是其中一個受影響領域,亦已滲透到臨床診療、健康管理、醫院運營、藥物研發、醫保支付等不同場景。同時也帶來了數據隱私、演算法偏差、技術可靠性、法律監管、倫理規範、產業現實等多重挑戰。
近年,香港公私營醫療體系積極引入AI應用,但迄今為止,當局尚未制訂全面規範AI在醫療領域應用的法律,目前衞生署主要透過「醫療器械行政管理制度」監管具AI功能的醫療軟件。香港若要發展成為蓬勃的區域醫療創新樞紐,必須建立更加強健且具適應力的監管框架,而此框架須在創新與監管保障之間取得平衡。AI醫療產品和應用的核心風險點,集中在數據、算法、安全等方面。
釐清AI誤診責任
首先是技術與數據層面,AI診療能力高度依賴數據與算力,在數據不完整、不平衡的狀態下,可能導致模型偏差,如訓練數據集中於大醫院、特定人群,可能導致模型在基層、少數群體或罕見病上的表現不穩定。另外,不同機構和資訊系統之間缺乏互操作性,數據孤島嚴重,也阻礙了模型遷移推廣。算法決策邏輯不可解釋的「黑箱」問題,也讓醫生無法判斷其結論的合理性。
其次是倫理和社會信任方面,醫療數據高度敏感,AI大模型訓練涉及跨機構、跨地域甚至跨境流動,如何在訓練推理中實現最小必要使用、脫敏與訪問控制是前提。此外,醫生若未明確告知患者診療中AI的參與度,有機會侵犯患者知情權。
再次是監管與責任方面,醫療大模型存在「幻覺」風險,若缺乏人類監督可能導致誤診。現階段而言,AI誤診責任歸屬不清,醫生、醫院、技術供應商之間界限模糊,現行監管多停留在原則層面,缺乏細化制度和准入標準,缺乏清晰的法律與保險機制,會讓機構在採用時更保守。更重要的是,現行監管大多是針對單項技術產品的上市前的審批,而對於醫療大模型的測評和監管尚存在欠缺,遑論針對AI算法在臨床應用中會不斷迭代優化,對上市後的算法更新、性能監測需持續監管的動態監管機制或第三方評估體系。
醫療行業容錯率極低,雖然技術成熟度提升,但AI模型仍存在誤判風險,需持續優化演算法,這也使得監管機關在監督此類產品及評估其所產出證據的過程中,面臨日益嚴峻的挑戰。
保障數據安全與隱私
因應醫療AI快速發展造成的「碎片化」問題,具前瞻性的政府在數據治理和技術架構優化方面,可鼓勵建立跨機構數據共用機制,推動跨系統數據流動與標準化、結構化、互操作;促進AI工具互聯互通,從單點工具過渡到多模型協同的模組化架構,由智能代理協調跨流程任務,逐漸形成統一的數據治理與互操作協議,避免碎片化。
數據安全與隱私方面,針對醫療數據涉及高度敏感資訊,可引入隱私計算和去標識化技術,實現「數據可用不可見」,並配合更嚴格的醫療數據使用規範,以確保病人基因、影像及病歷資料不被濫用。政府或監管機構亦應推動完善醫療數據治理與共享機制,在確保隱私與安全前提下,推動區域醫療數據中心與高質量數據集建設。如引入「數據沙盒」或「安全共享平台」,允許在嚴格監測與限定範圍內測試新型AI醫療應用,讓AI能在受控環境下訓練與測試,為模型訓練與評估提供合規的數據基礎,並明確脫敏標準與責任邊界,為後續全面推廣積累證據與經驗。
法律與監管方面,先要做的是釐清責任歸屬問題,建立多方共擔模式,明確界定AI醫療診斷錯誤時,醫生、醫院及AI醫療器材供應商的責任分配,並確保醫生在關鍵環節的主導地位,保障病人權益不受損。實際應用上,可考慮構建分級分類的「AI+醫療服務」、「AI+醫療產品」監管框架,按照風險高低制定差異化的審批與備案要求,對高風險應用實施更嚴格的臨床驗證與使用監測。此外,可通過制定場景化的技術與倫理指南,包括適應症、禁忌症、醫生參與要求、結果解讀與告知方式等,為影像、病理、心血管、腫瘤、全科等不同場景制定AI使用規範。
(作者為創業投資者聯盟召集人)

字號:

評論