創科瞭望/港可成全球AI治理試驗場\陳迪源

國家網信辦於12月27日發布《人工智能擬人化互動服務管理暫行辦法(徵求意見稿)》。此舉不單應對「類人AI」服務的強勁發展,更是為未來十年的AI產業劃定了倫理航道與安全底線。對正在全力打造國際創科中心的香港而言,我們除了應該持續關注,亦是我們配合國家掌握全球AI治理話語權的機遇。

為何需要為「類人AI」訂立規則?

近年,AI技術發展迅速,特別是具備情感互動能力的「類人AI」,正從概念走入應用。不論是提供情感支援的虛擬伴侶,還是模擬逝去親人的數字化身,這些服務在帶來慰藉的同時,也引發了前所未見的倫理挑戰。當AI不僅處理資訊,更開始影響我們的情感時,其潛在風險便不容忽視。例如,青少年或會沉迷於虛擬偶像而忽略現實社交;算法亦可能通過情感操控,誘導用戶作出非理性決策;長者可能被虛假的情感承諾所欺騙,甚至在財務上遭受損失;有人更可能因極端情緒傾向而自傷。這些都是潛藏在高速發展下的隱憂。此次網信辦出台的《辦法》,筆者認為正是要為這個新領域建立秩序,其核心目的並非限制創新,而是要確保AI技術在健康、安全的軌道上發展,最終服務於社會福祉。這份監管文件值得我們深入理解,並表達意見。

《辦法》的監管思路清晰而全面,旨在創新與風險之間取得平衡。筆者認為其核心框架體現在三個關鍵維度上。

首先是全生命周期安全責任。服務提供者需承擔從設計、運行到終止的全程安全責任,建立算法審核、倫理審查、數據安全等一系列管理制度。這樣做的戰略意圖是將安全責任內化為企業的核心流程,從源頭上防範風險,改變過去「先發展後治理」的模式,構建可持續的安全體系。

其次是用戶權益保護。《辦法》強調對用戶的心理健康保護,設立防沉迷機制,如「連續使用兩小時提醒」、「識別極端情緒並干預」等。對未成年人,提供者需取得監護人明確同意,並提供監護人控制功能;對長者,提供者應引導其設置緊急聯繫人,並禁止提供模擬親屬的服務。這體現了科技發展應「以人為本」的原則,將用戶的福祉置於商業利益之上。

第三是清晰的知情權保障。《辦法》明確要求服務提供者「顯著提示用戶正在與人工智能而非自然人進行交互」。提供者在用戶初次使用、重新登錄時,或識別出用戶出現過度依賴、沉迷傾向時,應以彈窗等方式動態提醒。這是對人機關係邊界的關鍵界定,確保用戶在任何時候都保持清醒的認知,防止在不知不覺中將情感過度投射於虛擬對象,維護了人類的主體性。

內地新出台的監管框架,為香港帶來重大戰略機遇,使我們有潛力從AI「應用中心」邁向全球AI「治理樞紐」。香港可發揮「超級增值器」角色,融合內地監管實踐與國際標準,創造具前瞻性的AI治理模式。

首先,香港可成為全球AI治理的「沙盒」與試驗場。依託普通法制度、獨立司法與專業服務優勢,可建立AI倫理與治理先行區;在參考內地《辦法》的同時,銜接其他國際標準,探索既兼顧安全又促進創新的監管機制。香港的「沙盒」將讓全球AI企業測試合規性,兼容中外市場要求,降低跨境准入成本。

催生全新高端服務業

其次,AI治理可催生全新高端服務業。這不僅包括法律規範,還涵蓋技術認證、倫理評估、數據審計與合規顧問。香港完善的專業服務體系能迅速壯大為國際AI治理服務中心,提供具權威性的「合規認證」──「香港證書」可成為AI企業踏入全球市場的信任標誌,為法律、科技與顧問界創造可觀價值,並吸引世界級專家來港。

最後,香港可成為連接東西方AI治理理念的「對話平台」。美國重市場、歐盟重立法、中國重規範,而香港正是中西交匯的橋樑。透過舉辦全球AI治理峰會,匯聚政策制定者、專家與企業,共同推動形成具普遍認受性的AI倫理準則,展現「香港智慧」。

歷史的機遇,稍縱即逝。國家為類人AI劃定倫理航道,香港應積極參考和參與。我們不能僅僅滿足於跟隨,更要勇於成為引領者。特區政府、創科界、學術界必須聯手,主動出擊,積極研究和對接內地的監管框架,同時發揮香港的獨特優勢,在AI治理這一新興領域搶佔先機。

(作者為香港創科發展協會創會主席)