
人工智能治理是實現人工智能健康、有序、可持續發展過程中不可或缺的制度性支撐。當前,如何在推動人工智能技術創新的同時建立科學有效的治理機制,已成為技術政策研究與實踐的重要議題。
在現實語境中,人工智能治理(AI Governance)存在一定程度的認知誤區。一種較為典型的觀點認為,人工智能的發展和應用仍在初始階段,此時提出治理問題可能會過早地對技術創新形成不必要的束縛。
本質上說,上述看法一方面低估了人工智能技術給社會可能帶來的風險,另一方面也低估了治理機制在引導和塑造技術發展過程中可以起到的關鍵作用。事實上,治理並非創新的對立面,而是實現人工智能健康、有序、可持續發展過程中不可或缺的制度性支撐。
值得關注的是,人工智能在人類認知領域的進展速度令人驚嘆。在數學奧林匹克競賽題目測試中,人工智能模型已逐步具備解決複雜題目的能力,部分模型在解題準確率上甚至超越了人類參與者的平均水平。這種技術的躍升,不僅增強了人們對通用人工智能(AGI)可行性的預期,也加強了社會各界在應對人工智能發展時加強治理的緊迫感。
治理框架的三個維度
人工智能治理是多維度、多工具、多主體參與的動態系統性過程。目的不僅在於防範潛在風險,更在於塑造人工智能的發展方向與應用邊界,使技術進步與社會價值相協調。
治理既包括倫理與原則的制定,也包括政策激勵與市場規制,還涉及標準建設與國際協調。可以說,人工智能治理是規範、引導、協調人工智能發展的制度總和。目前較為通行的人工智能治理框架,通常可以分為三個層次:
第一個層次:倫理與價值維度。該維度關注的是人工智能系統在開發與應用中應當遵循的基本倫理原則,包括但不限於安全性與可控性、透明性與可解釋性(保障用戶了解人工智能系統的運作機制與決策過程)、公平性與非歧視性(防止人工智能在算法訓練或部署過程中加劇社會不公)、責任可追溯性。在這方面,中國人工智能治理專家委員會於2019年提出了「負責任人工智能」的八項治理準則。歐盟、經合組織(OECD)、IEEE等國際組織也相繼發布了多套人工智能倫理框架。
第二個層次:政策支持與市場激勵維度。治理不僅是限制,更是塑造和激勵。政府可以通過財政投入、研發資助、基礎設施建設、人才政策與公共採購等方式,為人工智能創新提供制度土壤。
與此同時,也需要通過反壟斷政策、數據共享機制、中小企業扶持等手段,維護技術創新生態的多樣性與可持續性。例如,2017年發布的中國《新一代人工智能發展規劃》提出以「三步走」戰略推動人工智能產業發展,強調國家主導與企業協同的創新路徑。這是一種典型的政策驅動型治理結構,具有較強的系統組織能力與資源整合能力。
第三個層次:規制與標準維度。規制是治理的重要組成部分,但不應被狹義地等同於「限制」。其內涵包括法律法規、技術標準、責任機制、合規評估、風險識別、分級管理等。
當前,歐盟《人工智能法案》已進入最終立法階段,其將人工智能系統分為「禁止類」「高風險類」「有限風險類」與「最低風險類」,並據此提出差異化監管要求,成為人工智能規制分級管理的重要案例。
人工智能治理既具有多元的目標導向,也依賴多樣化的治理工具,涵蓋傳統的行政法規,以及大量的政策措施、自律機制和技術手段。多元工具的協同應用,有助於在技術發展快速變化的環境中實現敏捷治理。
全球合作的四項挑戰
人工智能治理是全球性重大挑戰。人工智能的跨境傳播特性、影響範圍以及所蘊含的系統性風險,決定了人工智能的治理不能局限於國家層面。正如氣候變化、傳染病防控一樣,人工智能也正在成為全球治理體系中的「新型全球公共事務」。然而,現實中人工智能的全球治理推進面臨諸多挑戰。
一是技術路徑不同引發的治理差異化。各國在人工智能技術發展路徑上的差異,不僅表現在技術選擇和應用重點上,也體現在對「何種風險應被治理」的認識上存在本質分歧。
例如,2024年初,國產大模型DeepSeek在國內引起業界廣泛關注,其在搜索增強、中文語義建構與推理能力方面突破顯著。這一新路徑的發展,也帶來治理工具如何適配的現實問題:是否要對具備高能力的國產大模型施加與國外頭部模型相當的評估要求?是否要對中文訓練語料設定特殊保護機制?這些問題的回答,在不同國家政策中並無統一方案。
這也說明,全球治理機制之間需要互相學習、互相借鑒,也需要在「原則一致」與「路徑多元」之間找到合理平衡,避免以一種技術範式凌駕於他國實踐之上。
二是治理節奏與技術發展的錯配。人工智能技術發展呈現指數型演進,而治理體系的演進則普遍存在滯後與碎片化現象,導致出現典型的技術發展與技術治理之間的步調不一致。監管政策的制定、立法程序、標準建設等過程均具有特定的周期性與協商性等特徵,很難與技術迭代的速度實現同步對接。
例如,OpenAI發布GPT-4不到半年,國內外即有多款對標模型上線,但多數國家對大模型的法律分類、數據使用邊界、能力管控機制仍未落地。在此背景下,「邊創新邊治理」、「沙盒實驗」與「敏捷治理」成為現實可行的治理方式。OECD(經合組織)提出的「靈活監管」理念就強調,應以適應性制度嵌入快速演進的技術環境,建立「監測─評估─調試─再立法」的周期型治理流程。
三是全球人工智能治理機制複合體面臨治理困境。當前,全球範圍內已形成多個圍繞人工智能治理的倡議與機制,但這些機制之間缺乏層級關係與協調機制,形成所謂的「機制複合體」(regime complex)。例如,聯合國系統中的教科文組織(UNESCO)發布了《人工智能倫理建議書》;OECD制定了人工智能推薦原則,並推動成員國採納;歐盟制定了《人工智能法案》,試圖構建最系統的人工智能監管立法;世界經濟論壇(WEF)則設有人工智能治理的多利益攸關方平台等。
然而,上述機制在目標設定、治理工具、成員構成與規則設計等方面存在不同程度的重疊乃至衝突。例如,OECD的「自願性立法」機制與歐盟「強制立法」機制之間的協調性就一直是外界質疑的焦點。
雖然「機制複合體」的現實在一定程度上反映了全球治理的多元協商邏輯,但也帶來了一系列現實難題,例如:治理效能低─重複設立規則、標準不統一;話語權失衡─部分機制被大國主導,發展中國家缺乏影響力;合規困境─企業面臨不同國家制度之間的合規衝突,增加成本。
因此,全球治理需要建立跨機制協調平台或規則對接機制,在基本原則層面保持一致性的前提下,允許在細則上保持多樣性。
四是地緣政治因素影響。當前較為嚴峻的全球治理障礙,是地緣政治衝突對人工智能合作形成的壁壘。原本可以在技術、倫理、標準等層面展開廣泛合作的人工智能治理議題,越來越多地被納入戰略博弈的框架之中。例如,AGI的研發逐漸演變為少數國家主導、大型科技企業牽頭的「競賽型項目」,而全球協同開發與風險共擔的路徑,在當前地緣緊張格局下,已很難實現。
面向未來,我們可以清楚地看到,人工智能治理如果缺少合作性,將很難應對跨境風險;如果缺少包容性,將加劇「智能鴻溝」;如果缺少合法性,將削弱公眾信任。因此,人工智能治理須回歸到全球合作的正確軌道上。
人工智能的治理並非人工智能技術發展的附屬議題,而是與人工智能技術共同進化伴生的「制度生態構建工程」。治理的任務既要面向「安全風險管控」,也要着眼「社會結構塑形」,更要推進「市場機制構造」,只有三者同步協調發展,才能真正保障人工智能以安全、可信、公平的方式造福世界。
(作者為清華大學蘇世民書院院長、中國科技政策研究中心主任)