【析理論道】
人工智能驅動的數字空間是由算法與數據融合建構的智能環境,通過感知、決策與交互實現虛實共生,這一新型空間同樣需要構建有效治理體系。習近平總書記指出:“要把依法治網作為基礎性手段,繼續加快制定完善互聯網領域法律法規,推動依法管網、依法辦網、依法上網,確保互聯網在法治軌道上健康運行。”近年來,我國對人工智能治理與高質量發展立法模式的探索,本質上就是通過規則供給重塑數字空間秩序的過程。國家網信辦等七部門聯合印發的《生成式人工智能服務管理暫行辦法》將“生成式人工智能服務提供者”明確為維護網絡安全法律責任主體,設定了生成內容標識等具體義務;2026年1月1日,新修訂的網絡安全法正式生效,將總體國家安全觀、數字中國與法治中國建設目標內嵌于人工智能治理的規范框架。面向未來,以法律方式實現人工智能數字空間實時響應、算法正義、數據可信與倫理共識等新的秩序要求,還需進一步明確法律關系、基本原則與可行路徑。
數字空間秩序關涉的法律關系
人工智能治理的規則本質上是回應技術發展的產物,其沒有顛覆法律規范中“主體—客體”的基本邏輯,而是通過功能性擬制、范疇性拓展、風險性預防,建立起一套適應數字空間的規范體系。這套規則超越了單純用法律術語重新命名數字存在,而是在技術帶來的混沌中,創造出一種可以被清晰描述、表達和治理的秩序。
功能性主體的創設。傳統法律主體理論建立在“意志”與“責任能力”基礎之上,并以意志作為責任能力的前提。然而,人工智能具有自主學習和決策能力,不同于自然人的生物意志或法人的擬制意志,因此對其治理的重點并非糾結于其是否具有法律主體地位,而在于如何在功能與關系中對其進行法律建構。我國立法設定“生成式人工智能服務提供者”這一新型法律主體身份,目的并非承認人工智能具有獨立人格,而是以“責任者身份”先于“人格者身份”的法律設定邏輯,以“誰能夠”作為“誰應當”的主要依據。這標志著法律關系的中心從過去由外向內的意志性還原,轉向由內向外關注行為控制的功能性考量。
系統化數字存在的拓展。人工智能技術所依賴的數據流、大模型與系統行為,具有無形、可復制和動態演化的特征,較之于傳統客體相對明確的物理形態和邊界,更強調系統性:數據價值取決于在模型中的處理以及在平臺中的適用;算法輸出由用戶行為、平臺規則、訓練模型等共同構成;數字身份在不同平臺、場景交互中持續構建和確認。相應地,法律規制也呈現出系統性拓展的特點。例如,在涉及關鍵性基礎設施的重要數據、核心數據時,法律規制超越靜態資源價值,也指向國家安全和公共屬性;在對算法進行安全評估、備案與透明性解釋時,法律審查對象不是表達形式,而是其作為獨立表達系統的功能和效果;在規制系統性行為時,法律不限于追究背后自然人或法人的意圖,而是更直接著眼于對行為模式的預防,如通過對“深度合成”“自動決策”等場景設定場景標識與合規義務,防止虛假信息傳播,為法律客體的行為化和場景化拓展提供規范依據。
以關系型網絡實現系統性風險的控制。無論是法律主體的功能性轉向,還是法律客體的數字化系統存在,都從強調個體性與靜態性,轉向對復雜關系網絡與系統性風險的調控。這既是對法律框架的拓展,也是對關鍵治理要素的回歸,更加關注法律關系的構造效果。法律關系需要應對法律事件在時間上并發與循環,因果關系不再單一線性發展而呈網絡涌現,法律行為自主生成且與環境交互,法律價值與風險同時出現分層。例如,在人工智能運行所涉及的技術開發者、部署者、平臺、用戶等多方主體構成的網絡中,法律既尊重既有的權責關系,又明確“生成式人工智能服務提供者”這一關鍵節點,實現通過節點治理網絡的治理策略。同時,通過安全可控、防范歧視、保障公平等原則,法律為整個治理網絡設定了清晰的價值錨點,引導各方在技術創新與風險防控之間實現動態平衡。
數字空間秩序法律構建的基本原則
在人工智能數字空間秩序的法律構建中,安全與發展、權力與透明、責任配置三組規范關系應當遵循何種基本原則,構成了制度設計的重點和難點。
在安全與發展的關系上,以“安全可控”為原則。長期以來,安全與發展的關系被置于科技倫理與技術治理的對立框架之中:發展側重效率、創新與競爭優勢,體現技術理性;安全側重風險防控、權利保護與社會穩定,體現規范理性。但在治理實踐中,偏重任何一端都將引發系統性失衡。確立“安全可控”作為元價值,本質是通過構建風險可預測、責任可追溯、權利可救濟的制度體系,為技術發展提供可持續的合法性基礎,使發展目標能夠在安全邊界內運行。
在權力與透明的平衡中,以“對算法黑箱進行認知性規制”為原則。算法黑箱造成的知識不對稱與權力集中,導致決策難以解釋、責任難以認定、權利難以救濟等問題。認知性規制并非簡單的信息披露義務擴張,而是通過設定可解釋性標準、建立審計機制、推動技術接口治理等方式,重塑算法權力的可見性與可問責邊界,使公共權力與平臺權力在透明框架下接受法治約束,從而避免技術理性對程序正義與實體正義的侵蝕。
在責任配置方面,以“網絡性適配”為原則。人工智能系統的分布式行動特征,使傳統以單一主體為中心的責任模式面臨失配風險。責任的網絡性適配要求將研發者、部署者、運營者、數據提供者以及平臺治理者等共同納入協同責任結構,并借助過錯推定、風險責任、合規免責、保險機制等制度工具,實現責任在技術鏈條中的合理分配與動態調整。這種模式并非弱化責任,而是通過網絡化配置提升治理的整體穩定性與激勵相容性。
數字空間秩序法律構建中的張力彌合
在構建人工智能數字空間的法治秩序時,不僅需要準確把握法律關系的關鍵要素,確立穩固的基本原則,還必須有效化解多對結構性張力,推動數字空間實現持續健康的發展。
權威規范與動態技術之間的張力。傳統法律規范以既往經驗為基礎,追求穩定和可預期;而技術發展則以突破為導向,不斷推陳出新、快速迭代。為化解這一張力,數字空間治理在注重實體規則完備的同時,也應追求程序機制的敏捷性與適應性。當前,“實驗性治理”與“學習型法律”已經通過監管沙盒、標準動態更新、年度影響評估等報告工具得到一定程度的實施。過去人們常用“軟法”或者“硬法”來形容和區分治理規則的效力,這是一種平面化或者靜態意義上的評價,當下我國人工智能治理規則正通過框架立法、動態標準和持續反饋機制,推動規則體系向具備感知、學習與適應能力的“智能規則體”演進。
主權邊界與全球網絡之間的張力。人工智能治理規則的域外適用,反映了國家主權在數字領域的延伸,這是主權國家對管轄范圍內數字活動行使最高權威的體現。與此同時,服務器域外部署、開發者身份匿名、分布式網絡服務的存在,對以地域管轄權為基礎的規則、司法與執行提出新的挑戰。國家主權在傳統領域強調絕對控制,在數字領域強調規范競爭與協調能力。正如中國通過巨大的數字經濟市場吸引跨國企業主動遵循治理規則,促進人工智能監管標準域外拓展,不斷擴大合作性共識,逐步推動先進的治理理念轉化為普遍標準,并為條約化進行準備,為全球治理提供有效經驗。
統一規范與場景多元之間的張力。法律作為公共產品,必須為社會確立基本的行為預期與價值共識。然而,人工智能在不同應用場景中的風險性質、倫理關切與社會影響差異顯著。例如,自動駕駛直接關涉生命安全,需應對瞬息萬變的物理環境;而生成式人工智能則更聚焦于知識產權、隱私與意識形態風險。因此,基于場景的差異化規制成為必然選擇。調和統一規范與多元場景這對張力,要求治理體系建立一種架構性分層機制,授權監管機構與行業組織根據不同場景的技術邏輯、風險譜系與倫理敏感度,制定相適應的標準、工具與合規路徑,在統一法治框架下實現精準、靈活的制度供給。
以網絡安全法的修訂為代表的一系列數字空間立法舉措,為我國數字空間治理確立了初步的規范基準與制度框架。這些立法并不旨在構建一套封閉的治理體系,而是在堅守安全可控底線的基礎上,以足夠的制度智慧、倫理自覺與協作精神,推動兼具韌性、公正與活力的數字文明秩序的長期健康發展。
(作者:陳姿含,系北京市習近平新時代中國特色社會主義思想研究中心研究員、北京理工大學法學院副教授)