【摘要】我國通過算法推薦、深度合成、生成式人工智能、擬人化人工智能等一系列專項治理規則,逐步形成以敏捷治理為特征的人工智能治理路徑。這種問題導向、場景驅動的治理模式,在快速回應技術演進的同時,也為產業發展提供制度彈性,并在實踐中積累了豐富的監管經驗。在現有治理框架下,人工智能專項規則與現有以數據為焦點的狹義法律體系之間的關系,仍主要停留在法律依據層面,在規則協調與適用路徑方面的銜接,有待進一步強化。在人工智能專門立法尚未形成系統框架之前,亟需推動人工智能專項規則與《個人信息保護法》深度銜接,通過明確規則接口、強化適用與激活既有法律原則,提升治理體系的整體協調性,為人工智能立法奠定堅實基礎。
【關鍵詞】人工智能 個人信息保護 人工智能立法
【中圖分類號】D92 【文獻標識碼】A
生成式人工智能技術的快速發展,正在重塑信息生產、傳播與利用方式。當前,大模型訓練、智能推薦和內容生成等應用場景不斷擴展,人工智能在數據采集、模型訓練與內容輸出等多個環節,深度嵌入個人信息處理過程,使個人信息保護面臨一系列挑戰。2026年政府工作報告提出“完善人工智能治理”。①《中華人民共和國國民經濟和社會發展第十五個五年規劃綱要》提出,“完善互聯網內容管理、網絡平臺治理等法規。嚴厲打擊網絡違法犯罪行為,加強個人信息保護……完善人工智能領域法律法規、政策制度、應用規范、倫理準則,健全算法備案、透明度管理、安全評估等制度”。②我國采取以部門規章和專項規則為主的敏捷治理路徑,圍繞算法推薦、深度合成、生成式人工智能等關鍵技術領域,逐步構建起一套具有實踐導向的人工智能治理體系。隨著人工智能專門立法逐步進入議程,如何在既有法律體系框架下實現規則整合,尤其是如何在延續《中華人民共和國個人信息保護法》制度基礎的同時,吸納近年來人工智能治理實踐所積累的經驗,成為一個值得關注的問題。
我國人工智能治理在專項規則與基礎法律銜接上面臨的挑戰
近年來,我國人工智能治理已初步形成以快速響應為導向的敏捷治理路徑。③在人工智能技術快速演進的背景下,我國通過部門規章和專項規則,在算法推薦、深度合成、生成式人工智能等重點領域持續推進制度建設,從而使監管及時回應技術變化,為產業發展提供必要的試驗空間,在實踐中不斷積累治理經驗。從效果上看,敏捷治理不僅提升監管的靈活性,而且使我國在全球人工智能治理體系中逐步形成具有自身特色的制度路徑。一方面,這種模式能夠在發展與安全之間保持動態平衡;另一方面,也為后續更高層級的立法提供豐富的實踐基礎。
在上述多層次結構中,基礎法律體系發揮著支撐作用。《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》),為我國網絡數據安全管理提供了規范依據。其中,《個人信息保護法》確立了合法性基礎、目的限制、最小必要、公開透明、責任追究等一整套原則,為各類數據處理活動提供基礎框架。
可以說,在人工智能領域,治理體系逐步形成以基礎法律為支撐、專項規則為補充、未來專門立法為方向的多層次結構。隨著人工智能應用場景的拓展,現有規則體系的結構性問題逐漸顯現。尤其是在個人信息保護領域,人工智能專項治理規則雖以《個人信息保護法》為制度基礎,但在具體制度設計、規則適用和責任配置上,二者之間的銜接仍存在一些環節有待完善。例如,人工智能專項規則快速擴展,但整體統合不足;《個人信息保護法》在人工智能場景中的適用邊界和實施路徑有待明確,部分制度工具尚未有效激活;在專項規則與基礎法律關系尚未理順的情況下,執法標準、企業合規和司法裁判均面臨一定不確定性,影響治理效能與產業預期。
從治理邏輯看,《個人信息保護法》以個人信息處理活動為中心,強調數據處理的合法性基礎與個人權益保護,其核心是一套圍繞“數據”的規范體系;而人工智能專項規則,更多以技術服務提供者為監管對象,圍繞模型、算法及內容生成展開,形成以技術應用為導向的治理邏輯。二者在規則出發點和規范重心上的差異,使得同一治理對象在不同規則體系下呈現出不同的規制方式。
從合規機制看,在算法備案、安全評估、內容標識等領域,不同規則體系均提出相應要求,在適用條件、監管主體及具體程序上并未形成統一標準,容易導致企業在實踐中面臨重復備案、重復評估、標準不一致等問題。
從風險覆蓋看,隨著大模型技術的發展,數據抓取、模型訓練和內容輸出所帶來的新型風險不斷顯現,但這些風險尚未在《個人信息保護法》的既有框架中得到充分回應。盡管該法已確立最小必要、公開透明、可問責等基本原則,并在自動化決策等方面提供具體規則,但在模型層面和系統性風險治理方面如何適用尚待進一步明確。
上述三方面問題對監管實踐、企業合規及司法適用的現實影響,可以從三個方面加以分析:
專項規則中“一般義務嵌入特殊場景”的問題。以擬人化人工智能等專項治理規則為例,其中涉及的能力建設、風險防控和安全評估等要求,本質上具有跨場景的普遍適用性,并非僅限于特定技術類型或者應用場景。然而,這類規則往往針對特定應用場景,其制度效力往往局限在一定范圍之內。一方面,一些具有一般意義的治理要求未能上升為統一規則;另一方面,由于《個人信息保護法》并未明確規定類似義務,其法律基礎難以追溯,也難以對其正當性和有效性進行全面評估。
不同位階規則的適用順序和關系問題。當前,人工智能專項規則在立法目的上與《個人信息保護法》保持一致,但實踐中,當專項規則與基礎法律在適用范圍或義務要求上出現交叉時,缺乏清晰的優先適用標準,容易導致執法與合規中的不確定性。有學者提出,應當對《個人信息保護法》進行針對性擴展或細化,以回應人工智能場景中的新型問題。④無論采取何種路徑,明確兩類規則之間的關系,是十分必要的。
整體規則體系的系統整合問題。從發展路徑看,我國人工智能治理仍處于“邊探索、邊完善”的階段,現有規則既包括基于具體技術類型的專項規制,如《互聯網信息服務深度合成管理規定》,又包括橫向適用于多個場景的一般性治理措施,如《人工智能生成合成內容標識辦法》,同時還存在針對特定應用場景的差異化要求,如《人工智能擬人化互動服務管理暫行辦法》。這種多路徑并行的發展方式有助于快速回應現實需求,但隨著規則數量不斷增加,碎片化特征也日益突出。這需要在保持靈活性的同時,推動規則體系實現結構性整合,在條件成熟時探索體系化的可能路徑。
人工智能專項規則與《個人信息保護法》的銜接協調具有多方面重要意義。在監管層面,容易出現職責交叉與標準不一的情況;在合規層面,企業在理解和執行規則時面臨較高的不確定性,合規成本顯著上升;在司法層面,則難以形成穩定一致的裁判標尺。
在制定之初,《個人信息保護法》并未針對大模型訓練、數據抓取、模型輸出等人工智能特有問題作出專門設計,而是以一般性個人信息處理活動為核心。盡管其原則體系具有一定前瞻性,具備適用于人工智能場景的制度潛力,但是在具體落地層面,相關規則尚未得到充分展開和系統適用。人工智能專項規則在實踐中不斷細化具體義務,在一定程度上彌補了基礎法律在特定場景中的不足。由于兩類規則在適用方式上的差異,其協同關系仍有待進一步明確。因此,我國人工智能治理體系雖已經形成基本結構,但在人工智能技術持續演進的背景下,如何推動這一多層次制度體系實現有效整合,尤其是強化與《個人信息保護法》的制度協同,已成為重要課題。
立足《個人信息保護法》優化人工智能治理規則體系
當前,在人工智能立法逐步提上議程的背景下,首先需回答的一個關鍵問題是:人工智能立法是否就能解決上述體系銜接問題?
需要強調的是,人工智能治理的核心問題并未脫離數據治理范疇。無論是大模型訓練中的數據來源,還是模型輸出引發的隱私風險,都圍繞個人信息的收集、處理與使用展開。即便在模型層面出現新型風險,很大程度上仍需回溯至數據層加以回應。因此,《個人信息保護法》所確立的合法性基礎、目的限制、最小必要及可問責等制度原則,不僅沒有因人工智能技術的發展而失效,反而成為人工智能治理的重要基礎。《個人信息保護法》中關于自動化決策、信息透明及責任追究等制度安排,均具有在人工智能場景中進一步適用和落實的空間。如果在制度尚未被充分運用的情況下即轉向全新的立法框架,容易陷入重復構建規則體系的窠臼。
從全球治理經驗看,人工智能治理格局仍處于高度不穩定發展階段。各國在治理路徑上的探索尚未形成穩定共識,圍繞原則性規范與專項規則之間關系的制度安排仍在持續調整。人工智能技術呈現出高度不確定性和快速迭代特征,關鍵性突破的發生路徑與時間節點難以預判,規則在實踐中往往呈現出反復調整甚至被動回調的狀態,⑤部分制度不得不通過延后實施或降低監管強度加以修正。以歐盟為代表的人工智能治理路徑采取“新立法疊加既有體系”的模式,凸顯出現行治理模式與技術發展之間的深層錯位。歐盟的《人工智能法》與《通用數據保護條例》,在適用范圍、風險分類與權利結構上,仍存在一定程度的交叉與張力。這種并行推進的方式,雖有助于應對技術風險,但也存在規則適用邊界不清、合規路徑復雜化等問題,反映出協調機制方面的不足。
我國目前通過既有法律框架的延展與嵌入來實現規制目標,在自動化決策、信息透明、個體權利與責任配置等方面,《個人信息保護法》提供了較為系統的法律依據。在人工智能專門立法尚未出臺之前,可以優先強化其與算法推薦、深度合成、生成式人工智能等專項規則之間的銜接,實現對新技術場景的有效覆蓋。一方面,通過提升規則之間的協調性與可預期性,可降低企業在多重規范體系下的合規不確定性,穩定技術創新的制度預期;另一方面,通過激活《個人信息保護法》既有的權利保護與風險控制機制,在不降低保護水平的前提下實現對人工智能應用的動態治理。若能夠在既有法律體系基礎上實現規則協同與制度整合,形成清晰穩定的法律預期,不僅可為產業發展提供有力的制度支撐,而且有助于在國際治理中形成具有辨識度的制度路徑,產生國際政策影響力。相較于單純依賴新增立法,更為關鍵的挑戰是在現有法律體系內部理順邏輯,將已形成的原則、工具與機制轉化為可操作的治理能力。這既是避免制度重復建設的必要路徑,又是推動人工智能治理從規則擴張走向體系成熟的關鍵一步。
打通制度接口,推動基礎法律與專項規則形成治理合力
《個人信息保護法》所確立的一系列原則與制度工具,在人工智能治理中仍然具有不可替代的適用價值,但尚未得到充分激活。當前的關鍵路徑,是在既有法律框架內推動規則整合,明確制度接口,使基礎法律與專項規則形成合力。
在具體制度層面打通人工智能專項規則與《個人信息保護法》的制度接口。人工智能內容標識義務如何與《個人信息保護法》中的透明度原則形成對應關系?算法備案制度如何與問責機制相銜接?安全評估等橫向義務如何在不同規則體系中實現統一適用?規則與規則之間并非簡單疊加關系,部分人工智能專項規則中所確立的義務,本身已經具有明顯的可遷移性。例如,內容標識、風險評估及責任追溯等機制,往往不局限于單一技術場景,而是可以作為應用范圍更廣的人工智能治理工具,加以提煉和延展。在既有規則基礎上進行沉淀和總結,有望逐步形成具有統一邏輯的人工智能治理規則體系。
明確制度接口,打通基礎法律與人工智能專項規則之間的適用關系。針對《個人信息保護法》與人工智能專項規則之間接口不清的問題,可以通過司法解釋、判例及執法案例,明確相關制度在人工智能場景中的適用方式。例如,可圍繞信息透明、風險評估、可問責等制度工具,明確其在模型訓練、算法推薦和內容生成等場景中的具體適用路徑。同時,推動形成一批具有示范意義的執法與司法案例,將原則性規則轉化為可操作的合規標準,為不同主體提供法律確定性。
在人工智能專項規則發展到一定程度后,整合優化已有規范,系統梳理算法備案、安全評估、內容標識等制度,明確其適用邊界,避免在不同規則體系中重復設置義務。以《個人信息保護法》確立的原則體系為底線,將分散在不同專項規則中的一般性義務進行提煉與整合,形成統一融貫的規則框架,減少冗余、提升規則協同度。
總結既有實踐經驗,可從兩方面應對規則體系碎片化難題。一方面,通過標準制定、行業規范及合規工具建設,自下而上從操作層面促進規則統一適用;另一方面,在條件成熟時,通過對《個人信息保護法》的修繕或配套實施細則的制定,為人工智能治理提供更明確的制度授權,從而實現有效銜接。
【注釋】
①《政府工作報告——二〇二六年三月五日在第十四屆全國人民代表大會第四次會議上》,《人民日報》,2026年3月14日。
②《中華人民共和國國民經濟和社會發展第十五個五年規劃綱要》,《人民日報》,2026年3月14日。
③張凌寒、于琳:《從傳統治理到敏捷治理:生成式人工智能的治理范式革新》,《電子政務》,2023年第9期。
④高富平:《AI時代的“個保法”失靈與制度重塑》,《上海法治報》,2026年3月2日。
⑤許可:《包容審慎2.0范式:化解人工智能的“步調難題”》,《行政法學研究》,2026年第2期。
責編/靳佳 美編/王夢雅
聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。