【摘要】對(duì)事效力是人工智能法的基礎(chǔ)性問題,人工智能法對(duì)事效力的框定,既關(guān)乎人工智能法學(xué)自主知識(shí)體系的構(gòu)建,也為人工智能立法、執(zhí)法、司法與守法提供關(guān)鍵指引。人工智能作為包含數(shù)據(jù)、網(wǎng)絡(luò)、算法、算力及具體應(yīng)用的有機(jī)系統(tǒng),構(gòu)成對(duì)事效力的初次框定基礎(chǔ),其調(diào)整范圍覆蓋全生命周期的涉數(shù)、涉網(wǎng)、涉算、涉用行為;人工智能法聚焦現(xiàn)行法律難以應(yīng)對(duì)的社會(huì)損害救濟(jì)與預(yù)防,完成對(duì)事效力的二次框定;以 “負(fù)責(zé)任人工智能” 為理念欲求,將全生命周期利害關(guān)系人納入規(guī)制范疇,實(shí)現(xiàn)三次框定。經(jīng)由調(diào)整客體、規(guī)范性質(zhì)和理念欲求三種核心框定標(biāo)準(zhǔn),人工智能法既區(qū)別于救濟(jì)個(gè)體私益的私法,也不同于其他救濟(jì)社會(huì)公益的公法,對(duì)推動(dòng)人工智能法治體系完善具有重要理論與實(shí)踐價(jià)值。
【關(guān)鍵詞】人工智能法 對(duì)事效力 調(diào)整客體 規(guī)范性質(zhì) 理念欲求
【中圖分類號(hào)】D99/TP18 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2026.01.010
【作者簡介】陳亮,西南政法大學(xué)人工智能法學(xué)院院長、教授、博士生導(dǎo)師。研究方向?yàn)槿斯ぶ悄芊▽W(xué)基礎(chǔ)理論、算法規(guī)制,主要論文有《人工智能立法背景下人工智能的法律定義》《人工智能立法體系化的理論證成與路徑選擇》《算法驅(qū)動(dòng)下平臺(tái)媒體監(jiān)管范式的重構(gòu)》等。
國務(wù)院于2017年7月印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出,自2020年至2030年的十年間,分三步構(gòu)建完備的人工智能法律法規(guī)體系,為我國躋身世界主要人工智能創(chuàng)新中心提供堅(jiān)實(shí)法治保障。當(dāng)前,我國人工智能立法工作正穩(wěn)步推進(jìn),既需統(tǒng)籌考慮國際競爭與合作的雙重態(tài)勢(shì),也需深化理論研究以更好地對(duì)接實(shí)踐需求。而人工智能法的效力范圍,正是這一領(lǐng)域尚未形成廣泛共識(shí)、亟待學(xué)界充分關(guān)注與深入探討的重大理論問題。
人工智能法的效力范圍涵蓋對(duì)人效力、對(duì)事效力、時(shí)間效力與空間效力四大維度。其中,對(duì)事效力具有基礎(chǔ)性地位,在一定程度上影響乃至決定著其他三種效力范圍的邊界尺度。所謂對(duì)事效力,又稱事項(xiàng)效力,通常是指某一法律對(duì)特定主體的相關(guān)行為、事項(xiàng)及社會(huì)關(guān)系所具有的有效力,其核心問題指向是國家在與國民的關(guān)系中享有多大權(quán)限的問題。[1]當(dāng)前,國內(nèi)外關(guān)于人工智能法對(duì)事效力的研究成果尚不多見。據(jù)筆者梳理的資料,國內(nèi)青年學(xué)者韓旭至曾從立法目的和基本范疇雙重視角,探討我國人工智能法的應(yīng)然調(diào)整范圍,[2]國外學(xué)者約納斯·許特(Jonas Schuett)和漢娜·魯舍邁爾(Hannah Ruschemeier)則在批判單純以人工智能概念劃定人工智能法對(duì)事效力之缺陷的基礎(chǔ)上,提出以“風(fēng)險(xiǎn)類型”作為界定人工智能法事項(xiàng)效力范圍的主要依據(jù)。[3]本文認(rèn)為,人工智能法對(duì)事效力范圍的界定,既取決于其調(diào)整客體——人工智能的內(nèi)涵和外延,亦與人工智能法同其他法律部門的具體分工密切相關(guān)。因此,“調(diào)整客體”、“規(guī)范性質(zhì)”和“理念欲求”應(yīng)成為框定人工智能法對(duì)事效力的主要標(biāo)準(zhǔn)。
“調(diào)整客體”標(biāo)準(zhǔn):第一性原理視域下人工智能法對(duì)事效力的初次框定
第一性原理(first principle thinking)思維是指通過將復(fù)雜問題分解為最基本的事實(shí)或假設(shè),再以此為基礎(chǔ)重建思考的方法,其核心在于將特定事物解構(gòu)為各種要素進(jìn)行分析,進(jìn)而找到實(shí)現(xiàn)特定目標(biāo)的最優(yōu)解。第一性原理是古希臘哲學(xué)家亞里士多德的哲學(xué)體系的核心概念,始終貫穿西方哲學(xué)發(fā)展歷程,并在科學(xué)、商業(yè)乃至法學(xué)等各個(gè)領(lǐng)域持續(xù)演化。第一性原理思維對(duì)于人工智能法對(duì)事效力范圍的框定具有重要方法論價(jià)值,這意味著人工智能法所追求的規(guī)制理念之實(shí)現(xiàn),必然依托于人工智能的各構(gòu)成要素,也依托于人工智能全生命周期中各利害關(guān)系人的具體行為。由此可見,人工智能的內(nèi)涵界定在人工智能法律規(guī)制中具有前提性意義。[4]對(duì)人工智能概念進(jìn)行“庖丁解牛”式的拆解,精準(zhǔn)把握其具體構(gòu)成要素,以及各要素在實(shí)現(xiàn)人工智能規(guī)制理念中的地位與作用,是框定人工智能法對(duì)事效力應(yīng)然范圍的必然要求。
自1956年達(dá)特茅斯會(huì)議提出“人工智能”這一概念至今,其內(nèi)涵與外延便成為學(xué)界熱議的焦點(diǎn)話題,甚至引發(fā)所謂“人工智能學(xué)術(shù)文章的惡性膨脹”現(xiàn)象。不同學(xué)科的學(xué)者基于各自的概念界定訴求,大致形成了三種表述各異、內(nèi)涵不一的人工智能概念:技術(shù)專家立足人工智能研究需求,從“內(nèi)部”視角將其界定為一門“科學(xué)”,旨在厘清人工智能學(xué)科的范圍邊界、長遠(yuǎn)目標(biāo)及實(shí)現(xiàn)該目標(biāo)的具體路徑;社會(huì)技術(shù)專家則聚焦人工智能對(duì)現(xiàn)實(shí)世界的影響,從“外部”視角將其界定為包括開發(fā)者、維護(hù)者在內(nèi)的“社會(huì)技術(shù)系統(tǒng)”,旨在解答人工智能核心要素(如算力、數(shù)據(jù)及勞動(dòng)力等)的地緣政治學(xué)或政治經(jīng)濟(jì)學(xué)意義,以及能力各異的人工智能如何催生各領(lǐng)域多樣化應(yīng)用,進(jìn)而塑造新的行為模式或社會(huì)影響;規(guī)制學(xué)界與規(guī)制機(jī)構(gòu)以實(shí)現(xiàn)人工智能的科學(xué)規(guī)制為目標(biāo),將其視為法律規(guī)制的對(duì)象,借此明確法律法規(guī)與治理機(jī)制的具體適用范圍。這三種定義雖各有其合理性,卻均無法為人工智能法對(duì)事效力的具體框定提供有效指引。三種定義的共同問題在于,未能從技術(shù)架構(gòu)視角界定人工智能的概念內(nèi)涵與外延,而技術(shù)架構(gòu)恰恰是所有人工智能法律法規(guī)必須聚焦的核心,更是法律根據(jù)不同參與者在人工智能技術(shù)管理中的地位與作用,為其配置相關(guān)權(quán)利義務(wù)的必然要求。
依據(jù)第一性原理思維,劃定人工智能法對(duì)事效力的最優(yōu)路徑,在于精準(zhǔn)錨定人工智能技術(shù)架構(gòu)的核心要素。學(xué)界普遍認(rèn)可,人工智能是連接數(shù)據(jù)、算法和算力的技術(shù)集合,數(shù)據(jù)、算力、算法是人工智能的三個(gè)核心要素,統(tǒng)稱為“人工智能三件套”(AI triad),三要素相互依存、相互影響、相互作用,共同決定著人工智能的性能水準(zhǔn)。其中,數(shù)據(jù)被譽(yù)為人工智能的“石油”,是人工智能算法用于學(xué)習(xí)、適應(yīng)和作出預(yù)測的原始素材,數(shù)據(jù)的質(zhì)量、數(shù)量、多樣性及代表性等,直接影響人工智能系統(tǒng)的性能;算法被譽(yù)為人工智能的“大腦”,作為解決問題或完成任務(wù)的一系列指令,決定著機(jī)器如何從數(shù)據(jù)中學(xué)習(xí)、處理信息并作出決策,是調(diào)控人工智能系統(tǒng)行為的智能指令;算力則指大規(guī)模運(yùn)行算法所需的軟硬件基礎(chǔ)設(shè)施。
事實(shí)上,“人工智能三件套”并未完全涵蓋決定人工智能性能的全部核心要素。人工智能并非單一技術(shù),而是由多個(gè)相互關(guān)聯(lián)的工具組合而成的“工具箱”(toolbox)。這一“工具箱”屬于不斷擴(kuò)展的開放系統(tǒng),其內(nèi)容包括但不限于數(shù)據(jù)、算法、算力、數(shù)字平臺(tái)乃至人工智能應(yīng)用本身。鑒于“工具箱”內(nèi)各工具之間的相互依存、影響與作用,對(duì)人工智能的規(guī)制或治理不能孤立聚焦其中某一個(gè)或某幾個(gè)要素,而應(yīng)在厘清各要素間相互關(guān)系的基礎(chǔ)上,構(gòu)建體系化的管控框架。
系統(tǒng)論思維為體系化處理“工具箱”內(nèi)各要素的相互關(guān)系提供核心理論支撐。系統(tǒng)是指由相互作用、相互依賴的若干組成部分結(jié)合而成的有機(jī)整體,具有組件、流程、邊界、協(xié)同作用與反饋循環(huán)等特征,[5]而系統(tǒng)論思維則被描述為通過整體與關(guān)系而非拆分部分的方式,為復(fù)雜世界提供有意義解釋的視角、語言與工具,對(duì)于解決復(fù)雜問題、解釋非線性行為,以及厘清國家、組織與個(gè)人間看似不合邏輯的行為,具有非常重要的作用。[6]在系統(tǒng)論思維看來,人工智能可被描繪為包含輸入、轉(zhuǎn)換、輸出與反饋回路的系統(tǒng),[7]其核心邏輯具體可通過圖形表示如下(見圖1)。

如圖表明,人工智能首先需從虛擬或現(xiàn)實(shí)環(huán)境中感知各類信息,這些信息以數(shù)據(jù)形式交由算法處理后,形成預(yù)測、內(nèi)容、建議或決策等各類輸出,這些輸出要么作為反饋形成新數(shù)據(jù),再次提交算法處理以進(jìn)一步優(yōu)化輸出(圖1閉環(huán)一),要么直接作用于虛擬或現(xiàn)實(shí)環(huán)境,其反饋結(jié)果將成為算法處理的新對(duì)象(圖1閉環(huán)二)。至此,我們可大致提煉出人工智能不可或缺的五個(gè)核心要素:數(shù)據(jù)、網(wǎng)絡(luò)、算法、算力及人工智能具體應(yīng)用。其中,網(wǎng)絡(luò)源自現(xiàn)實(shí)或虛擬環(huán)境,既是人工智能訓(xùn)練數(shù)據(jù)之源,也是人工智能影響現(xiàn)實(shí)環(huán)境的媒介,因而成為人工智能系統(tǒng)不可或缺的核心要素;數(shù)據(jù)被譽(yù)為人工智能的“血脈”,是算法學(xué)習(xí)、適應(yīng)與預(yù)測的原始素材,更是人工智能處理信息、執(zhí)行復(fù)雜任務(wù)的關(guān)鍵支撐,因而也是人工智能系統(tǒng)不可或缺的核心要素;算法作為人工智能的“大腦”,承載著完成特定任務(wù)必需的各類規(guī)則與指令,同樣不可或缺;算力指大規(guī)模運(yùn)行人工智能算法所需的軟硬件設(shè)施,不僅決定算法處理數(shù)據(jù)的規(guī)模與效率,還影響人工智能模型的智能水平,因而成為人工智能規(guī)制與治理的重要對(duì)象;人工智能具體應(yīng)用同樣源自虛擬或現(xiàn)實(shí)環(huán)境,在閉環(huán)二中發(fā)揮關(guān)鍵作用,通過反饋循環(huán)的方式影響甚至決定人工智能的性能表現(xiàn)。人工智能這五個(gè)核心要素,具有重要規(guī)制意義,有助于政策制定者明確管控各構(gòu)成要素所需的各類監(jiān)管手段與工具,最終保障規(guī)制目標(biāo)的實(shí)現(xiàn)。
綜上,我們可將人工智能界定為包含數(shù)據(jù)、網(wǎng)絡(luò)、算法、算力及具體應(yīng)用在內(nèi)的有機(jī)系統(tǒng),這五個(gè)要素是其不可或缺的核心組成部分,相互依存、影響與作用,共同決定人工智能模型的性能層級(jí)。因此,人工智能法不應(yīng)僅關(guān)注人工智能的具體應(yīng)用場景,而要將其視為一種動(dòng)態(tài)復(fù)雜系統(tǒng),進(jìn)行體系化監(jiān)管。[8]復(fù)雜性理論中的“蝴蝶效應(yīng)”指出,非線性復(fù)雜動(dòng)態(tài)系統(tǒng)對(duì)初始條件具有高度敏感依賴的特征,初始條件的任何微小變化,均可能引發(fā)截然不同、往往難以預(yù)測的長期結(jié)果。[9]因此,人工智能這一復(fù)雜系統(tǒng)的全部核心要素,均應(yīng)納入人工智能法的調(diào)整范圍。申言之,人工智能法的對(duì)事效力,應(yīng)大體框定在人工智能研發(fā)、部署與使用全生命周期中的涉數(shù)(數(shù)據(jù))、涉網(wǎng)(網(wǎng)絡(luò))、涉算(算力和算法)和涉用(人工智能具體應(yīng)用)等具體行為。但需明確的是,并非所有此類行為均應(yīng)由人工智能法調(diào)整,比如,侵犯個(gè)人隱私的涉數(shù)行為,本質(zhì)上更適合交由民法(尤其是個(gè)人信息保護(hù)法)等私法規(guī)范調(diào)整。這意味著,除“調(diào)整客體”標(biāo)準(zhǔn)外,還需其他用以框定人工智能法對(duì)事效力范圍的標(biāo)準(zhǔn)。
“規(guī)范性質(zhì)”標(biāo)準(zhǔn):部門法分工視域下人工智能法對(duì)事效力的二次框定
一國調(diào)整其成員行為的法律規(guī)范浩如煙海、體系錯(cuò)綜復(fù)雜,給法律的學(xué)習(xí)、研究、梳理和適用帶來困擾。自古羅馬時(shí)期至今,解決這一難題的常用辦法是:依據(jù)理念欲求、調(diào)整對(duì)象及規(guī)范性質(zhì)等指標(biāo)的相似程度,對(duì)本國全部法律規(guī)范進(jìn)行分類或分組,進(jìn)而劃分出理念各異、對(duì)象分殊、性質(zhì)迥異的法律部門或法律領(lǐng)域,如公法與私法、實(shí)體法與程序法、國內(nèi)法與國際法之分等。這種分類以體系化方式整合一國復(fù)雜的法律體系,厘清各種法律規(guī)則之間的相互關(guān)系及彼此影響,從而為法律的學(xué)習(xí)、遵守、適用乃至續(xù)造提供便利。
在眾多法律分類中,以填補(bǔ)損害或預(yù)防風(fēng)險(xiǎn)為核心目的,亦是一項(xiàng)重要的分類標(biāo)準(zhǔn)。填補(bǔ)損害、預(yù)防風(fēng)險(xiǎn)不僅是一國干預(yù)國民生活的正當(dāng)性基礎(chǔ),還決定著國家干預(yù)國民生活的具體法律方式與手段,甚至可能成為某一法律的核心概念。[10]因此,厘清人工智能領(lǐng)域的損害(風(fēng)險(xiǎn))及其性質(zhì),是探討人工智能法規(guī)范性質(zhì)的關(guān)鍵前提。
自約翰·斯圖亞特·密爾在其著作《論自由》中提出“損害原則”以來,學(xué)界對(duì)損害概念的界定從未停歇。[11]從最廣泛的意義上講,“損害”指對(duì)他人造成的任何不利后果,或是使特定主體境況惡化的任何情形,這意味著損害的認(rèn)定,需以某種基準(zhǔn)為參照進(jìn)行比較。而比較基準(zhǔn)的差異,決定了損害概念內(nèi)涵與外延的不同:一是時(shí)間基準(zhǔn)(temporal comparative account),即損害是指相較于行為或事件發(fā)生前,特定主體境況出現(xiàn)的所有惡化情形;二是人類福祉基準(zhǔn)(mankind comparative account),即以人類平均福祉為比較基準(zhǔn),凡使特定主體的福祉低于人類平均福祉的情況,均可認(rèn)定為損害;三是反事實(shí)基準(zhǔn)(counterfactual comparative account),即若未發(fā)生某個(gè)事件或行為,特定主體的境況本會(huì)更好,這種“本可避免的惡化”即構(gòu)成損害;四是道德原則基準(zhǔn)(moralized harm principle),即強(qiáng)調(diào)造成損害的作為或不作為須具備道德可責(zé)性。[12]盡管這四種基準(zhǔn)厘定的損害概念具有一定合理性,但仍無法為國家干預(yù)國民社會(huì)生活提供明確而具體的指引,既難以避免國家干預(yù)過寬或過窄的風(fēng)險(xiǎn),也難以有效平衡個(gè)體自由與國家干預(yù)之間緊張而微妙的關(guān)系。
“損害”是密爾用以劃定個(gè)人自由邊界的基礎(chǔ)性概念,其內(nèi)涵與外延本應(yīng)是密爾討論的重點(diǎn)。遺憾的是,在密爾的《論自由》中,“損害”概念的內(nèi)涵與外延并未得到系統(tǒng)、充分的討論,僅散見于書中某些段落的只言片語,既潛藏于損害概念與自由原則的關(guān)聯(lián)之中,也蘊(yùn)含在密爾關(guān)于國家強(qiáng)制干預(yù)國民生活合法性的諸多論述里。從這些論述中,我們可大致梳理并推導(dǎo)出密爾“損害”概念的三個(gè)特征:一是涉他性,即損害是行為主體之外的其他人感知到的不利后果,包括個(gè)人、集體和作為整體的社會(huì)所感知到的不利后果。密爾指出,“一個(gè)人的行為的任何部分一到有害地影響到他人利益的時(shí)候,社會(huì)對(duì)它就有了裁判權(quán)”,而“當(dāng)一個(gè)人的行為并不影響自己以外的任何人的利益,或者除非他們?cè)敢饩筒恍枰绊懙剿麄儠r(shí)(這里所說的有關(guān)的人都指成年并具有一定理解力的人),那就根本沒有蘊(yùn)蓄任何這類問題之余地”,[13]這些表述充分證明密爾損害概念的“涉他性”特征。二是損益性,即損害是對(duì)他人利益的減損,會(huì)導(dǎo)致他人的需求無法通過相應(yīng)客體得到滿足。密爾指出,“至于對(duì)他人有害的行動(dòng),那就需要有完全不同的對(duì)待了”。這里的“有害”,是指“侵蝕他人的權(quán)利,在自己的權(quán)力上沒有正當(dāng)理由而橫加他人以損失或損害,以虛偽或兩面的手段對(duì)付他人,不公平地或者不厚道地以勢(shì)凌人,以至自私地不肯保護(hù)他人免于損害——所有這些都是道德譴責(zé)的對(duì)象,在嚴(yán)重的事情中也可成為道德報(bào)復(fù)或道德懲罰的對(duì)象”,[14]這意味著“減損他人利益”是密爾損害概念的又一重要特征。三是可責(zé)性,即減損他人利益的行為具有法律或道德上的可責(zé)性,應(yīng)受到法律的懲處或道德譴責(zé)。密爾認(rèn)為:“如果一個(gè)人的行為既沒有違反對(duì)于公眾的任何特定義務(wù),也沒有對(duì)自己以外的任何個(gè)人發(fā)生什么覺察得到的傷害,而由這種行為產(chǎn)生出來對(duì)社會(huì)的損害也只屬非必然或者說是推定的性質(zhì),那么這一點(diǎn)點(diǎn)的不便利,是社會(huì)為著人類自由的更大利益之故事能夠承受的。”[15]可見,密爾的損害概念具有濃厚的規(guī)范意蘊(yùn),其是保障個(gè)體自由免受國家不當(dāng)干預(yù)的“試金石”,也是平衡個(gè)體自由與國家干預(yù)的“壓艙石”,其相對(duì)嚴(yán)苛的內(nèi)涵為最大限度保障國民個(gè)體自由提供支撐。
在損害概念的三個(gè)基本特征中,“涉他性”對(duì)確定損害救濟(jì)與預(yù)防相關(guān)法律規(guī)范的性質(zhì)具有關(guān)鍵意義。這里的“他”既可能是個(gè)體或集體,也可能是不特定的社會(huì)公眾,而不同主體所受損害的救濟(jì),往往分屬不同的法律部門或領(lǐng)域。若“他”為個(gè)體或集體,損害救濟(jì)通常歸屬于民法(調(diào)整平等主體之間的關(guān)系)或行政法(調(diào)整不平等主體之間的關(guān)系);若“他”為不特定社會(huì)公眾,損害救濟(jì)則可能歸屬于經(jīng)濟(jì)法。人工智能全生命周期的各類要素及其模型應(yīng)用所引發(fā)的損害,既包括個(gè)體損害、集體損害,也涵蓋社會(huì)損害。其中,針對(duì)個(gè)體損害與集體損害的救濟(jì),現(xiàn)行法律法規(guī)或可直接適用,或經(jīng)適度修正與調(diào)整后適用;但對(duì)于其中的社會(huì)損害,現(xiàn)行法律體系尚難以應(yīng)對(duì)。有鑒于此,人工智能法應(yīng)聚焦社會(huì)損害的救濟(jì)與預(yù)防。
社會(huì)損害的救濟(jì)與預(yù)防面臨一大核心困境:作為受害人的社會(huì)公眾,因“理性經(jīng)濟(jì)人”的本性,天然存在“搭便車”的傾向,由此造成社會(huì)損害救濟(jì)與預(yù)防中的“公地悲劇”;而作為公共利益受托人的一些地方政府,因與作為委托人的社會(huì)公眾存在目標(biāo)函數(shù)差異,易出現(xiàn)逆向選擇、道德風(fēng)險(xiǎn)、規(guī)制俘獲、設(shè)租與尋租等損害委托人利益的現(xiàn)象。因此,解決人工智能全生命周期中因政府失靈與市場失靈導(dǎo)致的社會(huì)公共利益受損問題,應(yīng)成為人工智能法的主要目標(biāo)追求(見圖2),這也表明,人工智能法本質(zhì)上屬于規(guī)制法的范疇。

“理念欲求”標(biāo)準(zhǔn):部門法分工視域下人工智能法對(duì)事效力的三次框定
除了從受害主體視角劃分一國法律體系之外,理念欲求亦是區(qū)分不同法律部門的重要標(biāo)準(zhǔn)。舉例而言,同樣是私主體所遭受的人身或財(cái)產(chǎn)損害,若以保障受害人的意思自治為宗旨,則歸屬于以“私法自治”為理念欲求的民法范疇;若以防范行政機(jī)關(guān)的濫權(quán)或恣意行為為目標(biāo),則歸屬于以“控權(quán)”為理念欲求的行政法調(diào)整范疇。從這個(gè)意義上講,人工智能法的理念欲求,是框定人工智能法對(duì)事效力的另一重要標(biāo)準(zhǔn)。
法律理念是指法追求的價(jià)值目標(biāo)或者關(guān)于法應(yīng)該是什么樣的理想,是“法律的靈魂”,“代表了社會(huì)中公認(rèn)的某種終極理想和價(jià)值”。[16]從這一維度而言,人工智能法的理念欲求,必然蘊(yùn)含于人類關(guān)于技術(shù)倫理的持久探討之中,是對(duì)人工智能發(fā)展和治理倫理基礎(chǔ)的高度凝練與系統(tǒng)概括。
技術(shù)倫理是指導(dǎo)技術(shù)發(fā)展的道德原則總稱,其核心宗旨在于確保技術(shù)創(chuàng)新與發(fā)展能夠造福整個(gè)人類社會(huì)。對(duì)新興技術(shù)的倫理關(guān)切,始于21世紀(jì)早期,其開端為吉姆·穆爾(James Moor)于2005年發(fā)表的奠基性論文《我們?yōu)槭裁葱枰獮樾屡d技術(shù)提供更好的倫理學(xué)》。自此之后,原本分散、被動(dòng)、方法論不成熟,且重點(diǎn)關(guān)注成熟技術(shù)且缺乏政策導(dǎo)向的倫理學(xué)研究,開始轉(zhuǎn)向更為聚焦、主動(dòng)、方法論成熟,且重點(diǎn)關(guān)注新興技術(shù)注重政策導(dǎo)向的獨(dú)立研究領(lǐng)域,[17]而旨在確保技術(shù)發(fā)展契合社會(huì)期待與價(jià)值觀的“負(fù)責(zé)任創(chuàng)新”理念,也正是在這一過程中逐步被提出并得以固化。
從最廣泛的意義而言,“負(fù)責(zé)任創(chuàng)新”通常指以符合倫理、可持續(xù)理念及社會(huì)價(jià)值期待的方式,對(duì)新技術(shù)進(jìn)行設(shè)計(jì)、部署與應(yīng)用的具體實(shí)踐。學(xué)界將其描述為“一個(gè)透明的互動(dòng)過程”,在此過程中,“社會(huì)參與者與創(chuàng)新者能夠相互響應(yīng),以關(guān)注創(chuàng)新過程及其產(chǎn)品在倫理可接受性、可持續(xù)性以及社會(huì)期待方面的表現(xiàn)”,其核心要義在于要求所有參與新技術(shù)開發(fā)的利益相關(guān)者,均需對(duì)其開發(fā)的技術(shù)承擔(dān)責(zé)任。
人工智能作為一項(xiàng)新興的顛覆性技術(shù),理應(yīng)遵循新興技術(shù)倫理的一致共識(shí),而以人工智能為其規(guī)制對(duì)象的人工智能法,則肩負(fù)著將“負(fù)責(zé)任創(chuàng)新”內(nèi)化為自身理念與制度內(nèi)核的時(shí)代使命。有鑒于此,將“負(fù)責(zé)任人工智能”確立為人工智能法的理念欲求,正是“負(fù)責(zé)任創(chuàng)新”這一公認(rèn)的技術(shù)倫理原則在人工智能法律規(guī)制領(lǐng)域的具體細(xì)化。所謂“發(fā)展負(fù)責(zé)任的人工智能”理念,是關(guān)于人工智能應(yīng)如何研發(fā)、部署、使用、評(píng)估以及治理的提議或規(guī)范性聲明,[18]其由一系列確保人工智能透明、負(fù)責(zé)和合乎道德的基本原則所構(gòu)成,旨在推動(dòng)人工智能技術(shù)的應(yīng)用與民眾的期望值、組織的價(jià)值觀及社會(huì)的法律規(guī)范相契合。[19]“發(fā)展負(fù)責(zé)任的人工智能”理念及其所蘊(yùn)含的原則,涵蓋人工智能全生命周期所需的各項(xiàng)要求,能夠最大限度地預(yù)防或降低人工智能應(yīng)用中的不利后果,因而受到世界各國的青睞,并被納入各國政策文件與立法規(guī)范,成為公共部門與私營企業(yè)必須遵守的行為準(zhǔn)則。
“負(fù)責(zé)任人工智能”的理念,對(duì)人工智能全生命周期所有利害關(guān)系人均提出要求,進(jìn)而具備框定人工智能法事項(xiàng)效力具體范圍的功能。該理念旨在推動(dòng)社會(huì)參與者與創(chuàng)新者形成相互響應(yīng),進(jìn)而使其創(chuàng)新過程及相關(guān)產(chǎn)品符合倫理準(zhǔn)則、可持續(xù)性及社會(huì)期待。依據(jù)利害關(guān)系人理論,人工智能全生命周期的社會(huì)參與者,理應(yīng)涵蓋保障人工智能實(shí)現(xiàn)負(fù)責(zé)任發(fā)展所需全部要素的相關(guān)參與者。如前文所述,構(gòu)成人工智能系統(tǒng)的核心要素包括數(shù)據(jù)、網(wǎng)絡(luò)、算法和具體應(yīng)用場景,這意味著人工智能全生命周期中的涉數(shù)主體、涉網(wǎng)主體、涉算主體及涉用主體,均屬于人工智能法事項(xiàng)效力中所指向的特定主體。
結(jié)語
科學(xué)框定人工智能法的對(duì)事效力,具有極為重要的理論和現(xiàn)實(shí)意義。從理論層面而言,這既是人工智能法區(qū)別于其他法律部門的重要標(biāo)識(shí),也是構(gòu)建人工智能法學(xué)自主知識(shí)體系的關(guān)鍵依托。從實(shí)踐層面來看,其更是人工智能立法、執(zhí)法、司法和守法的具體遵循,關(guān)乎人工智能立法效果的最終達(dá)成。在人工智能深度融入人類社會(huì)生活的當(dāng)下,人工智能立法的緊迫性愈發(fā)凸顯,而對(duì)人工智能法對(duì)事效力的框定,則屬于人工智能立法的前提性問題,亟需學(xué)界緊扣人工智能法的理念欲求,結(jié)合人工智能法所欲救濟(jì)的損害類型與性質(zhì),準(zhǔn)確且科學(xué)地框定人工智能法的對(duì)事效力,貢獻(xiàn)理論智慧、凝聚行業(yè)與社會(huì)共識(shí)。
注釋
[1]付子堂主編:《法理學(xué)初階》,北京:法律出版社,2009年,第144頁。
[2]韓旭至:《人工智能法的調(diào)整范圍》,《北京航空航天大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》,2024年第3期。
[3]J. Schuett, "Defining the Scope of AI Regulations: Law," Innovation and Technology, 2023, 15(1); H. Ruschemeier, "AI as a Challenge for Legal Regulation: The Scope of Application of the Artificial Intelligence Act Proposal," ERA Forum, 2023, 23(3).
[4]在人工智能立法中,“人工智能”的概念界定同時(shí)具有三重功能:一是表達(dá)功能,也就是澄清人工智能法的立法意圖;二是劃界功能,即劃定人工智能法的事項(xiàng)效力;三是履行功能,即不僅是特定法律主體享有權(quán)利和承擔(dān)義務(wù)的依據(jù),也是執(zhí)法和司法解釋的重要依據(jù)。參見J. Schuett, "Defining the Scope of AI Regulations: Law," Innovation and Technology, 2023, 15(1)。
[5][7]M. S. S. EI Namaki, "A Systematic Approach to the Artificial Intelligence Concept," Journal of Knowledge Management Application and Practice, 2019, 1(2).
[6]I. Dula; T. Berberena; K. Keplinger and M. Wirzberger, "Hooked on Artifical Agents: A Systems Thinking Perspective," Frontiers in Behavioral Economics, 2023.
[8]Y. Arbel; M. Tokson and A. Lin,"Systemic Regulation of Artificial Intelligence," Arizona State Law Journal, 2024.
[9]E. Ferrara, "The Butterfly Effect in Artificial Intelligence System: Implications for AI Bias and Fairness," Machine Learning with Applications, 2024.
[10]A. C. Lin, "The Unifying Role of Harm in Environmental Law," Wisconsin Law Review, 2006.
[11]密爾在其著作《論自由》一書中提出“損害原則”,用以討論社會(huì)所能合法施于個(gè)人的權(quán)力的性質(zhì)和限度。該書全部內(nèi)容可以高度概括為兩個(gè)基本原則:一是個(gè)人的行為只要不涉及他人的利害,個(gè)人就有完全的行動(dòng)自由,不必向社會(huì)負(fù)責(zé);他人對(duì)于這個(gè)行為不得干涉,至多可以進(jìn)行忠告、規(guī)勸或避而不理;二是只有當(dāng)個(gè)人行為危害到他人利益時(shí),個(gè)人才應(yīng)當(dāng)接受社會(huì)或法律的懲罰,社會(huì)只有在這個(gè)時(shí)候才對(duì)個(gè)人有裁判權(quán),也才能對(duì)個(gè)人施加強(qiáng)制力量。參見約翰·密爾:《論自由》,許寶骙譯,北京:商務(wù)印書館,2007年,第112頁。
[12]A. Folland, "The Harm Principle and the Nature of Harm," Utilitas, 2022.
[13][14][15]約翰·密爾:《論自由》,許寶骙譯,北京:商務(wù)印書館,2007年,第90、93、98頁。
[16]鄭成良:《法律、契約與市場》,《吉林大學(xué)社會(huì)科學(xué)學(xué)報(bào)》,1994年第4期。
[17]P. A. E. Brey, "The Historical Development of Ethics of Emerging Technologies," Minds and Machines, 2025, 35(2).
[18]A. Theodorou and V. Dignum, "Towards Ethical and Social-Legal Governance in In AI," Nature Machine Intelligence, 2020, 2(1).
[19]P. Mikalef et al., "Thinking Responsibly about Responsible AI and 'the Dark Side of AI'," European Journal of Information Systems, 2022, 31(3).
The Theoretical Justification for Establishing Standards
of Effectiveness in AI Legislation
Chen Liang
Abstract: The scope of substantive effect constitutes a foundational core issue in AI law. Defining this scope not only concerns the construction of an autonomous knowledge system for AI jurisprudence but also provides critical guidance for AI legislation, law enforcement, adjudication, and compliance. As an organic system encompassing data, networks, algorithms, computing power, and specific applications, AI constitutes the foundational basis for the initial delineation of substantive effect. Its regulatory scope covers data-related, network-related, computation-related, and application-related behaviors throughout the entire lifecycle. AI law addresses social harm remediation and prevention beyond existing legal frameworks, achieving a secondary delineation of substantive effect. Guided by the principle of "Responsible AI," it incorporates stakeholders throughout the entire lifecycle into regulatory frameworks, realizing a tertiary delineation. Through three core delimitation criteria—regulatory objects, normative nature, and conceptual aspirations—the AI Law distinguishes itself from private law, which remedies individual private interests, and from public law that address social public interests. This approach holds significant theoretical and practical value for advancing the refinement of the AI legal system.
Keywords: artificial intelligence law, substantive effect, regulatory objects, normative nature, conceptual aspirations
責(zé) 編∕楊 柳 美 編∕周群英