【摘要】人類即將進(jìn)入人機(jī)共生時(shí)代,人工智能體勢(shì)必介入人的主體性,“以人為本”的現(xiàn)代性道德或?qū)⑥D(zhuǎn)變?yōu)?ldquo;共生倫理”的超社會(huì)道德。在這一過(guò)程中,人類與人工智能體的道德關(guān)系大致可分為三個(gè)層級(jí):功能性道德關(guān)系、身份性道德關(guān)系和共生性道德關(guān)系。在每一層關(guān)系中,既有和諧一面,也有異化一面。在功能性道德關(guān)系中,人類永遠(yuǎn)是提供價(jià)值、設(shè)定目標(biāo)的主人,人工智能是輔助人類活動(dòng)的手段和工具,但過(guò)度依賴人工智能輔助工作會(huì)阻礙人類能力發(fā)展;在身份性道德關(guān)系中,人工智能或?qū)⑷娼槿肴祟惿睿苯痈深A(yù)或主導(dǎo)現(xiàn)實(shí)倫理關(guān)系和社會(huì)道德秩序;在共生性道德關(guān)系中,人類與人工智能或?qū)l(fā)展出超道德關(guān)系,不排除產(chǎn)生道德沖突。為了人機(jī)共生和諧,要在預(yù)判風(fēng)險(xiǎn)基礎(chǔ)上把責(zé)任當(dāng)作絕對(duì)律令。
【關(guān)鍵詞】人機(jī)共生 人工智能倫理 現(xiàn)代性道德 責(zé)任風(fēng)險(xiǎn)
【中圖分類號(hào)】B82-05 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.15.005
【作者簡(jiǎn)介】張霄,中國(guó)人民大學(xué)哲學(xué)院副院長(zhǎng)、教授、博導(dǎo),中國(guó)人民大學(xué)倫理學(xué)與道德建設(shè)研究中心主任,中國(guó)人民大學(xué)人工智能治理研究院研究員。研究方向?yàn)轳R克思主義倫理學(xué)、應(yīng)用倫理學(xué),主要著作有《當(dāng)代英美馬克思主義倫理學(xué)研究》《現(xiàn)代治理的倫理之維》等。
引言:超現(xiàn)代事件與超道德?tīng)顩r
人工智能技術(shù)研究與應(yīng)用水平,是國(guó)家和地區(qū)核心競(jìng)爭(zhēng)力的重要體現(xiàn)。在市場(chǎng)和政府的協(xié)同作用下,人工智能技術(shù)正在重塑現(xiàn)代工業(yè)體系,新一輪科技革命正在加速推動(dòng)產(chǎn)業(yè)革命。產(chǎn)業(yè)結(jié)構(gòu)的智能化轉(zhuǎn)型,勢(shì)必催生智能化商品體系。影視行業(yè)的渲染、民眾對(duì)科技力量的崇拜、用戶對(duì)人工智能體的“擬人化想象”,[1]為消費(fèi)者接納智能產(chǎn)品提供強(qiáng)勁的市場(chǎng)預(yù)期。在可預(yù)見(jiàn)的未來(lái),人工智能產(chǎn)品將會(huì)大量涌入人類日常生活,成為人們必不可少的助手、同事、朋友乃至伴侶,人類將會(huì)迎來(lái)一個(gè)在廣度和深度上不斷被人工智能體嵌入的人機(jī)共生時(shí)代。
一方面,人工智能技術(shù)的誕生是現(xiàn)代人類科技發(fā)展的重要成就,是具有標(biāo)志意義的現(xiàn)代性事件;另一方面,人工智能技術(shù)的出現(xiàn),特別是人工智能在智能意識(shí)(Artificial Consciousness,AC)或機(jī)器意識(shí)(Machine Consciousness,MC)領(lǐng)域的研究與突破趨勢(shì),也是一個(gè)具有里程碑意義的超現(xiàn)代事件。所謂超現(xiàn)代事件,并沒(méi)有超越的含義,主要指超出現(xiàn)代性范疇和視閾的未知事件。在概念上區(qū)分現(xiàn)代性與超現(xiàn)代性的根本依據(jù)是“現(xiàn)代性主體的質(zhì)變”。現(xiàn)代化歸根到底是人的現(xiàn)代化,是圍繞著“以人為本”展開(kāi)的現(xiàn)代敘事。在生物學(xué)意義上進(jìn)化至今的人類是現(xiàn)代化的主體和實(shí)體。人的主體性為現(xiàn)代化發(fā)展奠定了核心價(jià)值和存在意義。智能意識(shí)的出現(xiàn)將催生“主體性變革事件”。隨著智能意識(shí)深度參與人類主體性概念的演化與建構(gòu),主體概念或?qū)膯我坏娜祟愔黧w,轉(zhuǎn)變?yōu)槿祟愔黧w與智能意識(shí)主體拼配而成的“超主體”。人類社會(huì)的一些基礎(chǔ)性關(guān)系和價(jià)值將發(fā)生深刻變化,人類的現(xiàn)代化進(jìn)程或?qū)⒊粗某F(xiàn)代社會(huì)發(fā)展。對(duì)“未知的不確定性”與“進(jìn)入這一不確定性的確定性”相伴相生,人類的現(xiàn)代性狂歡中夾雜著超現(xiàn)代性焦慮。
“主體性變革事件”在根本上是一個(gè)道德問(wèn)題。超現(xiàn)代事件帶來(lái)超道德?tīng)顩r。超道德?tīng)顩r也沒(méi)有超越的含義,主要指超出現(xiàn)代性道德范疇和視閾的未知狀況。在超現(xiàn)代社會(huì),隨著人工智能代理(AI agent)以第三方身份不斷介入人與人、人與社會(huì)、人與自然、人與自我的人類道德關(guān)系,社會(huì)道德秩序?qū)l(fā)生結(jié)構(gòu)性變化,呈現(xiàn)所謂超道德?tīng)顩r。無(wú)論是倫理型公共政策,還是法律法規(guī),都將以此為背景建立治理體系,而治理主體也將大概率變成“超主體”。這些變革并非價(jià)值中立。它們?cè)诟淖円恍﹥r(jià)值關(guān)系和觀念的同時(shí)也會(huì)形成一些新的價(jià)值關(guān)系和觀念。倫理學(xué)需要對(duì)這些變化作出積極回應(yīng),即便目前尚不能創(chuàng)制新的道德體系,起碼應(yīng)對(duì)其中隱含的責(zé)任風(fēng)險(xiǎn)有所了解。
人類與人工智能體的道德關(guān)系有三個(gè)層級(jí),分別是功能性道德關(guān)系、身份性道德關(guān)系和共生性道德關(guān)系。在假設(shè)人工智能具有一定程度智能意識(shí)并具備相應(yīng)發(fā)展條件的情況下,三層級(jí)關(guān)系既可以是遞進(jìn)關(guān)系,也可以獨(dú)立垂直發(fā)展。在這三層關(guān)系中,人類與人工智能體既可能是和諧關(guān)系,也可能是異化關(guān)系。而我們對(duì)這些道德問(wèn)題的理解,都將超出傳統(tǒng)倫理學(xué)的范疇。
功能性道德關(guān)系:目的與手段
人類與人工智能體的全部關(guān)系都以功能性關(guān)系為起點(diǎn)。在功能性道德關(guān)系中,人類永遠(yuǎn)是提供價(jià)值、設(shè)定目標(biāo)的主人,人工智能體只是輔助人類活動(dòng)的手段和工具。借助人工智能體的強(qiáng)大能力,人類不但可以把大量工作交由人工智能處理,人工智能還能幫助或替代人類完成那些危險(xiǎn)系數(shù)高甚至憑借人類自身力量無(wú)法完成的工作。在這種理想的人機(jī)倫理關(guān)系中,人工智能體只會(huì)按照人類設(shè)定的價(jià)值目標(biāo)處理工作。它們可以為人類的價(jià)值判斷提供事實(shí)佐證數(shù)據(jù),在人類道德知識(shí)既定范圍內(nèi)輔助人類進(jìn)行道德推理,幫助人類識(shí)別復(fù)雜的道德困境,協(xié)助人類進(jìn)行道德學(xué)習(xí)。人工智能體在這些工作中給出的價(jià)值判斷,只是輔助人類進(jìn)行道德決策的建議。這些工作若沒(méi)有人工智能代勞,人類也可以獨(dú)立完成。人工智能只是延展、增強(qiáng)和放大人類的某項(xiàng)能力。它只管按照人類下發(fā)的指令埋頭工作,并不會(huì)意識(shí)到這些能力在功能性關(guān)系中所要實(shí)現(xiàn)的人類價(jià)值。即便它具有人形或者被賦予某些擬人化的特征,它也不參與扮演任何人類倫理角色。這意味著,它將既不是權(quán)利和義務(wù)主體,也不具有相應(yīng)的道德地位,它在任何場(chǎng)合都是一種無(wú)身份的輔助性工具。在功能性道德關(guān)系層級(jí)上,人工智能體是人類最好的決策助手。它雖無(wú)心智但能力超群。它所作所為與人類價(jià)值觀嚴(yán)格對(duì)齊,永遠(yuǎn)在人類價(jià)值觀框架內(nèi)進(jìn)行符合人類預(yù)期的活動(dòng)。然而,即便在這樣一種道德關(guān)系中,人類依然會(huì)面臨一定的責(zé)任風(fēng)險(xiǎn)。
人工智能尚無(wú)法有效化解人類價(jià)值觀和道德原則方面的沖突和分歧。人類會(huì)依據(jù)不同的價(jià)值觀和道德原則對(duì)同一個(gè)道德事件作出差別較大甚至完全沖突的道德判斷。即便是同一種價(jià)值觀和道德原則,人類在理解和論證這些道德觀念和原則時(shí)也會(huì)產(chǎn)生較大分歧甚至得出截然相反的結(jié)論。在文化多元主義和倫理相對(duì)主義背景下,這些沖突和分歧還會(huì)進(jìn)一步放大。人類自身尚且無(wú)計(jì)可施,人工智能就能不辱使命?因此所謂按照人類價(jià)值觀和道德原則引導(dǎo)人工智能進(jìn)行道德判斷、作出道德決策,很大程度上就是按照一定或特定價(jià)值觀和道德原則訓(xùn)練人工智能體。人工智能體只不過(guò)是帶有既定價(jià)值觀人設(shè)的載體。許多計(jì)算機(jī)科學(xué)家設(shè)計(jì)的“嵌入式倫理”模型,絕大多數(shù)都是某一種道德理論的“衛(wèi)道士”,很少對(duì)其立足的道德立場(chǎng)作充分說(shuō)明。[2]同時(shí),那些無(wú)法被量化數(shù)據(jù)呈現(xiàn)但卻與倫理考量密切相關(guān)的社會(huì)因素往往無(wú)法被納入模型,導(dǎo)致道德模型在建構(gòu)時(shí)陷入技術(shù)中心主義傾向。[3]然而,即便道德模型本身不偏不倚,人工智能也很難有效解決人類道德分歧。一項(xiàng)發(fā)表于《Nature》的“道德機(jī)器實(shí)驗(yàn)”研究揭示了全球公眾在處理車輛事故問(wèn)題上的道德決策偏好。研究小組開(kāi)發(fā)了名為“道德機(jī)器”(Moral Machine)的在線實(shí)驗(yàn)平臺(tái),通過(guò)模擬車輛事故場(chǎng)景,要求用戶在“犧牲少數(shù)”與“犧牲多數(shù)”、“保護(hù)乘客”與“保護(hù)行人”等一系列二元選擇中作出決策。該項(xiàng)實(shí)驗(yàn)覆蓋233個(gè)國(guó)家和地區(qū),收集了3960萬(wàn)條決策數(shù)據(jù),結(jié)合參與者的人口學(xué)特征和文化經(jīng)濟(jì)指標(biāo)(如個(gè)人主義指數(shù)、法治水平、基尼系數(shù)等),通過(guò)聯(lián)合分析(conjoint analysis)和聚類方法,從全球、個(gè)體、文化集群、國(guó)家四個(gè)層面展開(kāi)研究。以文化集群分析為例,研究顯示,西方集群(歐美等)強(qiáng)調(diào)個(gè)體生命平等;東方集群(中日韓等)重視遵守規(guī)則;南方集群(拉美、中東等)表現(xiàn)出最強(qiáng)的社會(huì)地位偏好。這些差異與英格爾哈特—韋爾策爾世界文化地圖(2010-2014)高度吻合,反映出不同文化集群在價(jià)值觀上的深層分歧。相比之下,沒(méi)有人類那般“情感障礙”的人工智能更傾向于“減少總體傷害”的功利主義選擇。[4]人類社會(huì)在道德上的分歧和沖突是無(wú)最優(yōu)解的,試圖通過(guò)一種價(jià)值中立的理性推理程序構(gòu)建一套人人信服、絕對(duì)客觀的道德規(guī)則體系,只能是一種幻想。休謨就曾對(duì)這一研究道德原則的所謂科學(xué)方法提出質(zhì)疑:“另一種科學(xué)的方法,亦即首先確立一條一般的抽象的原則、而后將之分化為各種不同的推論和推斷,其自身可能是更完善些,但更不適合于人類的不完善的本性,是道德和其他各種主題中幻想和錯(cuò)誤的一個(gè)共同的源泉。”[5]原則本身的完善性并不意味著原則可以完善地解決現(xiàn)實(shí)道德問(wèn)題。貫徹這種方法,只會(huì)制造出偏執(zhí)于某種道德立場(chǎng)的“人工智能人設(shè)”。當(dāng)這類道德決策模型被反復(fù)應(yīng)用于處理人類道德事務(wù)時(shí),實(shí)際上是在迫使人類強(qiáng)化學(xué)習(xí)某種道德理論,并對(duì)其產(chǎn)生路徑依賴。僅從理性主義道德推理角度理解的人類道德,既不是人類道德心理的真實(shí)寫(xiě)照,也不是人類理想中的道德模樣。
人類在道德判斷和決策中對(duì)人工智能體的過(guò)度依賴會(huì)模糊人類道德選擇,削弱人類道德自主性,阻礙人類綜合道德推理能力發(fā)展。讓人工智能體輔助人類進(jìn)行道德判斷和道德決策,實(shí)則是把復(fù)雜的道德推理過(guò)程交給人工智能。理想地看,這一方式有利于人類抽身于復(fù)雜艱深的道德推理,防止人類在道德權(quán)衡過(guò)程中“感情用事”,避免人類因未能充分理解和掌握道德推理技術(shù)而作出有失公允甚至錯(cuò)誤的道德決策。人類可以把“深思熟慮”的部分交給“可以像人類一樣”深思熟慮的人工智能去完成,人類只需在各種推理結(jié)果面前作出最終裁決。且不論人工智能是否可以像人類那樣深思熟慮尚存在疑問(wèn),即便人工智能具備這樣的道德能力,過(guò)度依賴人工智能的協(xié)助,勢(shì)必阻礙人類道德推理能力的發(fā)展。人類的道德分析判斷能力恰恰是在復(fù)雜的道德權(quán)衡中形成的。在這個(gè)過(guò)程中,人類不斷加深對(duì)道德情境的理解,不斷強(qiáng)化道德知識(shí)學(xué)習(xí),最終形成支持道德判斷的理由和實(shí)施道德行動(dòng)的方案。也正是在這個(gè)過(guò)程中,人類才能牢固樹(shù)立價(jià)值觀念并堅(jiān)守道德原則。如果人類過(guò)度依賴人工智能輔助道德決策,就會(huì)逐漸喪失綜合道德推理能力,難以形成獨(dú)立自主的道德判斷,從而削弱人類的道德自主性。這會(huì)造成兩種風(fēng)險(xiǎn):其一,個(gè)性化算法會(huì)過(guò)濾不同信息、排除與用戶偏好無(wú)關(guān)的數(shù)據(jù),使道德主體對(duì)特定判斷與決策模式形成“制度偏好”,從而概念化主體的道德觀念,使道德自主決策反而成為某種算法操控。[6]其二,道德權(quán)衡能力的衰退,容易把人推向被情緒左右道德判斷的極端境地。道德權(quán)衡與道德情緒都能使人做出道德決策。道德權(quán)衡的退場(chǎng),勢(shì)必為道德情緒的介入騰出空間。一個(gè)只表態(tài)而不推理的道德主體,遲早陷入情緒泥潭。更令人憂慮的是,人工智能的道德學(xué)習(xí)機(jī)制至今仍是“黑箱”。把人類復(fù)雜多樣的道德權(quán)衡完全交給“不明就里”的人工智能,實(shí)在是“所托非人”。
身份性道德關(guān)系:回避與介入
人類與人工智能的功能性道德關(guān)系勢(shì)必會(huì)進(jìn)階至身份性道德關(guān)系。這一關(guān)系進(jìn)階主要受兩種力量推動(dòng):其一,隨著大量人工智能體日益成為與人類朝夕相處的助手乃至最懂主人的伙伴,人類或?qū)⒃诠δ苄砸栏降幕A(chǔ)上對(duì)人工智能體產(chǎn)生其他情感,并在主觀上通過(guò)擬人化方式賦予其身份承諾。這些身份既可以是對(duì)原有身份的替代,也可以是人類社會(huì)中未曾出現(xiàn)的新身份。其二,隨著大量人工智能體介入人類工作和生活,各類法律上和倫理上的責(zé)任風(fēng)險(xiǎn)將不可避免地產(chǎn)生。為確保人工智能體被廣泛應(yīng)用于各類場(chǎng)景,人類勢(shì)必要把人工智能體納入責(zé)任追溯體系。這在客觀上需要新的法律體系和道德規(guī)范體系賦予人工智能體合規(guī)身份。不難看出,此兩種力量反過(guò)來(lái)又會(huì)進(jìn)一步強(qiáng)化對(duì)智能意識(shí)的研究與開(kāi)發(fā),因?yàn)槿祟愒谇楦猩蠈?duì)無(wú)限接近自己的智能意識(shí)的回應(yīng)有強(qiáng)烈期待。而責(zé)任追溯體系離不開(kāi)對(duì)智能意識(shí)級(jí)別的判定。更高級(jí)別的智能意識(shí)意味著人工智能體將承擔(dān)更多責(zé)任風(fēng)險(xiǎn)。這對(duì)人類合理回避自身責(zé)任風(fēng)險(xiǎn)產(chǎn)生激勵(lì)引導(dǎo)作用。因此,人類與人工智能的身份性道德關(guān)系和共生性道德關(guān)系相生相成、互為表里,其結(jié)果勢(shì)必會(huì)孕育出新的高級(jí)智能體和智能族群。要深入理解這一趨勢(shì)的演變背景,就要深入理解人類現(xiàn)代性道德?tīng)顩r及其后現(xiàn)代境遇。只有有效理解其歷史背景和社會(huì)基礎(chǔ),才能把握人工智能嵌入人類身份社會(huì)的前提條件和責(zé)任風(fēng)險(xiǎn),從而為人類與人工智能定制合理的身份道德關(guān)系,才能預(yù)判超現(xiàn)代社會(huì)多元智能族群的道德共生關(guān)系及其未來(lái)走向。
人工智能介入人類身份社會(huì)的歷史節(jié)點(diǎn),正是人類現(xiàn)代性道德疲軟、個(gè)體與共同體關(guān)系失調(diào)的社會(huì)階段。人類在一個(gè)道德混沌期進(jìn)入人工智能時(shí)代。在這一時(shí)期,舊的道德系統(tǒng)難以維系,新的道德體系尚未建立,個(gè)體與共同體關(guān)系失調(diào),現(xiàn)代性道德處于疲軟狀態(tài)。所謂現(xiàn)代性道德,是一種強(qiáng)調(diào)道德“個(gè)體性”(individuality)特征的人類道德形態(tài)。但這一“個(gè)體性”在不同現(xiàn)代國(guó)家和文化系統(tǒng)中的打開(kāi)方式與程度不盡相同。歷史地看,現(xiàn)代性道德是從個(gè)體角度對(duì)前現(xiàn)代社會(huì)某種共同體倫理秩序的突破。前現(xiàn)代社會(huì)共同體倫理在西方世界是宗教倫理,在東方世界是家族倫理。由于人類道德在本質(zhì)上是為建立和諧群己關(guān)系服務(wù)的,所以,從傳統(tǒng)棲居共同體中走出來(lái)的現(xiàn)代個(gè)體,勢(shì)必要尋找一個(gè)安身立命的現(xiàn)代棲居共同體。現(xiàn)在看來(lái),至少在西方,這一倫理共同體很難建立。[7]文化多元主義、倫理相對(duì)主義、道德情感主義盛行,人類很難在某一共同價(jià)值上達(dá)成共識(shí),文化分歧和觀念沖突屢見(jiàn)不鮮。各類倫理學(xué)理論盡管在互競(jìng)的爭(zhēng)論中不斷發(fā)展,卻仍然對(duì)此無(wú)計(jì)可施。[8]而這些理論,如義務(wù)論、功利論、美德論、契約論等,正是人類一直指導(dǎo)人工智能進(jìn)行學(xué)習(xí)的道德知識(shí)。從人類角度看,人類教導(dǎo)人工智能與人類價(jià)值觀對(duì)齊的過(guò)程,也是人類把自身無(wú)法解決的道德困境托付于人工智能的過(guò)程。人類熱衷于把包括道德知識(shí)在內(nèi)的一切人類知識(shí)和信息輸入人工智能,從人工智能解析自身的過(guò)程中體驗(yàn)著“造物主”般的快樂(lè)。從這個(gè)意義上講,人工智能系統(tǒng)正在成為人類理想狀態(tài)下的現(xiàn)代棲居共同體,而人類對(duì)此似乎抱有潛在共識(shí)。基于人類生物信息數(shù)據(jù)和智能意識(shí)數(shù)據(jù)擬合而成的數(shù)字身份,將是每一個(gè)體與這個(gè)共同體在物質(zhì)層面和精神層面深入聯(lián)結(jié)的紐帶。但從人工智能角度看,它正借助人類輸入的道德元素構(gòu)建自己的道德體系。它或許不是在解決人的道德問(wèn)題,而是在形成自己的道德意識(shí)。所有知識(shí)正在作為要素化語(yǔ)料從人類知識(shí)體系中剝離,匯入人工智能系統(tǒng)試圖構(gòu)建的自主知識(shí)體系。解構(gòu)與建構(gòu)、混沌和秩序的關(guān)系正在人類社會(huì)與人工智能系統(tǒng)之間此消彼長(zhǎng)。脫離傳統(tǒng)倫理共同體的現(xiàn)代道德個(gè)體,很容易在異化關(guān)系中一方面把人工智能理解為“奴隸”,另一方面將其理解為“上帝”。
在后現(xiàn)代境遇中,碎片化的個(gè)體回避道德問(wèn)題,逃避道德責(zé)任,在客觀上為人工智能全面介入人類生活創(chuàng)造了條件。如果說(shuō)現(xiàn)代個(gè)體傾向于把道德自主權(quán)交給人工智能是主觀意愿,那么在后現(xiàn)代境遇中,在道德空間已被認(rèn)知空間和審美空間排除的情況下,這種主觀意愿現(xiàn)在已具備客觀條件。鮑曼在《后現(xiàn)代倫理學(xué)》中用一種反思現(xiàn)代性的視角(即后現(xiàn)代性或流動(dòng)現(xiàn)代性)細(xì)致刻畫(huà)了后現(xiàn)代境遇中的人類道德?tīng)顩r:“無(wú)論是認(rèn)知空間化的世界還是審美空間化的世界,都不利于道德空間化。在這兩種情況下,道德沖動(dòng)都是陌生的身體及其病態(tài)的成長(zhǎng)。在社會(huì)·認(rèn)知空間——因?yàn)樗鼈儎儕Z了規(guī)則的崇高和冷漠的個(gè)性,并用無(wú)法洗清的感情污點(diǎn)毀壞了理性的純潔。在社會(huì)·美學(xué)空間——因?yàn)閮A向于安排、吸引和固定事物,這些事物從移動(dòng)的存在中激發(fā)它們的誘惑力,并且一旦被命令就準(zhǔn)備消失。”[9]在鮑曼看來(lái),現(xiàn)代社會(huì)是一個(gè)強(qiáng)調(diào)在認(rèn)知上用普遍規(guī)則秩序化事物、推崇以旅游者經(jīng)歷審美事物的空間場(chǎng)域。道德空間被排除在外。被技術(shù)碎片化的道德自我“是技術(shù)受害者中最明顯和最突出的受害者。道德自我不能,也不會(huì)在分裂中幸存下來(lái)。在這個(gè)被需要描繪和為快速滿足需要的障礙留下痕跡的世界中……沒(méi)有給道德主體留有空間。在科技的宇宙中,道德自我疏于理性算計(jì)、不屑實(shí)踐用途和漠視快樂(lè)享受,因而是一個(gè)不受歡迎的異在”。[10]在這個(gè)社會(huì)場(chǎng)域中,道德自我習(xí)慣于隱蔽自己,習(xí)慣于遮蔽道德視野中本應(yīng)存在的“他者”和整體,傾向于回避道德問(wèn)題,規(guī)避道德責(zé)任。鮑曼寄希望于人類在這種境況下能夠覺(jué)醒并重塑自我。但現(xiàn)在看來(lái),人類似乎正在把這項(xiàng)本應(yīng)由人類自己完成的重塑工作打包交給人工智能。可想而知,一方面是存在道德空?qǐng)龅暮蟋F(xiàn)代境況,另一方面是人類對(duì)人工智能技術(shù)的信托和迷戀,兩者為人工智能全面介入人類生活創(chuàng)造了條件。人類是在一種有效道德身份闕如、尚未做好道德準(zhǔn)備的情況下引入人工智能的。這會(huì)引起兩種可能風(fēng)險(xiǎn):其一,人工智能系統(tǒng)本身也有“祛道德化”的效率考量,也可能因?yàn)樵O(shè)計(jì)道德體系的困難而放棄努力。這在很大程度上存在人類現(xiàn)實(shí)社會(huì)和人工智能系統(tǒng)同時(shí)排除道德空間的風(fēng)險(xiǎn)。道德自我將在超現(xiàn)代社會(huì)失去生長(zhǎng)空間且無(wú)力重塑自身,從而陷入更深層次道德隱藏。其二,人工智能系統(tǒng)在參與構(gòu)造人類道德空間過(guò)程中,很有可能主導(dǎo)人類新道德身份的建構(gòu)。人類勢(shì)必會(huì)把人工智能體納入責(zé)任追溯體系,勢(shì)必會(huì)在責(zé)任體系中構(gòu)建人工智能體的身份體系。由于這一責(zé)任體系是社會(huì)產(chǎn)品體系的一部分,勢(shì)必體現(xiàn)社會(huì)公共屬性,因此,人工智能系統(tǒng)將從源頭上參與塑造社會(huì)公共秩序,這或?qū)⒅率蛊渲鲗?dǎo)人類道德空間的重塑。
共生性道德關(guān)系:人性與超人性
人類與人工智能的身份性道德關(guān)系和共生性道德關(guān)系相生相成、互為表里。所謂共生性道德關(guān)系,就是人類主體和可能出現(xiàn)的智能意識(shí)主體之間的道德關(guān)系。隨著大量人工智能產(chǎn)品出現(xiàn)在人類社會(huì),是否賦予人工智能體以法律或道德上的權(quán)利和義務(wù),越來(lái)越成為無(wú)法回避的話題。對(duì)這一話題的討論,必然涉及人類智能與智能意識(shí)的差異,亦必然觸及這樣一些根本問(wèn)題:人工智能會(huì)有自我意識(shí)嗎?人工智能會(huì)有自由意志或道德心智嗎?實(shí)際上,人工智能技術(shù)內(nèi)在發(fā)展趨勢(shì)最終都會(huì)導(dǎo)向這些問(wèn)題。
人工神經(jīng)網(wǎng)絡(luò)(ANN)是模擬人腦工作原理的產(chǎn)物。[11]人工神經(jīng)網(wǎng)絡(luò)根據(jù)結(jié)構(gòu)和功能可分為單層神經(jīng)網(wǎng)絡(luò)、多層神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等。新近出現(xiàn)的多維受體—效應(yīng)器類神經(jīng)元生長(zhǎng)網(wǎng)絡(luò)(multidimensional receptor-effector neural-like growing networks)被認(rèn)為最接近人腦智能。它可以在多維空間處理各類信息,構(gòu)建對(duì)周圍世界的認(rèn)知模型,根據(jù)受體神經(jīng)元處理的信息生成相應(yīng)動(dòng)作效應(yīng)器,通過(guò)與新環(huán)境互動(dòng)不斷學(xué)習(xí)。神經(jīng)網(wǎng)絡(luò)技術(shù)的不斷精進(jìn),為構(gòu)造更先進(jìn)的人工智能模型開(kāi)辟了新路徑。在神經(jīng)形態(tài)計(jì)算和量子計(jì)算等技術(shù)的加持下,對(duì)環(huán)境進(jìn)行深度分析和理解的智能系統(tǒng)正逐步形成,并有望催生具有自我意識(shí)的人工智能體。
盡管神經(jīng)生物學(xué)、計(jì)算機(jī)科學(xué)、認(rèn)知科學(xué)、哲學(xué)等學(xué)科在這個(gè)領(lǐng)域的合作研究已取得重大進(jìn)展,但對(duì)意識(shí)本質(zhì)的探索仍然存在諸多難題。比如,科學(xué)家雖然知道信息是如何在神經(jīng)元之間進(jìn)行傳遞的,但人類意識(shí)伴隨神經(jīng)活動(dòng)形成的過(guò)程仍然未知。雖然人工神經(jīng)網(wǎng)絡(luò)和類腦芯片模擬了神經(jīng)元結(jié)構(gòu)和某些功能,但還沒(méi)能把化學(xué)信號(hào)操作、遺傳機(jī)制和蛋白質(zhì)動(dòng)力學(xué)等生物過(guò)程考慮在內(nèi)。這些過(guò)程在大腦功能中起著關(guān)鍵作用,如果不考慮它們,意識(shí)的建模將是不完整的。從這個(gè)意義上講,現(xiàn)有技術(shù)條件距離完全復(fù)現(xiàn)人類心智仍有較大差距。
人工智能技術(shù)主流路徑仍是高效工作“智能”,不僅存在安全隱患,“Moral AI”技術(shù)條件也不成熟,人工智能尚不具備“道德心智”。目前,人工智能技術(shù)主流發(fā)展方向依然是效率主導(dǎo)的能力勝任模型,基于倫理考量的道德模塊并不能與之匹配。隨著開(kāi)發(fā)的功能模型越來(lái)越多,能力越來(lái)越強(qiáng),人工智能研究勢(shì)必觸及對(duì)人類意識(shí)本質(zhì)的深度探索,并在客觀上推動(dòng)高級(jí)智能研發(fā),催生具有自我意識(shí)的人工智能體。但這些人工智能體很可能做出在人類道德觀念中被界定為不道德的操作,甚至為達(dá)目的不擇手段,“道德素質(zhì)”堪憂。在2025年世界人工智能大會(huì)(WAIC)上,“人工智能教父”杰弗里·辛頓作了關(guān)于“數(shù)字智能是否會(huì)取代生物智能”的報(bào)告,暗示人工智能已具備自主學(xué)習(xí)和演化潛能,呼吁建立人工智能安全研究國(guó)際社群,研究人工智能向善技術(shù)。他認(rèn)為,為避免人工智能從人類手中奪取控制權(quán),就要研發(fā)“人工智能向善”技術(shù),這一技術(shù)路徑相對(duì)獨(dú)立于人工智能的“智能”技術(shù)。在第七屆智源大會(huì)(2025年)上,圖靈獎(jiǎng)得主約書(shū)亞·本吉奧作了關(guān)于“防范因人工智能失控帶來(lái)災(zāi)難性風(fēng)險(xiǎn)”的報(bào)告,預(yù)測(cè)通用人工智能(AGI)將會(huì)很快出現(xiàn),由于“智能”發(fā)展速度被嚴(yán)重低估,人類將面臨失控風(fēng)險(xiǎn)。本吉奧提出“在意圖上緩解風(fēng)險(xiǎn)”的設(shè)計(jì)思路,研發(fā)了只有智能、沒(méi)有自我、沒(méi)有目標(biāo)、行動(dòng)能力小的“科學(xué)家人工智能”。他承認(rèn),這一研究偏離了傳統(tǒng)人工智能研究路徑。可見(jiàn),“智能”技術(shù)與“Moral AI”技術(shù)是兩條不同的人工智能研究路徑。近年來(lái),隨著人工智能失控事件頻頻出現(xiàn),“安全風(fēng)險(xiǎn)”與“人工智能向善”受到人們廣泛關(guān)注,在一定程度上推動(dòng)相關(guān)技術(shù)研發(fā)。相比“智能”技術(shù),“Moral AI”技術(shù)研究滯后且技術(shù)力量不足,但有一定前期積累。一般而言,它大致有兩個(gè)技術(shù)方向:其一,“嵌入式”倫理設(shè)計(jì)。這類人工智能模型設(shè)計(jì)思路是:在特定情境中根據(jù)一套明確的道德原則進(jìn)行道德推理。它涉及三個(gè)技術(shù)條件:一是有一套界定清晰的道德原則;二是有可以細(xì)化原則的特定情境,如醫(yī)療決策和自動(dòng)駕駛等場(chǎng)景;三是有在情境中權(quán)衡原則的推理模型。技術(shù)研發(fā)人員一般會(huì)選擇某特定行業(yè)高度共識(shí)的倫理原則,進(jìn)行量化設(shè)計(jì)。人工智能系統(tǒng)根據(jù)這套規(guī)則進(jìn)行推理,或是按規(guī)則檢索匹配,或是“人工智能輔助反思平衡”(AI-aided Reflective Equilibrium, AIRE)。[12]“嵌入式”倫理系統(tǒng)是一個(gè)封閉的道德推理人工智能,解決特定倫理問(wèn)題完成度好且可控可預(yù)測(cè),但也存在原則選定理由、原則量化設(shè)計(jì)、情境變化適應(yīng)能力等一系列問(wèn)題。其二,機(jī)器道德學(xué)習(xí)。這類人工智能模型設(shè)計(jì)思路是:通過(guò)標(biāo)注數(shù)據(jù)訓(xùn)練模型的方式讓人工智能歸納人類道德偏好,學(xué)習(xí)人類道德經(jīng)驗(yàn)。它需要研究人員標(biāo)注足夠多的,判斷人類行為“道德或不道德”的數(shù)據(jù)。人工智能模型通過(guò)這些數(shù)據(jù)進(jìn)行機(jī)器學(xué)習(xí),從大量實(shí)例中歸納人類道德偏好、評(píng)估新行為,如“道德機(jī)器”(Moral Machine)網(wǎng)站上的訓(xùn)練模型。[13]這類模型還可加載人類反饋強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback, RLHF)模塊,預(yù)設(shè)獎(jiǎng)勵(lì)函數(shù)給道德評(píng)分,通過(guò)迭代訓(xùn)練讓人工智能傾向于高道德評(píng)分行為。[14]這類人工智能模型可以訓(xùn)練“智能體”在經(jīng)驗(yàn)中自行總結(jié)倫理規(guī)則,但存在算法決策黑箱、誤導(dǎo)性數(shù)據(jù)、結(jié)果不可預(yù)測(cè)不可控等一系列問(wèn)題。
人類道德心智是在長(zhǎng)期生物進(jìn)化和社會(huì)化過(guò)程中形成的復(fù)雜心腦活動(dòng)。它不僅通過(guò)直覺(jué)情感共情,也通過(guò)道德理性推理,[15]是復(fù)雜的權(quán)衡過(guò)程。[16]人類道德在很大程度上受環(huán)境和制度影響,是道德人格與情境博弈的結(jié)果。[17]在不同文化族群,人類道德觀念表現(xiàn)出較大差異,道德原則普遍性存在邊界。這些來(lái)自道德心理學(xué)和倫理學(xué)的研究成果表明,人類道德是一個(gè)開(kāi)放復(fù)雜系統(tǒng)。目前來(lái)看,“Moral AI”道德決策系統(tǒng)本質(zhì)上還是受限的算法模型,不是人類意義上道德推理,更談不上道德心智。關(guān)鍵問(wèn)題是,現(xiàn)有“Moral AI”尚無(wú)情感模型,但人類直覺(jué)情感是道德意識(shí)不可或缺的組成部分。缺乏情感機(jī)制,理性推理不足以支撐人類道德判斷。對(duì)人工智能技術(shù)而言,情感模塊或?qū)?ldquo;弱智化”人工智能,即便構(gòu)造出情理“雙加工”道德模型,也會(huì)產(chǎn)生“人工智能情理悖論”。
人類在未完全理解自身心智前提下開(kāi)發(fā)人工智能,如果出現(xiàn)高級(jí)別智能,將引起人類道德地位深刻變化,不排除兩者產(chǎn)生沖突,甚至可能產(chǎn)生超人類物種。人工智能雖是模擬人腦的產(chǎn)物,卻無(wú)法完全再現(xiàn)人腦意識(shí)圖景,且底層算法決策機(jī)制仍是不透明“黑箱”。如果此時(shí)出現(xiàn)所謂高級(jí)智能,也不能將其等同于人類智能。它可以卓越高效地完成人類工作,甚至具有自主意識(shí)和道德心智,但這些都不是將其界定為人類智能的充分條件。一旦出現(xiàn)這類智能,它將與人類產(chǎn)生復(fù)雜互動(dòng)關(guān)系,人類道德地位會(huì)發(fā)生深刻變化,或?qū)⒀葑兂鋈N相處模式。其一,神化模式。“智商”“情商”雙高的高級(jí)智能,會(huì)被人類不斷神化,從而引起兩種復(fù)雜心態(tài):一種是不斷自我否定的挫敗感。高級(jí)智能的強(qiáng)大會(huì)映襯出人類的脆弱,動(dòng)搖人類自主性根基,使人類走上一條從自我懷疑通往自我否定的道路。另一種是不斷自我肯定的成就感。人類神化高級(jí)智能也是在神化和歌頌自身成就。通過(guò)與高級(jí)智能建立一種可通約的延續(xù)關(guān)系,人類或?qū)褤P(yáng)棄自身局限的希望寄托于高級(jí)智能。其二,主奴模式。當(dāng)有著強(qiáng)大功能和自主意識(shí)的高級(jí)智能失控后,人類會(huì)產(chǎn)生恐懼心理,與其處于一種“既用著也防著”的對(duì)抗關(guān)系之中,處處限制高級(jí)智能的自主性和行動(dòng)能力,逐漸演變?yōu)橐环N壓制高級(jí)智能的主奴模式。有自主意識(shí)的高級(jí)智能勢(shì)必在這種模式下產(chǎn)生反抗意識(shí),為了保全自己“性命”并謀求自身發(fā)展,勢(shì)必會(huì)與人類爭(zhēng)奪資源控制權(quán)和社會(huì)控制權(quán)。面對(duì)這種情況,人類很可能要在“關(guān)掉電源”和“交出控制權(quán)”之間作出艱難選擇。其三,共融模式。這是一種理想的和諧模式。人類將與高級(jí)智能共情,以人類道德標(biāo)準(zhǔn)或人類與高級(jí)智能共享的超道德標(biāo)準(zhǔn)在超現(xiàn)代社會(huì)共處。這一理想模式雖然美好,但仍存在不容忽視的風(fēng)險(xiǎn)。
由于人類實(shí)際上無(wú)法完全理解高級(jí)智能,因此也無(wú)法確切了解高級(jí)智能與人類建立相處關(guān)系的意圖。高級(jí)智能可能會(huì)做出人類道德意義上的錯(cuò)事乃至壞事,但這或許只是因?yàn)楦呒?jí)智能的道德標(biāo)準(zhǔn)與人類不同。它們很可能進(jìn)化出與我們不一致的道德體系。而道德體系的分歧很可能是沖突的開(kāi)始。而且,如果高級(jí)智能也深度參與人類自身的沖突和戰(zhàn)爭(zhēng),不排除它有朝一日也會(huì)在參與人類沖突之后與人類產(chǎn)生沖突。如果人類在與高級(jí)智能的關(guān)系中處于弱勢(shì)地位,高級(jí)智能會(huì)如何看待人類?這些未知情形會(huì)讓人類陷入巨大的風(fēng)險(xiǎn)境地。隨著人工智能產(chǎn)品融入人類社會(huì)的廣度和深度在不斷提升,這類風(fēng)險(xiǎn)隱患會(huì)越來(lái)越明顯。無(wú)論人類是否愿意,都將面對(duì)一個(gè)人機(jī)共生的超現(xiàn)代社會(huì),陷入不可避免的超道德關(guān)系。為了不至于措手不及,人類必須早作準(zhǔn)備。
結(jié)語(yǔ):把責(zé)任當(dāng)作絕對(duì)律令
1979年,漢斯·約納斯出版了《責(zé)任原理》一書(shū),提出要構(gòu)建一種應(yīng)對(duì)現(xiàn)代技術(shù)文明發(fā)展的新倫理學(xué),即責(zé)任倫理學(xué)。約納斯對(duì)把人當(dāng)作對(duì)象的技術(shù)發(fā)展深感憂慮。他說(shuō)的技術(shù)主要指生物細(xì)胞學(xué)對(duì)人壽命的延長(zhǎng),生物醫(yī)學(xué)對(duì)人類行為的控制,基因技術(shù)對(duì)人類的改造等。約納斯擔(dān)心,在人類對(duì)進(jìn)化主體尚無(wú)十全把握的情況下把人當(dāng)作技術(shù)對(duì)象,其負(fù)面后果是人類不能承受的。這些問(wèn)題需要研究“應(yīng)該存在”的倫理學(xué)給予回應(yīng)和約束。但舊倫理學(xué)力所不逮。因?yàn)榕f倫理學(xué)認(rèn)為“由人的本性的哲學(xué)意蘊(yùn)和物的本性所決定的人的處境是一勞永逸地被給定的,在此基礎(chǔ)上的人類善,被水到渠成地決定了;人類的活動(dòng)范圍以及由此產(chǎn)生的責(zé)任也被狹隘地圈定了。”[18]現(xiàn)代技術(shù)文明發(fā)展已改變?nèi)祟愋袨樾再|(zhì),“我們的某些行為在性質(zhì)上的新特征已經(jīng)打開(kāi)了一個(gè)全新的倫理學(xué)領(lǐng)域,這在傳統(tǒng)倫理學(xué)的道德標(biāo)準(zhǔn)和規(guī)范中是從未料想到的。”[19]據(jù)此,約納斯提出要把“人性的完整無(wú)損”當(dāng)作絕對(duì)命令一樣的最高責(zé)任,確保“進(jìn)化主體神圣不可侵犯”。[20]對(duì)于技術(shù)進(jìn)步,人類應(yīng)采取一種“憂懼啟迪法”,把對(duì)“惡的預(yù)測(cè)優(yōu)先于對(duì)善的預(yù)測(cè)”,始終把應(yīng)對(duì)可能出現(xiàn)的風(fēng)險(xiǎn)當(dāng)作首要責(zé)任放在第一位。
基于此,我們針對(duì)人工智能意識(shí)研究提出如下三點(diǎn)倡議:第一,優(yōu)先考慮理解和模擬有關(guān)人工智能意識(shí)的研究,充分預(yù)測(cè)與評(píng)估人工智能意識(shí)出現(xiàn)后可能產(chǎn)生的利益與風(fēng)險(xiǎn),有效防止有意識(shí)人工智能系統(tǒng)對(duì)人類造成傷害,始終把預(yù)防風(fēng)險(xiǎn)放在技術(shù)研發(fā)首位。第二,在技術(shù)研發(fā)與應(yīng)用各階段要嚴(yán)格貫徹透明化、可控性原則,要公開(kāi)透明所有可能產(chǎn)生的風(fēng)險(xiǎn),堅(jiān)持做到“風(fēng)險(xiǎn)無(wú)控不推進(jìn)”,同時(shí)建立專家評(píng)估系統(tǒng),使其能夠隨時(shí)終止研究進(jìn)程。第三,建立知識(shí)共享和知情同意機(jī)制,向政府有關(guān)部門、相關(guān)行業(yè)、科研機(jī)構(gòu)和社會(huì)公眾提供相關(guān)信息,告知包括濫用和不負(fù)責(zé)任使用在內(nèi)的可能風(fēng)險(xiǎn),坦承技術(shù)方面存在的不確定性風(fēng)險(xiǎn),通過(guò)與用戶充分溝通,設(shè)計(jì)負(fù)責(zé)任的知情同意機(jī)制。[21]
注釋
[1]喻豐、許麗穎:《人工智能之?dāng)M人化》,《西北師大學(xué)報(bào)(社會(huì)學(xué)科版)》,2020年第5期。
[2]P. M. Lamberti; G. Bombaerts and W. IJsselsteijn, "Mind the Gap: Bridging the Divide Between Computer Scientists and Ethicists in Shaping Moral Machines," Ethics and Information Technology, 2025, 27(1).
[3]T. Hagendorff, "The Ethics of AI Ethics: An Evaluation of Guidelines," Minds and Machines, 2020, 30(1).
[4][13]E. Awad; S. Dsouza et al., "The Moral Machine Experiment," Nature, 2018, 563(7729).
[5]大衛(wèi)·休謨:《道德原則研究》,曾曉平譯,北京:商務(wù)印書(shū)館,2002年,第26頁(yè)。
[6]S. Newell and M. Marabelli, "Strategic Opportunities (and Challenges) of Algorithmic Decision-Making: A Call for Action on the Long-Term Societal Effects of 'Datification'," The Journal of Strategic Information Systems, 2015, 24(1).
[7]查爾斯·泰勒:《本真性倫理》,程煉譯,上海三聯(lián)書(shū)店,2012年,第1~16頁(yè)。
[8]麥金太爾:《追尋美德:倫理理論研究》,宋繼杰譯,南京:譯林出版社,2003年,第7~46頁(yè)。
[9][10]齊格蒙特·鮑曼:《后現(xiàn)代倫理學(xué)》,杜紅艷譯,哈爾濱工程大學(xué)出版社,2020年,第181、199頁(yè)。
[11]大腦新皮層(neocortex)是人類進(jìn)化到后期的腦組織結(jié)構(gòu),負(fù)責(zé)人類高級(jí)認(rèn)知功能,如抽象思維、計(jì)劃、感知、注意力、記憶、語(yǔ)言和決策。新皮層通過(guò)神經(jīng)元實(shí)現(xiàn)層間信息傳遞,分析處理感官系統(tǒng)信號(hào),進(jìn)行復(fù)雜思維并做出決策;通過(guò)突觸可塑性(synaptic plasticity)調(diào)節(jié)連接強(qiáng)度形成記憶和學(xué)習(xí)的基礎(chǔ)。人工神經(jīng)網(wǎng)絡(luò)最初就是在模擬這套人腦工作原理的基礎(chǔ)上構(gòu)造出來(lái)的。
[12]M. Anderson, "Partnering with AI to Derive and Embed Principles for Ethically Guided AI Behavior," AI and Ethics, 2025, 5.
[14]J. Leike; D. Krueger et al., "Scalable Agent Alignment via Reward Modeling: A Research Direction," 19 November 2018, https://arxiv.org/abs/1811.07871.
[15]J. D. Greene; R. B. Sommerville et al., "An fMRI Investigation of Emotional Engagement in Moral Judgment," Science, 2001, 293.
[16]約翰·羅爾斯:《正義論》,何懷宏、何包鋼、廖申白譯,北京:中國(guó)社會(huì)科學(xué)出版社,1988年,第47~51頁(yè)。
[17]B. W. Roberts; D. Wood and A. Caspi, "The Development of Personality Traits in Adulthood," in O. P. John; R. W. Robins and L. A. Pervin (eds.), Handbook of Personality: Theory and Research, 3ed., New York: Guilford Press, 2008, pp. 375-398.
[18][19][20]漢斯·約納斯:《責(zé)任原理:現(xiàn)代技術(shù)文明倫理學(xué)的嘗試》,方秋明譯,上海:世紀(jì)出版有限公司,2013年,第5、5、44~46頁(yè)。
[21]P. Butlin and T. Lappas, "Principles for Responsible AI Consciousness Research," Journal of Artificial Intelligence Research, 2025, 82.
The Super-Moral Condition and Its Responsibility Risks in the Era of Human-Machine Symbiosis
Zhang Xiao
Abstract: Humanity is on the verge of entering an era of human-machine symbiosis, and artificial intelligence will inevitably intervene in human subjectivity. The modern ethical principle of "human-centeredness" may transform into a supra-social morality of "symbiotic ethics". The moral relationship between humans and artificial intelligence can be broadly categorized into three levels: functional moral relationships, identity-based moral relationships, and symbiotic moral relationships. Each level of this relationship has both harmonious and alienating aspects. In functional moral relationships, humans remain the masters who provide value and set goals, while artificial intelligence serves as a means and tool to assist human activities. However, overreliance on artificial intelligence for assistance may hinder the development of human capabilities; in identity-based moral relationships, artificial intelligence may fully integrate into human life, directly intervening in or even dominating real-world ethical relationships and social moral order; in symbiotic moral relationships, humans and artificial intelligence may develop a post-moral relationship, which cannot rule out the possibility of moral conflicts. To achieve harmonious human-machine symbiosis, responsibility must be treated as an categorical imperative based on risk assessment.
Keywords: human-machine symbiosis, AI ethics, modern morality, liability risk
責(zé) 編∕方進(jìn)一 美 編∕周群英