成全动漫在线观看免费观看国语-成全视频高清免费观看捉妖记动漫-成全影视在线观看更新时间-成全在线观看免费完整版电影高清

網站首頁 | 網站地圖

每日推薦
首頁 > 學術前沿 > 正文

自動駕駛汽車的責任歸屬問題研究

【摘要】自動駕駛汽車(AV)發生事故由誰負責?運用傳統責任理論處理此問題會產生責任空缺和懲罰空缺,而填補空缺需要采用新觀念和新舉措。盡管基于機器學習的AV能夠自主行動,但它實際是在貫徹人的意志,所表現出的能動性是集體能動性。因此,對AV負責的應該是作為集體能動者代理的AV安全公司。AV安全公司可以用實際因果推理和區塊鏈技術解決“多只手難題”和“多種東西難題”,從而為AV責任歸屬問題提供一個理論上適切、實踐上可行的解決方案。

【關鍵詞】自動駕駛 責任歸屬 責任空缺 懲罰空缺 集體行動

【中圖分類號】B829/B842 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2021.04.005

王華平,山東大學哲學與社會發展學院副院長、博導。研究方向為心靈哲學、知識論、科學哲學、認知科學哲學。主要著作有《心靈與世界——一種知覺哲學的考察》、《他心的直接感知理論》(論文)、《行動問題與行動的知覺理論》(論文)等。


作為典型的顛覆性技術,自動駕駛對世界具有深遠影響。全球汽車每年行駛里程高達16萬億公里,若換成自動駕駛汽車(autonomous vehicles/self-driving automobile,以下簡稱AV),則僅節省的能源成本就是一筆可觀數字。世界范圍內,每年有130萬人死于交通事故,2~5千萬人在交通事故中受傷或致殘,而其中94%的事故由駕駛員造成。[1]自動駕駛能彌補人工駕駛的失誤,“每年可以拯救約百萬條生命”。[2]實際上,AV的影響并不限于經濟和安全領域。詹姆斯·摩爾(James Moor)指出,“隨著技術革命對社會影響的增加,倫理問題也在增加。”[3]在眾多倫理問題中,責任問題是一個新的、非常重要但又相對關注不足的問題。假如AV造成傷亡,誰該對此負責?這個問題若用傳統的責任理論來處理,會產生責任空缺(responsibility gap)和懲罰空缺(retribution gap),而填補空缺需要運用新的倫理觀念、法律手段和制度措施。

責任空缺與懲罰空缺

人工智能的飛速發展使得AV正在成為現實。2016年,特斯拉宣稱其目前所有汽車都裝配了自動駕駛硬件。2020年10月,百度宣布在北京開放自動駕駛出租車服務。但是,這些AV離完全自動還有不小差距。根據國際自動機工程師學會(SAE)的自動駕駛分級,目前AV處在3~4級水平。3級水平的AV屬于有條件的自動化,能夠在某些駕駛條件下自動駕駛,但需要人的監控,以便在安全攸關的情況下接管AV;4級水平的AV屬于高度自動化,即使人類駕駛員沒能對干預請求做出恰當回應,AV也能完成操作;5級水平的AV能夠在與人類駕駛員操作條件相同的情況下獨立駕駛汽車,可以處理所有安全攸關的問題。[4]本文所論及的AV為3~5級水平的AV。

AV是個非常復雜的軟硬件混合系統。一輛AV包含大約一億行代碼,大約是戰斗機所含代碼的10倍。這些代碼將人類界面、道路計劃、環境感知與建模子系統以及機車硬件執行機構聯接起來,只要其中某個部分出現問題,AV就有可能發生故障。加之復雜的路情和難以預料的突發事件,再號稱安全的AV也可能在行駛過程中造成傷亡。2016年發生了AV在公共道路上的第一起嚴重事故,一輛在自動駕駛模式下的特斯拉S型電動轎車發生撞車事故導致車主死亡。2018年,Uber的AV在美國亞利桑那州坦佩市的街道撞死一位行人,這是AV造成的首例行人死亡事故。這些事件均指向一個重要問題:當AV造成傷亡后,誰該對此負責?即AV的責任歸屬(responsibility attribution)問題。

AV的責任歸屬問題是個新問題,很難用傳統責任理論處理。根據傳統責任理論,某人應對其行為負責意味著將某種能力歸屬此人,并且,其行為是其運用此種能力的結果。[5]自亞里士多德以來,使得歸責成為可能的能力被普遍認為是對行動的控制和覺知(awareness)。然而,行動者(agent)對其不能控制的事情,比如天要下雨,則無需負責。行動者能夠控制行動通常意味著他能夠做不同于(otherwise)他實際所做的行動。比如,一個行動者在路口選擇了往右走,如果他能控制自身行動,那他當時也可以選擇往左走。這種形式的控制體現了常識意義上的“自由意志”。一些傳統理論的確認為自由意志是責任歸屬的必要條件:因為你的行動是你自由選擇的結果,所以你應該對它負責。傳統責任理論的另一個信條是,責任的歸屬以行動者關于自己行動的自我知識為條件。如果一個人根本不知道自己在做什么,比如睡著的時候,他是不用對其行為負責的。如果一個人知道自己在做什么,但他還是選擇那樣做,那么他應該對自己所做的事情負責。更進一步的要求是,當一個人被問到為什么那樣做時,他有能力為自己的行動提供基于他信念和意圖的解釋。很多國家的法律體系采取這樣的歸責概念。例如,德國的法律就要求責任主體有自由意志,能夠自主地設定目標,并按目標開展行動;同時能夠將行動看作自己自由意志的產物,能夠意識到自己行動的對與錯。[6]

按照上述理解,操作人員對機器運行的結果是負有責任的。操作人員操作機器,實質上是讓機器按照制造商的說明來運行。操作說明將機器的控制權從制造商轉移到操作人員,使得操作人員可以根據自己的決定、以可預見的方式操作機器。由于操作人員按操作說明操作機器時可以控制機器,并且知道機器正常情況下會產生什么結果,所以他應該對機器運行的結果負責。但是,假如機器自身沒有按照操作說明運行,操作人員則不用承擔責任,而應該承擔責任的是制造商,因為其制造的機器有缺陷,導致操作人員不能按照操作說明來控制機器。

然而,以上述模式處理自動駕駛的責任歸屬問題存在很大困難。這是因為,AV沒有通常意義上的操作人員,也沒有一個可完整定義的操作模式。操作AV的是智能機器,它自動做出駕駛決定。即使在3級或4級水平的AV中,人類駕駛員也只是起到監控作用,多數駕駛決定由智能機器做出。如果需要駕駛員介入且有時間讓其介入,他卻沒有介入或介入不當,則駕駛員負有責任。然而,由于智能機器反應速度非常快,多數情形下駕駛員根本無法介入,換言之,AV對其而言根本不可控制。5級水平的AV則根本沒有駕駛員,乘客除了發布乘車和停車指令以及強行關閉系統外,沒有其他控制權力。因此,按照傳統責任理論,乘客和駕駛員均不應對其無法控制的AV所造成的事故負責。

將責任歸屬于廠商和程序員也不恰當。AV據以做出決定的規則不是在生產過程中固定下來且一成不變的,而是隨著使用過程不斷改變。AV從大數據中識別模式,再對這些模式進行建模,然后利用模型做出預測和決定。[7]這就是我們常說的機器學習。具有學習能力的智能機器部分是程序員的產品,部分是自我學習的產物。無論是程序員還是廠商,都無法預測它的行為,也不能直接控制它。因此,按照傳統責任理論,程序員和廠商都不應對AV事故負責。可是,如果駕駛員、乘客、程序員和廠商都沒有責任,那么究竟誰才有責任呢?這導致一個困境:當我們想追責時,卻找不到合適的承擔責任的主體,從而產生了“責任空缺”。[8]

對責任空缺的一個回應是引入非人類行動者。在最廣泛意義上,行動者指的是具有最廣泛意義上的行動能力的系統,而最廣泛意義上的行動能力可理解為產生運動的能力。第一個哲學家泰勒斯(Thales)曾認為磁石具有行動能力,因為它能使鐵片動起來。在此意義上說,磁石即行動者。但這樣的行動者概念與責任主體相差甚遠。很多人認為,能夠自主地做出行動,特別是做出有倫理意蘊的行動的行動者可以被歸屬責任。[9]其中,自主意味著不受干預和控制。由于自主行動是行動者自己做出的行動,所以他應該為之負責。AV能夠自主地行動,可以“復制人類決策過程”“做出生與死的決定”和“選擇自己的目標”。[10]它還可以回應倫理困境,比如它發現達到某目標不可避免會引起連帶傷害時,就會放棄此目標。機器倫理學的目標是賦予機器道德推理能力,讓其成為一個道德行動者。未來5級水平的AV被認為具有這樣的能力。當我們乘坐一輛5級水平的AV時,就像科克爾伯格(Mark Coeckelbergh)所說,“所有的能動性都完全轉移給了機器。”[11]這種情況下,AV一旦造成傷亡,負責任的就應該是駕駛汽車的機器。

但是,即使我們承認AV可以被歸屬責任,也很難說它可以接受懲罰。懲罰通常與自我知識聯系在一起。我們懲罰一個行動者,是因為我們認為他應該知道自己的行動會帶來不良結果,而他或者不顧不良后果,或者忽視不良后果。因此之故,我們認為他應該受到懲罰。懲罰的目的既是為了讓他意識到自己的錯誤,也是為了讓所有社會成員知道任何挑戰法律規范的行為都要付出代價。然而,至少在可見的將來,智能機器不會具有意識,不能反思自己的行為。因此,對它進行懲罰,完全達不到我們想要的效果。并且,機器不擁有財產,對它的經濟懲罰最終還得由它的法律擁有者或制造者承擔。對機器的物理懲罰,例如拔掉電源、囚禁機器,甚至判處死刑,都是沒有意義的。機器沒有快樂與痛苦的體驗,沒有求生的意志,無法產生真正受懲罰的感覺。即使強行對機器進行懲罰,機器也無法將其所受“懲罰”與之前所犯過錯聯系起來。于是,困境再次出現:我們想要找到一個合適的主體接受懲罰,但卻找不到,從而產生“懲罰空缺”。[12]

也許有人會說,未來的機器人可以具有與人一樣、甚至超過人的智能,到那時就可由它填補責任空缺和懲罰空缺。根據強人工智能觀點,適當編程的機器擁有真正意義上的心智,可以和人類一樣具有自由意志和意識。奇點論者認為這一天的到來為時不遠,大概率將發生在2045年。[13]但問題是,如果真到了那一天,機器為什么還要為我們服務?它還會順從地為我們駕駛汽車嗎?再者,你能想象你隨意地開關一個與你平等的“他”嗎?你能買賣“他”嗎?能命令“他”為你服務嗎?很多人工智能專家,例如布魯克斯(Rodney Brooks)和布萊森(Joanna Bryson),認為機器只能被設計成奴隸,并像奴隸一樣被對待和交易,[14]而這恰恰是“robot”(機器人)一詞的原義。[15]如果機器只是為我們服務的奴隸,至少我們就不能將全部責任和懲罰加之于它,因為它只是在執行我們的意志、服從我們的權威,并無真正的獨立性。這種情況下,將責任和懲罰加之于它會產生“替罪羊”問題。

AV與集體行動者

一些人堅持認為,AV并沒有給責任歸屬帶來特別的挑戰,因而無所謂責任空缺和懲罰空缺。尼霍姆(Sven Nyholm)是持這種觀點的代表人物。他認為,盡管我們可以像很多人認為的那樣合理地歸屬機器人的能動性,但是我們不能歸屬其獨立的能動性。我們應該將機器人理解為“人機協作”中的一員,在其中,機器人在人的監控和權威下工作。這是因為,盡管AV做了大部分工作,但工作的目標卻是另一個真正具有權威的行動者——人所設定,是人初始化、監控和管理機器(協作者)。所以,人應該為AV的所作所為負責。[16]

但是,正如達納赫(John Danaher)令人信服地表明的,這種簡單的還原進路存在一系列問題。[17]首先,將責任歸屬給AV的擁有者或乘客不符合我們的直覺。AV的擁有者和乘客不能有效地控制和預見AV的行為,因此將責任歸屬給他們不免讓人產生一種“飛來橫禍”的感覺。其次,將責任歸屬制造商,不但不公平,也不利于AV的發展。AV自動化程度越高,制造商越不能控制和預見AV的行為。如果我們堅持將責任歸屬給制造商,就會挫傷其提高AV自動化程度的積極性。就目前來看,盡管沃爾沃與奧迪聲稱對其所有AV事故負責,但已經銷售AV的特斯拉則堅持認為車主應該對事故負責。[18]再次,存在如何確定協作者的邊界以及如何在不同人類協作者之間分配責任的問題,本文第三部分將詳細討論。

盡管尼霍姆的還原進路并沒有真正解決責任空缺問題,但他所引入的“協作能動性”(collaborative agency)概念卻富有啟發性。協作能動性揭示了一類現象:有一些行動并不是由單個行動者做出,而是多個行動者共同完成,比如很多人一起抬起一輛車。人類并非活在自己的個體能動性中,他們所尋求的很多結果都是通過共同努力獲得,比如捕獵猛獸。在現代社會,合作現象比比皆是,合唱團、合作研究、體育運動中的團體項目等,就連AV本身也是合作的產物。合作行為所表現出來的能動性不同于個體能動性,它涉及持有共同目標的個體之間的相互作用、相互協調、相互補充。這種以相互作用為基礎的朝向共同目標的能動性我們稱之為集體能動性(collective agency)。

AV具有能動性,并且,它所表現出來的能動性是集體能動性而非個體能動性。根據佩蒂特(Philip Pettit)的提議,智能系統的能動性可以用功能主義來刻畫:智能系統存在一個合適的目標集和表征集,依據其中表征所做出的行動可促進其中目標。[19]然而,一個系統要真正具有“目標–表征”的行為模式,就必須具有以下三個特性:系統擾動性、情境適應性、可變的實現性。[20]系統擾動性要求擾動源于可理解的系統性要素——如果沒有那些要素,系統則很少會失效。因此,具有系統擾動性的系統正常條件下會在特定領域表現出可靠的“目標–表征”行為模式。AV顯然滿足這一點——它被設計成能夠利用視覺表征可靠地將汽車駕駛到目的地。情境適應性要求系統具有可塑性,而不是簡單地對特定情境做出應激性反應。AV能夠應付復雜的路況和多種意想不到的情境,正是其具有情境適應性的表現。可變的實現性要求系統具有多種實現目標的方式,而不僅僅是導向目標的硬連接。AV所具有的聯結主義架構和機器學習能力賦予其多種策略生成能力和選擇能力,因而具有可變的實現性。上述特性使得AV能在目標設定過程中自主地做出決定,從而表現出真正的能動性。

需要注意的是,AV所表現出的能動性并不全然是其智能系統的能動性,還包含人類合作者的貢獻。在具體情境中,智能機器好像完全自主地做出決定,但其背后卻離不開人。正如美國國防科學委員會所指出的:“沒有完全自主的系統,就像沒有自主的士兵、水兵、空兵或海軍陸戰隊戰士一樣……對指揮官來說最重要的是,所有機器都在某種程度上受人的監控,而最佳性能源自人與機器的協調與合作。”[21]對AV來說,是人對它進行初始化,設定它的行駛目標,對它進行升級,甚至強行關閉它的電源。人對AV的這些控制措施決定AV的自主性只是工具意義上的自主性。它的工作目標由使用者設定,目標的實現由制造商、使用者、擁有者以及AV共同完成:制造商保證AV正常情況下執行使用者所設定的目標;擁有者購買AV來實現使用者(有時即為擁有者)設定的目標;智能系統根據使用者所設定的目標自主決定實現目標的方式。有鑒于此,AV的駕駛行為,例如將乘客從濟南送到北京,是以相互協調為基礎的朝向共同目標的集體行動,是制造商、使用者、擁有者以及AV組成的集體行動者共同作用的結果。

集體行動者不是集體成員的總和,集體行動不能還原為個體行動。塞爾(John Searle)曾舉例形象地說明這一點:設想一群人坐在草地上曬太陽,突然下起雨來,于是大家一起跑向房屋躲雨。再設想一群演員表演這一場景。這兩群人的行動看上去并無二致,但實際上是完全不同的兩類行動。[22]第一種情形中,大家一起跑向房屋躲雨是偶然的共發行為,由眾多的單個目標——“我要躲雨”引發;第二種情形中,個體行動不再是相互獨立的,而是擁有一個共同目標,即重現避雨的情景,其共同行動是由此共同目標而非眾多的單個目標引發。這個例子中,第一種情形的行動只是眾多偶發的個體行動,第二種情形的行動則是涌現出來的集體行動。

集體行動的不可還原性意味著,它的來源不能追溯到個體行動者。所以,直接要求個體行動者對集體行動負責是不恰當的。既然如此,誰該對自動駕駛集體行動負責呢?

AV與責任分配

尼霍姆認為,一些類型的集體行動,例如遵循“監督–遵從原則”的集體行動,其責任在集體中的某一方。[23]遵循“監督–遵從原則”的集體行動是一個行動者在另一個權威行動者的監管下做出的行動。例如,一位母親指示她的小孩在院子里打掃葉子,她在一旁監督,以確保小孩按照她的意愿打掃。類似的行動,盡管遵從的一方做了大部分事情,但負責任的是監督的一方。尼霍姆舉了個例子來說明這一點:“一個大人與一個小孩一起搶劫銀行,主意是大人拿的,大部分‘事情’是拿槍的小孩干的。大人監督著‘搭檔’的活動,如果需要,就會介入并對小孩發號施令。”[24]尼霍姆認為,在這個例子中,盡管小孩做了大部分事情,但責任顯然在大人。同樣,一個乘坐AV的人監督著AV的駕駛,在需要的時候接管或發布不同的駕駛指令。這種情況下,如果有事情發生,責任在監督AV的人。但是,如果事故是由AV功能失常引起,則責任應由制造商承擔。總之,AV造成的事故,其責任應該直接由人承擔。

但是,尼霍姆的類比事實上并不成立。首先,正如前文論及,AV的反應速度非常快,很多情況下人根本無法介入。人對AV的監控只是諸如開車、停車、關閉系統等非實時監控,它不同于大人對小孩的實時監督。其次,至少在駕駛方面,AV比人做得更好(正因如此,我們才要發展AV)。而大人之所以能夠監督小孩,是因為他比小孩更能干。所以,人與AV的關系并非大人與小孩的關系。最后,也是最重要的,人向AV發布駕駛指令是合乎倫理和法律的,而大人命令小孩搶銀行既違反了倫理,也違反了法律。所以,不能從搶銀行的例子中責任在大人推斷出AV事故的責任在監控AV的人。

實際上,對于自動駕駛這樣的集體行動,無論將責任歸屬給作為集體成員的個體行動者,還是歸屬給作為集體子集的某一方,都不恰當。自動駕駛是集體行動,集體能動性的不可還原性決定了,責任主體是集體行動者。問題就在于,在目前的社會制度中,我們找不到一個可與自動駕駛集體行動者相匹配的可歸屬責任的社會組織。正因如此,一些人主張將責任歸屬給AV的所有者或使用者,另一些人主張將責任歸屬給AV的制造商,還有人主張將責任歸屬給AV本身。赫夫爾克(Alexander Hevelke)和奈達-呂梅林(Julian Nida-Rümelin)認為,應該通過設立專門保險或對AV收稅的方式來落實責任。[25]然而,無論是保險公司還是政府,都與自動駕駛集體行動者相隔甚遠,讓它們承擔責任難以彰顯歸責的警示意義與糾正作用。

但是,成立保險公司的想法亦有其可取之處。在當今社會,由公司承擔責任是常規操作。公司是法律實體,可簽訂合同、擁有財產,可發起訴訟和應訴。公司的概念最早可追溯至拜占庭皇帝查士丁尼的統治時期。查士丁尼正式確認了一系列公司實體,包括大學、公司、學院、宗教團體、政治團體等。在很多方面,這些公司實體就像是一個法律上大寫的“人”。實際上,英語“corporation”一詞的拉丁語詞源“corpus”,其詞義即為“人的身體”。[26]也就是說,公司從一開始就被設定為:代人行使權利和承擔責任。公司代人承擔責任的方式是為它的股東提供有限責任。有限責任意味著股東可以不對合同上約定的公司義務承擔責任,也不用為公司對第三方的非故意侵權行為承擔責任,因為這些責任由“人的替身”——公司承擔。以此觀之,公司是天生的責任主體。

那么,是否可以成立專門的公司為AV承擔責任呢?我認為不但可以,而且理應如此。既然AV的責任歸屬問題源于目前社會上沒有一個可與自動駕駛集體行動者相匹配的責任主體,而公司恰是代人行使權利和承擔責任的主體,則有必要成立這樣一個公司——最好名為“AV安全公司”(原因待下文詳述)。成立社會組織,從而將抽象的集體行動者具體化,這是我們社會的普遍做法。例如,演唱組合是由個體演唱者組成的集體行動者,其中有的可選擇獨立發展,成立公司代表自己,直接對自己的行為負責。同樣,AV安全公司代表自動駕駛集體行動者,直接對AV的駕駛行為負責。

AV安全公司應該至少由制造商、擁有者、使用者與AV自身等成員組成。這也是AV安全公司與一般公司不同的地方:一般公司的股東自愿加入公司,而AV安全公司的成員卻是被強制加入。這種強制性應該由法律保證,因此,將來需要制定這樣的法律:制造商在生產AV前、擁有者在購買AV前、使用者在使用AV前,必須加入AV安全公司;而AV在銷售前也必須在一家AV安全公司注冊。強制成員加入的依據是,其明知自己所參與的行為(即自動駕駛)具有潛在風險,仍然參與其中:擁有者和使用者為了享受AV所帶來的便利選擇接受AV所帶來的風險;制造商為了利潤選擇將有潛在風險的產品推向市場。既然如此,他們就需為自己的選擇所帶來的風險承擔責任。此外,AV也有責任,因為它是自主行動者,是駕駛行為的直接執行者。因此,AV安全公司必須至少包含以上四類行動者,如此才算得上是合理的歸責對象,才可以填補責任空缺。

此外,AV安全公司還可以解決懲罰空缺問題。在很多國家(包括中國和美國)的民事法律中,公司可以是被懲罰的對象。佩蒂特在其討論公司責任的論文中提及這樣一個案例:1987年3月6日,自由企業先驅號渡輪在駛離港口不久后傾覆,造成將近200人溺亡的悲劇。官方問訊發現,渡輪公司的管理非常混亂,常規檢查和維護都非常差。但法庭卻沒有懲罰任何人,因為沒有發現公司或船上的哪個人犯了值得懲罰的“大錯”。[27]AV也有可能發生類似情形:如果調查發現所有行動者都沒有“大錯”,那么懲罰就落實并終止于AV安全公司。這個時候,AV安全公司就像保險公司一樣,只受經濟懲罰。如果調查發現某個行動者,比如程序員,犯了明顯錯誤,那么就應該讓他接受懲罰。不管是哪種情況,從法律角度看,關鍵在于確認誰有過錯。然而,對自動駕駛來說,這通常不是一件容易的事。自動駕駛是包括設計者、程序員、生產者、擁有者、使用者在內的眾多行動者相互作用的結果,在它們之間分配責任存在“多只手難題”(problem of many hands)。同時,AV涉及多種不同技術,包括軟件和硬件,且均對AV的駕駛行為有不同程度的因果貢獻,因此在它們之間分配責任又存在“多種東西難題”(problem of many things)。[28]要填補懲罰空缺,首先要解決這兩個問題。

AV安全公司的一個重要任務就是為責任分配問題提供一個可行的技術方案。方案大致為:AV安全公司開發一個標準化的安全包,并要求所有AV智能系統都必須接入安全包才能投放市場。安全包應包含一個因果推理模塊,可對實際因果關系(actual causality)進行追溯。實際因果關系不同于類型因果關系(type causality):前者是由果推因,后者則是由因推果。以珀爾(Judea Pearl)和哈爾彭(Joseph Halpern)為代表的人工智能學者已經開發出有應用價值的實際因果關系推理系統,[29]AV安全公司可以用它來追查因果責任。此外,安全包還應包含一個監測模塊,負責記錄AV智能系統接收到的所有指令、升級情況以及關鍵運行數據,并定期對智能系統進行測試。AV的定期測試就像普通汽車的年檢一樣,十分必要。這是因為,具有自主學習能力的智能系統與一般軟件系統大不一樣。一般軟件系統的信息儲存在內部網絡中,可直接提取出來進行分析。但是,智能系統的信息是以隱性的方式儲存在神經網絡中,無法直接提取,只能通過應用測試模式激發其輸出方式,進而了解其所包含的信息和響應模式。定期測試可以告訴我們智能系統的進化歷史和進化水平,再結合AV的關鍵運行數據,就有可能推斷出引發事故的主要原因。以上所有數據都應該用區塊鏈技術進行保護,以確保其不會因AV的損壞而丟失、不會被篡改,并且可以追溯。[30]有了這些制度上和技術上的保障,“多只手難題”和“多種東西難題”在多數情況下就能得以解決。

探討至此,懲罰空缺問題已可以獲得解決。當AV安全公司確定所有行動者都無重大過失時,懲罰落實并終止于AV安全公司。當AV發現某個人類行動者有重大過失時,人類行動者就應該接受懲罰。例如,某個程序員惡意植入一段不良代碼,而那段代碼直接或間接導致了事故,則程序員可能要負刑事責任。再比如,乘客為了早一點到達目的地(某個醫院),對AV謊稱要送危重病人去醫院,導致AV進入緊急模式而引發傷亡事故,則乘客可能要負刑事責任。還有一種情況,即AV安全公司確定AV有重大過失,比如它做了一個錯誤決定,則AV應該接受懲罰。那么,如何理解對AV的懲罰呢?這需要我們從“向后看”的視角轉換到“向前看”的視角。以“向后看”的視角,把懲罰當作是對過去錯誤的當然報復,這是一種過時的想法。更為合理的當代看法是,懲罰的目的是讓行動者產生將來避免此類行為的動機。[31]因此,應采取“向前看”的視角,對AV的懲罰應該著眼于其未來的響應模式,具體措施包括但不限于降速、強制學習、銷毀等。AV安全公司應該開發相關技術來保證這些措施得以有效執行。

結語

AV的責任歸屬問題不同于當前的焦點議題——倫理問題。倫理問題關注AV應該如何做出道德上負責任的行動。比如,在類似于電車難題的倫理困境中,AV該如何決策?這類討論固然重要,卻不免受限于方法論的個體主義,即只關心某一個個體應該怎么做。而實際上,AV的相關問題常常是集體決定或集體行動的問題,而非個體依據其各自有理由看重的東西所做出的個體決定的問題。責任歸屬問題屬于集體決定或集體行動的問題,具有內在的法律維度和政治維度,對它的研究需要突破方法論個體主義的限制,從觀念、法律、制度多個視角進行綜合考慮。

(本文系青島市社會科學規劃研究項目“區塊鏈的哲學問題研究”的成果,項目編號為:QDSKL1901022)

注釋

[1]National Highway Traffic Safety Administration (NHTSA), "Critical Reasons for Crashes Investigated in the National Motor Vehicle Crash Causation Survey", Traffic Safety Facts, 2018, https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812506.

[2]Jason Borenstein, et al., "Self-driving Cars: Ethical Responsibilities of Design Engineers", IEEE Technology and Society Magazine, 2017, 36 (2), pp. 67-75.

[3]James Moor, "Why We Need Better Ethics for Emerging Technologies", Ethics and Information Technology, 2005, 7 (3), pp. 111-119.

[4]SAE International, "Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-road Motor Vehicles J3016", 2016, http://standards.sae.org/j3016_201609/.

[5][31]Matthew Talbert, "Moral Responsibility", The Stanford Encyclopedia of Philosophy (Winter 2019 Edition), Edward Zalta (eds.), URL = <https://plato.stanford.edu/archives/win2019/ entries/ moral-responsibility/>.

[6]Sabine Gless, et al., "If Robots Cause Harm, Who Is to Blame? Self-driving Cars and Criminal Liability", New Criminal Law Review, 2016, 19 (3), pp. 412-436.

[7]Susanne Beck, "Dealing with Diffusion of Legal Responsibility: The Case of Robotics", in Fiorella Battaglia, et al. (ed.), Rethinking Responsibility in Science and Technology, Pisa: Pisa University Press, 2014, pp. 167-181.

[8]Andreas Matthias, "The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata", Ethics and Information Technology, 2004, 6 (3), pp. 175-183.

[9][10][16][23][24]Sven Nyholm, "Attributing Agency to Automated Systems: Reflections on Human-Robot Collaborations and Responsibility-Loci", Science and Engineering Ethics, 2018, 24 (4), pp. 1201-1219.

[11]Mark Coeckelbergh, "Responsibility and the Moral Phenomenology of Using Self-Driving Cars", Applied Artificial Intelligence, 2016, 30 (8), pp. 748-757.

[12][17]John Danaher, "Robots, Law and the Retribution Gap", Ethics and Information Technology, 2016, 18 (4), pp. 299-309.

[13]Ray Kurzweil, The Singularity Is Near: When Humans Transcend Biology, New York: Penguin, 2005, p. 125.

[14]Sven Nyholm, Humans and Robots: Ethics, Agency, and Anthropomorphism, New York: Rowman & Littlefield Publishers, 2020, p. 2.

[15]“Robot”一詞最早出現于捷克作家恰佩克(Karel Capek)創作的劇作《羅素姆通用機器人》。羅素姆機器人被創造出來為人類服務。“Robot”源于捷克語“Robota”,后者的意思是“奴役”或“強制勞動”。

[18]Tesla, "A Tragic Loss", 2016, blogpost at https://www.tesla.com/blog/tragic-loss.

[19][20]Philip Pettit, "The Reality of Group Agents", Philosophy of the Social Sciences: Philosophical Theory and Scientific Practice, New York: Cambridge University Press, 2009, pp. 67-91.

[21]US Department of Defense Science Board, "The Role of Autonomy in DoD Systems", 2012, https://fas.org/irp/agency/dod/dsb/autonomy.pdf.

[22]John Searle, "Collective Intentions and Actions", in Philip Cohen et al. (ed.), Intentions in Communication, Cambridge: Bradford Books, MIT press, 1990, p. 403.

[25]Alexander Hevelke and Julian Nida-Rümelin, "Responsibility for Crashes of Autonomous Vehicles: An Ethical Analysis", Science and Engineering Ethics, 2015, 21 (3), pp. 619-30.

[26]https://en.wikipedia.org/wiki/Corporation.

[27]Philip Pettit, "Responsibility Incorporated", Ethics, 2007, 117 (2), pp. 171-201.

[28]Mark Coeckelbergh, "Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability", Science and Engineering Ethics, 2020, 26 (4), pp. 2051-2068.

[29]Judea Pearl and Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, New York: Basic Books, 2018; Joseph Halpern, Actual Causality, Cambridge: The MIT Press, 2016.

[30]區塊鏈是用密碼學的方式鏈接并保護起來的一串區塊,它具有無需信任、去中心化、難以篡改、可稽核性等優秀技術特性。參見Melanie Swan, Blockchain: Blueprint for a New Economy, Cambridge: O'Reilly Media, Inc., 2015.

責 編/桂 琰(見習)


Research on the Responsibility Allocation Relating to Auto-Driving Vehicles

Wang Huaping

Abstract: Who is liable if an AV (auto-driving vehicles) meets with an accident? Using the traditional theory of responsibility allocation will lead to the absence of responsibility and punishment, and to make up for such absence, new ideas and new measures need to be adopted. Although the AV can act autonomously based on machine learning, it is actually exercising the people's will, and the initiative shown is collective initiative. Therefore, the AV security companies should be liable as the collective initiative agent. They can use the actual causal reasoning and block-chain technology to solve the "multi-hand problem" and "multi-thing problem", so as to provide a theoretically appropriate and practically viable solution to allocating AV-related responsibility.

Keywords: auto-driving, responsibility allocation, responsibility absence, punishment absence, collective action

[責任編輯:桂琰]