- 民商法論叢(2019年第1期/總第68卷)
- 梁慧星
- 20994字
- 2019-10-18 16:51:06
專題研究
論人工智能的民法定位[1]
景荻[2]
內(nèi)容提要:伴隨大數(shù)據(jù)、計算能力、深度學習等智能科技的迅猛發(fā)展,人工智能時代正在到來。在帶來巨大社會價值的同時,人工智能也引發(fā)了一系列民法挑戰(zhàn),首要的就是準確界定其法律地位。無論是從民事主體的歷史演變來看,還是從人工智能本身的智能特征出發(fā),抑或是從社會發(fā)展的現(xiàn)實需要考量,人工智能都有成為民事主體的可能性與正當性。對于滿足智能、物理載體、登記、資產(chǎn)要件的人工智能,法律應當賦予其電子人這一新型獨立的法律主體地位。在此基礎上,區(qū)分作為主體的人工智能和作為客體的人工智能,妥當構建人工智能責任承擔、財產(chǎn)歸屬等法律規(guī)則。同時,為了最大限度地保障人工智能造福于人類社會,規(guī)避可能產(chǎn)生的消極風險,還應當從監(jiān)管機構、倫理規(guī)范、警示接管、執(zhí)照許可、信息披露等方面配套相關監(jiān)管機制。
關鍵詞:人工智能 法律人格 電子人 法律規(guī)則 監(jiān)管機制
一 人工智能時代正在到來
1956年,麥卡錫等人在美國達特茅斯學院首次明確提出“Artificial Intelligence”這一概念,正式拉開了人工智能研究的序幕。[3]在隨后60年里,人工智能技術的發(fā)展經(jīng)歷了20世紀50~60年代以及80年代的浪潮期,也經(jīng)歷過70~80年代的沉寂期。[4]近年來,隨著數(shù)據(jù)爆發(fā)式的增長、計算能力的大幅提升以及深度學習算法的發(fā)展和成熟,我們再次迎來人工智能的新一輪浪潮。[5]
關于什么是人工智能,至今并未有統(tǒng)一定論,因為定義“智能”本身就是非常困難的一件事情。[6]根據(jù)人工智能權威學者Stuart J.Russell和Peter Norving的考察,有關人工智能的定義起碼有四種路徑:像人一樣思考;像人一樣行動;合理地思考;合理地行動。其中,前兩種定義根據(jù)與人類表現(xiàn)的逼真度來衡量,而后兩種定義則依靠合理性的理想變量來衡量。[7]根據(jù)維基百科的定義,“人工智能就是機器展現(xiàn)出的智能”,只要機器具有某種或某些“智能”的特征或表現(xiàn),就可稱之為“人工智能”。大英百科全書則認為,人工智能是數(shù)字計算機或者數(shù)字計算機控制的機器人在執(zhí)行智能生物體才有的一些任務上的能力。而根據(jù)我國2018年發(fā)布的《人工智能標準化白皮書》,人工智能是利用數(shù)字計算機或者數(shù)字計算機控制的機器模擬、延伸和擴展人的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、方法、技術及應用系統(tǒng)。[8]顯然,有關人工智能的定義并未形成普遍共識。對此,我們可以從以下方面來理解人工智能:其一,從產(chǎn)生上看,人工智能是人工設計的產(chǎn)物,不同于自然意義上的智慧生物;其二,從技術特征上看,人工智能能夠模擬人類的智能,通過人類給定的數(shù)據(jù)或自己創(chuàng)造的數(shù)據(jù)進行自我學習,并獨立于人類的干預自主作出決定,這使得人工智能不同于一般意義上的工具;其三,從形式上看,人工智能可能以軟件代碼的應用系統(tǒng)形式存在(如Siri),也可能獲得物理載體(如自動駕駛汽車、工業(yè)機器人等)[9];其四,從智能程度來看,人工智能可以分為強人工智能與弱人工智能,強人工智能能夠匹敵甚至超過人類智能,像人類一樣解決所有問題,并且能夠在任何社交場合中與他人進行交流,而弱人工智能僅僅能夠再現(xiàn)人類智能的某些方面。[10]就目前人工智能技術發(fā)展現(xiàn)狀來看,強人工智能仍屬科幻。
當前,各國都在搶占人工智能產(chǎn)業(yè)發(fā)展的高地。2016年10月,美國白宮發(fā)布《國家人工智能研究和發(fā)展戰(zhàn)略計劃》,成為全球首份國家層面的人工智能發(fā)展戰(zhàn)略計劃。同月,美國總統(tǒng)行政辦公室與美國國家科學與技術委員會聯(lián)合發(fā)布《為人工智能的未來做好準備》的報告,美國150多名研究專家共同完成了《2016美國機器人發(fā)展路線圖——從互聯(lián)網(wǎng)到機器人》,為美國人工智能的戰(zhàn)略發(fā)展提供了頂層指導。[11]歐盟對人工智能的關注更早一些,2013年就提出了為期10年的“人腦計劃”。此外,歐盟委員會與歐洲機器人協(xié)會合作完成了“SPARC”計劃,成為世界上最大的民間資助機器人創(chuàng)新計劃。而在2015年1月,歐盟議會法律事務委員會(JURI)就決定成立一個工作小組,專門研究與機器人和人工智能發(fā)展相關的法律問題。2017年2月16日,歐洲議會投票通過向歐盟委員會提出開發(fā)機器人與人工智能與民事法律規(guī)范的建議,就人工智能的法律地位以及法律責任等問題提出了框架性安排。[12]此外,日本也一直很重視人工智能產(chǎn)業(yè)的發(fā)展。2014年9月,日本政府就成立了“機器人革命實現(xiàn)委員會”,討論與“機器人革命”相關的技術進步、監(jiān)管改革以及機器人技術的全球化標準等具體舉措。2015年1月,日本經(jīng)濟產(chǎn)業(yè)省將委員會討論的成果進行匯編,編制發(fā)布了《日本機器人戰(zhàn)略:愿景、戰(zhàn)略、計劃行動》。與此同時,我國也高度重視人工智能這一發(fā)展機遇。2017年7月20日,國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,明確指出要“制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范……開展與人工智能應用相關的民事與刑事責任確認、隱私和產(chǎn)權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等”。2018年1月18日,國家標準化管理委員會工業(yè)二部和工信部科技司發(fā)布《人工智能標準化白皮書》(2018版),研究制定了能夠適應和引導人工智能產(chǎn)業(yè)發(fā)展的標準體系,并呼吁社會各界共同加強人工智能領域的技術研究、產(chǎn)業(yè)投入、標準建設與服務應用,共同推動人工智能及其產(chǎn)業(yè)發(fā)展。
毫無疑問,人工智能時代正在到來,其蘊含的能量、影響力和歷史意義絲毫不亞于前三次工業(yè)革命,具有極大的社會價值。[13]與此同時,人工智能也將對我們現(xiàn)有法律體系提出前所未有的挑戰(zhàn)。例如,一方面,有研究顯示,自動駕駛汽車可以減少95%以上的交通事故,幫助兒童、老年人、盲人等群體獲得移動便利,緩解交通擁堵,提高時間利用效率等。[14]但另一方面,自動駕駛汽車卻并不能保證絕對安全,有關自動駕駛汽車卷入交通事故的報告可謂屢見不鮮。例如,谷歌公司自2009年推出自動駕駛汽車以來,其間發(fā)生了近30起交通事故。對此,谷歌方面宣稱并未造成任何重大傷亡,且僅對兩起交通事故承擔部分責任。[15]而另一家汽車公司特斯拉則沒有這么幸運,迄今已發(fā)生多起嚴重傷亡事故。2016年5月,在美國佛羅里達州中部的一段高速公路上,一輛特斯拉自動駕駛汽車與迎面而來的白色貨柜車相撞,最終導致年僅40歲的布朗先生不治身亡。[16]對此,人們在質(zhì)疑自動駕駛汽車等人工智能技術成熟度的同時,其也引發(fā)責任承擔的法律難題。[17]再比如,人工智能能夠模擬人類智慧,撰寫小說、新聞報道,繪畫、作曲等,極大豐富了人類的精神和物質(zhì)財富[18],但也提出了人工智能創(chuàng)作作品的知識產(chǎn)權歸屬的法律難題。[19]顯然,人工智能想要迅速落地,除了要解決諸多技術難題之外,還需要應對一系列法律挑戰(zhàn)。其中,人工智能的法律定位至關重要,成為人工智能責任承擔、財產(chǎn)歸屬等法律規(guī)則構建的前提基礎。
事實上,關于人工智能能否取得法律人格的討論由來已久。早在“人工智能”概念誕生之前,各種科幻小說就幻想過機器人具備自主意識進而想成為人、取代人的故事。近年來,大數(shù)據(jù)、深度學習等技術讓人工智能變得更加聰明,在圍棋、計算、識圖等領域已經(jīng)遠遠超越人類,甚至展現(xiàn)出發(fā)明機器人語言的天賦。[20]毫無疑問,人工智能在復制人腦的道路上走得越來越遠。據(jù)報道,當前人工智能的人工神經(jīng)網(wǎng)絡所擁有的神經(jīng)元比蜜蜂和蟑螂等生物還要多,而且數(shù)量還在不斷增加。而最大型的項目旨在創(chuàng)造更多的生物合成算法,目的是要復制人類大腦的運作方式,而不只是簡單地模仿我們的記憶方式。[21]許多專家都預測,2045年將是奇點到來之際,屆時人工智能將在智能層面全面超過人類。[22]而實踐中,早在2010年11月,日本一個海豹寵物機器人帕羅(Paro)就獲得了戶籍,帕羅的發(fā)明人在戶口簿上的身份是父親。[23]2016年2月,美國國家公路交通安全管理局(NHTSA)表示,谷歌自動駕駛系統(tǒng)可以被視為“駕駛者”(driver)。[24]2016年5月,歐盟法律事務委員會提交了一項動議,建議賦予最先進的自動化機器人“電子人”(electronic persons)的身份。[25]2017年10月25日,沙特政府更是授予機器人索菲亞(Sophia)公民身份,使其成為全球首位取得公民身份的機器人。[26]對此,我們暫且不論沙特這一舉動是否存在宣傳噱頭等其他目的,但它所引發(fā)的一系列法律挑戰(zhàn)是不可回避的。既然索菲亞取得了公民身份,那么她能否享有公民的一系列權利呢?如果索菲亞造成他人損害該如何處理?人類傷害索菲亞又該如何應對?索菲亞能否擁有自己的財產(chǎn)?又能否自主締結(jié)合同?……顯然,這一系列法律問題都將隨著人工智能被賦予法律主體地位而來。[27]故此,本文針對人工智能的民法定位問題展開探討,以期為人工智能的法律規(guī)制提供一些借鑒。
二 人工智能法律地位之辨析
(一)現(xiàn)有學說之梳理
有關人工智能法律地位的爭論由來已久,觀點可謂層出不窮。[28]對此,我們可以簡要歸納如下。
第一,動物說。有學者認為,人工智能與動物十分相似,它們都具有某種自主行動的能力。[29]飼養(yǎng)的動物一般被視為財產(chǎn),所有人需要對它們造成的損失承擔責任;反過來,對于飼養(yǎng)的動物遭受的損害通常也被視為財產(chǎn)損失。在動物造成他人損害的情形中,動物本身的意圖往往是不重要的,所有人的意圖才是法律需要關注的重點。當然,在某些情形下,動物本身的意圖可能會違背所有人的意圖。對此,我們需要區(qū)分飼養(yǎng)動物和野生動物,前者可以減輕所有人的責任,而后者通常不會。基于此,人工智能應當參照動物,適用上述法律規(guī)則。對于標準出廠的機器人,我們可以將其視為飼養(yǎng)的動物,它們大多數(shù)情況下是十分安全的,因而相關主體承擔的注意義務更輕;而對于經(jīng)過高度改造、自定義編程或?qū)嶒炐再|(zhì)的機器人,我們應當將其視為野生動物,它們對于公眾的威脅更大,相關主體需要承擔的責任更重。[30]對此,來自倫敦大學認知神經(jīng)科學的帕特里克·哈格德(Patrick Haggard)教授明確說道:“每一個機器人的背后都應該有一個負責任的人,就像狗的主人需要對飼養(yǎng)的狗負責任一樣,這是機器人學的一個重要原則。”[31]此外,為了防止人工智能受到人類虐待,有學者也主張參照動物保護的方式,禁止人們對人工智能實施暴力行為。[32]
第二,奴隸說。有學者認為,盡管人工智能的智能程度非常高,但其也只能被視為客體(人類創(chuàng)造的對象),最多被視為會說話的物(但不是主體),就像古羅馬時期的奴隸一樣。[33]在羅馬法中,如果奴隸損壞了他人的財產(chǎn),他們的主人需要對此承擔賠償責任。而考慮到奴隸有自己的意志,因而對于逃跑的奴隸所造成的損失,主人通常無須承擔賠償責任。當然,奴隸作為不同于一般物體的財產(chǎn),法律禁止包括主人在內(nèi)的人對其實施無端傷害,但即使發(fā)生這種傷害,通常也僅被視為財產(chǎn)損失,而非毆打、謀殺等罪行。[34]簡而言之,此種觀點認為人工智能理當被視為奴隸,人類擁有人工智能是再正確不過的事情。[35]
第三,一般客體說。有學者認為,盡管人工智能具備一定的智能,但人工智能生成的目的行為,與人類有目的、有意識的行為性質(zhì)完全不同。同時,人工智能沒有自身積累的知識,其擁有的知識也多是特定領域內(nèi)的,并且是人為提供輸入的。盡管人工智能能夠模擬和擴展人類的部分智能,展現(xiàn)出相當智性,但它們并沒有人之心性和靈性,這與具有“人類智慧”的自然人和自然人集合體是無法等同視之的。[36]故此,人工智能只能被視為客體或工具,不能像自然人和法人那樣獲得法律人格成為主體。
第四,道德客體說。來自愛爾蘭國立大學的法學教授約翰·丹納赫(John Danaher)認為,“我不認為賦予人工智能法律人格是一件正確的事,至少現(xiàn)在還不是。我的猜測是,在可預見的未來,這種做法主要是為了推卸人類的責任,來掩蓋一些反社會活動”。對此,約翰·丹納赫教授進一步說道,“在決定是否賦予某實體法律人格的事情上,我們應該追問以下兩個子問題:一是這個實體是否應該被當作道德主體(moral agent)來對待,它應該對自己的行為負責嗎;二是這個實體是否應該被當作道德客體(moral patient)來對待,從而受到法律保護,免受某些干擾以及對其完整性的侵害。我的觀點是,人工智能不應該被當作道德主體,至少暫時不會。但我認為,在某些情況下,它們應該被視為道德客體。這意味著我們可能要對人工智能負責,不能破壞或者侵犯它們的完整性”。[37]換言之,此種觀點主張將人工智能視為道德客體,人們理當善待它們,但不承認其具有主體地位。
第五,代理人說。隨著交易型機器人越來越多參與市場交易,傳統(tǒng)合同法理論僅將人工智能視為締約工具的理論逐漸受到質(zhì)疑。對此,有學者主張將人工智能界定為人類的代理人,相關交易適用代理規(guī)則。[38]2017年10月16日,愛沙尼亞政府公布人工智能法案,采納了這一觀點,主張賦予人工智能法律地位,使其成為人類的代理人,并對人工智能的事故責任問題做了規(guī)定。法案提出,作為人類的代理人,人工智能擁有代理權,但最終的法律權利、義務都由被代理人承擔,這種法律定位介于獨立法律人格(如公司)和無法律地位的財產(chǎn)之間。[39]
第六,有限人格說。有學者認為,對于人工智能的性質(zhì),學界一直有不同爭論。考慮到人工智能本身高度的智慧屬性以及獨立自主的決策能力,將其視為傳統(tǒng)的工具或代理人都不合適。相反,賦予人工智能有限法律人格,將其視為具有智慧工具性質(zhì)又可為獨立意識表示的特殊主體,賦予其有限的權利義務更加妥當。同時,該學者還明確指出,即使人工智能發(fā)展到具有自我意志的程度,其與人類也存在根本性的不同。鑒于人工智能的獨特法律定位,應當適用特殊的法律規(guī)制標準。[40]
第七,參照公司說。有學者認為,法律既然能夠給予公司法律人格,當然可以給予人工智能法律人格。[41]《人類簡史》和《未來簡史》的作者尤瓦爾·赫拉利(Yuval Harari)說道,“在今天,公司擁有合法的權利而且被視為法人,但大多數(shù)動物卻沒有獲得此等待遇。盡管公司并沒有意識,沒有人格,沒有體驗幸福和痛苦的能力,而動物卻是有意識的實體。同樣,無論人工智能是否發(fā)展出意識,都可以有經(jīng)濟、政治和法律上的理由賦予它們?nèi)烁窈蜋嗬拖窠裉斓墓究梢垣@得法律人格和權利一樣”。[42]此外,有學者也指出,鑒于機器人不同于生物學意義上的“人”,我們可以參照法人,將機器人“擬制”為法律主體,不再去糾結(jié)它們是否存在意識,強制性地要求人們之間達成“機器人擁有權利”的基本共識,以便降低人們在機器人應用上的談判成本。[43]
第八,電子人說。2017年2月16日,歐盟議會投票表決通過一份包括一些具體立法建議的決議,建議賦予人工智能“電子人”(electronic persons)的法律身份。在歐盟看來,隨著人工智能自主程度越來越高,它們被視為工具的可能性越來越小。而在責任承擔方面,傳統(tǒng)規(guī)則很可能并不合適,所以需要新的規(guī)則來應對。對此,賦予人工智能法律人格,可以讓人工智能為自己的行為承擔全部或者部分責任。[44]
(二)人工智能作為法律主體之證成
上述觀點基本涵蓋了有關人工智能法律地位的不同看法。依據(jù)是否同意賦予人工智能法律人格,我們大致可以將其分為反對說和贊同說,前者包括奴隸說、動物說、一般客體說和道德客體說,后者則包括代理人說、有限人格說、參照公司說以及電子人說。對此,筆者認為,人工智能具有獲得法律人格的可能性和正當性。
第一,從歷史來看,法律主體具有開放性。約翰·奇普曼·格雷(John Chipman Gray)曾經(jīng)說道,“在有關法律的著作中,乃至日常交談中的那樣,人(person)這個詞的意思主要是指生物人(human being),但法律技術化的‘人(person)’的含義則是法律權利與義務的承擔者”。[45]法律需要將現(xiàn)實中的人轉(zhuǎn)化為法律意義上的人,由此使得生活中現(xiàn)實存在、各具特性的個人,在法律上以統(tǒng)一的標準人、制度人的方式出現(xiàn)。法律賦予現(xiàn)實生活中的人以法律人格,使其能夠參與實際的法律活動,并享有權利、履行義務和承擔責任。[46]換言之,法律意義上的人與現(xiàn)實生活中的人并非完全一致。[47]恰恰相反,法律相較其他社會科學的高明之處在于:它能使人非人,也能使非人成人。[48]對此,民事主體范圍的演變歷史可以很好地佐證這一點。早在羅馬法時期,并非所有的生物人都被視為法律意義上的人,奴隸就被視為主人的財產(chǎn),淪為法律客體。[49]隨著近代資產(chǎn)階級革命和啟蒙運動的到來,所有的生物人都獲得平等的法律主體地位,成為具有平等法律人格的自然人,社會生活中的生物人與法律意義上的自然人獲得了一致,人可非人的時代正式結(jié)束。與此同時,組織體發(fā)展迅猛,在社會生活中扮演著不可或缺的重要角色,于是法律發(fā)揮其擬制的力量,賦予特定的組織體以法律人格,使其成為與自然人并列的法律主體。如果說第一階段“人可非人”到第二階段“人皆為人”的過渡更多的是一種道德倫理的考量,即人人平等價值的宣揚,那么從第二階段到第三階段“非人可人”的進化,則更多的是出于社會現(xiàn)實的需要。[50]對此,正如后現(xiàn)代主義者所認為的那樣,主體性是一種推理的結(jié)果,而不是超驗的、非歷史的、固定不變的、客觀的地位。[51]近年來,一些國家更是不斷擴大法律主體的范圍,如新西蘭賦予河流法律人格、印度賦予瀑布法律人格、厄瓜多爾賦予環(huán)境法律人格等。[52]由此觀之,民事主體并不必然等同于生物意義上的人,其本身具備流動性和開放性。[53]如果我們僅僅因為人工智能并非人類這一物種,就粗暴地否認賦予其法律人格的可能,那么這與那些因為并非自己族類進而否定其他種族人權的觀點一樣荒唐。[54]隨著人工智能越來越多地參與人類社會生活,其理當具備成為法律主體的可能性。
第二,意識并不能成為阻礙人工智能取得法律人格的理由。有學者認為,人工智能不具備人之心性與靈性,人工智能的運算過程也非有意識的過程,故而法律不應賦予人工智能以法律人格。[55]對此,我們認為,意識并不能成為否定人工智能取得法律人格的依據(jù)。其一,并非所有的生物人都具有意識。例如,無腦嬰兒、重度昏迷患者、植物人等就是如此,但我們依然認為他們具有法律人格,是無可爭議的法律主體。其二,意識與法律人格并無必然聯(lián)系。一方面,具備意識并不足以讓實體理所當然地獲得法律人格;另一方面,實體獲得法律人格也并不必然需要擁有意識。從歷史上看,已婚婦女、奴隸、兒童等具有意識的生物人群體并不具有法律人格。[56]例如,近代的美國,盡管《獨立宣言》宣稱“所有人生而平等”,美國憲法卻曾明確規(guī)定黑人奴隸不具有完全的法律地位,他們擁有的選票效力僅為普通美國人的五分之二,原因在于他們并不具有完全的意識。[57]而與此相反,對于公司等明顯不具有意識的組織體,法律卻將它們擬制為主體,主張它們具有獨立意識,賦予它們法律人格。[58]此外,從生物學上來說,生物人也并非唯一有意識的實體,事實上,許多動物都擁有意識,它們能夠進行情感交流、感知痛苦等,甚至有些動物的大腦與人腦構造都相仿。然而,法律并未賦予具有意識的動物群體以法律人格。[59]顯然,意識并不是取得法律人格的前提基礎。其三,退一步說,人工智能未必就不具有意識。有學者認為,意識為生物人所獨有,人工智能沒有意識或者僅僅是在假裝有意識。[60]然而,懷疑人工智能沒有意識和懷疑鄰居沒有意識并沒有什么兩樣,我們無法潛入鄰居的大腦去判斷其有無意識或僅僅是假裝有意識,只能從鄰居的行為本身來推斷。[61]同樣,當人工智能能夠像人類一樣行為,可以開車、作曲、寫詩、繪畫,充當司機、醫(yī)生、作家、歌手時,我們?nèi)匀粓苑Q人工智能沒有意識或許并無多少道理。此外,現(xiàn)代認知科學普遍認為:大腦的處理過程是一個可識別的信息化的過程,而每一個可識別的信息化的過程都可以在計算機中得到模擬或者重構。[62]從這個角度來看,人腦所謂獨特的意識處理過程與人工智能的信息處理過程并無本質(zhì)上的區(qū)別,生物人所謂的意識也不過是一套算法。[63]正如尤瓦爾·赫拉利所說:如果我們研發(fā)出能夠具備相同功能而又更有效率的算法,“人類體驗”這套算法就會失去價值。因此,如果不只是出租車司機和醫(yī)生,就連律師、詩人和音樂家都能被更厲害的計算機程序取代,我們又何必在意這些程序有沒有意識、有沒有主觀體驗呢?[64]
第三,人工智能具有取得法律人格的基礎。其一,人工智能具有取得法律人格的技術基礎。相較于意識,實體所具備的參與法律關系的能力更加重要,這將迫使法律賦予其法律人格。[65]而從現(xiàn)有技術來看,人工智能已經(jīng)具備很高的智能水平,能夠獨立于人類的干預自主作出決定,甚至可以自主地與現(xiàn)實世界進行交互。從這個角度來看,人工智能的智能特征已經(jīng)使其脫離了傳統(tǒng)工具或客體的范疇,不再僅僅是人類行為的延伸。[66]有學者認為,人工智能沒有自身積累的知識,其知識庫的知識都是特定領域的,并且都是人類輸入的。[67]對此,我們認為,人類的自主能力也并非與生俱來,而是一個不斷學習成長的過程。同樣,對于人工智能也是一樣,人類的數(shù)據(jù)輸入是其學習的基礎,但并不妨礙其擁有自主決定的能力。事實上,前段時間發(fā)表在《自然》上的一篇文章已經(jīng)證明人工智能可以從監(jiān)督學習進化至自主學習,無須依托人類輸入的經(jīng)驗數(shù)據(jù)。[68]其二,人工智能具有取得法律人格的道德基礎。從歷史來看,道德本身是法律人格賦予的重要考量因素,如奴隸等群體取得法律人格就離不開人們普遍的道德倫理訴求。隨著人工智能越發(fā)智能,日益融入每個人的日常生活,它們擁有像人類一樣的外表、聲音和思維,能夠像朋友、親人一樣與人類進行交互,人們自然也會像對待真實的人類一樣對待它們。[69]對此,為了反映這一真實的人機交互關系,法律有必要賦予人工智能法律人格,而不是簡單地將其視為純粹的客體。此外,人工智能能夠獨立于人類干預自主作出決定,當其引發(fā)事故時,我們追究生產(chǎn)者、用戶等相關主體的責任或許并不合適,因為他們并無任何過錯。此時,唯有將人工智能本身視為獨立的主體,讓其自主承擔責任方才合乎道德常識。其三,人工智能具有取得法律人格的法律基礎。正如前文所述,非生物人取得法律人格并非新鮮事,公司等組織體就是很好的例子。有學者擔憂,賦予人工智能主體地位,可能會貶損人的地位和價值,甚至危及整個人類的生存。對此,我們認為,法律賦予人工智能法律人格并不意味著人工智能將會獲得與人類同等的地位,人類仍然是唯一的絕對主體。人工智能的最終命運也并非要完全等同于或取代人類,甚至這應該是人類應當極力避免的結(jié)果,否則將會引發(fā)人造“人”的道德倫理困境。事實上,從法律層面來看,非生物人之外的法律主體都是相對主體,其既是法律主體,也是法律客體,不可能與生物人的絕對主體的法律地位等同。[70]故此,人工智能取得法律人格并不存在實質(zhì)性的法律障礙。
第四,賦予人工智能法律人格具有諸多法律便利。從法律功能論的視角來看,法律上的便利也是法律人格賦予的重要理由。[71]對此,我們認為,賦予人工智能法律人格有利于相應法律功能的實現(xiàn)。其一,有助于明確責任承擔,鼓勵技術革新。如果我們單純地將人工智能作為客體對待,那么當人工智能發(fā)生事故造成損害時,只能由生產(chǎn)者和消費者承擔責任。然而,考慮到人工智能本身具備一定的自主能力,能夠獨立于人類作出判斷和實施行為,讓生產(chǎn)者、用戶承擔責任并不合理。[72]同時,依據(jù)現(xiàn)有產(chǎn)品責任規(guī)則,受害人要主張生產(chǎn)者承擔產(chǎn)品責任,就必須證明人工智能產(chǎn)品存在缺陷以及缺陷與損害之間存在因果關系等要件,而這無疑是十分困難的,并不利于受害人救濟。[73]退一步說,如果我們將人工智能造成的損害賠償責任絕對地施加給生產(chǎn)者,讓其負擔過重的責任,那么生產(chǎn)者很可能會集體抵制整個行業(yè);同樣,如果我們讓消費者對人工智能造成的損害承擔賠償責任的話,那么消費者也很可能會拒絕購買人工智能產(chǎn)品,進而阻礙人工智能進入市場。對此,我們可以借鑒公司等組織體獲得法律人格的經(jīng)驗,賦予人工智能以法律人格,讓人工智能本身成為承擔責任的主體,進而限制人工智能背后的生產(chǎn)者、用戶等主體的責任,鼓勵技術創(chuàng)新。[74]與此同時,這也有助于簡化責任的歸屬,及時高效地救濟受害人。其二,有助于提升交易效率,更好地為社會創(chuàng)造財富。考察歷史可知,民事主體范圍的不斷擴張本身就體現(xiàn)了人類社會分工和商品交換關系的日益復雜化,是對社會現(xiàn)實需求的回應。例如,法人就是一個很好的例證。從現(xiàn)實情況來看,法人為個體的自然人裝上三頭六臂,打破了自然人的生理界限,大大拓展了市場交易的廣度和深度,減少了資源配置的交易成本,為整個社會創(chuàng)造了巨大財富,也為背后的一個個自然人帶來了巨大利益。同樣,隨著人工智能越來越多地參與市場交易,人工智能在締結(jié)合同中的角色值得探討。對此,如果我們恪守傳統(tǒng)合同法理論,僅僅將人工智能視為締約工具,那么大量由人工智能獨立實施的交易行為將可能面臨無效之窘境,這顯然不利于市場交易的繁榮。此種情況下,如果法律能夠賦予人工智能主體地位,那么市場交易的主體將再一次得以豐富,交易效率也將會得到大幅提升。其三,有利于全面規(guī)制人工智能引發(fā)的風險,保障人類福祉。人工智能在創(chuàng)造巨大社會價值的同時,也將帶來諸多風險,甚至有人高呼人工智能是“人類最后的發(fā)明”[75]。當前,暢想人工智能全面取代人類甚至消滅人類仍屬科幻,其引發(fā)的失業(yè)、安全、倫理等風險卻是可預見的。對此,僅僅從客體角度規(guī)制人工智能產(chǎn)生的風險可能是不充分的,保持從主體角度規(guī)制的可能性至關重要。例如,對于機器人伴侶等情感寄托型人工智能,從主體角度進行規(guī)制更能避免相關倫理風險;而對于實施犯罪等危險行為的機器人,從主體角度進行規(guī)制可能更為有效。再比如,針對人工智能引發(fā)的失業(yè)問題,比爾·蓋茨等人就提出向機器人征稅的建議[76],這相較于僅僅將人工智能視為技術、客體的規(guī)制方法或許更為有效。
三 人工智能法律主體制度之構建
如上文所述,人工智能具有成為法律主體的正當性和可能性,但是我們還需要追問以下問題:是否所有的人工智能都可以取得法律人格?如果不是,那么人工智能想要成為法律主體需要具備哪些條件?具體又屬于何種法律主體類型?人工智能造成損害該如何應對?人工智能創(chuàng)造的財產(chǎn)又該如何歸屬?相關法律監(jiān)管措施又該怎樣配套?……下面,我們來具體探討這些難題。
(一)主體條件
關于何種人工智能可以取得法律人格,學界有不同看法。例如,有學者認為,人工智能可分為強人工智能與弱人工智能,唯有前者方可取得法律主體地位。[77]再比如,有學者將人工智能分為反應型(reactive machines)、有限記憶型(limited memory)、意識型(theory of mind)以及自我覺醒型(self-awareness)四種,主張后三種人工智能類型都應被視為獨立的法律主體,但只有自我覺醒型人工智能才能取得完全的法律人格。[78]此外,有學者認為,人工智能只要具備認識自我、區(qū)分自我與外界的能力,就可成為法律主體。[79]
我們認為,類型劃分確實可以幫助我們更加直觀地認識人工智能,但由于法律人格賦予本身需要考量因素的復雜性,簡單的技術劃分難以有效厘清作為主體的人工智能與作為客體的人工智能之間的界限。基于此,我們主張借鑒公司等組織體取得法律人格的條件,來設置人工智能取得法律人格的門檻。具體條件如下。其一,智能條件。法律賦予人工智能法律人格的一個重要原因就在于它們具有自主決定的能力,可以自主地參與法律關系。故此,人工智能想要取得法律主體地位必須滿足一定的智能條件。當然,這并不是要求人工智能像人一樣在各方面都擁有自主決定能力,其只需要在某一領域具有自主能力即可。例如,自動駕駛汽車具備自主駕駛的能力,但并不需要像機器人醫(yī)生那樣具備實施手術的能力。其二,物理載體。人工智能可以是應用程序,也可以是有物理載體的裝置。相較于Siri等存在于虛擬世界中的人工智能形式,法律賦予自動駕駛汽車、機器人醫(yī)生等具備一定物理載體的人工智能形式以法律人格更能為人們所接受。故此,出于安全和公示的考慮,同時也是照顧社會之一般期待,法律最初可以考慮要求取得法律人格的人工智能必須具備一定的物理載體。[80]此外,對人工智能物理載體本身也應當設置一定限制,其必須與自身的目的相適應,因為我們會根據(jù)人工智能的不同外觀產(chǎn)生不同的態(tài)度。[81]對于一些非出于主體目的設計的人工智能形式,如智能寵物、智能家具等,其不應仿照人類的外形來設計。其三,登記。與法人獲得法律主體地位相似,人工智能想要取得法律人格,也必須經(jīng)過登記。[82]登記可以讓人工智能具備可識別性,也有利于保障人們的交往安全。在登記事項上,我們可以要求提供人工智能的編號和數(shù)據(jù)差異、相關責任人、智能等級等信息。如果相關責任人想要登記的人工智能進行交易活動的話,那么還可以為人工智能登記可識別的名稱和簽名。[83]其四,資產(chǎn)。法律主體不僅意味著享有權利,更體現(xiàn)為具有履行義務和承擔責任的能力。對于想要取得法律人格的人工智能,法律應當要求其開設獨立的賬戶,由相關責任人將一定額度的責任財產(chǎn)存入其中,以此作為人工智能參與法律關系的保證。
(二)主體類型
正如上文所述,具備一定條件的人工智能可以取得法律人格,進而成為民事主體,但我們還需要界定其究竟屬于何種類型的主體。依據(jù)我國《民法總則》的相關規(guī)定,民事主體可分為自然人、法人和非法人組織三種。那么,人工智能究竟屬于何種類型的主體呢?
對此,我們認為,人工智能不同于自然人,也有別于法人和非法人組織,應當作為一類獨立的新型法律主體。其一,人工智能不同于自然人。首先,自然人乃生物人直接映射于法律之上的主體類型,其法律人格的取得更像是“與生俱來”,是絕對的法律主體,任何情形下都不可降格為客體。而人工智能是由人所創(chuàng)造出來的,法律賦予其主體地位更多地出于社會需求的考慮,是一種“法律擬制”。同時,人工智能并非絕對的法律主體,其既可以作為主體,也可以以客體形式存在,成為人類所擁有的一種財產(chǎn)。其次,作為宇宙之精靈,自然人享有最為廣泛的人身和財產(chǎn)權利,可以締結(jié)婚姻,享有生命權、健康權等各項人身權利,這些都是人工智能難以享有的。最后,區(qū)分人工智能與自然人,賦予人工智能獨立的新型法律主體地位,也有助于保障自然人在主體序列中的優(yōu)越地位,避免可能出現(xiàn)的人造“人”的道德倫理困境。其二,人工智能與法人等組織體也不一樣。一方面,法人等組織體取得法律人格的過程更接近于“創(chuàng)設擬制”,是基于社會現(xiàn)實的需求創(chuàng)造出了一個實體,是一個從無到有的過程。而作為法律主體的人工智能顯然不是“虛構”的實體,必須具備物理載體。[84]故此,人工智能取得法律人格的過程更像是法律的“賦權擬制”,是從一個存在到另一個存在的過程。另一方面,雖然法人等組織體擁有獨立的法律人格,但法人意志的表達和實現(xiàn)仍然有賴于背后的人或人的集合來貫徹執(zhí)行。而與法人等組織體不同,人工智能可以獨立地表達甚至實現(xiàn)自己的意志。換言之,法人既沒有靈魂,也沒有實體,而人工智能雖然沒有靈魂,卻有實實在在的實體。[85]其三,人工智能理當作為一類新型法律主體。鑒于人工智能有別于自然人和法人等現(xiàn)有主體類型,故而我們認為,應當賦予人工智能以獨立的新型的法律主體地位。對此,歐盟提出的“電子人”概念值得借鑒,其不僅可以很好地表明人工智能新型法律主體的獨特地位,同時還可以據(jù)此構建一套新的法律規(guī)則。[86]
(三)法律規(guī)則
人工智能引發(fā)的法律難題是全方位的。其中,與人工智能迅速落地最為直接相關的兩個問題就是責任承擔和財產(chǎn)歸屬。在上文探討人工智能法律定位的基礎上,我們還需構建與之相關的法律規(guī)則。
1.責任承擔
考慮到人工智能設計、構造和編程的復雜性,人工智能發(fā)生事故造成損害的情形在所難免,由此引發(fā)責任承擔的難題。[87]對此,我們認為,應當區(qū)分作為主體的人工智能與作為客體的人工智能,分別配置不同的責任規(guī)則。其一,如果人工智能具備法律人格,那么其引發(fā)的事故理當參照民事主體的侵權責任規(guī)則來處理。對此,法律應當區(qū)分兩種不同的情形:當人工智能接受用戶指令從事某項活動造成他人損害時,此時應當適用雇主責任規(guī)則,人工智能理當被視為用戶的雇員,由作為雇主的用戶對此承擔責任;當人工智能超出用戶指令進而造成他人損害的,此時應當由人工智能本身獨自承擔責任,作為雇主的用戶不應承擔責任。對此,法律可以考慮在人工智能銷售給用戶時,強制提取售價的一部分作為救濟基金,存入每個人工智能的賬戶之中,用于應對可能發(fā)生的損害。[88]這種責任承擔方式有點類似于法人的有限責任,這既保證了人工智能獨立的法律地位,同時也解決了侵權責任承擔問題。當人工智能的賬戶余額低于某一限度時,可以考慮限制它們活動的能力。[89]至于人工智能承擔責任的形式也不應僅僅限于賠償損失,還應包括停止侵害、消除危險、賠禮道歉等。甚至在最為極端的情況下,法院還可以直接對人工智能的實體實施懲罰,以滿足受害者的合理期望。[90]當然,縱使人工智能取得法律主體地位,倘若損害是因為人工智能本身的缺陷所造成的,那么生產(chǎn)者一方仍然需要對此承擔產(chǎn)品責任。其二,當人工智能不具備法律人格時,其本質(zhì)上應當被視為產(chǎn)品,因而對于其造成損害的情形,理當適用產(chǎn)品責任規(guī)則。例如,一個可以發(fā)射小泡沫射彈的玩具機器人,如果它導致數(shù)名兒童窒息而死,那么生產(chǎn)者一方很可能需要承擔產(chǎn)品責任。[91]當然,人工智能產(chǎn)品不同于以往的產(chǎn)品,其具備一定的自主能力,因而對于產(chǎn)品責任規(guī)則的適用會提出諸多挑戰(zhàn)。[92]例如,產(chǎn)品責任通常要求受害人證明產(chǎn)品存在缺陷、損害與缺陷之間存在因果關系等要件,而這對于受害人來說無疑困難重重。反過來,如果我們通過舉證責任倒置等方式,將責任過多地施加給生產(chǎn)者一方,那么這又可能會讓生產(chǎn)者一方不堪重負,挫敗他們創(chuàng)新的積極性。故此,我們認為,法律可以考慮配套相應的責任保險制度,采用社會化的救濟方式,以便兼顧受害人救濟和技術革新。
2.財產(chǎn)歸屬
具備創(chuàng)造能力的人工智能可以進行發(fā)明創(chuàng)造,使人類進一步了解宇宙,為我們長期以來努力應對的世界性難題提供解決方案,同時也為我們的閑暇時光提供無窮無盡的書籍、電影和音樂作品。然而,人工智能在為世界創(chuàng)造豐富的物質(zhì)和精神財富的同時,也引發(fā)了創(chuàng)作作品知識產(chǎn)權歸屬的難題。對此,我們認為,可以遵循以下規(guī)則處理。其一,人工智能單獨創(chuàng)作作品的情形。人工智能發(fā)揮創(chuàng)造性的方式有多種,有的需要與人類進行交互,有的只需要人類按下一個開關鍵。對于那些人類僅僅是按下一個開關鍵就創(chuàng)造出成百上千首歌曲或小說的情形,相關作品的知識產(chǎn)權并不能理所當然地歸屬于人工智能的用戶,因為用戶對于作品的原創(chuàng)性并無實質(zhì)貢獻。在Bleistein v.Donaldson Lithographing Co.案中,法官曾經(jīng)說道:“個性總是包含一些獨特的東西。它甚至可以在筆跡中展現(xiàn)出其獨特性,而且即便是再平庸不過的藝術也有其不可酌減的東西,那就是一個人的獨特性。正是這些東西使得他們受到版權的保護。”[93]此外,在Burrow-Giles Lithographic v.Sarony 案中,法官也再次強調(diào),“作者……是擁有原創(chuàng)性事物的人”。[94]換句話說,作者是能夠創(chuàng)造原創(chuàng)性事物的人,因為只有他創(chuàng)造的東西與原來的東西不同時才能認定為具有原創(chuàng)性。故此,對于由人工智能單獨創(chuàng)造的作品,用戶并非作者。此種情形下,如果人工智能具有法律人格,那么人工智能本身理當被視為作者,有權享有作品的知識產(chǎn)權,相關的收益也應當歸入人工智能自身的賬戶。當然,為了同時兼顧用戶的利益和社會公共利益,一方面,應當容許用戶通過協(xié)議等方式來分享人工智能創(chuàng)造的知識產(chǎn)權收益,但應當保證人工智能本身獲得一定比例的收益,以便應對今后可能造成的損失;另一方面,法律應當盡可能縮短此類知識產(chǎn)權的保護期限,加速作品流入公共領域,以便盡可能地造福整個社會。如果人工智能不具有法律人格,那么人工智能本身并不能享有作品的知識產(chǎn)權,而用戶同樣也沒有獲得作品知識產(chǎn)權的正當理由。對此,法律應當讓這部分作品進入公共領域,供全社會自由享用。當然,為了顧及用戶的利益,可以考慮在作品進入公共領域之前,賦予其享有3年或5年的知識產(chǎn)權。[95]其二,人工智能與人類交互創(chuàng)作作品的情形。許多人工智能并不能做到完全獨立地創(chuàng)作歌曲、撰寫小說等,其必須由人類來配合才能完成。對于這類人工智能創(chuàng)作的作品,用戶理當享有知識產(chǎn)權,因為其對于作品的完成付出了實質(zhì)性的勞動。在此基礎上,如果人工智能本身具有法律人格,那么用戶和人工智能將作為共同作者享有作品的知識產(chǎn)權,共同分享作品帶來的收益。如果人工智能本身不具有法律人格,那么理當由所有人獨自享有作品的知識產(chǎn)權。
(四)監(jiān)管機制
人工智能帶來了前所未有的機遇和挑戰(zhàn),為了確保其能夠最大限度地造福人類,規(guī)避可能出現(xiàn)的風險,我們需要完善相關監(jiān)管機制。[96]對此,我們認為,應當確定以下監(jiān)管規(guī)則。
1.成立人工智能監(jiān)管機構
人工智能領域具有高度專業(yè)性,故而需要成立專門的監(jiān)管機構去處理相關監(jiān)管事宜。例如,2017年12月,北京市發(fā)布了《北京市關于加快推進自動駕駛車輛道路測試有關工作的指導意見(試行)》(以下簡稱《指導意見》)和《北京市自動駕駛車輛道路測試管理實施細則(試行)》(以下簡稱《實施細則》),成為我國首個允許自動駕駛汽車上路測試的城市。為了應對自動駕駛汽車相關監(jiān)管事宜,北京市就決定成立專門的監(jiān)管機構(北京市自動駕駛測試管理聯(lián)席工作小組)。面對人工智能這一新興技術,監(jiān)管機構需要處理好發(fā)展與安全之間的關系,在重視安全這一社會價值的同時,也不能忽視技術發(fā)展給社會帶來的巨大利益。[97]對此,一方面,監(jiān)管機構需要營造適宜創(chuàng)新的政策環(huán)境,以包容開放的姿態(tài)來對待人工智能的創(chuàng)新;另一方面,要時刻警惕人工智能帶來的消極風險,對于可能會造成社會危害的人工智能進行定期評估監(jiān)測。
2.確立倫理道德原則
可以預見的是,人工智能將給人類社會帶來深刻的影響,為了確保它們能夠始終有益于人類社會,我們有必要為其建立倫理道德的約束。事實上,考慮到人工智能本身所擁有的強大能力,對人工智能保持警惕并不是什么壞事。[98]對此,阿西莫夫的機器人三大法則就是很好的例證。2017年1月,全球2000多名專家學者共聚美國加州阿西洛馬市,共同簽署了“阿西洛馬人工智能原則”。其中,重點探討了人工智能相關的倫理和價值原則,具體包括安全、故障透明性、司法透明性、責任、價值歸屬、人類價值觀、個人隱私、自由和隱私、分享利益、共同繁榮、人類控制、非顛覆以及人工智能軍備競賽。[99]與此同時,日本有學者基于機器人三大法則提出了人工智能八項原則,包括人性優(yōu)先、服從命令、安全和隱私、使用限制、安全保障、開放和透明、個體參與以及責任。[100]這些都表明了為人工智能確立倫理道德原則的重要性。
3.建立警示接管機制
人工智能可以為人們提供更為便利的服務,但并不能保證絕對安全,為此有必要配套警示接管機制。具體來說,當人工智能出現(xiàn)故障時應當發(fā)出警示,以便附近的人們能夠注意到這一風險,同時還應配套一個緊急接管按鈕,以便人類隨時終止人工智能的運行。[101]例如,美國加州、佛羅里達州、內(nèi)華達州等就規(guī)定,自動駕駛汽車必須配備提醒車內(nèi)人們自動駕駛技術失靈的系統(tǒng)。[102]此外,加州的立法還規(guī)定,如果自動駕駛技術失靈,而“操作者沒有或不能去接管自動駕駛汽車的話,那么汽車應當能夠自行完全停下來”。[103]這個條款進一步解決了諸如操作者不在車內(nèi)等可能發(fā)生的情形,是對安全條款的一次必要補充。同樣,北京市出臺的《指導意見》和《實施細則》也做了類似規(guī)定。
4.配套執(zhí)照許可制度
許多人工智能的使用都需要取得特定的執(zhí)照許可,以便控制人工智能可能帶來的安全風險,特別是被替代的活動本身就需要取得執(zhí)照許可時。例如,自動駕駛汽車可以取代傳統(tǒng)的人工駕駛,但出于安全考量,法律仍然會要求用戶取得特定的駕駛執(zhí)照許可。同樣,我們也能預見諸如人工智能醫(yī)生、人工智能飛行員、人工智能叉車操作員以及其他需要執(zhí)照許可但被人工智能替代的相關職業(yè),都可能會適用類似的執(zhí)照許可制度。[104]這些人工智能取代的活動通常需要專業(yè)知識或容易引發(fā)人身財產(chǎn)損害,配套執(zhí)照許可制度可以很好地預防潛在的風險。此外,也有學者對人工智能的使用提出了許可要求。例如,自由更改人工智能的性能以滿足自身的需求,或者與朋友鄰居分享人工智能,抑或分享自己更改的人工智能等都需要取得特別許可。[105]
5.明確信息披露機制
數(shù)據(jù)是人工智能行業(yè)的燃料,人工智能越智能,就越依賴數(shù)據(jù)的收集、處理和流轉(zhuǎn),由此引發(fā)巨大的隱私風險。[106]例如,自動駕駛汽車掌握著我們的出行數(shù)據(jù),對我們的出行時間、工作和居住地點、出行路線等信息了如指掌。甚至在駕駛期間,我們還會與自動駕駛汽車分享我們的其他信息,而這一切都被記錄在線。[107]同樣,機器人醫(yī)生、機器人保姆等也將全面收集我們的個人信息,以便它們能夠以更加智能的方式提供服務。為保護我們的隱私和個人信息,法律應當要求生產(chǎn)者一方披露人工智能運行時將會收集哪些信息,賦予用戶知情權和控制權。同時,生產(chǎn)者也應執(zhí)行隱私設計原則,從一開始就將隱私和個人信息保護的需求嵌入人工智能的設計當中,使其成為系統(tǒng)運行的內(nèi)在組成部分。[108]
四 結(jié)語
當前,我們所處的時代正如同狄更斯在《雙城記》開篇寫到的那樣,“這是最好的時代,也是最壞的時代”。毫無疑問,智能革命將給我們帶來一個更美好的社會,它是智能的、精細化和人性化的“最好時代”。與此同時,智能革命也將提出諸多挑戰(zhàn),使我們不得不面臨一個社會問題叢生和安全隱患不斷的“最壞時代”。[109]對此,為了確保人工智能能夠最大限度地造福人類,實現(xiàn)我們想象中的“最好時代”,我們除了要攻克諸多技術難題之外,還必須解決人工智能提出的一系列法律挑戰(zhàn)。其中,首要的就是準確界定其法律地位。對此,我們認為,人工智能具有取得法律人格的可能性和正當性,保持從主體角度規(guī)制人工智能的可能路徑至關重要,法律理當賦予那些滿足特定條件的人工智能以電子人這一獨立的法律主體地位。此外,我們應該清醒地認識到,主張賦予人工智能法律主體地位,并非要讓人工智能等同人甚至取代人;恰恰相反,如同歷史上公司等取得法律人格以全面解放和發(fā)展人一樣,賦予人工智能法律人格也是在尋求未來人機和諧發(fā)展的可能路徑,最大限度地利用人工智能增進整個社會的福祉。
[1]本文為2017年司法部青年項目“自動駕駛汽車的私法挑戰(zhàn)與應對研究”(17SFB3031)、重慶市教育委員會人文社會科學規(guī)劃項目“積極推進‘互聯(lián)網(wǎng)+’行動的法律保障機制研究”(17SKG005)以及西南政法大學人工智能法律研究教師研究創(chuàng)新項目“自動駕駛汽車的法律規(guī)制研究”(2018RGZNJSZD03)的階段性成果。
[2]西南政法大學民商法學院博士研究生。
[3]Stan Gibilisco,Concise Encyclopedia of Robotics ,New York:The McGraw-HIll Companies,2003,pp.11-13.
[4]人工智能的發(fā)展大致分為三個階段。第一階段(20世紀50~80年代)。這一階段人工智能剛誕生,基于抽象數(shù)學推理的可編程數(shù)字計算機已經(jīng)出現(xiàn),符號主義(Symbolism)快速發(fā)展,但由于很多事物不能形式化表達,建立的模型存在一定的局限性。此外,隨著計算任務的復雜性不斷加大,人工智能發(fā)展一度遇到瓶頸。第二階段(20世紀80~90年代末)。在這一階段,專家系統(tǒng)得到快速發(fā)展,數(shù)學模型有重大突破,但由于專家系統(tǒng)在知識獲取、推理能力等方面的不足,以及開發(fā)成本高等原因,人工智能的發(fā)展又一次進入低谷期。第三階段(21世紀初至今)。隨著大數(shù)據(jù)的積聚、理論算法的革新、計算能力的提升,人工智能在很多應用領域取得了突破性進展,迎來了又一個繁榮時期。參見中國電子技術標準化研究院《人工智能標準化白皮書》(2018版),第3頁。
[5]騰訊研究院:《人工智能》,中國人民大學出版社,2017,第49頁。
[6]World Commission on the Ethics of Scientific Knowledge and Technology,“Report of COMEST on Robotics Ethics”,September 14,2017,p.17.
[7]〔美〕Stuart J.Russell & Peter Norving:《人工智能:一種現(xiàn)代的方法》,殷建平等譯,清華大學出版社,2017,第3~4頁。
[8]中國電子技術標準化研究院:《人工智能標準化白皮書》(2018版),第3頁。
[9]從某種程度上說,機器人和人工智能是兩個不同的概念,人工智能本質(zhì)為智能,通常只有獲得物理載體后才稱為機器人,如工業(yè)機器人、自動駕駛汽車(輪式機器人)、機器人醫(yī)生等。See Neil M.Richards & William D.Smart,“How Should the Law Think about Robots?”in Ryan Calo,A.Michael Froomkin & Ian Kerr(eds.),Robot Law ,the US:Edward Elgar Publishing,2016,p.6.
[10]〔美〕John Frank Weaver:《機器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版社,2018,第3頁。
[11]何哲:《通向人工智能時代——兼論美國人工智能戰(zhàn)略方向及對中國人工智能戰(zhàn)略的借鑒》,《電子政務》2016年第12期。
[12]Gry Hasselbalch,“New EU Rules for the Ethical and Legal Status of Robots and AI”,DataEthics ,March 28,2017.
[13]〔德〕克勞斯·施瓦布:《第四次工業(yè)革命:轉(zhuǎn)型的力量》,李菁譯,中信出版集團,2016,第6頁。
[14]Sven A.Beiker,“Legal Aspect of Autonomous Driving”,52 Santa Clara L.Rev.1145,1149-1152(2012);Kyle Colonna,“Autonomous Cars and Tort Liability”,4 Journal of Law,Technology & The Internet81,113(2012).
[15]Karissa Bell,“Google Says It Bears Some Responsibility for First Accident Caused by Self-Driving Car”,Mashable,Mar.1,2016.
[16]Chuck Jones,“Tesla's Autonomous Driving Fatal Accident Needs to Be Kept in Context”,Forbes ,July 1,2016.
[17]Orly Ravid,“Don't Sue Me,I Was Just Lawfully Texting&Drunk When My Autonomous Car Crashed into You”,44 Sw.L.Rev.175,180-181(2015);John Villasenor,“Products Liability and Driverless Cars:Issues and Guiding Principles for Legislation”,Brookings,Apirl 24,2014;Robert W.Peterson,“New Technology-Old Law:Autonomous Vehicles and California's Insurance Framework”,52 Santa Clara L.Rev.1341,1358-1359(2012).
[18]〔美〕John Frank Weaver:《機器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版社,2018,第257~268頁。
[19]當前,我國就人工智能引發(fā)的知識產(chǎn)權爭議問題展開了熱烈討論,參見王遷《論人工智能生成的內(nèi)容在著作權法中的定性》,《法律科學》2017年第5期;梁志文《論人工智能創(chuàng)造物的法律保護》,《法律科學》2017年第5期;易繼明《人工智能創(chuàng)作物是作品嗎?》,《法律科學》2017年第5期;熊琦《人工智能生成內(nèi)容的著作權認定》,《知識產(chǎn)權》2017年第3期。
[20]Adrienne La France,“An Artificial Intelligence Developed Its Own Non-Human Language”,The Atlantic ,Jun.15,2017.
[21]Luke Dormehl,“I.Alexa: Should We Give Artificial Intelligence Human Rights?”DigitalTrends ,July 5,2017.
[22]Sean Martin,“AI Warning:Robots Will Be Smarter than Humans by 2045,Google Boss Says”,Express ,Oct.17,2017;Dom Galeon & Christianna Reedy,“Kurzweil Claims That the Singularity Will Happen by 2045”,Futurism ,October 5,2017.
[23]騰訊研究院:《人工智能》,中國人民大學出版社,2017,第264頁。
[24]Kyle Field,“Google Self-Driving Cars Now Considered Drivers By NHTSA”,CleanTechnica ,F(xiàn)ebruary 16,2016.
[25]May Bulman,“EU to Vote on Declaring Robots to Be ‘Electronic Persons’”,Independent ,January 14,2017.
[26]Chris Weller,“A Robot that Once Said It Would ‘Destroy Humans’ Just Became the First Robot Citizen”,Business Insider ,Oct.26,2017.
[27]人工智能引發(fā)的法律問題是全方位的,參見吳漢東《人工智能時代的制度安排與法律規(guī)制》,《法律科學》2017年第5期。
[28]Lawrence B.Solum,“Legal Personhood for Artificial Intelligences”,70 North Carolina Law Review 1231,1234-1239(1992).
[29]David J.Calverley,“Android Science and Animal Rights,Does An Analogy Exist?”18 Connection Science 403,408(2006).
[30]Peter M.Asaro,“A Body to Kick,But Still No Soul to Damn: Legal Perspectives on Robotics”,in Patrick Lin,Keith Abney & George A.Bekey(eds.),Robot Ethics:The Ethical and Social Implications of Robotics,Cambridge:The MIT Press,2012,pp.176-177.
[31]Danny Palmer,“Robots and AI: Should We Treat Them Like Pets,or People?”Zdnet ,F(xiàn)ebruary 2,2017.
[32]Kate Darling,“Extending Legal Protection to Social Robots: The Effects of Anthropomorphism,Empathy,and Violent Behavior towards Robotic Objects”,in Ryan Calo,A.Michael Froomkin&Ian Kerr (eds.),Robot Law ,the US:Edward Elgar Publishing Limited,2016,p.214.
[33]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.130.
[34]Peter M.Asaro,“A Body to Kick,But Still No Soul to Damn: Legal Perspectives on Robotics”,in Patrick Lin,Keith Abney & George A.Bekey(eds.),Robot Ethics:The Ethical and Social Implications of Robotics ,Cambridge:The MIT Press,2012,p.178.
[35]Joanna J.Bryson,“Robots Should Be Slaves”,in Yorick Wilks (ed.),Close Engagements with Artificial Companions: Key Social,Psychological,Ethical and Design Issue,Amsterdam:John Benjamins Publishing Company,2010,pp.63-74.
[36]吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學》2017年第5期。
[37]Luke Dormehl,“I.Alexa: Should We Give Artificial Intelligence Human Rights?”DigitalTrends ,July 5,2017.
[38]Ugo pagallo,The Law of Robots:Crimes,Contracts,and Torts ,New York:Springer,2013,pp.95-102.
[39]Ott Ummelas,“Estonia Plans to Give Robots Legal Recognition”,Independent ,October 14,2017.
[40]袁曾:《人工智能有限法律人格審視》,《東方法學》2017年第5期。
[41]Jessica Berg,“Of Elephants and Embryos:A Proposed Framework for Legal Personhood”,59 Hastings L.J. 369,369-406(2008).
[42]Luke Dormehl,“I.Alexa: Should We Give Artificial Intelligence Human Rights?”DigitalTrends ,July 5,2017.
[43]張玉潔:《論人工智能時代的機器人權利及其風險規(guī)制》,《東方法學》2017年第6期。
[44]European Parliament's Committee on Legal Affairs,“Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics”,2016,p.5.
[45]John Chipman Gray,The Nature and Sources of the Law ,California:Hard Press Publishing,2012,p.63.
[46]胡玉鴻:《法律主體概念及其特征》,《法學研究》2008年第3期。
[47]對此,我們可以視為“person”和“human being”或“man”的區(qū)別。參見〔奧〕凱爾森《法與國家的一般理論》,沈宗靈譯,商務印書館,2016,第153~155頁。
[48]彭誠信:《論民事主體》,《法制與社會發(fā)展》1997年第3期。
[49]Visa Kurki,“Animals,Slaves,and Corporations: Analyzing Legal Thinghood”,18 German Law Journal 1069,1072(2017).
[50]李擁軍:《從“人可非人”到“非人可人”:民事主體制度與理念的歷史變遷——對法律“人”的一種解析》,《法制與社會發(fā)展》2005年第2期。
[51]〔美〕J.弗拉克斯:《后現(xiàn)代的主體性概念》,王海平譯,《國外社會科學》1994年第1期。
[52]Toni Selk?l?,“MikkoRajavuori,Traditions,Myths,and Utopias of Personhood: An Introduction”,18 German Law Journal1017,1052(2017).
[53]胡長兵:《法律主體考略——以近代以來法律人像為中心》,《東方法學》2015年第5期。
[54]Glenn Cohen,“Should We Grant AI Moral and Legal Personhood?”Artificial Brain ,September 24,2016.
[55]Robert K.Garcia,“Artificial Intelligence and Personhood”,in John Kilner,Christopher Hook & Diane Uustal Eerdmans(eds.),Cutting Edge Bioethics:A Christian Exploration of Technologies and Trends ,Michigan,Wm.B.Eerdmans Publishing Company,2002,pp.4-5.
[56]Samir Chopra & Laurence White,“Artificial Agents:Personhood in Law and Philosophy”,in Ramon Lopez de Mantaras & Lorenza Saitta(eds.),ECAI'04 Proceedings of the 16th European Conference on Artificial Intelligence ,the US:IOS Press,2004,p.639.
[57]Zimmerman,Evan Joseph,“Machine Minds: Frontiers in Legal Personhood”,F(xiàn)ebruary 12,2015,Available at SSRN: https://ssrn.com/abstract=2563965 or http://dx.doi.org/10.2139/ssrn.2563965.
[58]蔣學躍:《法人侵權責任能力的理論預設與制度設計——以法人本質(zhì)理論為線索》,《現(xiàn)代法學》2007年第2期。
[59]許多動物保護主義學者都基于動物具有意識來主張賦予它們法律人格。See Richard L.Cupp,“Cognitively Impaired Humans,Intelligent Animals,and Legal Personhood”,69 Fla.L.Rev.465,465-517(2017);Becky Boyle,“Free Tilly: Legal Personhood for Animals and the Intersectionality of the Civil and Animal Rights Movements”,4 Ind.J.L.& Soc.Equal.169,169-192(2016).
[60]劉云生:《人工智能的民法定位》,《深圳特區(qū)報》2017年10月24日第B06版。
[61]Lawrence B.Solum,“Legal Personhood for Artificial Intelligences”,70 North Carolina Law Review 1231,1266(1992).
[62]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.125.
[63]事實上,早在18世紀,就有學者提出人不過也是一臺機器。參見〔法〕拉·梅特里《人是機器》,顧壽觀譯,商務印書館,2017,第21頁。
[64]〔以色列〕尤瓦爾·赫拉利:《未來簡史》,林俊洪譯,中信出版集團,2017,第351頁。
[65]Tom Allen & Robin Widdison,“Can Computers Make Contracts?” 9 Harvard Journal of Law & Technology35,39(1996).
[66]Emad Abdel Rahim Dahiyat,“Intelligent Agents and Liability: Is It A Doctrinal Problem or Merely A Problem of Explanation?”18 Artificial Intelligence and Law 103,109(2010).
[67]吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學》2017年第5期。
[68]David Silver,Julian Schrittwieser,Karen Simonyan,Ioannis Antonoglou,Aja Huang,Arthur Guez,Thomas Hubert,Lucas Baker,Matthew Lai,Adrian Bolton,Yutian Chen,Timothy Lillicrap,F(xiàn)an Hui,Laurent Sifre,George van den Driessche,Thore Graepel & Demis Hassabis,“Mastering the Game of Go without Human Knowledge”,550 Nature 354,354(2017).
[69]〔美〕John Frank Weaver:《機器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版社,2018,第8~12頁。
[70]Tomasz Pietrzykowski,“The Idea of Non-personal Subjects of Law”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.82.
[71]Tom Allen & Robin Widdison,“Can Computers Make Contracts?”9 Harvard Journal of Law & Technology 35,41-43(1996).
[72]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.130.
[73]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.130.
[74]Matt Scherer,“Digital Analogues (Part 2): Would Corporate Personhood Be a Good Model for ‘AI personhood’?”Future of Life ,June 20,2016.
[75]Dan Patterson,“United Nations CITO: Artificial Intelligence Will Be Humanity's Final Innovation”,TechRepublic ,F(xiàn)ebruary 24,2016.
[76]James Titcomb,“Robots That Take People's Jobs Should Pay Taxes,Says Bill Gates”,The Telegraph ,F(xiàn)ebruary 20,2017.
[77]John Searle,Minds Brains and Science,Harvard University Press,2003,p.26.
[78]Filipe Maia Alexandre,The Legal Status of Artificially Intelligent Robots: Personhood,Taxation and Control ,Tilburg University,2017,pp.26-30.
[79]沈建銘:《論人工智能實體的法律主體資格——以權利能力為視角》,華中師范大學2017年碩士學位論文,第39~40頁。
[80]當然,隨著人工智能登記和公示技術的發(fā)達,法律可以逐漸考慮賦予那些沒有物理載體卻可以識別的人工智能以法律人格。
[81]Mark Coeckelbergh,“Humans,Animals,and Robots: A Phenomenological Approach to Human-Robot Relations”,3 Int J Soc Robot 197,201(2011).
[82]Tom Allen & Robin Widdison,“Can Computers Make Contracts?”9 Harvard Journal of Law & Technology 35,42(1996).
[83]Tom Allen & Robin Widdison,“Can Computers Make Contracts?”9 Harvard Journal of Law & Technology 35,42(1996).
[84]Jessica Berg,“Of Elephants and Embryos:A Proposed Framework for Legal Personhood”,59 Hastings Law Journal 369,405(2007).
[85]Russell C.Bjork,“Artificial Intelligence and the Soul”,60 Perspectives on Science and Christian Faith 96,96-102(2008).
[86]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn,New York:Springer,2017,pp.122-132.
[87]World Commission on the Ethics of Scientific Knowledge and Technology,“Report of COMEST on Robotics Ethics”,September 14,2017,pp.41-42.
[88]Steffen Wettig & Eberhard Zehendner,“A Legal Analysis of Human and Electronic Agents”,12 Artificial Intelligence and Law 111,128-131(2004).
[89]European Parliament's Committee on Legal Affairs,“Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics”,2016,p.11.
[90]Surya Deva,“Can Robots Have Human Rights Obligations? A Futuristic Exploration”,in Sam Muller,Stavros Zouridis,Morly Frishman &Laura Kistemaker (eds.),The Law of the Future and the Future of Law:VolumeII ,The Hague,Torkel Opashl Academic EPublisher,2012,p.191.
[91]Filipe Maia Alexandre,The Legal Status of Artificially Intelligent Robots: Personhood,Taxation and Control ,Tilburg University,2017,p.31.
[92]Peter M.Asaro,“A Body to Kick,But Still No Soul to Damn: Legal Perspectives on Robotics”,in Patrick Lin,Keith Abney & George A.Bekey(eds.),Robot Ethics:The Ethical and Social Implications of Robotics,Cambridge:The MIT Press,2012,pp.170-176.
[93]Bleisteinv.Donaldson Lithographing Co ,188 U.S.239,250(1903).
[94]Burrow-Giles Lithographic Co.v.Sarony ,111U.S.53,57-58(1884).
[95]〔美〕John Frank Weaver:《機器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版社,2018,第274~277頁。
[96]張玉潔:《論人工智能時代的機器人權利及其風險規(guī)制》,《東方法學》2017年第6期。
[97]F.Patrick Hubbard,“Allocating the Risk of Ohysical Injury from ‘Sophisticated Robots’: Efficiency,F(xiàn)airness,and Innovation”,in Ryan Calo,A.Michael Froomkin & Ian Kerr (eds.),Robot Law,the US:Edward Elgar Publishing Limited,2016,p.27.
[98]Surya Deva,“Can Robots Have Human Rights Obligations? A Futuristic Exploration”,in Sam Muller,Stavros Aouridis,Morly Freshman & Laura Kistemaker(eds.),The Law of the Future and the Future of Law:VolumeII ,The Hague:Torkel Opashl Academic EPublisher,2012,pp.187-188.
[99]Nancy Owano,“Asilomar AI Principles: A Framework for Human Value Alignment”,Tech Xplore ,F(xiàn)ebruary 6,2017.
[100]Kaori Ishii,“Comparative Legal Study on Privacy and Personal Data Protection for Robots Equipped with Artificial Intelligence: Looking at Functional and Technological Aspects”,32 AI & Soc. 1,16-17(2017).
[101]這一按鈕也被學者稱為死亡開關。See Filipe Maia Alexandre,The Legal Status of Artificially Intelligent Robots:Personhood,Taxation and Control ,Tilburg University,2017,p.43.
[102]NAC Chapter 482A.190; California Acts,Chapter 570 of 2012,2011-2012,§ 2; Florida Chapter 2012-111,House Bill 1207,§ 4.
[103]California Acts,Chapter 570 of 2012,2011-2012,§ 2.
[104]〔美〕John Frank Weaver:《機器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版社,2018,第97~98頁。
[105]Diana Marina Cooper,“The Application of a ‘Sufficiently and Selectively Open License’to Limit Liability and Ethical Concerns Associated with Open Robotics”,in Ryan Calo,A.Michael Froomkin & Ian Kerr (eds.),Robot Law ,the US:Edward Elgar Publishing Limited,2016,p.171.
[106]Mike Elgan,“Artificial Intelligence Needs Your Data,All of It”,Computer World ,F(xiàn)eb.22,2016.
[107]〔美〕特蕾莎·M.佩頓、西奧多·克萊普爾:《大數(shù)據(jù)時代的隱私》,鄭淑紅譯,上海科學技術出版社,2017,第139頁。
[108]Dorothy J.Glancy,“Privacy in Autonomous Vehicles”,52 Santa Clara L.Rev.1171,1226-1228(2012).
[109]吳軍:《智能時代》,中信出版集團,2016,第319頁。
- 中國民間商事借貸立法研究
- 雇傭關系中侵權損害賠償制度研究
- 中華人民共和國消費者權益保護法 中華人民共和國產(chǎn)品質(zhì)量法(2016年版)
- 中華人民共和國婚姻法注解與配套(含最新司法解釋)
- 中國不動產(chǎn)法研究:《民法典》物權編的理解與適用(2020年第2輯·總第22輯)
- 《民法典》及相關司法解釋新舊、舊新對照表
- 權利體系與科學規(guī)范:民法典立法筆記
- 知識產(chǎn)權戰(zhàn)略與實務(第9輯)
- 畜禽規(guī)模養(yǎng)殖污染防治條例(2013年版)
- 民商事疑難案件裁判方法
- 中國民法入門手冊
- 合同法百事通:案例應用版
- 民法文化與中國民法法典化
- 實用版法規(guī)專輯:五險一金(2017年版)
- 最高人民法院擔保法司法解釋精釋精解(增訂本)