本文摘要:摘要:人工智能的自主性、交互性和深度學(xué)習(xí)能力,決定了其既不是物,也不是人,而是介于人與物之間的客觀存在,其本質(zhì)不在于工具性,而在于財(cái)產(chǎn)性。對于人工智能致害、獲益及其生成物歸屬難題,將責(zé)任、收益以及權(quán)利完全歸于任一單方主體的方式并不合理,通
摘要:人工智能的自主性、交互性和深度學(xué)習(xí)能力,決定了其既不是物,也不是人,而是介于人與物之間的客觀存在,其本質(zhì)不在于工具性,而在于財(cái)產(chǎn)性。對于人工智能致害、獲益及其生成物歸屬難題,將責(zé)任、收益以及權(quán)利完全歸于任一單方主體的方式并不合理,通過保險(xiǎn)將風(fēng)險(xiǎn)全部社會化亦有失公平。
考慮到人工智能具有財(cái)產(chǎn)方面的意思能力和責(zé)任能力,但不具有人身性人格,其自主行為背后體現(xiàn)的也是多方主體的意志,以財(cái)產(chǎn)性人格的進(jìn)路將其擬制為電子法人,既是可行的,也是必要的,未來的民法典應(yīng)該對此有所回應(yīng)。人工智能在特定領(lǐng)域可自為意思表示、自負(fù)行為后果,因其“擅自”行為背后是多方主體混合意志的體現(xiàn),須按相應(yīng)比例在多方主體之間分?jǐn)倷?quán)責(zé),從而實(shí)現(xiàn)法人之責(zé)任有限與權(quán)責(zé)分?jǐn)偟哪康,且不危及人類自身安全和主體支配地位。
關(guān)鍵詞:人工智能,主體資格,財(cái)產(chǎn)性人格,電子法人
能否賦予人工智能(ArtificialIntelligence,簡稱AI)主體資格,使其以民事主體身份參與社會經(jīng)濟(jì)生活?這是民事主體法律制度面對人工智能的飛速發(fā)展亟待回應(yīng)的重要問題。一般認(rèn)為,人的主體性與物的客體性的區(qū)分和對立是近現(xiàn)代民法體系構(gòu)造的基礎(chǔ)和前提[1],但當(dāng)科幻小說中的機(jī)器人、生化人進(jìn)入我們的生活,其智能程度已經(jīng)復(fù)雜到可以在一定程度自主地和人類親密互動(dòng)時(shí),民法應(yīng)將其置于什么位置——物、動(dòng)物還是半自由人[2]?這值得探討。
一、人工智能擬為電子法人的法理基礎(chǔ)
談及人工智能的起源,公認(rèn)是1956年的達(dá)特茅斯會議[3]。有研究者認(rèn)為,人工智能是以研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的科學(xué)技術(shù)[4]。有的研究者認(rèn)為,人工智能是人機(jī)環(huán)境系統(tǒng)交互的產(chǎn)物[5]。2017年12月12日,在美國通過的《人工智能未來法案》(FutureofArtificialIntelligenceActof2017),對人工智能重新進(jìn)行了定義,認(rèn)為人工智能系像人類一樣思考、認(rèn)知、規(guī)劃、學(xué)習(xí)、交流或采取行動(dòng)的智能系統(tǒng),或嘗試達(dá)成認(rèn)知任務(wù)的一系列技術(shù),或能夠理性行動(dòng)的智能軟件代理和類人化機(jī)器人
參見:曹建峰,楊曉潔.美國提出“人工智能未來法案”應(yīng)對人工智能機(jī)遇和挑戰(zhàn)[EB/OL]一般認(rèn)為,自主行為和深度學(xué)習(xí)是人工智能的兩個(gè)核心特征。隨著人工智能的發(fā)展,其自主性和學(xué)習(xí)能力會越來越強(qiáng),甚至有可能進(jìn)化出自我意識
人工智能實(shí)現(xiàn)自我意識有兩種可能的途徑:一種是雅克·拉康的鏡像理論,即通過某種媒介,在類似于照鏡子的活動(dòng)中找到自我;另一種是查爾斯·泰勒的主體間性理論,即通過某種媒介,在群體的活動(dòng)和意識當(dāng)中發(fā)現(xiàn)自我。(參見:高奇琦.人工智能馴服賽維坦[M].上海:上海交通大學(xué)出版社,2018:196-197.)。雖然人工智能最終能否獲得自我意識未有定論,但法律在人工智能領(lǐng)域應(yīng)該要有超前性,為未來社會的發(fā)展提前預(yù)留空間。反觀當(dāng)前對人工智能民事法律地位的討論,要么過于保守,固守傳統(tǒng)的人、物與主體、客體相對應(yīng)理論,以及人工智能的民法屬性是物、本質(zhì)是工具等觀念;要么過于超前,在強(qiáng)人工智能
強(qiáng)人工智能又被稱為人類級人工智能,是指人工智能在各個(gè)領(lǐng)域都和人一樣具有獨(dú)立解決問題的能力,且在獨(dú)立思考、快速學(xué)習(xí)、解決問題、總結(jié)經(jīng)驗(yàn)等方面和人類一樣得心應(yīng)手。甚至是超人工智能階段進(jìn)行臆想。殊不知,強(qiáng)人工智能階段的法律至少要在人類與人工智能的共同參與下制定,而在超人工智能階段
超人工智能是在“奇點(diǎn)”之后全面超越人類的智能。庫茲韋爾在《奇點(diǎn)臨近》一書中闡釋了人類與技術(shù)結(jié)合的觀點(diǎn),并把人工智能超過人類的那一時(shí)刻叫作“奇點(diǎn)”。人類是否繼續(xù)存在都是問題。因此,我們應(yīng)該秉持一種務(wù)實(shí)的態(tài)度,將討論的范圍限定在人工智能從弱到強(qiáng)的過渡期內(nèi),再來探尋其法律地位的法理基礎(chǔ)。
具體來講,可將從弱人工智能到強(qiáng)人工智能的過渡期再細(xì)分為初級、中級和高級人工智能階段。初級人工智能與弱人工智能的區(qū)別在于:弱人工智能是輔助人類完成任務(wù),而初級人工智能則能自主地完成任務(wù),通過深度學(xué)習(xí)能自行生成新的算法,不再是簡單地輔助人類完成工作,而是可以在某一領(lǐng)域完全替代人類。比如無人駕駛汽車
2014年12月,世界上最先進(jìn)的無人駕駛汽車由美國谷歌公司研發(fā)成功,該汽車無方向盤、無換擋裝置、無油門踏板和剎車踏板,汽車通過軟件和傳感器實(shí)現(xiàn)全自動(dòng)駕駛。其可以替代人類充當(dāng)“駕駛員”。不過,初級人工智能只是在某一特定領(lǐng)域能完全自主行為并遠(yuǎn)超人類,系在單一領(lǐng)域超越人類的“專才”。當(dāng)它在財(cái)富管理方面也超越人類時(shí),比如將智能投顧的功能注入無人駕駛汽車,則它可以實(shí)現(xiàn)行動(dòng)自如和財(cái)產(chǎn)打理。
在此基礎(chǔ)上,它可以通過與人類交流、交互之后進(jìn)行創(chuàng)作,初步具有類似人類進(jìn)化的關(guān)鍵要素(直立行走和使用語言)。也就是說,當(dāng)人工智能兼有駕駛、財(cái)富管理和創(chuàng)作等功能后,則進(jìn)入中級階段,系在多個(gè)領(lǐng)域超越人類的“多才”。當(dāng)人工智能在通用領(lǐng)域均超越人類時(shí),則為進(jìn)入高級階段的“通才”。此后,若其能獲得自我意識、具有真正的情感和理解力,則為強(qiáng)人工智能。
然而,強(qiáng)人工智能時(shí)代雖然滿載人類的憧憬,但其曙光并未出現(xiàn),包含道德、自由和自我意識的強(qiáng)人工智能設(shè)想存在根本性錯(cuò)誤,這也說明我們期待的強(qiáng)人工智能或許是一個(gè)偽命題[6]。有鑒于此,筆者認(rèn)為當(dāng)下所討論的“人工智能”應(yīng)限于過渡期內(nèi)的初級、中級和高級人工智能。
(一)人工智能是介于人與物之間的客觀存在
人工智能不是人。與具有生命的碳基體——民法上的自然人不同,人工智能是硅基體,其不具有人的生物質(zhì),機(jī)器人就其生成機(jī)理來說不可能產(chǎn)生生命和生命權(quán)[7],無論其進(jìn)化到哪個(gè)階段,也不可能成為人。不過,人工智能具有理性能力。比如無人駕駛汽車不會“醉駕”“怒駕”,其理性更強(qiáng)和反應(yīng)更快等優(yōu)勢將使交通事故概率大為降低。正因?yàn)闊o人駕駛汽車的系統(tǒng)在控制駕駛行為時(shí)比人類更理性,所以才讓它高度自主,無需人類駕駛員適時(shí)接管而完成所有駕駛行為,此為其一。
其二,人工智能還具有交互性和唯一性。無人駕駛汽車作為初級人工智能,可以感知周圍環(huán)境并適時(shí)調(diào)整其駕駛行為,其交互對象主要是環(huán)境、物體,與人類主體之間的交互性不強(qiáng)。然而,隨著人工智能的優(yōu)化升級,在進(jìn)入中級階段后,則可以自如地與人類交流,通過交互而呈現(xiàn)差異,每個(gè)人工智能都會因“成長”環(huán)境的不同而作出不同的“后天”行為,具有唯一性。
人工智能也不是物。人工智能是由系統(tǒng)軟件和硬件設(shè)備構(gòu)成,其功能作用的發(fā)揮主要依靠系統(tǒng)。而民法上的物一般是指有形物或自然力,但系統(tǒng)卻是無形的,在不斷地變化與升級,特別是到了高級階段,系統(tǒng)的運(yùn)行將變得像人腦一樣捉摸不定。同時(shí),人工智能是人類以自己為標(biāo)準(zhǔn)創(chuàng)造出來的,是一種兼具智慧與超強(qiáng)能力的存在形式,也不屬于自然力。
因此,人工智能并不屬于民法上的物。因機(jī)器人具有交互性、自主性和適應(yīng)性,機(jī)器人不是產(chǎn)品或物品,而應(yīng)被視為動(dòng)物[8]。筆者認(rèn)為,處于低級階段的人工智能相當(dāng)于電子奴隸,會聽人類的話,但并非完全置于人的控制下,因?yàn)樾袨槭怯伤约鹤鞒龅。而到了更高的階段,人工智能的自主性增強(qiáng),類似于野生動(dòng)物,人類對其控制力越來越弱,但人類在總體上擁有決定性的控制權(quán),世界仍應(yīng)是人類主導(dǎo)下的社會結(jié)構(gòu),法律也仍應(yīng)是一種以人為本的體系建構(gòu)。
由上可見,人工智能既非人,亦非物,而是一種類似于動(dòng)物的客觀存在。有學(xué)者認(rèn)為,民法對市民社會的所有物質(zhì)構(gòu)成,就區(qū)分為人和物兩種表現(xiàn),在市民社會的構(gòu)成中,要么是人,要么是物,舍此并無其他物質(zhì)表現(xiàn)形式[9]。然而,現(xiàn)實(shí)中存在既非人,亦非物的物質(zhì)表現(xiàn)形式,如體外胚胎。因?yàn)轶w外胚胎有可能變成人,但如果認(rèn)定其為物,而物又是不可能變成人的,故其不能被認(rèn)定為民法上的物。當(dāng)然,由于它尚未發(fā)育成獨(dú)立的人,也就不屬于民法上的人。
有學(xué)者認(rèn)為,體外胚胎是生命的種子,不是物,也不是人,與人有關(guān),與物無關(guān),應(yīng)受到比物更高的道德尊重[10]。因此,隨著科技的進(jìn)步,民法上傳統(tǒng)的人、物兩分理論受到嚴(yán)峻挑戰(zhàn),不僅體外胚胎是一種非人非物的物質(zhì)存在形式,而且動(dòng)物亦如此。早在1990年,德國就針對動(dòng)物的民法屬性問題,在其民法典中做了修訂,修改后的第90a條規(guī)定:“動(dòng)物不是物。根據(jù)特別法對動(dòng)物予以保護(hù)。只要沒有別的其他規(guī)定,有關(guān)物的規(guī)定適用于動(dòng)物。”也就是說,動(dòng)物雖然不是物,但具有“近物性”,一般情況下仍適用物之規(guī)定。
人工智能不僅行為自主,而且具有超強(qiáng)的學(xué)習(xí)能力和理性能力,相對于動(dòng)物而言,它更具有“近人性”
人工智能的發(fā)展態(tài)勢是趨向于“與人相同”的,為了讓人工智能能“做人的工作”,人類必然會不斷將本來僅為人類所具有的能力賦予人工智能,并讓人工智能表現(xiàn)得越來越像人,人工智能的這種特性可以稱之為“近人性”。是一種比動(dòng)物更高級的存在形式
人工智能雖類似于動(dòng)物,但不同于動(dòng)物,其比動(dòng)物更為“理性”“智性”,具體區(qū)別將在下文論述。。不過,人工智能畢竟不是人,無體外胚胎所擁有的人身性利益,這也是人工智能所不應(yīng)觸及的底線與邊界。進(jìn)一步而言,人工智能是一種介于動(dòng)物與體外胚胎之間的客觀存在。既然動(dòng)物和體外胚胎都不是民法上的物,也就沒有理由將人工智能視為民法上的物。因此,我們不應(yīng)簡單地將人工智能看成是民法上的物,進(jìn)而認(rèn)定其為客體
有學(xué)者認(rèn)為,智能機(jī)器人的民法地位是人工類人格,雖然人工類人格帶有人格的某種特征,但仍然屬于物的范疇,仍然還是物的屬性,還是要受到人的支配和控制,因而是民法上的客體,而不是民事主體。退一步講,即便可以將人工智能視為民法上的物,也不表明它就是民事客體,人、物與主體、客體之間并不存在必然的對應(yīng)關(guān)系。盡管現(xiàn)代私法的基礎(chǔ)建立在羅馬法人物二分的狀態(tài)下,主體性也是在物我兩分的狀況下建立的[11],然而,主客體之間這種不可逾越的鴻溝現(xiàn)在正發(fā)生動(dòng)搖[12]。
同時(shí),“主體——客體”的兩分法并不等同于“人——物”的兩分法,不構(gòu)成法律主體的事物并非必然落入物的窠臼[13]。反之,民法上的物也并不必然成為民事客體。隨著時(shí)代的進(jìn)步,法律關(guān)于法人、胚胎和動(dòng)物權(quán)利的討論,擴(kuò)大了法律人格的適用范圍,因此出現(xiàn)了“沒有臉龐”的權(quán)利主體[14]。因此,在基因工程、納米材料以及人工智能等科學(xué)技術(shù)高度發(fā)達(dá)的今天,仍嚴(yán)格固守傳統(tǒng)民法上的人、物與主體、客體相對應(yīng)的理論以及人工智能的民法屬性是物的觀念,就顯得有點(diǎn)不合時(shí)宜了。
(二)人工智能的本質(zhì)是財(cái)產(chǎn)而非工具
關(guān)于人工智能是否為工具,肯定說認(rèn)為,人工智能本質(zhì)上受自身算法決定[15],沒有自身的目的[16],仍然是一種工具,只不過它比其他工具先進(jìn)而己[17];否定說則認(rèn)為,智能機(jī)器人執(zhí)行復(fù)雜的認(rèn)知任務(wù),在自主決策狀態(tài)下,機(jī)器人不僅僅是工具[18],其擁有自我意識和規(guī)劃生活的能力[19],權(quán)利意識將覺醒于機(jī)器人體內(nèi)[20]。
筆者認(rèn)為,人工智能并非完全受人類控制的工具。工業(yè)革命解放了人的體力,人工智能將解放人的腦力。人類掌握對人工智能的終極控制,比如開關(guān)鍵、切斷電源等,但對于人工智能的運(yùn)行過程及結(jié)果并不完全掌控。因?yàn)槿斯ぶ悄芫邆渥灾鲗W(xué)習(xí)能力,比如阿爾法狗可以自動(dòng)生成算法,下一步棋該如何走,完全由其自主決定
所有法律都有一個(gè)基本的假設(shè):所有的決策都是由人類作出的。隨著人工智能的應(yīng)用變得越來越廣泛,這種假設(shè)越來越不正確,并對法律的運(yùn)作方式產(chǎn)生了影響。換言之,人工智能的智慧遠(yuǎn)超人類,正是因?yàn)槿祟惤o了人工智能充分的自主權(quán),從而造成其運(yùn)行過程及結(jié)果可能無法預(yù)測
學(xué)習(xí)型人工智能的設(shè)計(jì)者無法預(yù)見它被派入世界后如何行動(dòng),但另一方面,此一不可預(yù)見的行為是人工智能設(shè)計(jì)者意欲的,即使某一特定的行為并非如此。而人工智能的自主性越強(qiáng),給人類帶來的便捷程度也就越高。
有學(xué)者認(rèn)為,“為了能夠使人工智能更好地作為服務(wù)社會的工具”,應(yīng)賦予人工智能“工具性人格”,筆者認(rèn)為此類觀點(diǎn)值得商榷。盡管人工智能最終是為人類服務(wù)的,具有工具性的一面,但基于人工智能類似于動(dòng)物,我們不應(yīng)簡單地將其視為工具。
一方面,由于人工智能具備智力上的學(xué)習(xí)能力,因此它改變了過去使用者和工具之間形成的單向服務(wù)關(guān)系,也改變了人工智能只能作為工具的單純身份[21]。申言之,人類與人工智能之間互為對象,人類的智慧、情感等成了人工智能分析和學(xué)習(xí)的對象。另一方面,工具最大的特點(diǎn)在于輔助人類完成任務(wù),然而初級階段的人工智能在任務(wù)執(zhí)行中是起主導(dǎo)作用,人類反而是起輔助作用。因此,如同不能把動(dòng)物看成工具一樣,也不應(yīng)將人工智能的本質(zhì)定性為工具。
人工智能的本質(zhì)是財(cái)產(chǎn)。人工智能與動(dòng)物最為接近,動(dòng)物也擁有自主行為、具有一定的學(xué)習(xí)能力,比如模仿人類的動(dòng)作。雖然動(dòng)物也會被人類當(dāng)作工具利用,但動(dòng)物在民法中主要是被看成一種財(cái)產(chǎn),而非人類可以任意驅(qū)使的工具。財(cái)產(chǎn)不僅包括物,還包括行為(債)和權(quán)利,是物的上位概念。因此,雖然人工智能不是物,但有可能被納入財(cái)產(chǎn)范圍。
在強(qiáng)人工智能階段之前,由于人工智能不具有自己設(shè)定目標(biāo)和真正理解自己行為的能力,尚不能意識到自己的存在,故其無關(guān)人身關(guān)系,但關(guān)乎財(cái)產(chǎn)關(guān)系。因?yàn)槿斯ぶ悄芸梢员毁I賣、處分,是一種會說話、會思考、會自主行為的財(cái)產(chǎn)。
當(dāng)然,從某種意義上說,僅有自然人才是目的,被擬制為主體的法人也是實(shí)現(xiàn)目的的一種手段,即工具。筆者并不否認(rèn)法人具有工具的一面,但是法人還有更重要的一面,那就是財(cái)產(chǎn)。歸根結(jié)底,法人不過是財(cái)產(chǎn)的集合體,所處理的也僅為財(cái)產(chǎn)方面的法律關(guān)系。然而,與工具不同的是,財(cái)產(chǎn)含有“近人性”的一面,比如野生動(dòng)物作為一種財(cái)產(chǎn),它們至少具有生存的目的。
又如,古代的奴隸也被看成是財(cái)產(chǎn),他們的目的就不僅僅是生存的欲望了。而工具則側(cè)重于“近物性”的一面。由于人工智能的自主性,與人類的交互性以及理性思考能力,表明其具有“近人性”。因此,將人工智能的本質(zhì)認(rèn)定為工具其實(shí)只看到了其“近物性”的一面,而忽視了其“近人性”的一面。
二、人工智能可以獲得民事主體資格
民事主體與人格密切相關(guān)。“人”是指民事權(quán)利主體,“格”是指成為這種主體的資格,所謂人格者,民事權(quán)利主體資格之稱謂也[22]。一般認(rèn)為,意思能力和責(zé)任能力是獲得民事主體資格的實(shí)質(zhì)要件,而獲得法律承認(rèn)則是成為民事主體的形式要件[23]。
人工智能是硅基體,與碳基體的人類不同,不具有人的生物質(zhì)。然而,法人作為被擬制的主體,同樣不具有人的生物質(zhì),所以人工智能是否具有生物質(zhì)并不影響其能否成為民事主體。從“人可非人”到“非人可人”的發(fā)展史來看
在前現(xiàn)代社會,大量的自然人,比如家庭內(nèi)的婦女、卑親屬、奴隸被剝奪了法律人格,因而無資格被稱為法律中的“人”。在現(xiàn)代社會,法律不但恢復(fù)了所有自然人作為法律人的資格,而且基于保護(hù)這些現(xiàn)實(shí)中的人的需要,還將那些在生理上根本不可能成為人的實(shí)體,比如法人和非法人組織,也賦予了法律人格,從而使其成了法律中的“人”。民事主體只是社會需要的法律形式,法律對民事主體的承認(rèn)是基于現(xiàn)實(shí)需要,根基在于以人的利益為中心的功利主義,生命和倫理并非成為民事主體的必然要求。
(一)人工智能具有意思能力
意思能力,即作出意思表示的能力。該意思表示既可以是本人作出,也可以由他人代為作出。如法人對外的意思表示一般是由其法定代表人代為作出,而無民事行為能力的自然人的意思表示可以由其法定代理人作出。人工智能具有理性能力和自主性,符合民事主體的理性預(yù)設(shè),可以自主為意思表示,具有意思能力
讓智能機(jī)器人在一定范圍內(nèi)擁有自主權(quán)是合理的,法律可以通過賦予一定的權(quán)利和義務(wù)以確立智能機(jī)器人以“電子人格”的法律地位,使其有一定的“行為”和一定范圍的“決定權(quán)”。這一點(diǎn)與動(dòng)物不同,動(dòng)物的自主行為不具有理性能力,因此,可以將人工智能視為主體而不宜將動(dòng)物擬制為民事主體。
意思能力不同于意志能力。意志能力即為意識和選擇或反思調(diào)整的能力[24],有學(xué)者以是否具有意志能力作為能否獲得民事主體資格的要件[24],筆者認(rèn)為不妥。因?yàn)闊o民事行為能力人,比如嬰兒、完全不能辨認(rèn)自己行為的精神病人等,他們都沒有意志能力,但他們是法律上的民事主體,所以對于自然人而言,只要具有人的生物質(zhì)這一個(gè)要件就可以成為民事主體。法人是一種組織體,它本身并無人的生物質(zhì),也沒有意志能力
一般而言,民事主體中只有理性的自然人才有意志能力。雖然法人背后的自然人有意志能力,但這并不表明法人自己有意志能力。因?yàn)榉ㄈ俗陨聿o意識,是人類為實(shí)現(xiàn)一定目的的工具(手段),然而,意志能力要求作出行為的主體是帶有目的性的,可是法人自己并無任何目的可言,所以作為民事主體的法人并不具有意志能力。
因?yàn)榉ㄈ擞幸馑紮C(jī)關(guān),該意思機(jī)關(guān)符合民事主體理性的預(yù)設(shè),從而法律賦予其可以對外為意思表示的能力。因此,除自然人可因生物質(zhì)而當(dāng)然為民事主體外,其他存在形式能否成為民事主體的必要要件是其意思能力,而非意志能力。
當(dāng)然,人工智能的意思能力僅限于特定領(lǐng)域,只能在特定領(lǐng)域?yàn)橐馑急硎,而在其他領(lǐng)域特別是參加訴訟、進(jìn)行財(cái)產(chǎn)處分時(shí),應(yīng)由其所有權(quán)人或管理人等代為意思表示。從這個(gè)層面來看,人工智能類似于限制行為能力人,其對外發(fā)生財(cái)產(chǎn)關(guān)系時(shí),有的可以由人工智能自己為意思表示,有的需由他人代為意思表示。
(二)人工智能具有責(zé)任能力
責(zé)任能力,即是否能以自己的財(cái)產(chǎn)獨(dú)立承擔(dān)責(zé)任的能力。人工智能并非生物人,不會主動(dòng)犯錯(cuò),更不會有故意犯罪或侵權(quán)的動(dòng)機(jī),由此決定其不宜成為刑法上的主體
有學(xué)者認(rèn)為智能機(jī)器人可以作為刑事責(zé)任主體,應(yīng)針對其特點(diǎn)設(shè)立特殊的刑罰處罰方式。但有可能成為民法上的主體,因?yàn)闆]有過錯(cuò)也可科以民事責(zé)任。筆者并不否認(rèn)責(zé)任的最終承擔(dān)者是自然人,即便是法人,雖以其責(zé)任財(cái)產(chǎn)為限對外承擔(dān)責(zé)任,但該財(cái)產(chǎn)責(zé)任最終還是落在了相應(yīng)的自然人身上,從這個(gè)意義上講,法人其實(shí)是充當(dāng)了其背后自然人所生權(quán)利、義務(wù)和責(zé)任轉(zhuǎn)承的一種媒介。
同樣,賦予人工智能民事主體資格后,其致害責(zé)任的實(shí)際承擔(dān)者也是自然人,只不過他人所遭損害與人工智能之間存在因果關(guān)系,與人工智能背后的自然人并無直接因果關(guān)系,但自然人因與人工智能之間存在利害關(guān)系,從而間接地轉(zhuǎn)承了人工智能對外所生的權(quán)利、義務(wù)和責(zé)任。所以,是否賦予人工智能民事主體資格的關(guān)鍵不在于它有無自然人那樣的責(zé)任能力,而在于能否像法人那樣擁有獨(dú)立的責(zé)任財(cái)產(chǎn)。即人工智能是否具有責(zé)任能力,關(guān)鍵在于其應(yīng)否和能否擁有獨(dú)立的財(cái)產(chǎn)。
筆者認(rèn)為應(yīng)給予人工智能獨(dú)立的財(cái)產(chǎn),因?yàn)槿斯ぶ悄苤潞εc獲益,存在無法歸因于任一單方主體的情形,而是多方主體。這是人工智能與動(dòng)物的又一區(qū)別,動(dòng)物致害背后的主體是單一的,無賦予其責(zé)任財(cái)產(chǎn)之必要。而人工智能致害或獲益背后的主體是多元的,有必要像法人一樣單獨(dú)賦予其責(zé)任財(cái)產(chǎn),以此區(qū)隔責(zé)任、分散風(fēng)險(xiǎn)擁有擬制人格的人工智能可以自己承擔(dān)責(zé)任,從而可以減少人工智能的制造者和使用者的財(cái)產(chǎn)和法律責(zé)任。
筆者認(rèn)為無人駕駛汽車交通事故的潛在責(zé)任方,至少包括以下主體:軟件開發(fā)商、汽車制造商、零部件供應(yīng)商、汽車修理廠、使用者、車輛管理方、道路基礎(chǔ)設(shè)施管理部門、交管部門、安全部門等,通信網(wǎng)絡(luò)運(yùn)營商、IT服務(wù)提供商、一級供應(yīng)商、電子地圖公司等,行業(yè)組織與機(jī)構(gòu)等。。至少包括三方主體,一是人工智能系統(tǒng)的所有者,由于系統(tǒng)價(jià)值大,故一般情況下是許可他人使用,所有權(quán)仍保留在開發(fā)制造者手中;二是購買者,一般是購買無人駕駛汽車的投資者,同時(shí)也是系統(tǒng)的使用者;三是國家,無人駕駛專用道路的建設(shè)、養(yǎng)護(hù)以及行使環(huán)境的監(jiān)測等均需要國家投入大量人力物力,而其運(yùn)行平臺也應(yīng)受到國家監(jiān)控。
以上三方缺一不可,因?yàn)槿斯ぶ悄艿男袨榉譃橄忍煨袨楹秃筇煨袨椋合忍煨袨橛砷_發(fā)制造者預(yù)設(shè);后天行為一般是購買者通過對其進(jìn)行“訓(xùn)練”“教育”形成,而且人工智能被“訓(xùn)練”“教育”的時(shí)間越長,與人類的交互性越強(qiáng),購買者與人工智能的利益相關(guān)度就會越高。另外,人工智能的行為關(guān)涉人類隱私等公共利益,存在開發(fā)制造者和購買者合謀(如更改系統(tǒng)等)侵害他人利益等情形,需要國家對其實(shí)施監(jiān)管。更為重要的是,人工智能的“原材料”——數(shù)據(jù),在人工智能進(jìn)入初級階段以后,一般要由國家掌握和提供。所以,人工智能行為的背后至少代表了以上三方主體的利益。
而且,三方主體與人工智能利益的相關(guān)度會因人工智能所處階段的不同而有差別。在無人駕駛汽車造成他人損害,可以查明是由某方主體原因(過錯(cuò))造成時(shí),根據(jù)過錯(cuò)責(zé)任原則,直接追究其責(zé)任即可。問題是,無人駕駛汽車造成他人損害往往是因其自主性,超越原控制方案而“擅自所為”,或因意外等無過錯(cuò)的情形。有學(xué)者認(rèn)為,任何人如果允許機(jī)器自主作出決策,都應(yīng)該能預(yù)見到機(jī)器總是會失控并且應(yīng)當(dāng)為此承擔(dān)責(zé)任[25]。
筆者認(rèn)為,由研發(fā)其自主性的開發(fā)制造者完全擔(dān)責(zé)不具有妥當(dāng)性。因?yàn)樽灾餍耘c人類生活的便捷程度呈正相關(guān),也是人工智能的價(jià)值所在,為促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展,國家也允許并鼓勵(lì)研發(fā)自主性越來越強(qiáng)的人工智能。也就是說,自主性是符合國家技術(shù)標(biāo)準(zhǔn)的,開發(fā)制造者完全可以技術(shù)中立為由主張免責(zé)。不過,開發(fā)制造者因此獲益就應(yīng)有所付出,因此,他們對人工智能自主性所帶來的風(fēng)險(xiǎn)負(fù)有一定的間接責(zé)任。
同樣,國家和購買者也要分擔(dān)此風(fēng)險(xiǎn)。因?yàn)樽灾餍杂欣谠鲞M(jìn)公共福利,就像核能的開發(fā)利用一樣,同時(shí)也為購買者提供了更高品質(zhì)的享受與服務(wù),他們也因人工智能的自主性而獲益,當(dāng)然也應(yīng)分擔(dān)其帶來的風(fēng)險(xiǎn)。因此,當(dāng)無人駕駛汽車致害但又不可歸責(zé)于任一單方主體時(shí),將責(zé)任完全科以任一主體均不妥當(dāng),亦無適用連帶責(zé)任之余地,故有必要賦予人工智能獨(dú)立的財(cái)產(chǎn)以擔(dān)此責(zé)。
三、人工智能成為電子法人的可行性
從我國《民法總則》第2條“民法調(diào)整平等主體的自然人、法人和非法人組織之間的人身關(guān)系和財(cái)產(chǎn)關(guān)系”的規(guī)定來看,與人格相關(guān)的,無外乎人身利益和財(cái)產(chǎn)利益。因此,可以將人格分為人身性人格和財(cái)產(chǎn)性人格。所謂財(cái)產(chǎn)性人格,是指該主體的意思能力和責(zé)任能力僅限于財(cái)產(chǎn)方面,而不能及于人身。從“人可非人”到“非人可人”的發(fā)展史來看,人身性人格可被剝離,具有財(cái)產(chǎn)性人格即可獲得成為民事主體的資格。
一般而言,除自然人具有人身性人格外,其他民事主體僅有財(cái)產(chǎn)性人格。也許有人認(rèn)為,法人也有名稱權(quán)之類的人身性人格。但筆者認(rèn)為,法人所擁有的名稱權(quán)、作品署名權(quán)等,本質(zhì)上也是財(cái)產(chǎn)性人格,因?yàn)榉ㄈ说拿Q權(quán)可以進(jìn)行轉(zhuǎn)讓,而人身性的事物一般是不能進(jìn)行交易的。其實(shí),給法人設(shè)定名稱,是為了便于識別,更主要是因?yàn)樵撁Q會產(chǎn)生財(cái)產(chǎn)利益,而不會有人身利益。
否則,侵害法人名稱權(quán)就要承擔(dān)精神損害賠償責(zé)任,這顯然是荒謬的,而自然人的姓名則不同,其一開始便具有人身利益。另外,法人也不可能承擔(dān)人身性的義務(wù)和責(zé)任,當(dāng)法人的作品侵害他人著作權(quán)時(shí),要求法人承擔(dān)賠禮道歉等人身性的責(zé)任,沒有意義。因此,只有自然人主體才有人身性人格,法人的本質(zhì)是人為擬制的為實(shí)現(xiàn)一定目的的工具,法律不應(yīng)在人身方面賦予其人格。
筆者認(rèn)為,人工智能的本質(zhì)是財(cái)產(chǎn),具有財(cái)產(chǎn)性人格,但無人身性人格,其意思能力和責(zé)任能力僅限于財(cái)產(chǎn),而不能及于人身,所以應(yīng)歸入法人范疇,可以成為新型法人型民事主體——電子法人,而要成為自然人型主體——電子人,是行不通的。
人工智能的本質(zhì)是財(cái)產(chǎn),而財(cái)產(chǎn)特定化、擬人化或?qū)⒇?cái)產(chǎn)作為民事主體,立法上早有先例,這不僅體現(xiàn)在羅馬法早就將國庫、寺院視為權(quán)利主體[22]3-9,而且大陸法系國家的慈善組織、基金會大都是由財(cái)產(chǎn)構(gòu)成的一種財(cái)團(tuán)法人,而我國《繼承法》中的遺產(chǎn),尤其是遺產(chǎn)的限定繼承,就存在被視為“權(quán)利義務(wù)主體”的空間
被繼承人死后,繼承人尚未確定時(shí)的遺產(chǎn),本身就可以享受權(quán)利和承擔(dān)義務(wù),例如遺產(chǎn)是房屋時(shí),即使未有新的所有人,房屋仍然可以收取房租或支付房屋修繕費(fèi)用。因此,遺產(chǎn)在待繼承期間的法律地位就是財(cái)產(chǎn)構(gòu)成的團(tuán)體。
對于法人本質(zhì)的探討,除“擬制說”與“實(shí)在說”外,學(xué)界還有一種中性的表述,該表述視法人為一種財(cái)產(chǎn)權(quán)歸屬載體,也有學(xué)者稱之為法人“特別財(cái)產(chǎn)說”。既然法律可以賦予不能說話、沒有意識的國家、公司、嬰兒、無民事行為能力人、自治城市和大學(xué)等以法律資格,可以設(shè)定它們的保護(hù)人或代理人,為什么法律不能賦予自然物體以法律資格[27]?事實(shí)上,立法早有將船舶擬人化的實(shí)踐。
在特定情況下,船長及船員的行為被法律擬制為“船舶”行為,由船舶造成的侵權(quán)債務(wù)、違約債務(wù)以及其他海事債務(wù)可由船舶本體償還,與責(zé)任人的其他財(cái)產(chǎn)無關(guān)。并認(rèn)為船舶是準(zhǔn)法人,準(zhǔn)法人是指船舶屬于法律上人的范疇,但不完全構(gòu)成法人的資格,具有限制性法人的特征。一方面船舶具有人的法律地位;另一方面,船舶的權(quán)利能力和行為能力要受到法定限制。只有在法律規(guī)定的范圍內(nèi)和船舶所有人授權(quán)時(shí),船舶才具有法人的權(quán)利和行為能力。
因此,在現(xiàn)有法人制度體系下,增設(shè)一種特別法人——電子法人,是可行的。基于《民法總則》已有“特別法人”的規(guī)定,筆者認(rèn)為,這也不會對現(xiàn)有民事主體制度造成沖擊和損害。因人工智能自身具有可為一定意思表示等特殊性,所以可參照“是一種經(jīng)濟(jì)上的主體,還具有一定的政治性”[28]的特別法人——農(nóng)村集體經(jīng)濟(jì)組織法人,將作為電子法人的人工智能歸為“特別法人”。當(dāng)然,電子法人與財(cái)團(tuán)法人、社團(tuán)法人都擁有獨(dú)立的責(zé)任財(cái)產(chǎn),三者的責(zé)任能力相同,但因意思能力不同,與之對應(yīng)的運(yùn)行方式也就不同。
四、人工智能成為電子法人的必要性
將人工智能擬制為電子法人,主要基于以下兩點(diǎn)考慮:一是人工智能的發(fā)展帶來現(xiàn)有法律制度框架難以解決的問題,比如無人駕駛汽車侵權(quán)責(zé)任的承擔(dān)、人工智能創(chuàng)作的收益歸屬、人工智能交易行為的效力等問題。二是將人工智能擬制為電子法人可以解決與人工智能利益相關(guān)的多方主體責(zé)任有限問題,實(shí)現(xiàn)多方主體對人工智能自主行為產(chǎn)生的權(quán)利、義務(wù)和責(zé)任按相應(yīng)比例的合理分?jǐn),即?quán)責(zé)分?jǐn)。以無人駕駛汽車侵權(quán)責(zé)任承擔(dān)問題為例,學(xué)界主流觀點(diǎn)認(rèn)為現(xiàn)行交通事故侵權(quán)責(zé)任制度難以繼續(xù)適用,不少學(xué)者認(rèn)為應(yīng)主要適用產(chǎn)品責(zé)任或物的責(zé)任追責(zé)。
人工智能方向論文范文閱讀:人工智能技術(shù)在電氣自動(dòng)化控制中的運(yùn)用探究
【摘 要】目前,工業(yè)化生產(chǎn)中自動(dòng)化水平越來越高,電氣自動(dòng)化控制技術(shù)也朝著多元化發(fā)展,人工智能技術(shù)在電氣自動(dòng)化控制中的應(yīng)用進(jìn)一步提高了我國控制系統(tǒng)的運(yùn)行水平,實(shí)現(xiàn)了自動(dòng)化、智能化的飛躍。下面我們就對電氣自動(dòng)化控制中人工智能技術(shù)的應(yīng)用進(jìn)行分析。
轉(zhuǎn)載請注明來自發(fā)表學(xué)術(shù)論文網(wǎng):http:///dzlw/20850.html