每一項(xiàng)重大科技應(yīng)用取得突破前后,均有對(duì)其理論上的持續(xù)爭(zhēng)論。著名小說《仿生人會(huì)夢(mèng)見電子羊嗎?》引發(fā)的人與仿生人之間界限的討論雖產(chǎn)生于20世紀(jì),但一直延續(xù)至今,其蘊(yùn)含的法律問題是人工智能究竟是否具備法律人格。這一問題對(duì)外是研發(fā)與運(yùn)用人工智能的前提,對(duì)內(nèi)則是確立人工智能權(quán)利、義務(wù)乃至責(zé)任的基礎(chǔ)。圍繞此問題,光明日?qǐng)?bào)理論版近期刊發(fā)了多篇文章,充分反映了反對(duì)說與支持說之間的爭(zhēng)鳴。但筆者認(rèn)為,此兩類觀點(diǎn)均有可供商榷之處,即都未能很好地針對(duì)不同級(jí)別人工智能的特質(zhì)來分析。在學(xué)術(shù)討論中,人工智能主要分為弱人工智能和強(qiáng)人工智能,其區(qū)別在于自身同人類智慧的距離。這種異質(zhì)性決定了不同人工智能各自法律人格的有無(wú)以及如何具體地賦予,但在判斷時(shí)均須遵循法律主體資格的一般要件原理。
人工智能有無(wú)法律人格的判準(zhǔn)
法律并非當(dāng)然地把某種自然存在(如自然人)或社會(huì)實(shí)在(如公司等)認(rèn)定為法律主體,而是通過一定的條件設(shè)置或認(rèn)可原則來判斷是否以及如何賦予該存在以特定的主體資格。符合條件與認(rèn)可原則者,即具備法律人格,反之則否。這只能是一種非此即彼的判斷,而不可能存在《有限法律主體:人工智能法律地位的合理選擇》一文提出的“有限性”這一中間狀態(tài)。簡(jiǎn)言之,抽象的法律人格是不能附加條件或予以限制的,能夠限制的只能是具體的權(quán)利,而非人格(即主體資格)。人工智能這種非自然人的社會(huì)存在是否具有法律人格,端賴其能否滿足以下三方面要件。
第一,意志能力要件,即能否把內(nèi)在思想通過外在行為表達(dá)出來。自然人的內(nèi)在意志往往通過其外在行為表達(dá)出來,無(wú)論該行為是明示的、默示的,還是沉默的。表征法人意志的則是團(tuán)體設(shè)立成員之間的共同信念,該共同信念便是法人意志能力的外在體現(xiàn)。判斷人工智能有無(wú)意志能力的標(biāo)準(zhǔn)在于:決定其發(fā)揮具體功能或完成特定任務(wù)的算法能否與設(shè)計(jì)者、生產(chǎn)者等相分離;或者說,人工智能本身能否自主地創(chuàng)設(shè)出新的算法或擺脫既有算法的約束。若人工智能仍完全受制于既有算法的束縛,那就難謂它有意志能力;若人工智能可以擺脫既有算法束縛,能夠自主地發(fā)揮特定功能,完成某種意志性行為,那就可以說它具有某種程度的意志能力,法律便可以賦予其主體資格,或至少具有這種可能。
第二,物質(zhì)性要件,即是否擁有從事活動(dòng)所需的財(cái)產(chǎn)或其他必要條件。物質(zhì)性要件可以是技能或身份,但更多的應(yīng)該是財(cái)產(chǎn)。對(duì)于人工智能來說,其物質(zhì)性要件可謂紛繁多樣,這完全取決于人工智能所要發(fā)揮的個(gè)體功能及社會(huì)功能。但無(wú)論如何,擁有財(cái)產(chǎn)是人工智能獲得法律人格的一個(gè)極其重要的要件,因?yàn)橛懻撈涫欠窬哂蟹扇烁?,從最終意義上說還是在追問人工智能能否獨(dú)立承擔(dān)法律責(zé)任,尤其是財(cái)產(chǎn)性法律責(zé)任。
第三,形式性要件。一個(gè)社會(huì)存在實(shí)體能否成為法律上的人,還取決于其是否符合法律的形式要件要求。法律通過一套認(rèn)可原則把客觀實(shí)在納入法律主體之中,自然人是隨著出生、通過人的存在而具有權(quán)利能力的,法人的權(quán)利能力則通過特定的認(rèn)可原則而授予。當(dāng)下,承認(rèn)非自然人主體資格的認(rèn)可原則主要有自由設(shè)立、準(zhǔn)則設(shè)立、行政許可、特許設(shè)立、強(qiáng)制設(shè)立等五種。主體的認(rèn)可原則反映著一個(gè)國(guó)家對(duì)非自然人主體賦予法律主體資格的寬嚴(yán)松緊程度,其本身就是一種法律價(jià)值判斷。
人工智能法律人格的分級(jí)認(rèn)定
近期刊發(fā)的幾篇文章,基本上都不加區(qū)分地肯定或否定所有人工智能的法律人格。但依據(jù)本文關(guān)于人工智能有無(wú)法律人格的判準(zhǔn),在現(xiàn)行法下,關(guān)于不同級(jí)別人工智能有無(wú)法律人格的問題,結(jié)論并不相同。
第一,部分弱人工智能無(wú)法律人格,其應(yīng)被認(rèn)定為權(quán)利客體,具體表現(xiàn)為物、產(chǎn)品、服務(wù)等。在意志能力要件方面,即便是高級(jí)弱人工智能的“智能”仍比較固定且單一,其僅能在算法設(shè)置的任務(wù)范圍內(nèi)具備某種超出人類的“智能”?!度斯ぶ悄艹蔀榉芍黧w不存在理論障礙》一文在論證人工智能具備法律人格時(shí)指出,“人工智能的自動(dòng)化決策,是人類所‘投喂’大數(shù)據(jù)與計(jì)算機(jī)程序共同合力形成的結(jié)果,兩者均是人類智性的延續(xù)與‘放任’”,恰恰證明了弱人工智能難以產(chǎn)生自由意志。在物質(zhì)性要件方面,《有限法律主體:人工智能法律地位的合理選擇》一文雖主張“法律應(yīng)當(dāng)為人工智能創(chuàng)設(shè)特殊的責(zé)任承擔(dān)的機(jī)制,在一定限度內(nèi)以自己的財(cái)產(chǎn)獨(dú)立對(duì)受害人承擔(dān)責(zé)任”,但當(dāng)下還難以看到人工智能可以擁有自己的財(cái)產(chǎn),迄今也還沒有出現(xiàn)責(zé)令人工智能獨(dú)立承擔(dān)或與他人共同承擔(dān)侵權(quán)損害賠償?shù)确韶?zé)任的案例。即便人工智能發(fā)展的未來是讓其獨(dú)立或與其他主體共同承擔(dān)責(zé)任,但至今仍還沒有找到為人工智能注入“第一桶金”的現(xiàn)實(shí)路徑。在形式要件方面,法律通過何種形式來認(rèn)定弱人工智能具有法律人格,目前尚無(wú)制定法依據(jù)。因此,弱人工智能在現(xiàn)階段原則上被認(rèn)定為權(quán)利客體更妥。此做法并不妨礙區(qū)分具體情形解決其致害責(zé)任的分配問題。如自動(dòng)駕駛汽車致害時(shí),可能發(fā)生產(chǎn)品責(zé)任(民法典第1203條)與機(jī)動(dòng)車交通事故責(zé)任(道路交通安全法第76條)的競(jìng)合。
其二,高級(jí)人工智能(包括強(qiáng)人工智能及部分高級(jí)弱人工智能)在特定條件下有可能被賦予法律人格?!镀瞥斯ぶ悄艹蔀榉芍黧w的臆想》一文指出,“人工智能系統(tǒng)的‘決策’基于大量的數(shù)據(jù)處理和模式識(shí)別,但這些‘決策’并不涉及自主的理性判斷”。但人工智能因其學(xué)習(xí)能力而在某些領(lǐng)域的應(yīng)用已經(jīng)超越人類的技術(shù)現(xiàn)實(shí),顯然不同于人類既有的科技進(jìn)步。其導(dǎo)致的結(jié)果是,人工智能不再僅僅是工具,而是將“主體—客體”間單向的服務(wù)變?yōu)殡p向的交流,因而具備一定的自主性。這一根本性的變革,促使人類在制度設(shè)計(jì)時(shí)須將人工智能的智能程度及其帶來的不可預(yù)測(cè)性納入考慮范圍。若出現(xiàn)需要對(duì)特定的人工智能予以保護(hù)或使其承擔(dān)責(zé)任的具體情形,可將其擴(kuò)張解釋為法律主體。民法典第128條規(guī)定:“法律對(duì)未成年人、老年人、殘疾人、婦女、消費(fèi)者等的民事權(quán)利保護(hù)有特別規(guī)定的,依照其規(guī)定?!逼淞⒎康脑谟诒Wo(hù)該條列舉和未經(jīng)列舉群體的民事權(quán)益,基于此,該條之“等”可認(rèn)定為“等外等”,即在條文的列舉之外,還包括有待特別保護(hù)的其他群體。在現(xiàn)階段,司法實(shí)踐可將人工智能擴(kuò)張解釋進(jìn)該條的“等”字,適用該條對(duì)人工智能施加保護(hù)。
人工智能法律人格的未來設(shè)想
人工智能是否具備法律人格不能一概而論,僅通過擴(kuò)張解釋將部分人工智能納入法律主體行列,尚屬權(quán)宜之計(jì)。對(duì)于確有必要賦予法律人格的人工智能而言,未來可以采取準(zhǔn)則主義(含登記)使之獲得國(guó)家認(rèn)可。此模式的合理性,一方面是有利于國(guó)家對(duì)弱人工智能尤其是高級(jí)弱人工智能進(jìn)入社會(huì)實(shí)施更有效的控制;另一方面,人工智能國(guó)際標(biāo)準(zhǔn)正在確立并不斷完善,技術(shù)標(biāo)準(zhǔn)的確立為人工智能之分級(jí)和設(shè)立準(zhǔn)則的確立提供了依據(jù)。法人登記制度亦為人工智能登記提供了借鑒。
若未來采用準(zhǔn)則主義肯認(rèn)人工智能的法律人格,尚需進(jìn)一步明確其取得主體地位的實(shí)質(zhì)性要件。在意志能力認(rèn)定方面,人工智能意志能力的認(rèn)定原則是其本身至少能夠適度擺脫固有算法的束縛,形成一定程度的自主學(xué)習(xí)與創(chuàng)造能力。這就需要結(jié)合國(guó)家或者特定國(guó)際組織有關(guān)人工智能的認(rèn)定標(biāo)準(zhǔn),尤其是建立在對(duì)人工智能具體智能分級(jí)的基礎(chǔ)上。在物質(zhì)性要件方面,人工智能應(yīng)該擁有一定的財(cái)產(chǎn)。對(duì)于其初始財(cái)產(chǎn)來源,當(dāng)下有兩種方式可供參考:一是為人工智能強(qiáng)制投保責(zé)任保險(xiǎn)。保險(xiǎn)在現(xiàn)代交通事故賠償中的作用已經(jīng)過實(shí)踐驗(yàn)證,人工智能保險(xiǎn)是解決人工智能財(cái)產(chǎn)責(zé)任承擔(dān)問題的現(xiàn)實(shí)選擇。二是設(shè)立人工智能儲(chǔ)備基金。對(duì)于那些不太可能造成重大生命和財(cái)產(chǎn)損失的人工智能(如Siri、人工智能家庭管家等),有學(xué)者建議應(yīng)對(duì)購(gòu)買人加收責(zé)任附加費(fèi)以創(chuàng)立責(zé)任基金。如此,便可解決《人工智能不應(yīng)成為法律主體》一文提及的人工智能因無(wú)獨(dú)立財(cái)產(chǎn)從而不具備責(zé)任能力的問題。
面對(duì)各類人工智能的社會(huì)存在樣態(tài)、是否準(zhǔn)許特定種類人工智能的存在、存在后如何規(guī)制其行為以及相關(guān)法律爭(zhēng)議如何解決等問題,《破除人工智能成為法律主體的臆想》一文主張的“在現(xiàn)有法律體系下解釋和完善法律”誠(chéng)然是一種可選方案。但是,作為一個(gè)大國(guó),尤其是將發(fā)展人工智能列為國(guó)家戰(zhàn)略的大國(guó),應(yīng)在人工智能立法方面做出率先嘗試,從而可更為有效地引導(dǎo)人工智能的良性發(fā)展?;诖耍覈?guó)極有必要制定“人工智能法”,立法目標(biāo)包括:建立人工智能倫理委員會(huì),確保倫理道德關(guān)系不受破壞;建立全流程監(jiān)管體系,確保從研究到應(yīng)用的負(fù)面效應(yīng)可控;確定寬容審慎的監(jiān)管原則、明晰法律責(zé)任制度;建立國(guó)家層級(jí)的人工智能公共專利池,加速技術(shù)成果商業(yè)轉(zhuǎn)化速度與競(jìng)爭(zhēng)優(yōu)勢(shì)等。其中也有必要對(duì)人工智能的法律人格問題做出回應(yīng)。
總之,人工智能發(fā)展能否實(shí)現(xiàn)《人工智能全球治理上海宣言》中“賦能人類社會(huì)發(fā)展”的壯志,必須回答人工智能是否具有法律人格的重大爭(zhēng)議。主體制度本身是一種價(jià)值判斷,是否賦予人工智能法律人格,在根源上取決于如何平衡開發(fā)者、制造商、所有者、使用者以及第三人(受害人)等主體之間的利益關(guān)系。始終要注意的是,人工智能本質(zhì)為智慧工具,即使人工智能具有自我意志也無(wú)法改變其服務(wù)社會(huì)與自然人類發(fā)展的屬性。無(wú)論是否賦予人工智能法律人格,或者賦予人工智能何種法律人格,其目的或目標(biāo)都應(yīng)是關(guān)心與關(guān)愛自然人類及自然生態(tài)的健康發(fā)展與成長(zhǎng)。否則,一切討論既無(wú)法律意義,也無(wú)倫理價(jià)值。
(作者:彭誠(chéng)信,系上海交通大學(xué)凱原法學(xué)院院長(zhǎng)、教授)