人工智能成為法律主體不存在理論障礙
文 | 石冠彬 華東師范大學(xué)教授
人工智能,從技術(shù)層面而言,特指使計算機程序呈現出人類(lèi)智能的技術(shù);從客觀(guān)存在層面而言,泛指能夠表現出人類(lèi)智能的機器設備。一般認為,智能機器人是人工智能的最高級形式,但并不限于人形機器人,電影《流浪地球》中的MOSS、2023年引發(fā)全球關(guān)注的ChatGPT也屬于典型的智能機器人。伴隨大數據技術(shù)發(fā)展,以深度學(xué)習和機器學(xué)習為基礎的傳統人工智能技術(shù)已經(jīng)得到飛速發(fā)展。在此背景下,學(xué)術(shù)界就人工智能是否可以成為法律主體的問(wèn)題展開(kāi)激烈爭論。對此,筆者持肯定觀(guān)點(diǎn):不論從哲學(xué)、倫理學(xué)抑或法學(xué)層面來(lái)看,人工智能成為法律主體均不存在理論障礙。
哲學(xué)的視角
其一,人工智能成為法律主體與馬克思主義哲學(xué)對“人”本質(zhì)的界定并不矛盾。誠然,馬克思主義哲學(xué)將人的社會(huì )屬性界定為社會(huì )實(shí)踐活動(dòng),而人的主體地位表現為人的社會(huì )屬性,但這并不意味著(zhù)不屬于社會(huì )關(guān)系總和的人工智能就不能成為法律主體。因為馬克思主義哲學(xué)對人的社會(huì )屬性的界定,是針對自然人而言的,人工智能所能享有的法律人格與自然人并不完全等同——以自然人的社會(huì )屬性來(lái)論證人工智能不能享有法律人格,缺乏說(shuō)服力。而且,人工智能的程序運算,本身也可視為人類(lèi)活動(dòng)的延續與意思表示,認為其不具有人的價(jià)值性和實(shí)踐性的論斷,值得商榷。
其二,人工智能成為法律主體與哲學(xué)領(lǐng)域對人主體性要素的認識也不矛盾。人是情感、理性及多種元素的復合體,人的主體性要素在哲學(xué)中被定義為基于需要和自我意識形成的價(jià)值觀(guān)念,而人工智能只能模擬人的某些特定的功能,無(wú)法模擬真正的人,兩者存在本質(zhì)差別。盡管如此,也不能以人工智能不具備自我意識為由,認定其不能成為法律主體,因為將人工智能的法律人格與自然人等同,并以此否定人工智能成為法律主體的合理性,這一論證邏輯本身就是錯誤的。從目前學(xué)術(shù)界的爭論來(lái)看,肯定論者并未主張要將人工智能完全等同于人類(lèi),即使是理論假設中未來(lái)可能出現的具有自我意識的強人工智能,也無(wú)法與人類(lèi)等同。特別值得注意的是,哲學(xué)層面對人主體性要素的認識,實(shí)際上只限于正常人類(lèi),對處于發(fā)病狀態(tài)的精神病患者、植物人等無(wú)民事行為能力人,要認定其具有心理意識和自我意識、具有法律規范遵從能力的意志性恐難成立,但這并不影響無(wú)民事行為能力人的法律人格。
倫理學(xué)的視角
其一,人工智能成為法律主體并不違反倫理道德。誠然,以人為本是最高的倫理原則,但賦予人工智能以法律人格并非不道德,因為賦予人工智能以法律人格并不會(huì )影響人的主體地位,不是要將人作為客體對待,所以不存在所謂的倫理困境?;蛘哒f(shuō),人工智能成為法律主體這一立場(chǎng),并不存在混淆主體與客體的錯誤,根本就不會(huì )動(dòng)搖“人是主體”這一定論。而且,法律上的“人”所擁有的主體資格本質(zhì)上是一種社會(huì )人格,彰顯的是法律對作為“人”的特定群體所擁有力量和地位的尊重。即使人工智能的這種社會(huì )人格是以算法程序、代碼規則實(shí)現的智能,也可以得到法律的肯定——法律上的“人”本身并非均要求具備生理性特征,其本身與現實(shí)社會(huì )中的“人”就是兩個(gè)不同的概念,現代各國民事立法對于法人人格的承認足以證明民事主體理論已經(jīng)突破倫理人的范疇。
其二,人工智能成為法律主體也不會(huì )貶低人的主體地位。如前所述,賦予人工智能以法律人格,這一立場(chǎng)的根源就是為了更好地服務(wù)人類(lèi),且并不意味著(zhù)要將具有人類(lèi)智能的機器等同于“自然人”,所以不會(huì )導致人的主體地位受到貶低。賦予人工智能以特定的法律人格本身就是基于功利主義的考量,是出于人類(lèi)利益的最大化追求,既不是要將人工智能上升為哲學(xué)層面的“人”,也不要求人工智能的智能程度和產(chǎn)品外形等同于自然人,而是源于前述被社會(huì )現實(shí)所需要的社會(huì )人格,這從某種程度上恰恰能凸顯人的主體地位。而且,未來(lái)立法在價(jià)值權衡的基礎上,完全可以在肯定人工智能享有法律人格的同時(shí),肯定人類(lèi)就人工智能本身仍能享有所有權,從而將其作為客體對待。
法學(xué)的視角
其一,人工智能成為法律主體與法律人格理論并不矛盾。法律人格理論發(fā)展至今,始終貫徹人類(lèi)中心主義思維,由此,自然人的內涵、外延均無(wú)法涵蓋人工智能,法人亦與其背后的自然人密切相關(guān);而且,具有人類(lèi)智能的機器確實(shí)也只是人類(lèi)活動(dòng)的結果,其不具有與自然人類(lèi)似的內在感知、觀(guān)察、判斷、選擇等一系列復雜行為所構成的意思能力,也不具有責任主體必備的道德良知、倫理、規矩和習慣,更不具有生命權能。與此同時(shí),由于“技術(shù)黑箱”的存在,人類(lèi)確實(shí)尚無(wú)法解釋相應編碼與決策結果之間的因果關(guān)系。但上述結論并不意味著(zhù)賦予人工智能法律人格有違法理,也不意味著(zhù)混淆了自動(dòng)化科學(xué)中的工具自動(dòng)化決策與人類(lèi)主體性之間的區別、混淆了人之主體能力本質(zhì)與為人所創(chuàng )造工具的工作能力表象之間的區別。因為人工智能的自動(dòng)化決策,是人類(lèi)所“投喂”大數據與計算機程序共同合力形成的結果,兩者均是人類(lèi)智性的延續與“放任”,相應結果可被解釋為“投喂者”與程序設計者的概括性意思表示。因為所“投喂”的大數據中蘊含的價(jià)值理念本身就是自然人特有的智性、心性、靈性的外在體現,而人類(lèi)創(chuàng )設的程序所產(chǎn)生的數字運算本身,也是基于人類(lèi)意志所衍生出的意思表示。從這一角度來(lái)說(shuō),法人本質(zhì)是自然人的集合體,其所做出的決策是人類(lèi)的直接意志體現;而人工智能所做決策也與人類(lèi)意志緊密相關(guān),與現有法律人格理論并不矛盾。
其二,人工智能成為法律主體與“法律根據人的理性而設”這一法理并不矛盾。否定論者認為,作為利益負擔者的人,會(huì )因為自身情緒等的影響做出非理性的錯誤決定,法律也正是因此才有存在的必要;但是人工智能不會(huì )出現類(lèi)似錯誤,其并不具有價(jià)值判斷能力和道德感,其所謂的出錯也只是“執行算法”中出現的“程序BUG”。筆者認為,上述見(jiàn)解將法律完全視為防止人類(lèi)犯錯的工具,過(guò)于片面,比如,法律確認權利歸屬的功能就與人類(lèi)會(huì )犯錯無(wú)關(guān)。而且,發(fā)明人工智能本身就是人類(lèi)理性的體現,法律調整人工智能產(chǎn)生的相應法律關(guān)系,本質(zhì)上仍然是調整人與人之間的法律關(guān)系,仍以人的理性為基礎。
其三,人工智能成為法律主體與民事主體的責任能力理論并不矛盾。否定論者認為,人工智能最終的責任承擔者是自然人,故賦予其法律人格純粹多余。這一見(jiàn)解,顯然是錯誤的:一方面,賦予人工智能法律人格與人工智能能否獨立承擔責任兩者之間并無(wú)因果關(guān)系,不能以人工智能不能獨立承擔責任為由否認賦予其法律人格的合理性。從現行法角度來(lái)看,個(gè)體工商戶(hù)、合伙企業(yè)、個(gè)人獨資企業(yè)均屬于法律主體,但其最終責任承擔者并非主體本身。另一方面,從實(shí)操層面來(lái)看,人工智能也并非不能獨立承擔責任。借鑒法人的注冊資本制度,未來(lái)立法完全可以在賦予人工智能以法律人格的同時(shí),通過(guò)構建強制責任保險制度奠定人工智能獨立承擔責任的財產(chǎn)基礎。
其四,賦予人工智能法律人格與現有法律制度體系和結構很難說(shuō)存在嚴重沖突。一方面,否定論者認為,如果認為人工智能是主體或者具有人格屬性,那么就要從根本上改變民法的人與物二分法的基本體系,就要針對人工智能創(chuàng )造出調整現有人與物之外的第三種基本規則來(lái)調整人工智能這種存在形式。但是,即使承認人工智能具有相應法律人格,也并不需要否認人類(lèi)本身對人工智能享有所有權這一事實(shí);換言之,法律在肯定人工智能可以享有民事財產(chǎn)權的同時(shí),并不改變人工智能本身相對于人類(lèi)而言的客體屬性。這一制度構建并不存在體系效應,不會(huì )對現有法律制度和結構產(chǎn)生嚴重影響。另一方面,一國法律體系和結構本身就處于不斷完善的過(guò)程之中,以保持現有法律制度體系和結構的穩定性為由,否定法律發(fā)展的合理性,存在邏輯瑕疵、缺乏因果關(guān)系。
值得注意的是,否定論者還認為,人工智能所引發(fā)的問(wèn)題,完全可以在既有的法律體系中得到解決,沒(méi)有必要通過(guò)將人工智能擬制為法律上的主體來(lái)予以應對??陀^(guān)而言,通過(guò)重構版權法理論、侵權法理論,確實(shí)能夠解決諸如人工智能生成物能否受到版權保護、自動(dòng)駕駛責任如何承擔等問(wèn)題,但是,這種理論重構本身與肯定人工智能可以成為法律主體一樣,都屬于解決發(fā)展人工智能所帶來(lái)法律問(wèn)題的可選方案,不能以前者否認后者的合理性。換言之,未來(lái)立法賦予人工智能以特殊法律人格同樣也是社會(huì )的現實(shí)需求,不能因為存在其他解決方案就否認這一可選路徑本身的合理性。而且,以有無(wú)必要來(lái)論證是否可行,本身就存在偷換概念的邏輯問(wèn)題,兩者之間欠缺因果關(guān)系。
綜上所述,人工智能成為法律主體并不意味著(zhù)其就必須與自然人一樣,其所能享有的只能是有限人格,即在承認人工智能可以享有財產(chǎn)權、能夠作為創(chuàng )作主體的同時(shí),仍應認可其歸屬于人類(lèi)這一客體屬性?;谔厥獾恼呖剂?,在必要的情況下,可以參照公司法人的資本制度,通過(guò)出廠(chǎng)設定強制責任保險的方式保障人工智能的責任財產(chǎn)。這一立場(chǎng)尊重了人工智能的發(fā)展趨勢、符合未來(lái)社會(huì )的客觀(guān)需要,具有法理正當性與立法方案的可行性,其本質(zhì)上是為更好地實(shí)現人類(lèi)利益。