国产精品99久久AV色婷婷综合,泰国性猛交XXXXXHD,中国美女一级特黄大片图片,丰满少妇被粗大的猛烈进出,色婷婷亚洲国产女人的天堂

分享縮略圖

分享到:
鏈接已復制
首頁(yè)> 智庫中國>

人工智能不應成為法律主體

2024-08-16 16:31

來(lái)源:光明日報

分享到:
鏈接已復制
字體:

文 | 孫良國 大連海事大學(xué)法學(xué)院教授

人工智能的治理是一項復雜的系統工程,也是人類(lèi)面對的核心問(wèn)題之一。我國人工智能的發(fā)展要引領(lǐng)世界,就必須設計能夠支撐人工智能可持續發(fā)展的治理機制。其中,法律作為治國之重器,應當在人工智能的治理中發(fā)揮重要作用。在人工智能的法律治理中,一個(gè)重要議題是,人工智能是否應當成為法律主體。在世界范圍內,此問(wèn)題引起了巨大的學(xué)術(shù)爭論和社會(huì )爭議,不同甚或對立的觀(guān)點(diǎn)不斷登場(chǎng),遠未達成共識。筆者的觀(guān)點(diǎn)是,人工智能不應當成為法律主體。

從實(shí)證法的角度看,立法機關(guān)可以通過(guò)法律認可任何組織、實(shí)體或者其他事物作為法律主體。任何突破傳統法律制度的新制度,都必須是經(jīng)過(guò)價(jià)值判斷后的恰當結果。人工智能是否應當成為法律主體,取決于如下價(jià)值判斷:既能夠促進(jìn)人工智能的發(fā)展,同時(shí)也能夠消除人工智能的不當風(fēng)險。技術(shù)變革往往會(huì )伴隨風(fēng)險,但只要風(fēng)險可控且不會(huì )對人類(lèi)價(jià)值產(chǎn)生不可接受的影響,那么法律就應采取最優(yōu)措施來(lái)抑制風(fēng)險??紤]當下功用,兼顧長(cháng)遠影響,總體來(lái)看,維持目前法律制度,不賦予人工智能以法律主體地位,是人工智能法律治理的最優(yōu)解。

人工智能的發(fā)展并不需要其成為法律主體

人工智能是概括性術(shù)語(yǔ),從機器學(xué)習到大規模語(yǔ)言模型等均包括在內。人工智能是否需要成為法律主體,可以從法律主體的歷史演進(jìn)規律獲得啟示。

整體而言,法律主體演進(jìn)的基本規律可概括為從“人可非人”到“非人可人”。即使到近代社會(huì ),自然人(公民)之間的權利也是有差別的。只有在現代法治國家,自然人才享有平等的民事權利。不僅如此,法律主體也已經(jīng)不再限于生物學(xué)意義上的人,公司等實(shí)體也獲得了法律的明確承認,同時(shí)附之以股東或者出資人以自己對公司的出資為限承擔責任。此種承認促進(jìn)了現代科學(xué)技術(shù)和組織形式的跨越式變革,推進(jìn)了人類(lèi)的文明進(jìn)步。盡管部分學(xué)者列舉或者設想了目前人工智能應當作為法律主體的具體場(chǎng)景,然而經(jīng)過(guò)仔細分析,這些場(chǎng)景都沒(méi)有顯示出人工智能需要作為法律主體的真正客觀(guān)需求,也沒(méi)有顯示出既有的法律制度(如代理、公司法等)阻礙了人工智能的發(fā)展而通過(guò)使人工智能成為法律主體會(huì )掃清該障礙。

有學(xué)者認為,對社會(huì )生活的參與是判斷是否設定法律主體的重要因素。這一說(shuō)法值得商榷。因為參與社會(huì )生活的身份有主體和客體之分,人工智能是作為客體如機器、軟件、程序或系統而參與的。即使客體很智能,甚至可以在既有技術(shù)設計下做出獨立判斷,但此種獨立判斷所歸責的主體仍舊是設置、控制或使用該機器的主體,所代表的依然是設置、控制或使用該客體的主體的意志。事物很重要與法律賦予其法律主體資格是兩個(gè)完全不同的問(wèn)題。例如,對很多人來(lái)說(shuō),寵物已經(jīng)成為社會(huì )生活的重要部分,其中部分人對寵物的依賴(lài)性要遠高于其他事物,但這并不能證成寵物成為法律主體。同理,雖然人工智能非常重要,但法律仍然沒(méi)有使之成為法律主體的內在需求。

從責任能力視角看,人工智能不能成為法律主體

在民法上賦予法律主體資格的一個(gè)重要條件是責任能力。承擔責任意味著(zhù),法律主體承受不利的財產(chǎn)負擔,而且該法律主體通常應當是最終的責任承擔者。責任能力的一個(gè)前提條件是,法律主體必須有獨立的財產(chǎn)。如果沒(méi)有獨立的財產(chǎn),那么使人工智能承擔責任就沒(méi)有實(shí)質(zhì)意義。到目前為止甚或是在相當長(cháng)的未來(lái),我們都很難設想人工智能需要或者能夠擁有獨立財產(chǎn)。由于這一前提條件并不具備,那么人工智能成為法律主體也就沒(méi)有必要或者可能。從既有的媒體公開(kāi)報道的人工智能導致人身或者財產(chǎn)損害的案件中,我們均可以根據既有法律規定找到需要承擔責任的主體——開(kāi)發(fā)人、設計者、所有者或使用者等。換言之,既有的法律制度能夠解決目前人工智能所引發(fā)的人身或財產(chǎn)損害問(wèn)題。

進(jìn)一步說(shuō),人工智能成為法律主體甚至有潛在的不可預計的風(fēng)險。人工智能成為法律主體的一個(gè)自然推論是,它能夠獨立承擔責任。由于人工智能的確會(huì )導致傷害甚或大規模傷害,如隱私泄露、數據毀壞、人身?yè)p害等——到目前為止,即使是專(zhuān)家也很難完全了解大規模模型的內在運行機制,并準確預測未來(lái)可能發(fā)生的傷害及其規模,而且對如何抑制未來(lái)的大模型傷害尚未形成共識。不僅如此,更危險的情形可能是,人工智能會(huì )有意或無(wú)意生成執行危險行為的能力,甚至“學(xué)習掌握”如何影響人類(lèi)使用者,進(jìn)而鼓動(dòng)特定群體以破壞性甚或毀滅式方式行動(dòng)。此時(shí),人工智能承擔責任就意味著(zhù)開(kāi)發(fā)、設計、運行、使用人工智能的主體將可以逃避法律制裁,這是極不可取的結果,必須予以避免。盡管“刺穿人工智能面紗”制度可以減緩上述不利后果,但是該制度應當有嚴格的適用要件,不可常規性地使用,否則就有違人工智能作為法律主體的設計初衷。

情感、理性、意志不證成人工智能成為法律主體

情感、理性、意志與人工智能的法律主體問(wèn)題有內在關(guān)聯(lián)。一種觀(guān)點(diǎn)認為,賦予法律主體的一個(gè)傳統要素是,其必須能夠有情感、理性、意志。盡管人工智能是以深度學(xué)習為基礎,然而,既有的人工智能大都不存在情感。盡管有些人工智能的技術(shù)領(lǐng)導者認為,人工智能很快就向有情感的方向發(fā)展。然而,即使有情感,甚或是自主情感,人工智能也不應當成為法律主體。因為相比很多人工智能而言,很多動(dòng)物已經(jīng)具有豐富的情感甚至一定的自我意識。盡管動(dòng)物可以獲得某些權利,然而從主導價(jià)值觀(guān)審視,動(dòng)物依然不能獲得和人一樣完全相同或者高度相似的法律主體身份。我國民法典也采納了此種立場(chǎng)。從規范意義上評價(jià),情感、理性、意志并非賦予法律主體的必備要素。與此相關(guān)的是,即使人工智能的推理能力已經(jīng)超過(guò)了人類(lèi),也無(wú)法證成賦予其法律主體地位是一種必備或者最優(yōu)的解決方案。

在比較法上,的確有一些事物尤其是自然資源被賦予了法律主體資格,如部分國家通過(guò)立法賦予了珊瑚礁、河流或機器人以法律主體資格。然而我們發(fā)現,這些特殊事物都沒(méi)有在民事法律中成為法律主體,更沒(méi)有在民事基礎性法律——民法典中成為法律主體。2017年新西蘭通過(guò)立法賦予了旺格努伊河的法律主體資格,該法是與旺格努伊河毛利人妥協(xié)的一部分,是因為毛利人一直認為該河有生命力,該法的通過(guò)能夠給毛利人帶來(lái)希望。在特別的法律中賦予其某些特殊利益或者權利,并不能在一般意義上證成其應當成為法律主體。

人工智能不作為法律主體并不影響人工智能法律制度的變革

可以預見(jiàn)的是,人工智能已經(jīng)或者在未來(lái)可能會(huì )經(jīng)受傷害?;谌祟?lèi)的價(jià)值判斷以及現代法治文明,法律制度也不應故步自封,一個(gè)可能的預備解決方案是,盡管人工智能不應當成為或者不是法律主體,但是有情感的人工智能機器人或者其他產(chǎn)品未來(lái)可能會(huì )受到法律的特殊規制,以保護人類(lèi)對它們的某些情感利益和其他利益。

人工智能的復雜性也會(huì )產(chǎn)生一些現行法很難有效解決的問(wèn)題。例如,大多數人工智能系統都是諸多開(kāi)發(fā)人、設計者、所有人、經(jīng)營(yíng)者、用戶(hù)之間通過(guò)復雜的跨國協(xié)議產(chǎn)生的產(chǎn)品,在這一相互獨立的關(guān)系的國際化網(wǎng)絡(luò )中,確定某個(gè)或者某幾個(gè)主體來(lái)承擔責任幾乎不可能。不僅如此,基于不透明性以及一些人工智能系統的自我學(xué)習性,傷害的風(fēng)險可能是以一種負責開(kāi)發(fā)的主體所不可預見(jiàn)的方式導致的,確定特定實(shí)體來(lái)承擔責任更是難上加難。這就需要人工智能法律制度的持續變革。更好擁抱人工智能的方式是設定適應性的治理框架,以保護人類(lèi)的文明成果。人工智能促進(jìn)人類(lèi)向好的方向發(fā)展,就需要通過(guò)多層次制度為基礎的有效治理來(lái)促使其具有可解釋性、可預測性、可信賴(lài)性。


【責任編輯:申罡】
返回頂部
国产精品99久久AV色婷婷综合,泰国性猛交XXXXXHD,中国美女一级特黄大片图片,丰满少妇被粗大的猛烈进出,色婷婷亚洲国产女人的天堂