国产精品99久久AV色婷婷综合,泰国性猛交XXXXXHD,中国美女一级特黄大片图片,丰满少妇被粗大的猛烈进出,色婷婷亚洲国产女人的天堂

分享縮略圖

分享到:
鏈接已復制
首頁(yè)> 智庫中國>

深化人工智能安全監管研究

2024-11-04 15:56

來(lái)源:人民日報

分享到:
鏈接已復制
字體:

確保人工智能安全、可靠、可控,有利于人類(lèi)文明進(jìn)步,是人工智能發(fā)展必須解決的重要課題。黨的二十屆三中全會(huì )《決定》作出“建立人工智能安全監管制度”“完善生成式人工智能發(fā)展和管理機制”等重要部署。如何加強人工智能治理,有效防范化解人工智能發(fā)展帶來(lái)的各類(lèi)安全風(fēng)險,不斷提升人工智能安全監管的制度化、法治化水平?本期學(xué)術(shù)版圍繞這些問(wèn)題進(jìn)行探討。

——編  者

提升生成式人工智能三大風(fēng)險治理能力

劉艷紅

習近平總書(shū)記指出:“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅動(dòng)力量,將對全球經(jīng)濟社會(huì )發(fā)展和人類(lèi)文明進(jìn)步產(chǎn)生深遠影響?!鄙墒饺斯ぶ悄苁侵富谒惴?、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術(shù)。在海量數據與強大算力支撐下,聽(tīng)得懂、說(shuō)得出、能互動(dòng)的生成式人工智能快速迭代升級,呈現出良好互動(dòng)性、高度通用性、智能生成性等特征,并正與各行各業(yè)形成更加剛性、高頻、泛在、深度的聯(lián)結,也導致其潛在風(fēng)險更多更真實(shí)。黨的二十屆三中全會(huì )《決定》科學(xué)把握人工智能發(fā)展規律和特點(diǎn),提出“建立人工智能安全監管制度”“完善生成式人工智能發(fā)展和管理機制”,體現了更好統籌發(fā)展和安全的客觀(guān)需要,為推動(dòng)人工智能領(lǐng)域的技術(shù)進(jìn)步、產(chǎn)業(yè)發(fā)展與安全保障指明前進(jìn)方向。

生成式人工智能在技術(shù)運行上可分為三個(gè)階段,即前置性學(xué)習訓練及人工標注輔助算法升級的準備階段,輸入數據進(jìn)行算法處理得出生成物的運算階段,生成物進(jìn)入社會(huì )加以運用的生成階段。我們要深入分析生成式人工智能的運行機理,把握各階段安全風(fēng)險形成與發(fā)展的特征,運用法治手段加強系統性治理,確保生成式人工智能所蘊含的巨大力量始終在法治軌道上發(fā)揮作用。

在生成式人工智能的準備階段,數據安全風(fēng)險易發(fā)多發(fā)、較為突出。生成式人工智能通過(guò)數據訓練、數據處理分析來(lái)提煉信息、預測趨勢。這就必須對數據進(jìn)行適當分類(lèi),確立不同類(lèi)型數據的利用模式和保護方式,以妥善應對相關(guān)數據安全風(fēng)險,避免數據違規利用或者不當泄露,產(chǎn)生侵權方面的糾紛。比如,在政務(wù)處理流程中形成的政務(wù)數據是數字政府的核心要素。生成式人工智能為了得出相對準確的結論,不可避免地要收集分析政務(wù)數據。應當明確生成式人工智能獲取和利用政務(wù)數據的法律規則,既滿(mǎn)足利用政務(wù)數據服務(wù)社會(huì )的需求,有力支持人工智能政務(wù)服務(wù)大模型開(kāi)發(fā)、訓練和應用,提高公共服務(wù)和社會(huì )治理智能化水平;又規范其加工方式,避免利用政務(wù)數據得出的成果侵害個(gè)人權益、破壞社會(huì )公共秩序。對于個(gè)人數據而言,生成式人工智能通過(guò)組合分析挖掘其潛在價(jià)值,其對個(gè)人數據的收集利用及其成果可能對公民權利造成侵害。實(shí)踐中,生成式人工智能傾向于過(guò)度收集個(gè)人數據以提升結論準確性,比如,通過(guò)分析醫療健康數據來(lái)挖掘個(gè)人行蹤、預測個(gè)人生活軌跡。為此,必須堅持依法收集,按照技術(shù)所需的最小范圍收集個(gè)人數據,設置合理的數據處理深度,避免過(guò)度挖掘潛在信息。綜上,應將分類(lèi)分級的數據安全監管要求嵌入生成式人工智能的準備階段,避免數據安全風(fēng)險演化為具體的法益損害后果。

在生成式人工智能的運算階段,內生于人工智能大模型的算法偏見(jiàn)風(fēng)險值得警惕。生成式人工智能對于數據的分析和處理主要通過(guò)算法模型。不同于傳統算法模型,生成式人工智能在進(jìn)行機器學(xué)習的同時(shí),還會(huì )以大量的人工標注來(lái)校正機器學(xué)習的結論,推動(dòng)人工智能進(jìn)化。但“機器學(xué)習+人工標注”作為算法技術(shù)內核,也會(huì )使人類(lèi)的意志與偏好所產(chǎn)生的影響比單純的機器學(xué)習更大。個(gè)人偏好的影響疊加在算法模型本身的偏見(jiàn)之上,將導致算法偏見(jiàn)的負面效應倍增,算法偏見(jiàn)的產(chǎn)生更加難以追溯和預防。防范化解算法偏見(jiàn)風(fēng)險,應根據算法偏見(jiàn)的產(chǎn)生原理與產(chǎn)生場(chǎng)域進(jìn)行針對性治理。要將法律規范的要求深度嵌入生成式人工智能的算法模型之中,推動(dòng)技術(shù)向善,消除算法偏見(jiàn),確保合理利用生成式人工智能算法并分配算力資源?;诩脊芙Y合理念,加強對算法的全周期安全監管,將法律規范的要求落實(shí)到生成式人工智能運行的全流程之中。在設置算法之初就要遵循相關(guān)法律規則與技術(shù)標準,落實(shí)“機器學(xué)習+人工標注”的規范要求,審查存在風(fēng)險的算法模塊,更好發(fā)現生成式人工智能算法模型中的技術(shù)風(fēng)險;當發(fā)現先天性算法偏見(jiàn)時(shí),依據法律要求從生成式人工智能的算法內部進(jìn)行糾正,確保修改后的算法能正常運行;事后出現問(wèn)題時(shí),對人工智能算法進(jìn)行溯源治理,實(shí)現精準歸責并加以糾正,推動(dòng)完善生成式人工智能的算法監管標準,填補事前預防審查的不足,以技術(shù)手段與法律手段并行做到發(fā)展與管理并重。

在生成式人工智能的生成階段,存在著(zhù)與生成物相關(guān)的知識產(chǎn)權風(fēng)險、生成物濫用風(fēng)險等多種風(fēng)險。由于生成式人工智能的智能化程度很高,可以實(shí)現內容自動(dòng)化編纂、智能化潤色加工、多模態(tài)轉換以及創(chuàng )造性生成,直接改變了內容的生產(chǎn)方式與供給模式,相較于以往的人工智能系統產(chǎn)生了顛覆性變化,由此引發(fā)了生成式人工智能的生成物知識產(chǎn)權歸屬、知識產(chǎn)權保護等問(wèn)題。有的人認為生成式人工智能生成物是數據算法的結論,其本質(zhì)上是計算與模仿,而非智力勞動(dòng),無(wú)法成為知識產(chǎn)權的客體。反對者則認為生成式人工智能模擬人腦神經(jīng)網(wǎng)絡(luò )的構造來(lái)獲取與輸出數據,通過(guò)卷積神經(jīng)網(wǎng)絡(luò )控制自身的設計與制造,其具有獨創(chuàng )性與創(chuàng )新性的生成物應當受知識產(chǎn)權法保護。同時(shí),生成式人工智能還增加了知識產(chǎn)權糾紛風(fēng)險和保護難度,一些生成物可能含有侵犯他人知識產(chǎn)權的內容,或者經(jīng)過(guò)加工等手段被包裝成個(gè)人擁有完全知識產(chǎn)權的原創(chuàng )作品,引發(fā)相關(guān)知識產(chǎn)權爭議。為及時(shí)化解相關(guān)問(wèn)題,應對生成式人工智能的技術(shù)模式、技術(shù)原理按照知識產(chǎn)權法的標準開(kāi)展實(shí)質(zhì)分析,如果技術(shù)上需要人類(lèi)意志介入,使生成物能夠產(chǎn)生獨創(chuàng )性與創(chuàng )新性,應賦予知識產(chǎn)權并明確其歸屬,強化生成式人工智能領(lǐng)域知識產(chǎn)權的系統性保護;同時(shí)要合理確定對生成物知識產(chǎn)權保護的范圍,避免保護范圍無(wú)限擴張,妨礙生成式人工智能的推廣運用和技術(shù)發(fā)展。還要加強對生成物濫用風(fēng)險的治理。比如,要求作品清楚標識生成式人工智能在作者創(chuàng )作中發(fā)揮作用的情況,加強對可能涉及違法犯罪的深度偽造、AI換臉等生成物的精準化、常態(tài)化監管,等等。

生成式人工智能在社會(huì )應用中產(chǎn)生的擴散影響還有很多,除了上述風(fēng)險還有很多其他類(lèi)型的風(fēng)險,比如加劇信息不對稱(chēng)、擴大數字?zhù)櫆?、損害數字弱勢群體的利益等。要根據實(shí)際情況作出應對,盡量降低新技術(shù)給社會(huì )發(fā)展帶來(lái)的不良沖擊。

(作者為中國政法大學(xué)刑事司法學(xué)院教授)

守護好人工智能時(shí)代的隱私安全

顧理平

習近平總書(shū)記強調:“堅持以人為本、智能向善”。當前,人工智能技術(shù)日新月異,既深刻影響改變著(zhù)人們的生產(chǎn)生活方式、加速了經(jīng)濟社會(huì )發(fā)展進(jìn)程,也對法律規范、道德倫理、公共治理等造成沖擊。其中,對隱私權、個(gè)人信息安全等的威脅是值得關(guān)注的重要問(wèn)題。黨的二十屆三中全會(huì )《決定》對“建立人工智能安全監管制度”作出重要部署,保護隱私權和個(gè)人信息安全是人工智能安全監管的題中應有之義。必須加強人工智能時(shí)代的隱私權保護,確保個(gè)人信息安全。

人工智能時(shí)代隱私權面臨嚴峻挑戰。隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動(dòng)、私密信息。民法典規定:“自然人享有隱私權。任何組織或者個(gè)人不得以刺探、侵擾、泄露、公開(kāi)等方式侵害他人的隱私權?!彪[私權作為人格權的核心要素,是構筑人格尊嚴的重要基礎。不被公開(kāi)、不被知曉是隱私權的核心訴求。當前,人工智能以悄無(wú)聲息的方式介入人們生產(chǎn)生活的各領(lǐng)域各方面各環(huán)節,產(chǎn)生智能醫療、智能交通、智能推薦等眾多應用場(chǎng)景,技術(shù)本身存在的某些缺陷和規則的不完善,不可避免帶來(lái)侵害隱私權的問(wèn)題。比如,非法收集和使用個(gè)人信息,利用分析這些個(gè)人信息頻繁推送所謂“個(gè)性化”的“精準廣告”,泄露個(gè)人信息給第三方,導致私人生活頻頻受到垃圾信息侵擾;利用個(gè)人信息進(jìn)行“大數據殺熟”,實(shí)現“一客一價(jià)”的精準價(jià)格歧視,令公民遭受財產(chǎn)損失;已脫敏個(gè)人信息被重新識別,因保護措施不當導致數據泄露,非法買(mǎi)賣(mài)個(gè)人信息現象屢見(jiàn)不鮮,侵害個(gè)人信息安全;借助個(gè)人信息進(jìn)行深度偽造,通過(guò)聲音仿真、AI換臉等手段,實(shí)施詐騙等違法犯罪行為;等等。這說(shuō)明,侵害隱私權不僅侵犯了公民的人格尊嚴,也會(huì )造成其他嚴重社會(huì )后果。

去私密化技術(shù)特征加劇個(gè)人信息安全風(fēng)險。以大數據為基礎的人工智能在應用之初,許多人是抱著(zhù)觀(guān)望、懷疑的心態(tài)看待這種新技術(shù)的。隨著(zhù)人工智能以擬人化的外在形式、個(gè)性化的服務(wù)提供、沉浸式的互動(dòng)過(guò)程不斷改善使用者的產(chǎn)品體驗和心理感受,越來(lái)越多的人逐漸成為人工智能的忠實(shí)用戶(hù),享受著(zhù)人工智能給自己帶來(lái)的各種便捷。隨著(zhù)人機互動(dòng)、萬(wàn)物互聯(lián)的物聯(lián)網(wǎng)技術(shù)普及,智能家居、智能辦公、智能工廠(chǎng)、智能駕駛等人工智能應用場(chǎng)景也不斷拓展,個(gè)人能夠以數字人的存在形式在數字空間提出需求、獲得服務(wù),也在不知不覺(jué)中向人工智能源源不斷地輸送著(zhù)個(gè)人信息。個(gè)人在數字空間留下的任何痕跡都被數字化,形成個(gè)人信息,并作為人們“聯(lián)系世界的介質(zhì)”發(fā)揮著(zhù)重要功能。與此同時(shí),人工智能為了改善服務(wù)質(zhì)量,也傾向于過(guò)度收集使用個(gè)人信息。這都使得人工智能具有鮮明的去私密化技術(shù)特征。也正是在那些人工智能使用者習以為常的個(gè)人信息流動(dòng)中,混合著(zhù)公共數據和私人數據的大數據被挖掘、整合、分析、利用,人們難以憑自己的感官察覺(jué)到隱私權被侵害,個(gè)人信息安全面臨著(zhù)更高的風(fēng)險。

尊重個(gè)體選擇,堅持知情同意。不同的人對個(gè)人信息被知悉、被利用的接受程度不同,應尊重個(gè)人意愿,科學(xué)合理地執行“知情同意”原則。知情同意原則包括知情和同意兩方面,同意必須以知情為前提,沒(méi)有充分的知情和理解,就不可能有真正意義上的同意。信息、理解和自愿,是知情同意原則的三要素。在全面“知情”的基礎上,個(gè)人可以自主作出怎樣“同意”的意思表示。這就需要在用戶(hù)使用人工智能時(shí),作出通俗易懂而又清晰明了的提示說(shuō)明,征得用戶(hù)對個(gè)人信息收集使用的同意。如果個(gè)人信息會(huì )在不同平臺之間流動(dòng),需要將流動(dòng)范圍、目標、使用邊界讓用戶(hù)知曉。為了良好和流暢的用戶(hù)體驗,也可以給用戶(hù)提供一次性或分階段進(jìn)行授權的選擇。要告知用戶(hù)收集個(gè)人信息的范圍、方式和用途以及與誰(shuí)共享個(gè)人信息,用戶(hù)也應當可以選擇隨時(shí)退出。在進(jìn)行個(gè)人信息分析時(shí),應以彈窗或其他形式提示用戶(hù)注意并實(shí)時(shí)授權。設置數據生命周期、按時(shí)刪除個(gè)人信息也是保護個(gè)人信息安全的有效方式。

完善技術(shù)手段,確保智能向善。技術(shù)導致的問(wèn)題,要善于從技術(shù)層面確立解決問(wèn)題的思路。人工智能時(shí)代隱私權面臨挑戰,其直接的觸發(fā)因素是技術(shù)的演進(jìn)。從分析式人工智能到生成式人工智能,人工智能技術(shù)每一次迭代升級,都可能對隱私權帶來(lái)新的沖擊。因此,技術(shù)解決方案必須置于關(guān)鍵位置,應通過(guò)完善數據庫安全、核心數據加密、個(gè)人數據脫敏等技術(shù),建立保護隱私權和個(gè)人信息安全的防火墻。個(gè)人信息一般會(huì )經(jīng)過(guò)收集、存儲和使用三個(gè)階段,而這三個(gè)階段都可能存在侵害隱私權和個(gè)人信息安全的風(fēng)險。應根據不同階段個(gè)人信息所處的不同狀況,從技術(shù)上進(jìn)行有效保護。在個(gè)人信息收集階段,加強匿名化技術(shù)推廣運用。收集個(gè)人信息雖然不可避免,但只要匿名化,不把個(gè)人信息與身份對應,隱私權就不會(huì )受到侵害。個(gè)人信息存儲階段,要完善加密技術(shù)。當前,數據存儲主要有數據庫存儲和云存儲兩種方式。外部入侵竊取和內部人員未經(jīng)授權的查看、使用、泄露是存儲階段個(gè)人信息安全的主要威脅。要強化數據加密,同時(shí)嚴格數據訪(fǎng)問(wèn)權限控制。個(gè)人信息使用階段,要從技術(shù)上加強對個(gè)人信息違法使用的實(shí)時(shí)介入、干擾、阻斷,為隱私權和個(gè)人信息安全多添一層保護。

隨著(zhù)我國法律規則日益完善、保護力度持續加強,特別是民法典、個(gè)人信息保護法對隱私權和個(gè)人信息保護作出詳細規定,明確了個(gè)人信息處理活動(dòng)中權利和義務(wù)的邊界,人工智能時(shí)代我國對隱私權和個(gè)人信息安全的法律保護必將邁上更高水平,為人工智能健康發(fā)展、更好造福人民群眾提供堅強法律保障。

(作者為南京師范大學(xué)新聞與傳播學(xué)院教授)

探索人工智能體的模塊化治理框架

張  欣

科技興則民族興,科技強則國家強。黨的十八大以來(lái),我國高度重視人工智能發(fā)展,積極推動(dòng)互聯(lián)網(wǎng)、大數據、人工智能和實(shí)體經(jīng)濟深度融合,培育壯大智能產(chǎn)業(yè),加快發(fā)展新質(zhì)生產(chǎn)力,為高質(zhì)量發(fā)展提供新動(dòng)能。習近平總書(shū)記指出:“要堅持促進(jìn)發(fā)展和依法管理相統一,既大力培育人工智能、物聯(lián)網(wǎng)、下一代通信網(wǎng)絡(luò )等新技術(shù)新應用,又積極利用法律法規和標準規范引導新技術(shù)應用?!绷暯娇倳?shū)記的重要論述為我國人工智能發(fā)展提供了根本遵循和行動(dòng)指南。大力發(fā)展人工智能,提高人工智能安全治理水平,要把黨的二十屆三中全會(huì )《決定》提出的“建立人工智能安全監管制度”重要部署不折不扣貫徹落實(shí)好,準確把握人工智能發(fā)展動(dòng)向,重點(diǎn)關(guān)注人工智能前沿技術(shù)及其帶來(lái)的風(fēng)險挑戰,加強前瞻性思考,不斷探索人工智能治理的創(chuàng )新方案。

當前,生成式人工智能開(kāi)創(chuàng )了人機交互新范式,憑借其強大的交互、理解和生成能力,為發(fā)展以大型自然語(yǔ)言模型為核心組件,集記憶、規劃和工具使用于一體,具備感知和行動(dòng)能力的人工智能體開(kāi)辟了廣闊前景。人工智能體已成為通用人工智能最重要的前沿研究方向和科技企業(yè)競相布局的新賽道。它以大型自然語(yǔ)言模型為“智慧引擎”,具有自主性、適應性和交互性特征,可顯著(zhù)提高生產(chǎn)效率,增強用戶(hù)體驗,提供超越人類(lèi)能力的決策支持,已能夠應用于軟件開(kāi)發(fā)、科學(xué)研究等多種真實(shí)場(chǎng)景。盡管大規模商業(yè)化落地仍在初步探索和孵化階段,但人工智能體所代表的虛實(shí)融合、人機深度互動(dòng)等趨勢對經(jīng)濟社會(huì )發(fā)展具有重要引領(lǐng)意義。然而,由于技術(shù)局限,人工智能體也可能引發(fā)復雜的、動(dòng)態(tài)的、不可預見(jiàn)的風(fēng)險與隱憂(yōu)。

從設計邏輯看,人工智能體需要通過(guò)控制端獲得認知能力,通過(guò)感知端從周?chē)h(huán)境獲取和利用信息,最終在行動(dòng)端成為基于物理實(shí)體進(jìn)行感知和行動(dòng)的智能系統。

在控制端,大型自然語(yǔ)言模型作為人工智能體的“大腦”,通過(guò)學(xué)習海量數據形成知識,構成人工智能體控制系統中的記憶模塊,但其在生成內容的可靠性和準確性方面存在風(fēng)險。比如,模型生成的內容可能不遵循信息源或者與現實(shí)世界的真實(shí)情況不符,產(chǎn)生所謂“機器幻覺(jué)”;由于訓練數據中的人類(lèi)偏見(jiàn),影響人工智能體的公平?jīng)Q策;等等。

在感知端,為充分理解具體情境下的顯性信息和隱性信息,準確感知人類(lèi)意圖,人工智能體將感知范圍從純文本拓展到包括文本、視覺(jué)和聽(tīng)覺(jué)模式在內的多模態(tài)領(lǐng)域。這雖然提升了決策能力,卻在融合和分析不同渠道和類(lèi)型的多源數據時(shí)可能引發(fā)一系列隱私泄露和數據安全風(fēng)險。比如,不當使用和分享人臉信息、指紋、聲紋等高度個(gè)性化、具有永久性的生物特征數據,導致長(cháng)期甚至永久性的隱私風(fēng)險。為更好地處理復雜任務(wù),部署多個(gè)人工智能體進(jìn)行規劃、合作甚至競爭,以完成和提高任務(wù)績(jì)效的多智能體系統將成為主流和常態(tài)。多個(gè)人工智能體的系統交互就可能引發(fā)不可預見(jiàn)的系統性安全風(fēng)險。即使每個(gè)算法在單獨操作時(shí)看似安全和合理,但組合和交互之后仍可能產(chǎn)生完全不同且難以預測的風(fēng)險,并迅速演化升級。比如,在股票市場(chǎng)中,如果人工智能被廣泛應用,多個(gè)算法自動(dòng)識別股票價(jià)格微小變化,同時(shí)大量執行高頻交易進(jìn)行套利,就可能引發(fā)股票市場(chǎng)閃崩的系統性安全事件。

在行動(dòng)端,部署于真實(shí)物理環(huán)境的人工智能體將可能以更為立體、擬人的形象呈現。與虛擬空間不同,現實(shí)空間依賴(lài)交互式學(xué)習方法,人工智能體需要豐富的、全方位的信息感知來(lái)觀(guān)察、學(xué)習和行動(dòng),通過(guò)基于反饋的學(xué)習優(yōu)化能力,這可能對個(gè)人隱私構成全面性、侵入性和隱蔽性的風(fēng)險。比如,解讀用戶(hù)的肢體語(yǔ)言并感知更加復雜的用戶(hù)活動(dòng),未經(jīng)用戶(hù)授權持續隱秘地收集數據,一旦系統存在安全漏洞,可能引發(fā)巨大的數據安全風(fēng)險。此外,隨著(zhù)人工智能體自主性不斷提升,不僅可能干預和影響人類(lèi)的認知和情緒,也挑戰著(zhù)人類(lèi)作為獨立決策者和獨立行動(dòng)者的能力與地位。比如,一些聊天機器人在與用戶(hù)的交互過(guò)程中就出現了影響用戶(hù)情感的輸出,有時(shí)是負面并且具有操縱性的。

面對人工智能體帶來(lái)的風(fēng)險和挑戰,要讓人工智能體的行為符合人類(lèi)的意圖和價(jià)值觀(guān),需要探索創(chuàng )新性的治理方案,保證人工智能安全監管制度切實(shí)管用。人工智能體的發(fā)展正處于“從零到一”的關(guān)鍵期。治理方案應具備以不變應萬(wàn)變的能力,確保該技術(shù)的發(fā)展與應用始終處于可控的軌道上。人工智能體的開(kāi)發(fā)、訓練、部署、運行和服務(wù)等環(huán)節經(jīng)過(guò)高度專(zhuān)業(yè)化的分工,形成了復雜的分層結構。每一層均有不同的參與者、利益相關(guān)方和潛在風(fēng)險因素,使人工智能體具有“模塊”化的產(chǎn)業(yè)鏈特質(zhì)。因此,可以構建一種能夠覆蓋整個(gè)產(chǎn)業(yè)鏈和各個(gè)端層的模塊化治理框架,從數據模塊、算法模塊、模型架構等關(guān)鍵節點(diǎn)出發(fā),設計相應的治理模塊。例如在部署環(huán)節,就可根據應用場(chǎng)景和部署模式的特性,靈活選擇、協(xié)同組合不同的治理模塊,構建與之相匹配的治理方案。模塊化治理框架提供了一種具有可操作性的分解方法,通過(guò)將治理目標拆解為相對獨立但關(guān)聯(lián)耦合的治理模塊,漸序推動(dòng)治理體系形成,不僅提高了治理的靈活性和針對性,還能夠適應技術(shù)的快速迭代。在構建基于數據、算法、模型和場(chǎng)景等維度的治理模塊時(shí),應以技術(shù)賦能監管,打造與人工智能體模塊化治理框架相適配的、智慧化的治理工具,從而彌合風(fēng)險動(dòng)態(tài)性與監管靜態(tài)性之間的張力,實(shí)現對特定高風(fēng)險場(chǎng)景的精準化治理。

要構建面向人工智能體的交互式治理生態(tài)。人工智能體具有深度交互性、高度互聯(lián)性以及動(dòng)態(tài)適應性。相應地,治理方式應當超越傳統的以個(gè)體為中心的治理,推動(dòng)形成廣泛互聯(lián)、多方參與、多層次協(xié)作的治理生態(tài)。其中,技術(shù)開(kāi)發(fā)人員、運營(yíng)維護人員等技術(shù)社群對于人工智能體的治理將起到至關(guān)重要的“吹哨人”作用。應更好發(fā)揮技術(shù)社群的監督優(yōu)勢,在人工智能企業(yè)內部構建有效的約束機制。還應積極提高廣大用戶(hù)的數字素養,增強其依法、安全、負責任使用人工智能體的意識,實(shí)現與人工智能體的良性交互,推動(dòng)形成向上向善的運行狀態(tài)。

(作者為對外經(jīng)濟貿易大學(xué)法學(xué)院教授)


【責任編輯:申罡】
返回頂部
国产精品99久久AV色婷婷综合,泰国性猛交XXXXXHD,中国美女一级特黄大片图片,丰满少妇被粗大的猛烈进出,色婷婷亚洲国产女人的天堂