这里只有精品视频在线观看,日日噜夜夜爽精品一区,超碰免费97,亚洲一区午夜,黄色免费网页,99精品久久久久久中文字幕,日韩欧美亚洲一区二区

分享縮略圖

分享到:
鏈接已復(fù)制

新聞

新聞直播 要聞 國(guó)際 軍事 政協(xié) 政務(wù) 圖片 視頻

財(cái)經(jīng)

財(cái)經(jīng) 金融 證券 汽車(chē) 科技 消費(fèi) 能源 地產(chǎn) 農(nóng)業(yè)

觀(guān)點(diǎn)

觀(guān)點(diǎn) 理論 智庫(kù) 中國(guó)3分鐘 中國(guó)訪(fǎng)談 中國(guó)網(wǎng)評(píng) 中國(guó)關(guān)鍵詞

文化

文化 文創(chuàng) 藝術(shù) 時(shí)尚 旅游 鐵路 悅讀 民藏 中醫(yī) 中國(guó)瓷

國(guó)情

國(guó)情 助殘 一帶一路 海洋 草原 黃河 運(yùn)河 灣區(qū) 聯(lián)盟 心理 老年

首頁(yè)> 智庫(kù)中國(guó)>

深化人工智能安全監(jiān)管研究

2024-11-04 15:56

來(lái)源:人民日?qǐng)?bào)

分享到:
鏈接已復(fù)制
字體:

確保人工智能安全、可靠、可控,有利于人類(lèi)文明進(jìn)步,是人工智能發(fā)展必須解決的重要課題。黨的二十屆三中全會(huì)《決定》作出“建立人工智能安全監(jiān)管制度”“完善生成式人工智能發(fā)展和管理機(jī)制”等重要部署。如何加強(qiáng)人工智能治理,有效防范化解人工智能發(fā)展帶來(lái)的各類(lèi)安全風(fēng)險(xiǎn),不斷提升人工智能安全監(jiān)管的制度化、法治化水平?本期學(xué)術(shù)版圍繞這些問(wèn)題進(jìn)行探討。

——編  者

提升生成式人工智能三大風(fēng)險(xiǎn)治理能力

劉艷紅

習(xí)近平總書(shū)記指出:“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力量,將對(duì)全球經(jīng)濟(jì)社會(huì)發(fā)展和人類(lèi)文明進(jìn)步產(chǎn)生深遠(yuǎn)影響?!鄙墒饺斯ぶ悄苁侵富谒惴ā⒛P?、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。在海量數(shù)據(jù)與強(qiáng)大算力支撐下,聽(tīng)得懂、說(shuō)得出、能互動(dòng)的生成式人工智能快速迭代升級(jí),呈現(xiàn)出良好互動(dòng)性、高度通用性、智能生成性等特征,并正與各行各業(yè)形成更加剛性、高頻、泛在、深度的聯(lián)結(jié),也導(dǎo)致其潛在風(fēng)險(xiǎn)更多更真實(shí)。黨的二十屆三中全會(huì)《決定》科學(xué)把握人工智能發(fā)展規(guī)律和特點(diǎn),提出“建立人工智能安全監(jiān)管制度”“完善生成式人工智能發(fā)展和管理機(jī)制”,體現(xiàn)了更好統(tǒng)籌發(fā)展和安全的客觀(guān)需要,為推動(dòng)人工智能領(lǐng)域的技術(shù)進(jìn)步、產(chǎn)業(yè)發(fā)展與安全保障指明前進(jìn)方向。

生成式人工智能在技術(shù)運(yùn)行上可分為三個(gè)階段,即前置性學(xué)習(xí)訓(xùn)練及人工標(biāo)注輔助算法升級(jí)的準(zhǔn)備階段,輸入數(shù)據(jù)進(jìn)行算法處理得出生成物的運(yùn)算階段,生成物進(jìn)入社會(huì)加以運(yùn)用的生成階段。我們要深入分析生成式人工智能的運(yùn)行機(jī)理,把握各階段安全風(fēng)險(xiǎn)形成與發(fā)展的特征,運(yùn)用法治手段加強(qiáng)系統(tǒng)性治理,確保生成式人工智能所蘊(yùn)含的巨大力量始終在法治軌道上發(fā)揮作用。

在生成式人工智能的準(zhǔn)備階段,數(shù)據(jù)安全風(fēng)險(xiǎn)易發(fā)多發(fā)、較為突出。生成式人工智能通過(guò)數(shù)據(jù)訓(xùn)練、數(shù)據(jù)處理分析來(lái)提煉信息、預(yù)測(cè)趨勢(shì)。這就必須對(duì)數(shù)據(jù)進(jìn)行適當(dāng)分類(lèi),確立不同類(lèi)型數(shù)據(jù)的利用模式和保護(hù)方式,以妥善應(yīng)對(duì)相關(guān)數(shù)據(jù)安全風(fēng)險(xiǎn),避免數(shù)據(jù)違規(guī)利用或者不當(dāng)泄露,產(chǎn)生侵權(quán)方面的糾紛。比如,在政務(wù)處理流程中形成的政務(wù)數(shù)據(jù)是數(shù)字政府的核心要素。生成式人工智能為了得出相對(duì)準(zhǔn)確的結(jié)論,不可避免地要收集分析政務(wù)數(shù)據(jù)。應(yīng)當(dāng)明確生成式人工智能獲取和利用政務(wù)數(shù)據(jù)的法律規(guī)則,既滿(mǎn)足利用政務(wù)數(shù)據(jù)服務(wù)社會(huì)的需求,有力支持人工智能政務(wù)服務(wù)大模型開(kāi)發(fā)、訓(xùn)練和應(yīng)用,提高公共服務(wù)和社會(huì)治理智能化水平;又規(guī)范其加工方式,避免利用政務(wù)數(shù)據(jù)得出的成果侵害個(gè)人權(quán)益、破壞社會(huì)公共秩序。對(duì)于個(gè)人數(shù)據(jù)而言,生成式人工智能通過(guò)組合分析挖掘其潛在價(jià)值,其對(duì)個(gè)人數(shù)據(jù)的收集利用及其成果可能對(duì)公民權(quán)利造成侵害。實(shí)踐中,生成式人工智能傾向于過(guò)度收集個(gè)人數(shù)據(jù)以提升結(jié)論準(zhǔn)確性,比如,通過(guò)分析醫(yī)療健康數(shù)據(jù)來(lái)挖掘個(gè)人行蹤、預(yù)測(cè)個(gè)人生活軌跡。為此,必須堅(jiān)持依法收集,按照技術(shù)所需的最小范圍收集個(gè)人數(shù)據(jù),設(shè)置合理的數(shù)據(jù)處理深度,避免過(guò)度挖掘潛在信息。綜上,應(yīng)將分類(lèi)分級(jí)的數(shù)據(jù)安全監(jiān)管要求嵌入生成式人工智能的準(zhǔn)備階段,避免數(shù)據(jù)安全風(fēng)險(xiǎn)演化為具體的法益損害后果。

在生成式人工智能的運(yùn)算階段,內(nèi)生于人工智能大模型的算法偏見(jiàn)風(fēng)險(xiǎn)值得警惕。生成式人工智能對(duì)于數(shù)據(jù)的分析和處理主要通過(guò)算法模型。不同于傳統(tǒng)算法模型,生成式人工智能在進(jìn)行機(jī)器學(xué)習(xí)的同時(shí),還會(huì)以大量的人工標(biāo)注來(lái)校正機(jī)器學(xué)習(xí)的結(jié)論,推動(dòng)人工智能進(jìn)化。但“機(jī)器學(xué)習(xí)+人工標(biāo)注”作為算法技術(shù)內(nèi)核,也會(huì)使人類(lèi)的意志與偏好所產(chǎn)生的影響比單純的機(jī)器學(xué)習(xí)更大。個(gè)人偏好的影響疊加在算法模型本身的偏見(jiàn)之上,將導(dǎo)致算法偏見(jiàn)的負(fù)面效應(yīng)倍增,算法偏見(jiàn)的產(chǎn)生更加難以追溯和預(yù)防。防范化解算法偏見(jiàn)風(fēng)險(xiǎn),應(yīng)根據(jù)算法偏見(jiàn)的產(chǎn)生原理與產(chǎn)生場(chǎng)域進(jìn)行針對(duì)性治理。要將法律規(guī)范的要求深度嵌入生成式人工智能的算法模型之中,推動(dòng)技術(shù)向善,消除算法偏見(jiàn),確保合理利用生成式人工智能算法并分配算力資源?;诩脊芙Y(jié)合理念,加強(qiáng)對(duì)算法的全周期安全監(jiān)管,將法律規(guī)范的要求落實(shí)到生成式人工智能運(yùn)行的全流程之中。在設(shè)置算法之初就要遵循相關(guān)法律規(guī)則與技術(shù)標(biāo)準(zhǔn),落實(shí)“機(jī)器學(xué)習(xí)+人工標(biāo)注”的規(guī)范要求,審查存在風(fēng)險(xiǎn)的算法模塊,更好發(fā)現(xiàn)生成式人工智能算法模型中的技術(shù)風(fēng)險(xiǎn);當(dāng)發(fā)現(xiàn)先天性算法偏見(jiàn)時(shí),依據(jù)法律要求從生成式人工智能的算法內(nèi)部進(jìn)行糾正,確保修改后的算法能正常運(yùn)行;事后出現(xiàn)問(wèn)題時(shí),對(duì)人工智能算法進(jìn)行溯源治理,實(shí)現(xiàn)精準(zhǔn)歸責(zé)并加以糾正,推動(dòng)完善生成式人工智能的算法監(jiān)管標(biāo)準(zhǔn),填補(bǔ)事前預(yù)防審查的不足,以技術(shù)手段與法律手段并行做到發(fā)展與管理并重。

在生成式人工智能的生成階段,存在著與生成物相關(guān)的知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)、生成物濫用風(fēng)險(xiǎn)等多種風(fēng)險(xiǎn)。由于生成式人工智能的智能化程度很高,可以實(shí)現(xiàn)內(nèi)容自動(dòng)化編纂、智能化潤(rùn)色加工、多模態(tài)轉(zhuǎn)換以及創(chuàng)造性生成,直接改變了內(nèi)容的生產(chǎn)方式與供給模式,相較于以往的人工智能系統(tǒng)產(chǎn)生了顛覆性變化,由此引發(fā)了生成式人工智能的生成物知識(shí)產(chǎn)權(quán)歸屬、知識(shí)產(chǎn)權(quán)保護(hù)等問(wèn)題。有的人認(rèn)為生成式人工智能生成物是數(shù)據(jù)算法的結(jié)論,其本質(zhì)上是計(jì)算與模仿,而非智力勞動(dòng),無(wú)法成為知識(shí)產(chǎn)權(quán)的客體。反對(duì)者則認(rèn)為生成式人工智能模擬人腦神經(jīng)網(wǎng)絡(luò)的構(gòu)造來(lái)獲取與輸出數(shù)據(jù),通過(guò)卷積神經(jīng)網(wǎng)絡(luò)控制自身的設(shè)計(jì)與制造,其具有獨(dú)創(chuàng)性與創(chuàng)新性的生成物應(yīng)當(dāng)受知識(shí)產(chǎn)權(quán)法保護(hù)。同時(shí),生成式人工智能還增加了知識(shí)產(chǎn)權(quán)糾紛風(fēng)險(xiǎn)和保護(hù)難度,一些生成物可能含有侵犯他人知識(shí)產(chǎn)權(quán)的內(nèi)容,或者經(jīng)過(guò)加工等手段被包裝成個(gè)人擁有完全知識(shí)產(chǎn)權(quán)的原創(chuàng)作品,引發(fā)相關(guān)知識(shí)產(chǎn)權(quán)爭(zhēng)議。為及時(shí)化解相關(guān)問(wèn)題,應(yīng)對(duì)生成式人工智能的技術(shù)模式、技術(shù)原理按照知識(shí)產(chǎn)權(quán)法的標(biāo)準(zhǔn)開(kāi)展實(shí)質(zhì)分析,如果技術(shù)上需要人類(lèi)意志介入,使生成物能夠產(chǎn)生獨(dú)創(chuàng)性與創(chuàng)新性,應(yīng)賦予知識(shí)產(chǎn)權(quán)并明確其歸屬,強(qiáng)化生成式人工智能領(lǐng)域知識(shí)產(chǎn)權(quán)的系統(tǒng)性保護(hù);同時(shí)要合理確定對(duì)生成物知識(shí)產(chǎn)權(quán)保護(hù)的范圍,避免保護(hù)范圍無(wú)限擴(kuò)張,妨礙生成式人工智能的推廣運(yùn)用和技術(shù)發(fā)展。還要加強(qiáng)對(duì)生成物濫用風(fēng)險(xiǎn)的治理。比如,要求作品清楚標(biāo)識(shí)生成式人工智能在作者創(chuàng)作中發(fā)揮作用的情況,加強(qiáng)對(duì)可能涉及違法犯罪的深度偽造、AI換臉等生成物的精準(zhǔn)化、常態(tài)化監(jiān)管,等等。

生成式人工智能在社會(huì)應(yīng)用中產(chǎn)生的擴(kuò)散影響還有很多,除了上述風(fēng)險(xiǎn)還有很多其他類(lèi)型的風(fēng)險(xiǎn),比如加劇信息不對(duì)稱(chēng)、擴(kuò)大數(shù)字鴻溝、損害數(shù)字弱勢(shì)群體的利益等。要根據(jù)實(shí)際情況作出應(yīng)對(duì),盡量降低新技術(shù)給社會(huì)發(fā)展帶來(lái)的不良沖擊。

(作者為中國(guó)政法大學(xué)刑事司法學(xué)院教授)

守護(hù)好人工智能時(shí)代的隱私安全

顧理平

習(xí)近平總書(shū)記強(qiáng)調(diào):“堅(jiān)持以人為本、智能向善”。當(dāng)前,人工智能技術(shù)日新月異,既深刻影響改變著人們的生產(chǎn)生活方式、加速了經(jīng)濟(jì)社會(huì)發(fā)展進(jìn)程,也對(duì)法律規(guī)范、道德倫理、公共治理等造成沖擊。其中,對(duì)隱私權(quán)、個(gè)人信息安全等的威脅是值得關(guān)注的重要問(wèn)題。黨的二十屆三中全會(huì)《決定》對(duì)“建立人工智能安全監(jiān)管制度”作出重要部署,保護(hù)隱私權(quán)和個(gè)人信息安全是人工智能安全監(jiān)管的題中應(yīng)有之義。必須加強(qiáng)人工智能時(shí)代的隱私權(quán)保護(hù),確保個(gè)人信息安全。

人工智能時(shí)代隱私權(quán)面臨嚴(yán)峻挑戰(zhàn)。隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動(dòng)、私密信息。民法典規(guī)定:“自然人享有隱私權(quán)。任何組織或者個(gè)人不得以刺探、侵?jǐn)_、泄露、公開(kāi)等方式侵害他人的隱私權(quán)?!彪[私權(quán)作為人格權(quán)的核心要素,是構(gòu)筑人格尊嚴(yán)的重要基礎(chǔ)。不被公開(kāi)、不被知曉是隱私權(quán)的核心訴求。當(dāng)前,人工智能以悄無(wú)聲息的方式介入人們生產(chǎn)生活的各領(lǐng)域各方面各環(huán)節(jié),產(chǎn)生智能醫(yī)療、智能交通、智能推薦等眾多應(yīng)用場(chǎng)景,技術(shù)本身存在的某些缺陷和規(guī)則的不完善,不可避免帶來(lái)侵害隱私權(quán)的問(wèn)題。比如,非法收集和使用個(gè)人信息,利用分析這些個(gè)人信息頻繁推送所謂“個(gè)性化”的“精準(zhǔn)廣告”,泄露個(gè)人信息給第三方,導(dǎo)致私人生活頻頻受到垃圾信息侵?jǐn)_;利用個(gè)人信息進(jìn)行“大數(shù)據(jù)殺熟”,實(shí)現(xiàn)“一客一價(jià)”的精準(zhǔn)價(jià)格歧視,令公民遭受財(cái)產(chǎn)損失;已脫敏個(gè)人信息被重新識(shí)別,因保護(hù)措施不當(dāng)導(dǎo)致數(shù)據(jù)泄露,非法買(mǎi)賣(mài)個(gè)人信息現(xiàn)象屢見(jiàn)不鮮,侵害個(gè)人信息安全;借助個(gè)人信息進(jìn)行深度偽造,通過(guò)聲音仿真、AI換臉等手段,實(shí)施詐騙等違法犯罪行為;等等。這說(shuō)明,侵害隱私權(quán)不僅侵犯了公民的人格尊嚴(yán),也會(huì)造成其他嚴(yán)重社會(huì)后果。

去私密化技術(shù)特征加劇個(gè)人信息安全風(fēng)險(xiǎn)。以大數(shù)據(jù)為基礎(chǔ)的人工智能在應(yīng)用之初,許多人是抱著觀(guān)望、懷疑的心態(tài)看待這種新技術(shù)的。隨著人工智能以擬人化的外在形式、個(gè)性化的服務(wù)提供、沉浸式的互動(dòng)過(guò)程不斷改善使用者的產(chǎn)品體驗(yàn)和心理感受,越來(lái)越多的人逐漸成為人工智能的忠實(shí)用戶(hù),享受著人工智能給自己帶來(lái)的各種便捷。隨著人機(jī)互動(dòng)、萬(wàn)物互聯(lián)的物聯(lián)網(wǎng)技術(shù)普及,智能家居、智能辦公、智能工廠(chǎng)、智能駕駛等人工智能應(yīng)用場(chǎng)景也不斷拓展,個(gè)人能夠以數(shù)字人的存在形式在數(shù)字空間提出需求、獲得服務(wù),也在不知不覺(jué)中向人工智能源源不斷地輸送著個(gè)人信息。個(gè)人在數(shù)字空間留下的任何痕跡都被數(shù)字化,形成個(gè)人信息,并作為人們“聯(lián)系世界的介質(zhì)”發(fā)揮著重要功能。與此同時(shí),人工智能為了改善服務(wù)質(zhì)量,也傾向于過(guò)度收集使用個(gè)人信息。這都使得人工智能具有鮮明的去私密化技術(shù)特征。也正是在那些人工智能使用者習(xí)以為常的個(gè)人信息流動(dòng)中,混合著公共數(shù)據(jù)和私人數(shù)據(jù)的大數(shù)據(jù)被挖掘、整合、分析、利用,人們難以憑自己的感官察覺(jué)到隱私權(quán)被侵害,個(gè)人信息安全面臨著更高的風(fēng)險(xiǎn)。

尊重個(gè)體選擇,堅(jiān)持知情同意。不同的人對(duì)個(gè)人信息被知悉、被利用的接受程度不同,應(yīng)尊重個(gè)人意愿,科學(xué)合理地執(zhí)行“知情同意”原則。知情同意原則包括知情和同意兩方面,同意必須以知情為前提,沒(méi)有充分的知情和理解,就不可能有真正意義上的同意。信息、理解和自愿,是知情同意原則的三要素。在全面“知情”的基礎(chǔ)上,個(gè)人可以自主作出怎樣“同意”的意思表示。這就需要在用戶(hù)使用人工智能時(shí),作出通俗易懂而又清晰明了的提示說(shuō)明,征得用戶(hù)對(duì)個(gè)人信息收集使用的同意。如果個(gè)人信息會(huì)在不同平臺(tái)之間流動(dòng),需要將流動(dòng)范圍、目標(biāo)、使用邊界讓用戶(hù)知曉。為了良好和流暢的用戶(hù)體驗(yàn),也可以給用戶(hù)提供一次性或分階段進(jìn)行授權(quán)的選擇。要告知用戶(hù)收集個(gè)人信息的范圍、方式和用途以及與誰(shuí)共享個(gè)人信息,用戶(hù)也應(yīng)當(dāng)可以選擇隨時(shí)退出。在進(jìn)行個(gè)人信息分析時(shí),應(yīng)以彈窗或其他形式提示用戶(hù)注意并實(shí)時(shí)授權(quán)。設(shè)置數(shù)據(jù)生命周期、按時(shí)刪除個(gè)人信息也是保護(hù)個(gè)人信息安全的有效方式。

完善技術(shù)手段,確保智能向善。技術(shù)導(dǎo)致的問(wèn)題,要善于從技術(shù)層面確立解決問(wèn)題的思路。人工智能時(shí)代隱私權(quán)面臨挑戰(zhàn),其直接的觸發(fā)因素是技術(shù)的演進(jìn)。從分析式人工智能到生成式人工智能,人工智能技術(shù)每一次迭代升級(jí),都可能對(duì)隱私權(quán)帶來(lái)新的沖擊。因此,技術(shù)解決方案必須置于關(guān)鍵位置,應(yīng)通過(guò)完善數(shù)據(jù)庫(kù)安全、核心數(shù)據(jù)加密、個(gè)人數(shù)據(jù)脫敏等技術(shù),建立保護(hù)隱私權(quán)和個(gè)人信息安全的防火墻。個(gè)人信息一般會(huì)經(jīng)過(guò)收集、存儲(chǔ)和使用三個(gè)階段,而這三個(gè)階段都可能存在侵害隱私權(quán)和個(gè)人信息安全的風(fēng)險(xiǎn)。應(yīng)根據(jù)不同階段個(gè)人信息所處的不同狀況,從技術(shù)上進(jìn)行有效保護(hù)。在個(gè)人信息收集階段,加強(qiáng)匿名化技術(shù)推廣運(yùn)用。收集個(gè)人信息雖然不可避免,但只要匿名化,不把個(gè)人信息與身份對(duì)應(yīng),隱私權(quán)就不會(huì)受到侵害。個(gè)人信息存儲(chǔ)階段,要完善加密技術(shù)。當(dāng)前,數(shù)據(jù)存儲(chǔ)主要有數(shù)據(jù)庫(kù)存儲(chǔ)和云存儲(chǔ)兩種方式。外部入侵竊取和內(nèi)部人員未經(jīng)授權(quán)的查看、使用、泄露是存儲(chǔ)階段個(gè)人信息安全的主要威脅。要強(qiáng)化數(shù)據(jù)加密,同時(shí)嚴(yán)格數(shù)據(jù)訪(fǎng)問(wèn)權(quán)限控制。個(gè)人信息使用階段,要從技術(shù)上加強(qiáng)對(duì)個(gè)人信息違法使用的實(shí)時(shí)介入、干擾、阻斷,為隱私權(quán)和個(gè)人信息安全多添一層保護(hù)。

隨著我國(guó)法律規(guī)則日益完善、保護(hù)力度持續(xù)加強(qiáng),特別是民法典、個(gè)人信息保護(hù)法對(duì)隱私權(quán)和個(gè)人信息保護(hù)作出詳細(xì)規(guī)定,明確了個(gè)人信息處理活動(dòng)中權(quán)利和義務(wù)的邊界,人工智能時(shí)代我國(guó)對(duì)隱私權(quán)和個(gè)人信息安全的法律保護(hù)必將邁上更高水平,為人工智能健康發(fā)展、更好造福人民群眾提供堅(jiān)強(qiáng)法律保障。

(作者為南京師范大學(xué)新聞與傳播學(xué)院教授)

探索人工智能體的模塊化治理框架

張  欣

科技興則民族興,科技強(qiáng)則國(guó)家強(qiáng)。黨的十八大以來(lái),我國(guó)高度重視人工智能發(fā)展,積極推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合,培育壯大智能產(chǎn)業(yè),加快發(fā)展新質(zhì)生產(chǎn)力,為高質(zhì)量發(fā)展提供新動(dòng)能。習(xí)近平總書(shū)記指出:“要堅(jiān)持促進(jìn)發(fā)展和依法管理相統(tǒng)一,既大力培育人工智能、物聯(lián)網(wǎng)、下一代通信網(wǎng)絡(luò)等新技術(shù)新應(yīng)用,又積極利用法律法規(guī)和標(biāo)準(zhǔn)規(guī)范引導(dǎo)新技術(shù)應(yīng)用?!绷?xí)近平總書(shū)記的重要論述為我國(guó)人工智能發(fā)展提供了根本遵循和行動(dòng)指南。大力發(fā)展人工智能,提高人工智能安全治理水平,要把黨的二十屆三中全會(huì)《決定》提出的“建立人工智能安全監(jiān)管制度”重要部署不折不扣貫徹落實(shí)好,準(zhǔn)確把握人工智能發(fā)展動(dòng)向,重點(diǎn)關(guān)注人工智能前沿技術(shù)及其帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻性思考,不斷探索人工智能治理的創(chuàng)新方案。

當(dāng)前,生成式人工智能開(kāi)創(chuàng)了人機(jī)交互新范式,憑借其強(qiáng)大的交互、理解和生成能力,為發(fā)展以大型自然語(yǔ)言模型為核心組件,集記憶、規(guī)劃和工具使用于一體,具備感知和行動(dòng)能力的人工智能體開(kāi)辟了廣闊前景。人工智能體已成為通用人工智能最重要的前沿研究方向和科技企業(yè)競(jìng)相布局的新賽道。它以大型自然語(yǔ)言模型為“智慧引擎”,具有自主性、適應(yīng)性和交互性特征,可顯著提高生產(chǎn)效率,增強(qiáng)用戶(hù)體驗(yàn),提供超越人類(lèi)能力的決策支持,已能夠應(yīng)用于軟件開(kāi)發(fā)、科學(xué)研究等多種真實(shí)場(chǎng)景。盡管大規(guī)模商業(yè)化落地仍在初步探索和孵化階段,但人工智能體所代表的虛實(shí)融合、人機(jī)深度互動(dòng)等趨勢(shì)對(duì)經(jīng)濟(jì)社會(huì)發(fā)展具有重要引領(lǐng)意義。然而,由于技術(shù)局限,人工智能體也可能引發(fā)復(fù)雜的、動(dòng)態(tài)的、不可預(yù)見(jiàn)的風(fēng)險(xiǎn)與隱憂(yōu)。

從設(shè)計(jì)邏輯看,人工智能體需要通過(guò)控制端獲得認(rèn)知能力,通過(guò)感知端從周?chē)h(huán)境獲取和利用信息,最終在行動(dòng)端成為基于物理實(shí)體進(jìn)行感知和行動(dòng)的智能系統(tǒng)。

在控制端,大型自然語(yǔ)言模型作為人工智能體的“大腦”,通過(guò)學(xué)習(xí)海量數(shù)據(jù)形成知識(shí),構(gòu)成人工智能體控制系統(tǒng)中的記憶模塊,但其在生成內(nèi)容的可靠性和準(zhǔn)確性方面存在風(fēng)險(xiǎn)。比如,模型生成的內(nèi)容可能不遵循信息源或者與現(xiàn)實(shí)世界的真實(shí)情況不符,產(chǎn)生所謂“機(jī)器幻覺(jué)”;由于訓(xùn)練數(shù)據(jù)中的人類(lèi)偏見(jiàn),影響人工智能體的公平?jīng)Q策;等等。

在感知端,為充分理解具體情境下的顯性信息和隱性信息,準(zhǔn)確感知人類(lèi)意圖,人工智能體將感知范圍從純文本拓展到包括文本、視覺(jué)和聽(tīng)覺(jué)模式在內(nèi)的多模態(tài)領(lǐng)域。這雖然提升了決策能力,卻在融合和分析不同渠道和類(lèi)型的多源數(shù)據(jù)時(shí)可能引發(fā)一系列隱私泄露和數(shù)據(jù)安全風(fēng)險(xiǎn)。比如,不當(dāng)使用和分享人臉信息、指紋、聲紋等高度個(gè)性化、具有永久性的生物特征數(shù)據(jù),導(dǎo)致長(zhǎng)期甚至永久性的隱私風(fēng)險(xiǎn)。為更好地處理復(fù)雜任務(wù),部署多個(gè)人工智能體進(jìn)行規(guī)劃、合作甚至競(jìng)爭(zhēng),以完成和提高任務(wù)績(jī)效的多智能體系統(tǒng)將成為主流和常態(tài)。多個(gè)人工智能體的系統(tǒng)交互就可能引發(fā)不可預(yù)見(jiàn)的系統(tǒng)性安全風(fēng)險(xiǎn)。即使每個(gè)算法在單獨(dú)操作時(shí)看似安全和合理,但組合和交互之后仍可能產(chǎn)生完全不同且難以預(yù)測(cè)的風(fēng)險(xiǎn),并迅速演化升級(jí)。比如,在股票市場(chǎng)中,如果人工智能被廣泛應(yīng)用,多個(gè)算法自動(dòng)識(shí)別股票價(jià)格微小變化,同時(shí)大量執(zhí)行高頻交易進(jìn)行套利,就可能引發(fā)股票市場(chǎng)閃崩的系統(tǒng)性安全事件。

在行動(dòng)端,部署于真實(shí)物理環(huán)境的人工智能體將可能以更為立體、擬人的形象呈現(xiàn)。與虛擬空間不同,現(xiàn)實(shí)空間依賴(lài)交互式學(xué)習(xí)方法,人工智能體需要豐富的、全方位的信息感知來(lái)觀(guān)察、學(xué)習(xí)和行動(dòng),通過(guò)基于反饋的學(xué)習(xí)優(yōu)化能力,這可能對(duì)個(gè)人隱私構(gòu)成全面性、侵入性和隱蔽性的風(fēng)險(xiǎn)。比如,解讀用戶(hù)的肢體語(yǔ)言并感知更加復(fù)雜的用戶(hù)活動(dòng),未經(jīng)用戶(hù)授權(quán)持續(xù)隱秘地收集數(shù)據(jù),一旦系統(tǒng)存在安全漏洞,可能引發(fā)巨大的數(shù)據(jù)安全風(fēng)險(xiǎn)。此外,隨著人工智能體自主性不斷提升,不僅可能干預(yù)和影響人類(lèi)的認(rèn)知和情緒,也挑戰(zhàn)著人類(lèi)作為獨(dú)立決策者和獨(dú)立行動(dòng)者的能力與地位。比如,一些聊天機(jī)器人在與用戶(hù)的交互過(guò)程中就出現(xiàn)了影響用戶(hù)情感的輸出,有時(shí)是負(fù)面并且具有操縱性的。

面對(duì)人工智能體帶來(lái)的風(fēng)險(xiǎn)和挑戰(zhàn),要讓人工智能體的行為符合人類(lèi)的意圖和價(jià)值觀(guān),需要探索創(chuàng)新性的治理方案,保證人工智能安全監(jiān)管制度切實(shí)管用。人工智能體的發(fā)展正處于“從零到一”的關(guān)鍵期。治理方案應(yīng)具備以不變應(yīng)萬(wàn)變的能力,確保該技術(shù)的發(fā)展與應(yīng)用始終處于可控的軌道上。人工智能體的開(kāi)發(fā)、訓(xùn)練、部署、運(yùn)行和服務(wù)等環(huán)節(jié)經(jīng)過(guò)高度專(zhuān)業(yè)化的分工,形成了復(fù)雜的分層結(jié)構(gòu)。每一層均有不同的參與者、利益相關(guān)方和潛在風(fēng)險(xiǎn)因素,使人工智能體具有“模塊”化的產(chǎn)業(yè)鏈特質(zhì)。因此,可以構(gòu)建一種能夠覆蓋整個(gè)產(chǎn)業(yè)鏈和各個(gè)端層的模塊化治理框架,從數(shù)據(jù)模塊、算法模塊、模型架構(gòu)等關(guān)鍵節(jié)點(diǎn)出發(fā),設(shè)計(jì)相應(yīng)的治理模塊。例如在部署環(huán)節(jié),就可根據(jù)應(yīng)用場(chǎng)景和部署模式的特性,靈活選擇、協(xié)同組合不同的治理模塊,構(gòu)建與之相匹配的治理方案。模塊化治理框架提供了一種具有可操作性的分解方法,通過(guò)將治理目標(biāo)拆解為相對(duì)獨(dú)立但關(guān)聯(lián)耦合的治理模塊,漸序推動(dòng)治理體系形成,不僅提高了治理的靈活性和針對(duì)性,還能夠適應(yīng)技術(shù)的快速迭代。在構(gòu)建基于數(shù)據(jù)、算法、模型和場(chǎng)景等維度的治理模塊時(shí),應(yīng)以技術(shù)賦能監(jiān)管,打造與人工智能體模塊化治理框架相適配的、智慧化的治理工具,從而彌合風(fēng)險(xiǎn)動(dòng)態(tài)性與監(jiān)管靜態(tài)性之間的張力,實(shí)現(xiàn)對(duì)特定高風(fēng)險(xiǎn)場(chǎng)景的精準(zhǔn)化治理。

要構(gòu)建面向人工智能體的交互式治理生態(tài)。人工智能體具有深度交互性、高度互聯(lián)性以及動(dòng)態(tài)適應(yīng)性。相應(yīng)地,治理方式應(yīng)當(dāng)超越傳統(tǒng)的以個(gè)體為中心的治理,推動(dòng)形成廣泛互聯(lián)、多方參與、多層次協(xié)作的治理生態(tài)。其中,技術(shù)開(kāi)發(fā)人員、運(yùn)營(yíng)維護(hù)人員等技術(shù)社群對(duì)于人工智能體的治理將起到至關(guān)重要的“吹哨人”作用。應(yīng)更好發(fā)揮技術(shù)社群的監(jiān)督優(yōu)勢(shì),在人工智能企業(yè)內(nèi)部構(gòu)建有效的約束機(jī)制。還應(yīng)積極提高廣大用戶(hù)的數(shù)字素養(yǎng),增強(qiáng)其依法、安全、負(fù)責(zé)任使用人工智能體的意識(shí),實(shí)現(xiàn)與人工智能體的良性交互,推動(dòng)形成向上向善的運(yùn)行狀態(tài)。

(作者為對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)法學(xué)院教授)


【責(zé)任編輯:申罡】
返回頂部