光明網(wǎng):持續(xù)推進(jìn)人工智能倫理治理
光明網(wǎng)-理論頻道
10月18日,中央網(wǎng)信辦發(fā)布《全球人工智能治理倡議》(下稱《倡議》),圍繞人工智能發(fā)展、安全、治理三方面系統(tǒng)闡述了人工智能治理的中國方案。《倡議》就各方普遍關(guān)切的人工智能發(fā)展與治理問題提出了建設(shè)性解決思路,在人工智能倫理治理方面,提出:“堅持倫理先行,建立并完善人工智能倫理準(zhǔn)則、規(guī)范及問責(zé)機(jī)制,形成人工智能倫理指南,建立科技倫理審查和監(jiān)管制度,明確人工智能相關(guān)主體的責(zé)任和權(quán)力邊界,充分尊重并保障各群體合法權(quán)益,及時回應(yīng)國內(nèi)和國際相關(guān)倫理關(guān)切。”
人工智能是人類發(fā)展的新領(lǐng)域。人工智能技術(shù)被視作第四次科技革命的核心驅(qū)動力,在全球掀起了新一輪產(chǎn)業(yè)變革浪潮,對經(jīng)濟(jì)社會發(fā)展和人類文明進(jìn)步產(chǎn)生深遠(yuǎn)影響。根據(jù)中國信息通信研究院測算,2022年我國人工智能核心產(chǎn)業(yè)規(guī)模達(dá)到了5080億元,同比增長18%,企業(yè)數(shù)量近4000家,國內(nèi)人工智能已形成完整的體系,成為新的增長引擎。
人工智能技術(shù)給經(jīng)濟(jì)社會發(fā)展帶來巨大福利,也帶來難以預(yù)知的各種風(fēng)險和復(fù)雜挑戰(zhàn)。人工智能技術(shù)發(fā)展的不確定性、技術(shù)應(yīng)用的數(shù)據(jù)依賴性以及算法可解釋性可能導(dǎo)致技術(shù)失控、隱私失密、公平失衡等問題,沖擊著倫理規(guī)范。推動人工智能的健康發(fā)展必須重視其對社會倫理的影響,防范和治理其潛在倫理風(fēng)險。對此,《倡議》也提到:“研發(fā)主體不斷提高人工智能可解釋性和可預(yù)測性,提升數(shù)據(jù)真實性和準(zhǔn)確性,確保人工智能始終處于人類控制之下,打造可審核、可監(jiān)督、可追溯、可信賴的人工智能技術(shù)。”
習(xí)近平總書記強調(diào);“科技是發(fā)展的利器,也可能成為風(fēng)險的源頭。要前瞻研判科技發(fā)展帶來的規(guī)則沖突、社會風(fēng)險、倫理挑戰(zhàn),完善相關(guān)法律法規(guī)、倫理審查規(guī)則及監(jiān)管框架。”2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,指出到2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。2019年,《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》發(fā)布,提出和諧友好、公平公正、敏捷治理等在內(nèi)的八條原則。2020年,國家科技倫理委員會正式成立,是新時代國家科技倫理治理的重大戰(zhàn)略決策。2021年,《新一代人工智能倫理規(guī)范》發(fā)布,分別闡述了人工智能的管理規(guī)范、研發(fā)規(guī)范、供應(yīng)規(guī)范和使用規(guī)范。2022年,《關(guān)于加強科技倫理治理的意見》發(fā)布,提出五項基本要求與五項科技倫理原則,部署四大重點任務(wù),為進(jìn)一步完善科技倫理治理體系作出指導(dǎo)。2023年,《生成式人工智能服務(wù)管理暫行辦法》發(fā)布,成為我國人工智能產(chǎn)業(yè)首份監(jiān)管文件。種種舉措表明,我國在人工智能倫理治理上持續(xù)發(fā)力。基于《倡議》內(nèi)容,我們未來仍需要繼續(xù)堅持倫理先行,做好風(fēng)險防范,形成具有廣泛共識的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。
一、研判人工智能倫理風(fēng)險
人工智能的可控性風(fēng)險。這種風(fēng)險來源于對技術(shù)失控的擔(dān)憂,指的是人工智能技術(shù)的發(fā)展超出人類控制范圍而產(chǎn)生的風(fēng)險。人工智能技術(shù)的發(fā)展日新月異,人工智能算法已經(jīng)融入自主性、情感性、意向性等人格要素,理論上存在著從弱人工智能發(fā)展到強人工智能、超人工智能的可能性。以智能機(jī)器人為代表的“人工生命”普遍出現(xiàn),使人類較以往更擔(dān)心技術(shù)脫離控制,但從現(xiàn)有人工智能成果的技術(shù)條件來說,人工智能技術(shù)只能應(yīng)用于強力法封閉原則與訓(xùn)練法封閉原則下的場景,出現(xiàn)不可控技術(shù)仍屬于“遠(yuǎn)慮”。
人工智能的使用性風(fēng)險。這種風(fēng)險指應(yīng)用人工智能而存在的風(fēng)險,主要源于人工智能技術(shù)的非正當(dāng)使用,比如技術(shù)濫用與技術(shù)誤用。以人臉識別技術(shù)為例,人臉識別算法可以幫助警方搜尋在逃罪犯,但人臉識別技術(shù)是否完全可靠,結(jié)果是否百分百準(zhǔn)確,在現(xiàn)階段并不能保證。美國紐約、新澤西兩大州的調(diào)查人員,通過面部識別軟件,找到與嫌疑人照片高度匹配的人,但是最終卻抓錯并將“罪犯”關(guān)押十天。還有研究團(tuán)隊利用唇曲率、眼內(nèi)角距以及口鼻角度等面部識別系統(tǒng)預(yù)測某些人具有犯罪傾向,得出黑人的犯罪概率遠(yuǎn)遠(yuǎn)高于其他人,引起極大爭議,以機(jī)器學(xué)習(xí)相面極有可能得到“可能的假象”與“客觀的謬誤”。此外,“換臉”等深度偽造問題層出不窮,而面部信息關(guān)系到個人隱私與財產(chǎn)安全,人臉識別技術(shù)何時、何處、該在何種程度使用都還需要進(jìn)一步規(guī)范。
人工智能的社會效應(yīng)風(fēng)險。這種風(fēng)險來自于與人工智能治理相關(guān)的重大社會問題,是人工智能技術(shù)對社會產(chǎn)生的負(fù)面效應(yīng)。人工智能廣泛的商業(yè)化應(yīng)用帶來一系列的產(chǎn)業(yè)變革,當(dāng)負(fù)效應(yīng)超過正效應(yīng)后,將對社會產(chǎn)生巨大影響。比如在經(jīng)濟(jì)就業(yè)方面,取代大量勞動力、導(dǎo)致失業(yè)浪潮、產(chǎn)生“無用階層”;在國家治理方面,利用人工智能技術(shù)優(yōu)勢操縱輿論,網(wǎng)絡(luò)竊密、網(wǎng)絡(luò)勾連威脅政治安全;在文化藝術(shù)方面,人工智能寫作、繪畫等技術(shù)形成的作品多處拼湊抄襲,看似降低“創(chuàng)作”門檻背后,卻可能讓藝術(shù)的創(chuàng)新探索止步不前;在生態(tài)環(huán)境方面,人工智能技術(shù)下的數(shù)據(jù)作為生產(chǎn)要素,可以減少自然資源和資本等傳統(tǒng)要素的依賴,但是人工智能發(fā)展依賴的基礎(chǔ)設(shè)施消耗并未減少。
二、優(yōu)化人工智能倫理治理
健全人工智能倫理風(fēng)險評估機(jī)制,增強風(fēng)險防范能力。當(dāng)前人工智能技術(shù)已經(jīng)產(chǎn)生或即將產(chǎn)生各類倫理風(fēng)險,需要得到正視與重視。一方面,正視倫理風(fēng)險的客觀性,正確認(rèn)識人工智能技術(shù)帶來的倫理風(fēng)險,不盲目地悲觀或者片面地樂觀,引導(dǎo)理性認(rèn)知,加強人工智能倫理風(fēng)險教育,客觀全面地評估人工智能倫理風(fēng)險。
另一方面,建立倫理風(fēng)險評估機(jī)制,梳理風(fēng)險源頭、風(fēng)險類型、風(fēng)險強度,思考風(fēng)險產(chǎn)生原因、風(fēng)險解決措施,防范未發(fā)生的風(fēng)險,對人工智能應(yīng)用的負(fù)面影響開展預(yù)見性風(fēng)險評估,提前做好風(fēng)險預(yù)案。面對人工智能技術(shù)的不確定性,優(yōu)化人工智能倫理風(fēng)險評估機(jī)制,需要集合多方力量、采用多種方法,科學(xué)開展風(fēng)險評估工作。政府、高校、研究院所等機(jī)構(gòu)可以聯(lián)合起來,建立風(fēng)險評估指標(biāo),為人工智能技術(shù)應(yīng)用劃定風(fēng)險等級,針對不同風(fēng)險等級使用不同的安防策略和技術(shù)。開展人工智能倫理風(fēng)險防范的前瞻性研究,可以采用“技術(shù)制約技術(shù)”的方式,建立對抗性學(xué)習(xí)算法研究,建立人工智能倫理風(fēng)險防控系統(tǒng),預(yù)防人工智能技術(shù)在應(yīng)用場景中的潛在倫理風(fēng)險。
打造人工智能倫理風(fēng)險治理群落,促進(jìn)多方協(xié)同共治。人工智能的倫理風(fēng)險涉及面廣,復(fù)雜程度高,風(fēng)險治理涉及智能技術(shù)、倫理哲學(xué)、公共管理等多領(lǐng)域,需要政府、企業(yè)、高校、行業(yè)組織、公眾等多主體搭建多方協(xié)同共治的組織網(wǎng)絡(luò),明確不同主體的權(quán)責(zé)義務(wù),建構(gòu)多主體合作治理的緊密關(guān)系,形成集群治理效應(yīng)。
政府作為管理部門需要發(fā)揮政策引導(dǎo)與監(jiān)督審查作用,比如政策制定者在制定人工智能倫理治理的相關(guān)政策時可以面向社會公眾、企業(yè)、科研團(tuán)體等其他主體,開展聽證、征詢和協(xié)商活動,提高其他主體在政策制定過程的參與度。人工智能企業(yè)作為技術(shù)前線需要提高自律自治能力,增強風(fēng)險意識與責(zé)任意識,在企業(yè)內(nèi)部設(shè)立人工智能倫理委員會,培養(yǎng)人工智能倫理研究員,開展倫理風(fēng)險自查,落實人工智能技術(shù)可信可靠要求。人工智能行業(yè)組織需要針對行業(yè)發(fā)展情況建立行業(yè)倫理規(guī)范,在政府引導(dǎo)下制定相關(guān)技術(shù)標(biāo)準(zhǔn),促進(jìn)企業(yè)落實主體責(zé)任。高校、科研院所等科研共同體可以積極參與倫理規(guī)范制定,研究人工智能倫理風(fēng)險治理的算法工具,還可以發(fā)揮教育作用,開展人工智能倫理教育以及人工智能技術(shù)的科普活動。
完善人工智能倫理風(fēng)險治理體系,推動敏捷治理。除《倡議》外,《新一代人工智能治理原則》《新一代人工智能倫理規(guī)范》與《關(guān)于加強科技倫理治理的意見》的治理要求中都提到了“敏捷治理”。推動“敏捷治理”,要尊重人工智能發(fā)展規(guī)律,持續(xù)優(yōu)化管理機(jī)制、完善治理體系。一方面,完善人工智能倫理風(fēng)險監(jiān)管機(jī)制,將倫理風(fēng)險監(jiān)管融入人工智能全生命周期,實現(xiàn)全流程全鏈條監(jiān)管,建立問責(zé)機(jī)制,明確問題責(zé)任人;另一方面,將人工智能倫理風(fēng)險治理標(biāo)準(zhǔn)化、規(guī)范化,形成多級制度配套體系,以具體的標(biāo)準(zhǔn)將寬泛的治理原則可操作化。
此外,還需要根據(jù)人工智能技術(shù)發(fā)展,動態(tài)調(diào)整倫理風(fēng)險處理方式,針對人工智能商業(yè)化應(yīng)用的新興問題,及時制定倫理風(fēng)險治理辦法。歐盟在2021年提出了《人工智能法》提案,促使人工智能治理從軟性約束向?qū)嵸|(zhì)硬性要求轉(zhuǎn)變。目前我國出臺了《中華人民共和國個人信息保護(hù)法》《中華人民共和國數(shù)據(jù)安全法》等數(shù)字技術(shù)領(lǐng)域的專門立法,為個人隱私安全風(fēng)險治理填補立法空白,但相關(guān)立法較為零散,并且具有滯后性。因此,還需要推動人工智能倫理風(fēng)險治理的法治化進(jìn)程,增強立法前瞻性,建立一套規(guī)范的法律體系。
電子科技大學(xué)智慧治理研究院研究員葉昶秀、龔澤鵬對此文亦有貢獻(xiàn)。本文系國家社會科學(xué)基金重點項目“人工智能商業(yè)化應(yīng)用的社會影響與治理體系研究”(22AZD135)的階段性成果。
- 免責(zé)聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認(rèn)可。 交易和投資涉及高風(fēng)險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。