泄露隱私、虛假信息,大模型時(shí)代怎么防范安全風(fēng)險(xiǎn)?
隨著以ChatGPT為代表的生成式人工智能大模型持續(xù)火爆,全球科技公司、科研機(jī)構(gòu)紛紛布局自己的大模型。生成式人工智能與大模型的快速發(fā)展,也給網(wǎng)絡(luò)安全帶來(lái)全新挑戰(zhàn)。在8日開(kāi)幕的2023年世界互聯(lián)網(wǎng)大會(huì)烏鎮(zhèn)峰會(huì)上,國(guó)內(nèi)外安全專(zhuān)家紛紛從各自角度闡釋對(duì)人工智能大模型時(shí)代網(wǎng)絡(luò)安全新挑戰(zhàn)的理解,《環(huán)球時(shí)報(bào)》記者在“互聯(lián)網(wǎng)之光”博覽會(huì)上看到大部分展臺(tái)都有大模型相關(guān)展品,其中不乏“以魔法打敗魔法”的大模型安全整體解決方案。
“互聯(lián)網(wǎng)之光”博覽會(huì)人工智能大模型帶來(lái)哪些挑戰(zhàn)
在9日舉行的世界互聯(lián)網(wǎng)大會(huì)烏鎮(zhèn)峰會(huì)“人工智能賦能產(chǎn)業(yè)發(fā)展論壇”上,中外專(zhuān)家共同發(fā)布了《發(fā)展負(fù)責(zé)任的生成式人工智能研究報(bào)告及共識(shí)文件》(以下稱(chēng)報(bào)告)。報(bào)告提到,近年來(lái),生成式人工智能在文本、代碼、圖像、音視頻等方面的理解與生成取得突破性進(jìn)展,有望大幅提升社會(huì)生產(chǎn)力。與此同時(shí),報(bào)告也用專(zhuān)門(mén)的一章解讀了生成式人工智能帶來(lái)的風(fēng)險(xiǎn)。
報(bào)告稱(chēng),生成式人工智能技術(shù)在迭代升級(jí)的同時(shí)也放大了技術(shù)安全風(fēng)險(xiǎn)。數(shù)據(jù)方面,數(shù)據(jù)投喂帶來(lái)價(jià)值偏見(jiàn)、隱私泄露、數(shù)據(jù)污染等問(wèn)題:訓(xùn)練數(shù)據(jù)固有偏見(jiàn)導(dǎo)致模型產(chǎn)生偏見(jiàn)內(nèi)容;海量訓(xùn)練數(shù)據(jù)擴(kuò)大了數(shù)據(jù)安全和隱私保護(hù)風(fēng)險(xiǎn)。算法方面,算法模型生成特性及安全漏洞會(huì)引發(fā)“幻覺(jué)”或虛假信息、模型遭受攻擊等風(fēng)險(xiǎn)。報(bào)告還提到兩大更深層次的風(fēng)險(xiǎn):生成式人工智能重構(gòu)人機(jī)關(guān)系可能帶來(lái)科技倫理失范;強(qiáng)大的任務(wù)處理能力,容易導(dǎo)致人的思維依賴(lài);生成式人工智能凸顯發(fā)展的不均衡引發(fā)人類(lèi)社會(huì)發(fā)展差距進(jìn)一步拉大。
《環(huán)球時(shí)報(bào)》記者在“互聯(lián)網(wǎng)之光”博覽會(huì)上也感受了生成式人工智能可能帶給普通人的安全風(fēng)險(xiǎn)。在一個(gè)聚焦青少年編程的公司展臺(tái),記者體驗(yàn)“看到的也未必是真實(shí)的”換臉揭秘實(shí)驗(yàn)。在機(jī)器前站幾秒鐘之后,AI就根據(jù)記者的外貌特征提供了兩個(gè)換臉模型,一個(gè)是秒變“憨豆先生”,另一個(gè)是滿(mǎn)臉大胡子。據(jù)展臺(tái)工作人員介紹,這就是對(duì)青少年進(jìn)行“換臉”風(fēng)險(xiǎn)的科普。
記者體驗(yàn)“AI瞬間換臉”一名已經(jīng)第十次參加世界互聯(lián)網(wǎng)大會(huì)的中國(guó)網(wǎng)絡(luò)安全專(zhuān)家對(duì)《環(huán)球時(shí)報(bào)》記者表示,前幾年我們關(guān)注云安全、大數(shù)據(jù)安全、物聯(lián)網(wǎng)安全,但今天大模型安全是一個(gè)必須重視的話(huà)題。
大模型如何保障重大活動(dòng)安保
公開(kāi)報(bào)道顯示,2012年倫敦奧運(yùn)會(huì),多家媒體遭遇網(wǎng)絡(luò)攻擊;2016年里約奧運(yùn)會(huì)遭到大規(guī)模APT襲擊、DDoS攻擊;2018年平昌冬奧會(huì)更是遭遇了奧運(yùn)史上最大的網(wǎng)絡(luò)安全事故。《環(huán)球時(shí)報(bào)》記者在“互聯(lián)網(wǎng)之光”博覽會(huì)上了解到,前不久成功舉辦的杭州亞運(yùn)會(huì),不僅是一場(chǎng)體育成績(jī)、大型活動(dòng)組織的比拼,更是一場(chǎng)網(wǎng)絡(luò)安全攻防對(duì)抗的較量。
《環(huán)球時(shí)報(bào)》記者在“互聯(lián)網(wǎng)之光”博覽會(huì)現(xiàn)場(chǎng)看到一個(gè)巨大的顯示屏,以動(dòng)態(tài)形式直觀(guān)地演示杭州亞運(yùn)會(huì)網(wǎng)絡(luò)安保過(guò)程中的態(tài)勢(shì)感知與快速應(yīng)對(duì)能力。據(jù)安恒信息副總裁梁浩介紹,現(xiàn)場(chǎng)展示的MSS亞運(yùn)天穹——新一代主動(dòng)防御運(yùn)營(yíng)中心是服務(wù)于杭州亞運(yùn)安保防護(hù)體系的綜合運(yùn)營(yíng)中心,它實(shí)際上是結(jié)合本次亞運(yùn)會(huì)的建設(shè)范圍來(lái)進(jìn)行定義的,涉及整個(gè)亞運(yùn)會(huì)88個(gè)競(jìng)賽和非競(jìng)賽場(chǎng)館,相關(guān)安全細(xì)節(jié)、措施、問(wèn)題都可以通過(guò)這個(gè)運(yùn)營(yíng)中心的視角及時(shí)掌握。如果有需要隨時(shí)能夠查看到具體場(chǎng)館里相關(guān)的IT機(jī)房,檢查安全防護(hù)設(shè)備在哪個(gè)槽位,如有異常、中斷、告警,都能夠及時(shí)反饋處置。
據(jù)介紹,杭州亞運(yùn)會(huì)的運(yùn)動(dòng)員人數(shù)、賽事項(xiàng)目規(guī)模和場(chǎng)館數(shù)量大概4倍于北京冬奧會(huì),如果按照傳統(tǒng)方式可能需要數(shù)千人才能完成安保,但實(shí)際上本次亞運(yùn)會(huì)現(xiàn)場(chǎng)安保只有400多人,如何在這么大范圍內(nèi)用較少的人員去滿(mǎn)足安保需求,其實(shí)就是用了大模型技術(shù)?!拔覀儗⒋竽P驮诎踩I(lǐng)域進(jìn)行了結(jié)合,幫助現(xiàn)場(chǎng)分析人員快速輔助進(jìn)行研判,并提供處置方案。特別是在重點(diǎn)活動(dòng)保障方面,對(duì)時(shí)效性要求特別高,比如在杭州亞運(yùn)會(huì)期間觀(guān)測(cè)到有超過(guò)2600萬(wàn)次的網(wǎng)絡(luò)攻擊,在整個(gè)攔截過(guò)程中更多是用了自動(dòng)化的關(guān)聯(lián)和阻斷技術(shù),其中也用到了人工智能和大模型的能力。”
如何“用魔法打敗魔法”
為了應(yīng)對(duì)生成式人工智能與大模型帶來(lái)的挑戰(zhàn),國(guó)內(nèi)網(wǎng)絡(luò)安全領(lǐng)域的頭部公司也紛紛在“互聯(lián)網(wǎng)之光”博覽會(huì)上展出解決方案?!董h(huán)球時(shí)報(bào)》記者印象最深的就是用AI對(duì)付AI、“用魔法打敗魔法”。比如在奇安信展臺(tái),記者看到“大模型衛(wèi)士”提供的一系列強(qiáng)大防護(hù)能力。阿里巴巴展臺(tái)也提出“大模型安全全鏈路解決方案”。
參加本次世界互聯(lián)網(wǎng)大會(huì)的360集團(tuán)創(chuàng)始人周鴻祎在接受《環(huán)球時(shí)報(bào)》采訪(fǎng)時(shí)表示,所有數(shù)字化技術(shù)必然都是雙刃劍,有軟件就會(huì)有漏洞,有漏洞就會(huì)被攻擊,人工智能大模型也不可避免。周鴻祎認(rèn)為,人工智能面臨的安全問(wèn)題可分為三級(jí):初級(jí)/近期問(wèn)題、中級(jí)/中期問(wèn)題和高級(jí)/長(zhǎng)期問(wèn)題。初級(jí)/近期問(wèn)題是技術(shù)攻擊問(wèn)題,也就是網(wǎng)絡(luò)攻擊、漏洞攻擊、數(shù)據(jù)攻擊問(wèn)題,特別是提供給大模型不好的數(shù)據(jù)或污染它的訓(xùn)練數(shù)據(jù),可能會(huì)導(dǎo)致結(jié)果出錯(cuò)。這類(lèi)問(wèn)題相對(duì)比較好解決。比較難解決的是中級(jí)/中期問(wèn)題,主要涉及內(nèi)容安全。例如大模型可以成為人們很好的幫手,也能成為壞人的工具。它可以幫一個(gè)水平不怎么樣的黑客寫(xiě)更好的攻擊代碼、詐騙郵件。如何讓它的內(nèi)容更加可控?如何防止人工智能大模型不作惡?這已經(jīng)超越技術(shù)范疇了。盡管現(xiàn)在有人為大模型做了內(nèi)置的所謂“安全護(hù)欄”,但它很容易遭到注入攻擊或算法攻擊。這類(lèi)問(wèn)題的解決思路之一是開(kāi)發(fā)小規(guī)模模型,專(zhuān)門(mén)針對(duì)不懷好意的提問(wèn),讓大模型在回答用戶(hù)問(wèn)題前先用小模型過(guò)濾。
周鴻祎認(rèn)為,從高級(jí)/長(zhǎng)期的問(wèn)題來(lái)看,大模型可以把人類(lèi)所有知識(shí)融會(huì)貫通,再來(lái)和人類(lèi)做交流、做提示。但對(duì)于未來(lái)萬(wàn)一大模型能力超越人類(lèi)后,還能不能甘于做人類(lèi)的工具,周鴻祎表示,“我的一個(gè)觀(guān)點(diǎn)是,這些技術(shù)帶來(lái)的挑戰(zhàn)最終還得靠技術(shù)來(lái)解決,技術(shù)自身會(huì)不斷進(jìn)化。不能因?yàn)槲磥?lái)還沒(méi)有發(fā)生的問(wèn)題就不發(fā)展相關(guān)技術(shù)”。
在8日舉行的2023年世界互聯(lián)網(wǎng)大會(huì)藍(lán)皮書(shū)新聞發(fā)布會(huì)上,中國(guó)網(wǎng)絡(luò)空間研究院網(wǎng)信理論與戰(zhàn)略研究所副所長(zhǎng)姜淑麗介紹說(shuō),中國(guó)堅(jiān)持安全與發(fā)展并重的原則,為生成式人工智能發(fā)展?fàn)I造創(chuàng)新生態(tài),同時(shí)重視防范風(fēng)險(xiǎn),制定人工智能監(jiān)管規(guī)則。2023年7月,中國(guó)發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,是全球范圍內(nèi)首部針對(duì)生成式人工智能的管理辦法。同時(shí),中國(guó)發(fā)起“全球人工智能治理倡議”,明確提出發(fā)展人工智能堅(jiān)持相互尊重、平等互利的原則。
來(lái)源:環(huán)球時(shí)報(bào)
- 免責(zé)聲明
- 本文所包含的觀(guān)點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀(guān)點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴(lài)本文觀(guān)點(diǎn)而產(chǎn)生的任何金錢(qián)損失負(fù)任何責(zé)任。