首頁(yè) > AI資訊 > 行業(yè)應(yīng)用 > AIGC時(shí)代到來(lái),保證數(shù)據(jù)和內(nèi)容安全成為重中之重

AIGC時(shí)代到來(lái),保證數(shù)據(jù)和內(nèi)容安全成為重中之重

新火種    2023-11-16

界面新聞?dòng)浾?| 佘曉晨

界面新聞編輯 |

生成式人工智能AIGC(Artificial Intelligence Generated Content)讓人們看到了未來(lái)世界AI的無(wú)限潛力,但在技術(shù)成果涌現(xiàn)之時(shí),內(nèi)容和數(shù)據(jù)的安全問(wèn)題也第一次變得格外重要。

在2023年世界人工智能大會(huì)期間舉辦的AIGC新浪潮論壇上,中國(guó)科學(xué)院自動(dòng)化研究所研究員、人工智能倫理與治理中心主任曾毅提出觀點(diǎn)稱(chēng),“對(duì)于人工智能的進(jìn)展不能進(jìn)行過(guò)度渲染,過(guò)度渲染和承諾只會(huì)給人工智能發(fā)展帶來(lái)更多的阻力和風(fēng)浪。”

曾毅在大會(huì)現(xiàn)場(chǎng)演示了關(guān)于人工智能發(fā)展的案例,他表達(dá)的結(jié)論是,人工智能技術(shù)并非中立,基于人類(lèi)訓(xùn)練的AI,它可以習(xí)得社會(huì)的偏見(jiàn)、仇恨,甚至是歧視,這也是我們?yōu)槭裁匆M(jìn)行可信人工智能、人工智能倫理研究。

他表示,我們應(yīng)該明確區(qū)分人工智能與人類(lèi)的界限。曾毅解釋稱(chēng),負(fù)責(zé)任的人工智能首先要進(jìn)行環(huán)境的交互與意圖的理解,在這個(gè)基礎(chǔ)之上,在倫理的框架下,在具有內(nèi)部和外部安全的情況下進(jìn)行問(wèn)題的求解。我們現(xiàn)在看到的很多人工智能只是問(wèn)題求解器,這也是現(xiàn)代人工智能離我們真正期待的通用人工智能之間的巨大距離。

因此曾毅認(rèn)為,我們?cè)谟蒙墒饺斯ぶ悄苓M(jìn)行創(chuàng)新的時(shí)候,不僅要討論機(jī)遇,不能只看法律限制的情況下紅線是什么。“在一些問(wèn)題上AI沒(méi)有觸犯法律,但是它違反了社會(huì)倫理道德,我們也不應(yīng)該去做。”

事實(shí)上,一些“約束”的確正在發(fā)生。今年4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(下稱(chēng)《辦法》)公開(kāi)征求意見(jiàn)的通知。這也是國(guó)家首次針對(duì)生成式人工智能產(chǎn)業(yè)發(fā)布的規(guī)范性政策。

除了政策上的管理,技術(shù)的支撐同樣被需要。在AI公司投入大模型的同時(shí),不少技術(shù)公司加速開(kāi)發(fā)保證數(shù)據(jù)和技術(shù)安全的產(chǎn)品,從根源上加強(qiáng)人工智能的安全性。

在今年的人工智能大會(huì)上,螞蟻集團(tuán)聯(lián)合清華大學(xué)發(fā)布AI安全檢測(cè)平臺(tái)“蟻鑒2.0”。蟻鑒2.0可實(shí)現(xiàn)用生成式AI能力檢測(cè)生成式AI模型,可識(shí)別數(shù)據(jù)安全、內(nèi)容安全、科技倫理三大類(lèi)風(fēng)險(xiǎn),覆蓋表格、文本、圖像等多種數(shù)據(jù)和任務(wù)類(lèi)型。

“蟻鑒2.0”落地于產(chǎn)業(yè),論壇上展示的另一項(xiàng)技術(shù)則針對(duì)C端用戶,用以辨別AIGC和真實(shí)記錄。去年的人工智能大會(huì)上,AI公司合合信息首次展示“PS篡改檢測(cè)”技術(shù)。今年,升級(jí)后的AI圖像篡改檢測(cè)技術(shù)可檢測(cè)轉(zhuǎn)賬記錄、交易記錄、聊天記錄等截圖,無(wú)論是從原圖中“摳下”關(guān)鍵要素后移動(dòng)“粘貼”至另一處的“復(fù)制移動(dòng)”圖片篡改手段,還是“擦除”、“重打印”等,圖像篡改檢測(cè)技術(shù)均可識(shí)別出來(lái)。

從產(chǎn)品端延伸出來(lái)的話題是,支撐AI安全的底層技術(shù)如何在當(dāng)下這一階段釋放出更強(qiáng)大的力量。作為保證數(shù)據(jù)流轉(zhuǎn)安全性的技術(shù)手段之一,隱私計(jì)算發(fā)展到今天,也到了加速應(yīng)用的拐點(diǎn)時(shí)刻。

螞蟻集團(tuán)副總裁兼首席技術(shù)安全官韋韜在WAIC期間的數(shù)據(jù)要素與隱私計(jì)算高峰論壇上提到,前些年隱私計(jì)算在金融、保險(xiǎn)、政務(wù)、醫(yī)療、供應(yīng)鏈、能源等很多方面有應(yīng)用,但這些應(yīng)用非常淺,80%以上是基于PSI,是隱私計(jì)算領(lǐng)域最簡(jiǎn)單的應(yīng)用;其次是占據(jù)百分之十幾的線性統(tǒng)計(jì),真正的樹(shù)模型很少,做BI分析和深度學(xué)習(xí)模型的更少。

原因在于,現(xiàn)在的隱私計(jì)算的技術(shù)門(mén)檻太高,很多行業(yè)對(duì)隱私計(jì)算創(chuàng)業(yè)公司的需求是做傳統(tǒng)的數(shù)據(jù)ISV工作,但想要真正支持全行業(yè)的數(shù)據(jù)流轉(zhuǎn)發(fā)展,就得把隱私計(jì)算技術(shù)的門(mén)檻降下來(lái)。

韋韜認(rèn)為,其中的必經(jīng)之路就是把隱私計(jì)算變成密態(tài)計(jì)算即服務(wù),通過(guò)各種基礎(chǔ)設(shè)施提供這種服務(wù)。通過(guò)這種技術(shù)支持,對(duì)小微企業(yè)提供密態(tài)SaaS服務(wù),為行業(yè)提供支持,以解決會(huì)用、易用的問(wèn)題。

锘崴科技創(chuàng)始人、董事長(zhǎng)王爽教授在大會(huì)期間的一場(chǎng)圓桌論壇上談到,在大模型時(shí)代,隱私計(jì)算技術(shù)能夠大幅降低大模型的隱私信息泄露風(fēng)險(xiǎn),可以結(jié)合多種技術(shù)路線保證數(shù)據(jù)不出本地的情況下完成高效的計(jì)算,保證模型在安全計(jì)算環(huán)境中的運(yùn)算能力,并在不影響模型效果的情況下提高模型的安全性。

王爽教授解釋稱(chēng),大模型可以分成兩部分,一部分是通用化的模型,可以基于一些公開(kāi)的數(shù)據(jù)集進(jìn)行大模型的訓(xùn)練;但真正要應(yīng)用到某一個(gè)領(lǐng)域的時(shí)候,需要進(jìn)行模型的微調(diào)才能夠提供更精準(zhǔn)的結(jié)果。

以醫(yī)療領(lǐng)域?yàn)槔谀P臀⒄{(diào)的過(guò)程當(dāng)中需要利用大量高敏感的患者隱私數(shù)據(jù),這些數(shù)據(jù)直接用于訓(xùn)練會(huì)產(chǎn)生很多潛在的風(fēng)險(xiǎn)。另一方面,為了確保生成結(jié)果的準(zhǔn)確性,需要結(jié)合專(zhuān)業(yè)的醫(yī)學(xué)領(lǐng)域知識(shí)庫(kù)進(jìn)行過(guò)濾,同樣需要應(yīng)用隱私計(jì)算技術(shù),結(jié)合多元知識(shí)庫(kù)來(lái)提高模型精確度。

正如特斯拉CEO埃隆馬斯克在今年人工智能大會(huì)開(kāi)幕式上所說(shuō),我們要對(duì)深度的、全面的人工智能保持謹(jǐn)慎態(tài)度。

今年世界人工智能大會(huì)期間,中國(guó)信通院、上海人工智能實(shí)驗(yàn)室、武漢大學(xué)、螞蟻集團(tuán)等多家單位共同發(fā)起《AIGC可信倡議》。該倡議圍繞人工智能可能引發(fā)的經(jīng)濟(jì)、安全、隱私和數(shù)據(jù)治理等問(wèn)題,提出構(gòu)建AIGC可信發(fā)展的全球治理合作框架,采用安全可信的數(shù)據(jù)資源、技術(shù)框架、計(jì)算方法和軟件平臺(tái)等全面提升AIGC可信工程化能力,最大限度確保生成式AI安全、透明、可釋。

相關(guān)推薦
免責(zé)聲明
本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢(qián)損失負(fù)任何責(zé)任。

熱門(mén)文章