首頁 > AI資訊 > 最新資訊 > 上海市數據科學重點實驗室主任肖仰華:要兼顧大模型的監管和發展利用大模型自身能力來保護隱私

上海市數據科學重點實驗室主任肖仰華:要兼顧大模型的監管和發展利用大模型自身能力來保護隱私

新火種    2023-09-21

《科創板日報》7月9日訊(記者 李明明)數據安全是數據要素市場活躍發展的重要基石,隱私計算作為數據要素安全領域的關鍵技術之一,是支撐各個行業數字化轉型工作的最底層技術。

在“2023WAIC數據要素與隱私計算高峰論壇”上,復旦大學教授、上海市數據科學重點實驗室主任肖仰華,就當前隱私計算面臨的突出問題等課題,帶來了最新的前沿思考。

肖仰華指出,大模型,尤其是生成式大模型發展起來后,對隱私帶來了前所未有的挑戰。本來,隱私問題還是原來的問題,比如隱私的泄露、版權的侵犯。為何現在變得比較突出?主要還是源于大模型本身是大規模參數化的。本身規模巨大,數據來源多樣,所以隱私計算保護非常困難。而且生成式大模型往往是從海量的語料當中隨機拼接和概率化的生成,所以傳統意義上隱私侵犯的認定,在大模型時代就會失效,在侵犯的識別上比較困難。

“大模型是基于深度神經網絡Transformer的架構,本質上是黑盒模型,所以到底習得了什么樣的知識和能力,現在還都是一個黑盒,這對隱私保護是非常困難的。”肖仰華指出,在應用中保護用戶的隱私,需要建立起系統性的防范體系。首先從用戶角度來說,一定要建立起對大模型隱私的安全意識。要充分意識到在使用大模型過程當中,個人的數據有可能被服務方所收集,從而可能會泄露隱私。

其次,從提供大模型服務的廠商角度來說,應該要提升服務的規范性,要給用戶充分的知情權,要在用戶完全授權的情況下,在合理范圍內收集用戶相關的使用數據,不應該超出用戶授權的范圍,這是技術之外的因素。

從技術本身來說,將來可能會有一些保護的中間層,這些中間層來自于很多用戶的查詢或者是使用,并可以混淆、打亂信息,此時平臺方就無法知道哪些用戶在查哪些私密信息。傳統的手段在大模型應用方面還是有一定的適用性。

隱私計算接下來如何發展?肖仰華認為,在大模型時代,隱私計算迎來了全新的機遇。在不可控、不可編輯、難以解釋的大模型環境下,傳統方法如何進行發展,這既是挑戰,更多是機遇。

“我覺得大模型的發展要兼顧監管和發展,不能盲目發展,讓大模型變成脫韁的野馬,但也不能一管就死,要把握好尺度。要建立起大模型發展的安全底線、倫理標準和一些合規的規范。生成式大模型在生成過程中,對生成的內容要建立起合規的規范,比如說內容是否涉政涉黃,在敏感內容的規范方面,國家部門已經推動了相關的法規。”

此外,在他看來,大模型的合規性上,一定要從數據源頭上去解決。比如訓練大模型的語料數據本身有沒有問題,這些數據有沒有版權和隱私侵犯?所以要加強對語料術語的認證。很快就會有機構去從事相應的工作,對大模型語料的合規性加以驗證。有關部門也會出臺相關的法規措施,來推動語料的合規性認證和規范。

他補充,在大模型隱私保護方面,還有一條很重要的路徑,即利用大模型自身能力來保護隱私。由于大模型能力很強,可以識別出語料當中哪些內容是可能侵犯隱私的,可以用來保護用戶的隱私場景,利用大模型來清洗隱私問題,或者利用大模型對生成結果進行評估。即一方面解決隱私問題,另一方面也要充分利用大模型能力來解決隱私問題。

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章