首頁 > AI資訊 > 最新資訊 > 防不勝防!半數受訪大學生曾遭遇疑似AI詐騙:專家呼吁關注大模型安全

防不勝防!半數受訪大學生曾遭遇疑似AI詐騙:專家呼吁關注大模型安全

新火種    2024-11-14

伴隨生成式AI的迅猛發展,普通人應用的門檻越來越低:10秒就能克隆聲音,復刻你的照片,甚至能生成“你”的視頻。這為新型的詐騙提供了技術土壤,AI詐騙成為社會關注熱點。

日前,一項由媒體機構發起的大學生調研,在回收的近1500份有效調查問卷中,半數受訪大學生本人或身邊的人曾遭遇疑似AI詐騙,7成大學生對AI詐騙感到恐慌,表示自己會被AI詐騙。調研結果顯示,不少受訪大學生認為高校可以設置AI課程、大模型攻防比賽等科普教育活動,讓大家提升AI反詐意識。

由于大模型在與用戶交互過程中,涉及大量個人信息和數據,AI詐騙的背后關乎著用戶隱私,業內專家呼吁應提高自身安全意識、保護個人信息安全,同時業界共同關注大模型安全刻不容緩。

半數受訪大學生曾遭遇疑似AI詐騙,7成感到恐慌

該調查樣本選取了四川、北京、上海等地近10所大學的近1500名大學生。數據顯示,半數的受訪大學生本人或身邊的人曾遭遇疑似AI詐騙,不乏碩士及博士等學歷的學生。詐騙形式最多的是電話,同時也包括AI換臉、AI音頻偽造、視頻造假、AI投資顧問騙局等,其中一半以上受訪大學生,表示接到過疑似詐騙的機器人電話。高達77%的受訪大學生會因為AI詐騙方式層出不窮感到恐慌。

不少大學生表示,對于當下的AI詐騙手段,自己沒有絕對把握識別騙局;對于媒體展示的某著名企業家的AI合成音頻,近8成大學生無法分辨是真人還是AI制作。不少大學生表達了他們的擔心,如若父母輩遭遇詐騙,后果不堪設想。

AI詐騙相比傳統詐騙,技術手段更高級、詐騙手段更隱蔽,也更容易引起信任。此外,有74%的受訪大學生認為自己有可能會被AI詐騙,防不勝防和容易被騙成為他們在形容自己AI詐騙意識時候的關鍵詞。

不少受訪大學生認為高校可以設置大模型攻防等相關比賽或其他科普活動,讓大家提升AI反詐意識,關注大模型安全。

AI詐騙關乎用戶隱私,專家呼吁攻堅大模型安全

“當下AI詐騙主要分為語音詐騙、文本詐騙、視頻詐騙等幾種類型。AI擬音、換臉,是基于真人信息,這也意味著AI詐騙背后是用戶隱私的泄漏。”

螞蟻集團安全實驗室首席科學家、全球AI大模型攻防挑戰賽評審委員會委員王維強在接受采訪時指出,保護大模型與保障用戶隱私緊密相連。大模型在與用戶交互的過程中,不可避免地會涉及大量的個人信息和數據,一旦存在各種漏洞和缺陷,極有可能引發嚴重后果。只有切實保障大模型安全,才能為用戶的合法權益筑起堅固的防護墻。“安全,是大模型技術持續發展的堅實地基。”王維強總結。

如何守護大模型安全?王維強建議,不能僅僅依賴技術手段,還需要加強安全規范和安全意識。只有當技術、規范和意識三者協同發力,我們才能真正守護好大模型的安全,為其持續健康發展創造良好的條件。

基于此,由中國圖象圖形學學會、螞蟻集團、云安全聯盟大中華區聯合主辦,聯合清華大學、上海交通大學、浙江大學等高校及多家產學研組織共同發起的,國內首個AI大模型攻防挑戰賽,通過大模型技術攻防實戰演練,助力 AI反詐,保護大模型安全。

王維強介紹,大賽的舉辦,第一可以尋找優秀技術方案,為選手們提供相互交流的平臺,第二是可以遴選優秀人才,為行業的未來發展儲備智力資源。據了解,賽事啟動至今,吸引了全球范圍內2700多個賽隊、3200余名技術精英參與,覆蓋中國、美國、英國、印度、韓國等18個國家和地區。參賽選手分別來自清華大學、北京大學、中國科學院、上海交通大學、南洋理工大學、約翰霍普金斯大學、香港科技大學、悉尼大學等290多個國內外高校。據悉,該賽事將在烏鎮世界互聯網大會公布其全球十強。

文/北京青年報記者 溫婧

編輯/樊宏偉

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章