首頁 > AI資訊 > 最新資訊 > 兩會時間|聚焦大模型安全直指AI濫用亂象多位代表、委員建言獻策

兩會時間|聚焦大模型安全直指AI濫用亂象多位代表、委員建言獻策

財聯(lián)社記者付靜    2025-03-05

3月4日訊(記者 付靜)國產(chǎn)大模型DeepSeek橫空出世驚艷業(yè)界,當前人工智能技術(shù)日新月異,但社會上借助人工智能作惡的現(xiàn)象也層出不窮。

今年全國兩會,人工智能再成熱點話題,記者梳理采訪獲悉,截至發(fā)稿已有近十位代表、委員將打擊AIGC虛假新聞、完善AI視頻傳播管理機制、防止AI欺詐與侵權(quán)在內(nèi)的諸多AI安全思考寫進兩會建議,對人工智能如何平衡技術(shù)創(chuàng)新與安全風險這一重要課題給出解法。

AI頻遭利用 虛假信息傳播引擔憂

記者前期采訪獲悉,近期一系列虛假信息借由AI問答或AI內(nèi)容生成大面積傳播,別有用心者試圖以此制造社會話題。有害信息“穿”上AI的外衣,其傳播隨之更隱蔽、更“可信”、也更具破壞性,不僅誤導(dǎo)公眾、擾亂輿論,甚至或?qū)⒁l(fā)使用者對AI大模型技術(shù)本身的安全擔憂。

多位委員、代表圍繞這一現(xiàn)象發(fā)聲,例如:全國政協(xié)委員、四川大學(xué)華西醫(yī)院教授甘華田擬提出加強對AI生成虛假信息治理的建議;全國政協(xié)委員、新疆新的社會階層人士聯(lián)誼會副會長海尼扎提·托呼提擬提交“關(guān)于加強AI生成不實信息治理”等提案。

此前的2025上海兩會期間,上海市人大代表、合合信息(688615.SH)董事會秘書劉忱也提出建議:多方聯(lián)合,共同協(xié)作打擊AIGC虛假新聞;鼓勵企業(yè)研發(fā)AI防御與鑒偽技術(shù);構(gòu)建倫理訓(xùn)練與數(shù)據(jù)集體系;用科技強化知識產(chǎn)權(quán)保護法律“武器”。

據(jù)記者觀察,虛假信息傳播亂象頻發(fā),形式已不僅限于文字。

“AI技術(shù)降低了視頻合成和制作的門檻,使得虛假內(nèi)容的生成變得容易。網(wǎng)絡(luò)上出現(xiàn)的各類AI生成視頻中,有些是模仿明星或?qū)<业男蜗蠛吐曇暨M行傳播,有些則是虛構(gòu)人設(shè),用于推銷產(chǎn)品,誤導(dǎo)消費者購買不必要的商品,造成財產(chǎn)損失,甚至產(chǎn)生信任危機。還有些視頻通過流量變現(xiàn)的形式去獲利,加劇亂象。”全國人大代表、美的集團(000333. SZ)副總裁兼首席財務(wù)官鐘錚告訴記者。

她認為,現(xiàn)在生成式人工智能在法律法規(guī)體系上仍不完善,特別是在界定AI生成內(nèi)容的版權(quán)歸屬,以及侵權(quán)責任認定、隱私保護標準方面存在空白。此外,目前對于生成式人工智能視頻的審核,技術(shù)條件有限,還需要繼續(xù)完善技術(shù)手段。

此次鐘錚計劃提出《關(guān)于完善生成式人工智能視頻傳播管理機制的建議》:一是修訂《著作權(quán)法》等相關(guān)法律法規(guī),加強原創(chuàng)版權(quán)和隱私保護。二是平臺方應(yīng)加強對AI生成視頻的審核和監(jiān)督,確保內(nèi)容的真實性。對于AI生成的視頻,應(yīng)強制標注警示性提示,提醒消費者注意辨別。三是利用AI技術(shù)審核AI合成的視頻內(nèi)容,同時投入更多資源開發(fā)高效的AI審核工具,并結(jié)合人工審核,通過雙重校驗提高識別準確率。四是加強行業(yè)自律與政府監(jiān)管,對違法違規(guī)行為進行嚴厲懲治,督促行業(yè)健康發(fā)展。

AI欺詐與侵權(quán)問題何解?

今年全國兩會期間,防止AI深度偽造欺詐亦受到關(guān)注。

全國人大代表,TCL創(chuàng)始人、董事長李東生帶來的《關(guān)于加強AI深度偽造欺詐管理的建議》提到,隨著生成式人工智能技術(shù)的發(fā)展,深度偽造技術(shù)也快速發(fā)展。要規(guī)范對于這一新興技術(shù)的不當利用,有必要要求深度合成服務(wù)提供商對人工智能生成的內(nèi)容進行強制標識,減少惡意濫用,并有助于厘清責任、對違法犯罪行為追責。近年來,我國相關(guān)立法雖有關(guān)注這一議題,但已出臺的規(guī)章制度尚不成體系,還不具備可操作的細則和明確的處罰標準。

“近期,中國也參加了法國等61個國家在巴黎的人工智能行動峰會,我們也簽署了《巴黎人工智能宣言》,這是全球AI治理的一個重要嘗試,也標志著全球AI治理邁入新階段。考慮到技術(shù)創(chuàng)新和相關(guān)監(jiān)管需要,可適度推后對未履行標識義務(wù)的AI深度合成服務(wù)商的懲罰制度,可提前明確相應(yīng)處罰措施,有利于相關(guān)企業(yè)盡早做好合規(guī)的準備。”李東生在接受記者采訪時表示。

李東生建議:第一,加快人工智能深度合成內(nèi)容標識管理規(guī)章制度的出臺。第二,明確對人工智能深度合成服務(wù)商未履行標識義務(wù)的懲罰制度。完善對深度合成內(nèi)容服務(wù)提供商未按要求進行標識的行為界定、分類細則,以及相應(yīng)的處罰標準。第三,加強深度合成內(nèi)容標識技術(shù)標準和發(fā)布的管理。出臺深度合成內(nèi)容標識的技術(shù)標準,保證標識的有效性;此外,對相關(guān)內(nèi)容平臺出臺要求,用戶在發(fā)布深度合成的視頻、音頻等內(nèi)容時,有義務(wù)對其進行標識。第四,加強國際合作,形成人工智能生成合成內(nèi)容的有效監(jiān)管。

全國人大代表、小米集團董事長兼CEO雷軍也提出建議:加強“AI換臉擬聲”違法侵權(quán)重災(zāi)區(qū)治理。

“‘AI換臉擬聲’不當濫用造成了違法侵權(quán)行為的重災(zāi)區(qū),易引發(fā)侵犯肖像權(quán)、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規(guī)模形象和聲譽損害,帶來社會治理等風險。AI深度合成技術(shù)所需素材獲取便利、技術(shù)使用門檻低、侵權(quán)主體及其手段隱蔽性強等特點,給治理帶來較大挑戰(zhàn)。”雷軍稱。

雷軍認為,首先應(yīng)加快單行法立法進程,在安全與發(fā)展并重的基礎(chǔ)上提升立法位階;其次,強化行業(yè)自律共治,壓實平臺企業(yè)等各方的責任和義務(wù);最后,加大普法宣傳的廣度力度,增強民眾的警惕性和鑒別力。

大模型仍面臨諸多安全挑戰(zhàn)

去年兩會,“人工智能+”被寫入政府工作報告,一度成為科技行業(yè)熱詞。多家通信、計算機企業(yè)曾在接受記者采訪時表示,人工智能成為新生產(chǎn)工具,系新質(zhì)生產(chǎn)力的重要驅(qū)動因素之一。過去一年國內(nèi)人工智能產(chǎn)業(yè)的快速發(fā)展有目共睹,特別是國產(chǎn)大模型DeepSeek橫空出世,在世界范圍內(nèi)備受關(guān)注,不過,隨著人工智能技術(shù)的深度應(yīng)用,大模型所面臨的、所帶來的安全挑戰(zhàn)也日益嚴峻。

“Deepseek一問世,針對性的高強度網(wǎng)絡(luò)攻擊就爆發(fā)了,給人工智能行業(yè)敲響了堅守安全底線的警鐘。我們發(fā)現(xiàn),現(xiàn)在越來越多的企業(yè)、個人開始搭建DeepSeek大模型私有化部署,而將近90%的服務(wù)器都沒有采取安全措施,服務(wù)運行和數(shù)據(jù)安全岌岌可危。”第十四屆全國政協(xié)委員、全國工商聯(lián)副主席、奇安信(688561.SH)集團董事長齊向東在接受記者采訪時如是表示。

今年兩會前夕,全國政協(xié)委員、360集團創(chuàng)始人周鴻祎亦在接受記者采訪時談及了上述問題。他認為,對DeepSeek來講,AI安全問題至少分四個層面,即基座模型、用戶端安全問題、知識庫引發(fā)的數(shù)據(jù)安全問題、“以模制模”問題。

齊向東告訴記者,人工智能發(fā)展面臨的安全問題大致可分三類:大模型自身安全問題、利用人工智能開展網(wǎng)絡(luò)攻擊的問題、通過攻擊人工智能引發(fā)的“網(wǎng)絡(luò)攻擊大爆炸”。

聚焦大模型自身安全問題,齊向東分析,“開發(fā)風險、數(shù)據(jù)風險、應(yīng)用風險和基礎(chǔ)環(huán)境風險這四大安全風險比較突出。開發(fā)方面,開源大模型要重點防范代碼缺陷和預(yù)留后門等問題;應(yīng)用方面要防‘內(nèi)鬼’對訓(xùn)練數(shù)據(jù)投毒,進行模型篡改、配置篡改;數(shù)據(jù)方面,要小心內(nèi)部配置錯誤和弱口令等造成的數(shù)據(jù)庫暴露;基礎(chǔ)環(huán)境方面要重點關(guān)注云、API、傳統(tǒng)設(shè)備漏洞等等。目前,已有團隊發(fā)現(xiàn)DeepSeek存在嚴重漏洞,并可借此獲取后端隱私數(shù)據(jù)、API 密鑰、操作元數(shù)據(jù),盡管漏洞很快被修補,但是根據(jù)我們的經(jīng)驗,新漏洞會不斷被挖掘出來。”

周鴻祎則表示,為保障大模型技術(shù)健康發(fā)展,需從大模型安全、網(wǎng)絡(luò)安全和數(shù)據(jù)安全三個方向發(fā)力。

針對前述大模型安全問題,齊向東告訴記者,要從技術(shù)保障、制度保障、成果應(yīng)用三方面入手,包括建立適配大模型的縱深防御體系,筑牢人工智能的安全根基;制定大模型安全強制合規(guī)要求,夯實人工智能安全發(fā)展的制度保障;推廣“AI+安全”創(chuàng)新成果落地,走好提升安全能力的必經(jīng)之路。

(記者王碧微、陸婷婷對本文亦有貢獻)

相關(guān)推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。

熱門文章