首頁 > AI資訊 > 行業(yè)應用 > AI安全監(jiān)管勢在必行安恒信息深度探索“AI+網(wǎng)絡安全”

AI安全監(jiān)管勢在必行安恒信息深度探索“AI+網(wǎng)絡安全”

新火種    2023-10-23



近日,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、廣電總局公布《生成式人工智能服務管理暫行辦法》(以下稱《辦法》),自2023年8月15日起施行。《辦法》的出臺旨在促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。

以ChatGPT為代表的大模型正在引領新一輪全球人工智能技術發(fā)展浪潮,深度改變行業(yè)生產(chǎn)力,也為網(wǎng)安行業(yè)帶來了新變量。

安恒信息表示,將牢牢把握時代發(fā)展機遇,專注于人工智能結合網(wǎng)絡安全的研究,以創(chuàng)新方式擁抱AI變化,積極推動產(chǎn)品AI智能化,推進“服務+AI”“治理+AI”“產(chǎn)業(yè)+AI”等應用場景安全升級,為數(shù)字經(jīng)濟發(fā)展注入源源不斷的安全動能。

安全矛與盾:大模型的兩面性

安恒信息高級副總裁、中央研究院院長王欣認為,在人工智能時代下,大模型技術存在著“矛”與“盾”的兩面性。一方面,AI和大模型技術如“利刃”打破原有安全壁壘,安全需求與應用場景發(fā)生重大變革。

在與生成式人工智能交互的過程中,用戶常常無意識暴露個人信息、商業(yè)機密等隱私數(shù)據(jù),得到的卻是暗藏平臺價值判斷的內(nèi)容反饋。個體在認知判斷、行為決策以及價值取向等多個方面,很可能會受到單一算法的不良影響。

因此,《辦法》第三條、第四條在鼓勵支持人工智能創(chuàng)新的同時,也強調(diào)了制定相應的分類分級監(jiān)管規(guī)則或者指引的必要性。通過約束數(shù)據(jù)來源合法性、模型算法公平性、生成內(nèi)容可靠性,引導AI持續(xù)向善。

從世界范圍來看,為打造一個可信的人工智能生態(tài)系統(tǒng),美國、歐盟同樣在探索人工智能治理之道,并通過法律法規(guī)來約束人工智能發(fā)展。

另一方面,AI和大模型技術也促進了安全產(chǎn)品和服務革新,有助于網(wǎng)絡安全防護“盾”優(yōu)化升級。生成式人工智能能極大提高風險識別效率,在一定程度上彌補現(xiàn)有網(wǎng)絡人才缺口,讓威脅分析更準確、安全運營更高效、安全防護更智能。

AI與安全同行

日前,安恒信息高級副總裁、首席科學家劉博在參加2023世界人工智能大會時表示:“安全技術要和AI大模型自身的智能技術同步進行,才能有效保障人工智能更可靠、更安全地服務于企業(yè)。”

為促進生成式人工智能健康發(fā)展,規(guī)范數(shù)據(jù)處理是根本。一個穩(wěn)健的大模型離不開數(shù)據(jù)、算力和算法,而在本次《辦法》中,數(shù)據(jù)是第一高頻詞,出現(xiàn)次數(shù)高達18次,數(shù)據(jù)安全重要性可見一斑。

企業(yè)用戶在使用AI大模型過程中,可能會不小心造成數(shù)據(jù)泄露,或是在訓練模型過程中,存在那些包含了隱私相關或是產(chǎn)權相關的知識歸屬問題。

據(jù)了解,針對此類數(shù)據(jù)合規(guī)風險,安恒信息已將已將類大模型應用與智能數(shù)據(jù)分類分級結合,并對算法模型內(nèi)生的可靠性與穩(wěn)健性、透明性與可解釋性、準確性與公平性等風險進行持續(xù)性研究。


關注同花順財經(jīng),獲取更多機會

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關的任何行動之前,請務必進行充分的盡職調(diào)查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。

熱門文章