首頁 > AI資訊 > 最新資訊 > “改頭換面”“語音克隆”,國家安全部:警惕深度偽造技術帶來的安全風險

“改頭換面”“語音克隆”,國家安全部:警惕深度偽造技術帶來的安全風險

界面新聞    2024-11-25

  國家安全部微信公眾號11月23日發文,隨著人工智能技術的飛速發展,深度偽造技術逐漸進入我們的生活,在帶來驚喜和便利的同時,也暴露出一系列風險隱患,如不注意防范,甚至可能危害國家安全。

  眼見未必為實,耳聽未必為真

  深度偽造技術(Deepfake)是“深度學習”(Deep Learning)與“偽造”(Fake)的結合,利用人工智能的深度學習算法進行自動化的數據處理,實現圖片、音頻及視頻的智能模擬和偽造,包括視頻偽造技術、音頻偽造技術、虛假網絡身份偽造技術等。它的出現使得篡改或生成高度逼真且難以甄別的音視頻內容成為可能,觀察者很難辨明真偽。

  ——視頻偽造技術。將提供的人物面部照片特征“轉換”到其他人物形象上,從而實現“改頭換面”的目的。

  ——音頻偽造技術。利用“語音克隆”技術,以高仿真度模擬目標人物的聲音。

  ——虛假網絡身份偽造技術。在創建虛假個人資料時,通過生成偽造的面孔附加至身份信息中,成為隱藏身份的手段。

  智能改變為實,風險挑戰為真

  深度偽造技術憑借其在圖像、音頻和視頻生成方面的卓越能力,迅速成為一種新興技術工具。但它又是一把雙刃劍,操作簡易,應用門檻低,高度欺騙性的視覺和聽覺偽造內容難以被發現,潛在的破壞性和安全風險日益凸顯。

  ——深度偽造技術可能侵害個人權益。別有用心之人利用深度偽造技術可以輕易盜用他人身份,侵害他人肖像權、隱私權等權利,部分不法分子甚至可能利用深度偽造技術進行詐騙,對財產安全造成現實危害。

  ——深度偽造技術可能引發社會憂慮和信任危機。深度偽造技術可以隨時隨地制造大量假新聞,影響社會輿論走向,引起民眾恐慌。隨著公眾意識到“深度偽造”的危害,他們可能會迷失在真假信息之中,對事實產生懷疑。

  ——深度偽造技術可能威脅國家安全和公共安全。深度偽造技術不僅會在一般行業得到應用,也有可能成為間諜情報機關開展“認知戰”的新工具。隨著深度偽造技術的橫空出世,某些境外間諜情報機關可能進一步利用該技術迭代情報技術手段,開展招募策反、污蔑抹黑、混淆視聽等活動。

  國家安全機關提示

  面對深度偽造技術帶來的機遇和挑戰,要統籌發展和安全,提高安全意識,共同維護國家安全和社會穩定。

  ——使用技術要注意。廣大公民應注意保護好個人隱私,特別是核心涉密崗位人員,切勿將國家秘密、商業秘密或個人隱私等敏感信息輸入相關技術軟件中,不用網絡傳播涉密內容。

  ——信息安全要防范。相關平臺企業應加強信息安全管理,采取必要的技術措施保護相關信息的安全存儲和傳輸,防止信息泄露、丟失或被非法使用。同時,加強對深度偽造技術發布內容的甄別,使其遵守法律“紅線”和道德“底線”。

  ——可疑信息要警惕。謹慎對待相關視聽內容,在轉發網絡信息前先多方驗證信息可靠性,不做謠言傳播者,以官方渠道發布的信息為準。

  維護國家安全是每個公民義不容辭的責任和義務,廣大人民群眾如發現利用深度偽造技術危害國家安全的問題線索,可通過12339國家安全機關舉報受理電話、網絡舉報平臺、國家安全部微信公眾號舉報受理渠道或者直接向當地國家安全機關進行舉報。

(文章來源:界面新聞)

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章