首頁 > AI資訊 > 最新資訊 > 視頻電話眼見未必屬實!“AI換臉”“AI換聲”金融詐騙如何防

視頻電話眼見未必屬實!“AI換臉”“AI換聲”金融詐騙如何防

新火種    2023-10-08

  近年來,不法分子不斷翻新詐騙手段,讓金融消費者防不勝防,個人財產安全也受到嚴重威脅。10月7日,“雙節”歸來第一天,國家金融監督管理總局(即金融監管總局)北京監管局就發布了一則題為“識破欺詐詭計保護家庭財產”風險提示。

  在金融監管總局北京監管局本次公示的三則新騙局中,“AI換臉”金融詐騙及其騙術引起關注。

  據介紹,不法分子利用非法獲取的個人信息,通過計算機算法仿真合成受騙者親人、領導同事或公職人員的肖像面容與聲音,冒充上述人員身份行騙。

  在獲得受害者信任后使用事先準備好的套路話術向受害人發送銀行卡轉賬、虛擬投資理財、刷單返利等詐騙信息,并利用視頻通話,語音轟炸等手段進一步降低受害者的防備心,受害者往往在短時間內難以察覺異樣,一旦聽信詐騙分子的騙術并完成轉賬,對方便杳無音訊。

  金融監管總局北京監管局對此特別提示,這種“眼見”不為真。

  無獨有偶的是,金融監管總局廈門監管局也曾在7月時就其發現的“AI換臉”“AI換聲”金融詐騙做過專門風險提示。

  就此,金融監管總局廈門監管局亦向金融消費者提出“視頻電話眼見、耳聽未必屬實”。

  據金融監管總局廈門監管局具體介紹,伴隨著AI深度合成技術的成熟,AI深度合成產品和服務井噴式涌現,不少如“AI換臉”“AI換聲”等尚處監管灰色地帶的產業野蠻生長,為不法分子提供了可乘之機,成為網絡欺詐和身份盜竊等犯罪活動的工具。這種利用AI技術融合他人面孔和聲音、制造逼真的合成圖像來實施的新型網絡詐騙,呈現手段愈發多樣、門檻大幅降低、辨別難度加大等特點,常令消費者放松警惕,短時間內造成較大損失。

  金融監管總局廈門監管局表示,“AI換臉”“AI換聲”進行視頻音頻合成、實施詐騙的行為是利用新技術進行的詐騙,與傳統詐騙行為在本質上沒有區別,防范方式也萬變不離其宗。

  具體來看,“多方核實、確認身份”“保護(個人)信息、拒絕誘惑”及“相互提示、共同預防”成為當前主要的個人防范方式。

  值得關注的是,從多方核實、確認身份的角度出發,金融監管總局廈門監管局進一步向金融消費者提示——包含轉賬匯款、提供個人信息、提供短信驗證碼等涉及重要決策或敏感信息的請求時,應保持高度警惕,通過主動更換渠道如電話、視頻提問等方式,多重確認對方身份。

  此外,AI擬聲、AI換臉包裝作偽后的通話,雖能逼真地模仿原始人物的語言和行為,但仍充滿破綻。“例如,眨眼頻率過低、眼睛移動不協調、面部表情不自然、唇形不匹配、語句不連貫等。”金融監管總局廈門監管局表示。

(文章來源:新京報)

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章