首頁 > AI資訊 > 最新資訊 > 警惕!AI詐騙又出新手段!緊急提醒

警惕!AI詐騙又出新手段!緊急提醒

新火種    2023-10-20

來源:中國新聞社

國家金融監督管理總局網站日前發布《關于警惕利用AI新型技術實施詐騙的風險提示》:

當前,AI技術的廣泛應用為社會公眾提供了個性化、智能化的信息服務,也給網絡詐騙帶來可乘之機。如不法分子通過面部替換、語音合成等方式,制作虛假圖像、音頻、視頻,仿冒他人身份實施詐騙,侵害消費者合法權益。國家金融監督管理總局發布消費者權益保護風險提示,提醒廣大金融消費者警惕新型詐騙手段,維護個人及家庭財產安全。

利用AI新型技術實施詐騙主要有“擬聲”“換臉”兩種手段,即通過模擬他人聲音或形象騙取信任,進而詐騙錢財。不法分子通常先以“網店客服”“營銷推廣”“招聘兼職”“婚戀交友”等為借口,通過

此類詐騙手段迷惑性、隱蔽性較強,詐騙金額較高,為保護廣大金融消費者合法權益,國家金融監督管理總局提示:

一、網絡渠道“眼見”不一定為實。“擬聲”“換臉”等合成技術的一大特點即“以假亂真”,不法分子可利用此類技術輕易偽裝成他人,并通過快速篩選目標人群、定制化詐騙腳本,精準實施詐騙。因此,在涉及資金往來時,一個“聲音很熟的電話”、一段“貌似熟人的視頻”都可能是不法分子的詐騙套路,消費者應提高警惕。

二、轉賬匯款務必核驗對方身份。面對自稱“熟人”“領導”等通過社交軟件、電話等以各種理由誘導匯款,務必核驗對方身份。如可在溝通過程中提問僅雙方知曉的問題,也可利用其他通訊方式或見面核實,或向對方的朋友、家人驗明身份和情況。在無法確認對方身份時,應盡量避免轉賬操作。

三、保護好照片、聲音等個人信息。消費者應提高個人信息保護意識,不隨意下載陌生軟件、注冊陌生平臺或添加陌生好友,對個人社交賬戶的安全狀況保持警惕。盡量避免在互聯網過多暴露個人照片、聲音、視頻等信息,不貪圖方便把身份證、銀行卡照片等直接存放在手機內。如不慎被騙或遇可疑情形,應注意保存證據并立即向當地公安機關報案。

來源:國家金融監督管理總局網站

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章