首頁 > AI資訊 > 最新資訊 > 人工智能模仿語音以假亂真,容易被詐騙分子利用

人工智能模仿語音以假亂真,容易被詐騙分子利用

財富中文網    2023-11-22

圖片來源:GETTY

你近期可能會接到親友的來電,對方迫切需要幫助,希望你盡快為其匯款。你或許相信對方就是你的親友,因為你很熟悉對方的聲音。

人工智能改變了這一點。新的生成式人工智能工具可以根據簡單的提示文本輸出各種結果,包括以某位作者的特定風格書寫的論文,達到獲獎水平的圖片,甚至通過某個人的語音片段就能夠生成以假亂真的講話內容。

今年1月,微軟(Microsoft)的研究人員演示了一款文本轉語音人工智能工具。這款工具只需要一個人三秒鐘的音頻樣本,就可以逼真地模仿其聲音。他們并未對外公開其代碼;相反,他們警告這款名為VALL-E的工具“可能存在被濫用的風險……例如語音識別詐騙,或者模仿某人講話等。”

但類似的技術已經泛濫,并被詐騙分子利用。只要他們能夠在網上找到你的30秒語音,就很有可能克隆語音,然后生成任何內容。

加州大學伯克利分校(University of California at Berkeley)的數字取證專業教授哈尼·法里德對《華盛頓郵報》(Washington Post)表示:“兩年前,甚至一年前,克隆一個人的聲音需要大量語音。現在……如果你有Facebook主頁……如果你拍攝過一段TikTok視頻并且有30秒語音,人們就可以克隆你的語音。”

“錢不翼而飛”

《華盛頓郵報》在上周末報道了這種技術的風險。該媒體介紹了加拿大一家人如何被詐騙分子利用人工智能語音克隆工具欺騙,并損失數千美元。這對年邁的父母被一名“律師”告知,他們的兒子因為在一場車禍中害死了一位美國外交官,已經被羈押,需要他們支付律師費。

然后,這名所謂的律師將電話交給他們的兒子,對方告訴他們他深愛并感激他們,但需要他們付錢。兒子本杰明·珀金告訴《華盛頓郵報》,克隆語音聽起來“非常逼真,足以令我的父母相信他們正在與我通話。”

他的父母通過一個比特幣(Bitcoin)網站支付了超過15,000美元,但這筆錢卻落入了詐騙分子的口袋,而不是像他們想象的那樣轉給了兒子。

珀金對《華盛頓郵報》表示:“錢不翼而飛。沒有保險,無法追回,錢就這樣消失了。”

一家提供生成式人工智能工具的公司ElevenLabs在1月30日發推文稱:“濫用克隆語音的案例越來越多。”次日,該公司宣布,其人工智能工具VoiceLab免費版的用戶將無法再使用語音克隆功能。

《財富》雜志向該公司發送了置評請求,但并未得到回復。

該公司寫道:“幾乎所有惡意內容都由免費的匿名賬戶生成。額外的身份驗證必不可少。因此,VoiceLab將僅供付費用戶使用。”(訂閱費為每月5美元起。)

該公司承認,身份驗證無法阻止所有壞人,但能夠減少匿名用戶,并“迫使人們三思而行”。(財富中文網)

譯者:劉進龍

審校:汪皓

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章