首頁 > AI資訊 > 行業應用 > AI技術再刷屏!明星集體“說”外語,有何風險?如何識別“AI換臉”破綻?

AI技術再刷屏!明星集體“說”外語,有何風險?如何識別“AI換臉”破綻?

新火種    2023-11-07

近日,一段美國歌手泰勒·斯威夫特“說”中文的短視頻在網絡刷屏,引發熱議。視頻中,泰勒·斯威夫特“說”著流利中文,音色和講母語時的音色類似,甚至連口型都能對上。

視頻截圖,源自網友@好試發聲

類似的視頻還有很多外國人“說”地道中文、很多中國藝人“說”起流利的英文……不少網友感嘆,“嘴型、手勢都對得上,太自然了,差點兒以為是真的。”“除了嘴形,還有身體動作和語速的配合。”

其實,這些視頻有一個共同點:都是由AI(人工智能)生成的。

AI“翻譯”以假亂真

小編試用了一款AI人像視頻工具,只需上傳視頻,選擇語言,就能生成自動翻譯、音色調整、嘴型匹配的新視頻。

一款AI人像視頻工具HeyGen的視頻翻譯功能。圖源:截自HeyGen

對比原片,AI“翻譯”后重新配音的新視頻不僅進行了較準確翻譯,而且連聲線和情緒都近乎擬真,嘴型很貼合,難辨真假。

對此,有網友表示,這種技術看起來很炫酷,應用場景很廣泛,未來可能會越來越成熟,比如翻譯配音會更自然、傳神。

但也有網友表示擔憂,“這會不會被用來模仿聲音進行詐騙?”“再加上換臉,以后網上啥都不能信了。”“以后視頻造假會越來越容易。”

還有網友表示,“希望AI技術發展能被控制在正軌,技術濫用,就是災難。”

AI技術是把“雙刃劍”

近年來,AI技術被廣泛應用于短視頻的二次創作,比如AI換臉及換聲等。可以說,AI技術是把“雙刃劍”。

一方面,AI換臉及換聲技術對于工作效率的提高具有非常強的作用。清華大學新聞與傳播學院教授司若舉例說,AI換臉及換聲技術讓已故的演員、歷史人物可以通過換臉技術重現在屏幕上,在不同國家的語言轉譯上也可以通過AI的換聲技術進行實時轉譯。

另一方面,近年來,有不法分子為了牟利,利用AI技術進行詐騙。比如利用AI換臉冒充熟人詐騙,甚至將“魔爪”伸向兒童,或者制作發布假新聞混淆視聽、賺取流量等。

一位博主講述人販子利用AI“換臉”把孩子拐走的案例,與孩子視頻的所謂“媽媽”是AI合成的。來源:賈姨兒童安全

此外,AI換臉、AI換聲還存在法律風險。近期,不少相聲演員“說”英文相聲、小品演員“演”英文小品的視頻在網絡上傳播。對此,北京岳成律師事務所高級合伙人岳屾山律師表示,用AI技術為他人更換聲音、做“翻譯”并發布視頻,可能涉嫌侵權,主要有三個方面:

一是著作權,例如相聲、小品等都屬于《中華人民共和國著作權法》保護的“作品”。網友用AI軟件將相聲、小品等“翻譯”成其他語言,需經過著作權人授權,否則就存在侵權問題。

二是肖像權,根據《中華人民共和國民法典》,任何組織或者個人不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。未經肖像權人同意,不得制作、使用、公開肖像權人的肖像,但是法律另有規定的除外。網友用他人形象制作視頻,并在網站發布,需要取得肖像權人的同意,否則涉嫌侵權。

三是聲音權,根據《中華人民共和國民法典》規定,對自然人聲音的保護,參照適用肖像權保護的有關規定。也就是說,需要取得聲音權人的同意,才能夠使用他人的聲音。

岳屾山律師強調,技術濫用,可能會侵犯他人權益,“AI技術本身不是問題,關鍵是我們要怎么用它。”

如何對AI技術加強監管?

AI技術發展,需要多層面約束規范——

在源頭端,需要進一步加強公民個人信息保護。專家建議,加強公民信息尤其是生物特征等隱私信息的技術、司法保護力度。

在技術層面,數字水印鑒偽等技術有待進一步普及利用。比如AI生成的視頻需帶有不可消除的“AI生成”水印字樣。

在法律制度層面,進一步完善人工智能等領域相關法律法規。今年8月15日,《生成式人工智能服務管理暫行辦法》正式施行。《辦法》規定,提供和使用生成式人工智能服務,應當尊重他人合法權益,不得危害他人身心健康,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益。

中國科學技術大學公共事務學院、網絡空間安全學院教授左曉棟表示,總體而言,生成式人工智能仍處于發展的初期階段,風險沒有完全暴露,應用前景難以估量,所以應當采取包容審慎的態度,堅持發展和安全并重、促進創新和依法治理相結合,要采取有效措施鼓勵生成式人工智能創新發展。

據了解,目前我國人工智能產業蓬勃發展,核心產業規模達到5000億元,企業數量超過4300家。隨著各項措施規范出臺,我們期待未來人工智能發展更加健康規范,從多方面助力人們的工作和生活。

通過讓對方做動作

可發現部分“AI換臉”破綻

不斷迭代的AI技術,已經把換臉視頻做到“真假難辨”,我們應該如何防范此類新型詐騙呢?

首先,目前視頻換臉的技術上也不是無懈可擊的,視頻溝通時的一些動作,就可以發現破綻。

深圳安絡科技副總裁肖堅煒:在這個操作中,如果我用另外第三個圖像去干擾它,比如讓他用手捂臉、動一動,就會干擾到圖像的合成。從這里演示看,我把手放上去之后,會明顯地看到屏幕上我們同事的眼睛在抖動了,鼻子在抖動了,我的手已經消失了,嘴巴也消失了。

除了讓對方在臉部做出一些動作來判斷,專家介紹,AI合成軟件的升級可能是飛速的,如果動作捕捉已經被避開,那么我們就需要通過一些更專業的軟件來分辨了。

深圳安絡科技副總裁肖堅煒:我們可以通過軟件來識別,比如人的整個輪廓,替換的眼睛、鼻子、嘴巴這里,它的像素大小是不一樣的,顏色的色域是有差別的。像我們的衣服一樣,要打一個補丁,是沒辦法做到完美的。這些我們眼睛肉眼看不出來,但是軟件算法是可以檢測出來的。

目前,這類鑒別軟件對設備和周邊的要求也比較高,使用起來并不普及。不過,讓視頻傳播的網站或者社交軟件,使用專業的鑒別軟件來鑒定,再打上“AI制作”的標簽,在現階段不失為一個方法。

預防“AI換臉詐騙”,大家還要加強對人臉、聲紋、步態、指紋等生物特征數據的安全防護。

中國科技大學公共事務學院、網絡空間安全學院教授左曉棟:在使用互聯網服務或者在社會生活中,要求輸入人臉等生物特征數據的時候,我們要看一看,對方收集我們的生物特征數據是不是符合數據安全法,個人信息保護法的要求,是不是合法、正當和必要。

此外,國家也在通過多重手段防范“AI換臉詐騙”,近兩年,相關部門先后出臺了互聯網信息服務深度合成管理規定,生成式人工智能服務管理暫行辦法等有關政策文件。先后開展了“互聯網深度合成算法備案”“大語言模型算法備案”等有關工作。嚴厲打擊利用AI換臉、變聲等手段實施的違法犯罪行為。

中國科技大學公共事務學院、網絡空間安全學院教授左曉棟:目前看來初步遏制了濫用人工智能技術。特別是從事違法犯罪的這些勢頭,整體治理效果開始顯現,而且也有力促進了人工智能技術的規范發展。

來源:央視新聞

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章