觀察|生成式AI技術迅猛發展,我們應該如何去偽存真?
11月初,一則“日本首相岸田文雄”出鏡的視頻在YouTube等社交平臺上傳播甚廣。在該視頻中,“岸田文雄”發言內容相當低俗。該視頻下方還有“突發新聞”字樣,右上角有日本電視臺的臺標與直播等字樣。
值得注意的是,在該視頻中,“岸田文雄”表情呆滯,說話時臉部也只有鼻子以下的部分有動作,上述奇怪的細節不禁令人懷疑該視頻的真偽。
在該視頻在社交平臺上引發多方關注后,制作該視頻的不具名男子在社交平臺X(原推特)上承認講不雅段子的“岸田文雄”是自己通過生成式AI合成的,并對此道歉。
該男子稱,自己讓AI軟件先學習了網上公開的岸田講話的聲音,然后把自己讀“黃段子”的聲音轉換成與岸田高度相似的聲音,并在網上檢索日本電視臺新聞節目的影像,使用配合說話聲音加工嘴型的AI完成視頻制作。
該男子稱,AI軟件學習聲音僅用了約2小時,制作視頻本身則只用了約1小時。
在生成式AI飛速發展的當下,“岸田文雄”講黃段子只是一個個例,無數通過AI生成的虛假信息,正以文字、音頻,甚至是圖片與視頻的形式在全球的網絡上傳播,傳統機構媒體的可靠度已然受到生成式AI帶來的虛假信息“海嘯”威脅,大眾已越來越難辨析信息的真與假。
“誰都可以制作假新聞”
在于11月15日開幕的2023年第二屆全球媒體大會(Global Media Congress)的會場中,阿聯酋通訊社(WAM)的展臺上有一處獨特的生成式AI體驗設施。在試用過程中,澎湃新聞(www.thepaper.cn)記者先是選定自己的性別,上傳自己的自拍照片,錄制自己的聲音,隨后輸入自己想要說的任意文字內容,并勾選自己想要的語種,如英語、阿拉伯語、漢語等。在稍等片刻后,一段由澎湃新聞記者自己出鏡講述內容的視頻便展示在了一旁的大屏幕上。

Deepfake軟件界面 澎湃新聞記者 胡甄卿 圖
假使不想使用自己的肖像與聲音,也可選用預設的人物設定,并可搭配語種設定,實現讓阿拉伯男子開口說帶口音漢語的效果。
值得注意的是,由于自己講述的文字內容可以完全自定義,故別有用心者極易利用使用了深度偽造技術(Deepfake)以及相關軟件,讓任意對象“開口講述”其從未談論之事,甚至是借公眾人物之口散布影響巨大的虛假信息。

Deepfake軟件生成的視頻畫面 澎湃新聞記者 胡甄卿 圖
而這已有先例。
據《環球時報》此前報道,在2022年2月底俄烏沖突爆發后不久,社交平臺推特上出現了一段視頻,似乎顯示俄羅斯總統普京宣布投降,分享出這段視頻的推特賬號還為視頻配上了烏克蘭語的字幕翻譯,稱“俄羅斯聯邦總統宣布俄羅斯投降,俄羅斯士兵,放下武器,趁你還活著回家!”。
3月16日,另一段視頻則顯示,烏克蘭總統澤連斯基似乎公開接受了俄羅斯方面提出的要求,并督促烏克蘭人在俄羅斯人面前放下武器投降。
事實上,上述兩段視頻均系使用了深度偽造技術(Deepfake)的虛假視頻。

沙法娜·阿什拉夫 澎湃新聞記者 林順祺 圖
“正如你所看到的,深度偽造設備非常強大,可以讓人們相信他們所看到的都是真的。”來自印度的商業分析人士沙法娜·阿什拉夫(Shafana Ashraf)向澎湃新聞記者表示,“任何人都可以(借助深度偽造技術)制造并發布假新聞,甚至以此牟利?!?/p>
專注于技術與電信等領域的作家邁克爾·貝勒(Michael Bayler)在第二屆全球媒體大會的小組討論會上指出,在眼下的時代,人類幾乎可用AI技術做任何事情,已經不再像過往一樣受限于AI技術。
“AI已經是我們媒體工作中的重要元素之一,它正在改變當今媒體的格局?!卑⒙撉跬ㄓ嵣缟玳L穆罕默德·賈拉爾·雷西(Mohamed Al Rayssi)向澎湃新聞表示。

穆罕默德·賈拉爾·雷西 澎湃新聞記者 林順祺 圖
AI浪潮已至
與此同時,生成式AI還正在以前所未有的速度不斷迭代,這正對包括媒體與教育在內各行各業的未來構成前所未有的挑戰。
Intentional Futures數字戰略與創新總監杰西卡·格魯普曼(Jessica Groopman)在第二屆全球媒體大會的小組討論會上指出,2018 年,全球對人工智能領域的投資總額約為4億美元。2020年,這一數字為4.8億至5億美元。但到了2022年,全球對人工智能領域的投資總額飆升至驚人的170 億美元,“光是這一數字就足以讓人感受到人工智能的巨大發展潛力?!?/p>
“從根本上說,我們今天面臨的一個重大影響或挑戰是,現在的年輕人依賴ChatGPT來獲取信息、撰寫演講稿,甚至依仗ChatGPT來撰寫論文和大學報告?!卑⒙撉酹毩⑺綘I智庫Trends Research & Advisory媒體通訊辦公室主任葉宰亞·胡斯尼(Elyazia Al Hosani)告訴澎湃新聞,“他們卻不知道,這(ChatGPT)并不是一個可靠的工具?!?/p>
葉宰亞·胡斯尼 澎湃新聞記者 林順祺 圖
“我預測媒體與公關公司的控制力會減弱,它們精心策劃和控制敘事的能力也會減弱。因為我們可以使用這些AI工具起草出色的新聞稿,那么其他人也可以,更不用說圖像創建技術、深度偽造技術或其他開源能力了?!备耵斊章治龅?。
在生成式AI可能帶來虛假信息泛濫的同時,不少行業的從業者,尤其是從事諸如編劇、寫作等創造性工作的群體正感受到生成式AI帶來的愈來愈大的威脅。
隨著AI的崛起,它的“入侵”使得美國好萊塢的編劇和演員們開始擔心自己終將被AI取代,丟掉飯碗。2023年5月,美國影視編劇工會(WGA)約1.15萬名成員因薪酬、工作條件和行業對人工智能的使用而罷工,兩個多月后,代表16萬電影和電視演員的美國演員工會(SAG-AFTRA)加入罷工行列。好萊塢60多年最大規模的罷工由此拉開了大幕。
“其中一個重要的爭論點是,AI是否可以用來復制編劇以及演員的作品。換句話說,只需一天的工資,我們就能錄入演員的信息,然后就再也不需要他們了——我們可以通過數字技術捕捉這些畫面,并使用人工智能重新渲染和模擬相同的肖像、相同的人物和各種不同的演出。”格魯普曼說道,“這公平嗎?”
“會場房間里都是對自己或將被AI取代感到恐懼的記者。”倫敦城市大學數字創意教授尼爾·梅登(Neil Maiden)在第二屆全球媒體大會的小組討論會上說道。
把AI關進籠子里?
面對迅猛來襲的AI浪潮,各界要求對其進行監管的呼聲愈發高漲。
日本首相岸田文雄10月9日在聯合國主辦的“互聯網治理論壇”(Internet Governance Forum, IGF)上以AI為主題進行演講。
岸田文雄表示,最快在今年秋天的G7視頻峰會上,針對生成式AI的開發提出應對方案,制訂國際指導方針及行為準則,然后再制定包括使用者在內的國際指導方針。
面對生成式AI的風險,G7將在針對開發者的行為準則中明確規定,要求揭示系統功能及風險資訊,以確保AI透明度;行為準則也會鼓勵開發者開發“數字浮水印”等技術,讓用戶得以區分音訊及視頻是否由AI所生成。
岸田文雄在演講中提到,“生成式AI因能產出精致的假圖像和假信息,有使大眾混亂、威脅經濟和社會的風險”。岸田文雄同時強調,必須在“促進”及“監管”之間取得平衡。
至于如何應對虛假訊息傳播,岸田文雄表示,“為了促進可靠信息的傳播,推動能證明、確認信息發送者的技術開發普及化,將是有效的做法”。
不過,有專家對于政府在AI監管領域中可否發揮作用持悲觀態度?!皬膹V義上講,對AI的監管在大多數國家的政府中都有相當糟糕的歷史。我們希望這些國家的政府起到帶頭作用。AI監管是一個非常困難的領域。”貝勒說道,“由于很難想清楚生成式AI對社會的影響,任何一個民族國家的監管者可能都很難想清楚其潛在的影響。我認為這實際上與監管無關,而與透明度和控制有關。”
內容管理系統WordPress代理機構Human Made的合作伙伴、瑞士數字游民諾埃爾·托克(Noel Tock)則在第二屆全球媒體大會的小組討論會上坦言,簡單的水印可能無助于大眾區分生成式AI的作品與真實的照片,“我們使用Photoshop也有很長一段時間了,這個軟件1990年便已問世?!?/p>
不過,托克表示,自己相信還有其他的途徑,其中之一就是圖像中的加密指紋,“這更多地是關于真實圖像和真實圖像的出處,我認為這是非常有價值的?!蓖锌藦娬{,大眾也必須開始更多地驗證獲取信息、接收信息的方式。
“這可能會成為我們使用媒體方式的一個重大變化,我們可能會尋找經過驗證的個人或值得信賴的品牌,然后最終信任他們發送給我們的所有內容。因為圖像不是你唯一可以操縱話語權的東西,整個市場都會發生改變。”托克分析道,“因此,我認為我們更應該關注消息來源及其準確性的驗證?!?/p>
沙法娜·阿什拉夫則向澎湃新聞指出,每個國家的政府部門都應該有一個對AI的監管機構,監管的落實是一件非常困難的事情,“在一個小國,這沒問題。我認為在阿聯酋,這一點得到了很好的執行。但在我的國家——印度,這很難管理。因為印度是個大國?!?/p>
阿什拉夫還強調,各方需要就生成式AI的利弊教育年輕人,“假新聞是非常嚴重的,你需要以正確的方式使用人工智能,需要對年輕人正在使用的特定網站進行限制。如果我們能從根本上解決問題,就能防止以后(制作虛假信息)的行為?!?/p>
葉宰亞·胡斯尼向澎湃新聞表示,現在各方應該將教育界與不同的研究中心聯系起來,讓學生、教育工作者和學術界回到世界各地的不同智庫中去獲取正確而可信的信息,而不是去依賴ChatGPT生成的信息。
“我始終相信,如果你走在事物的前面,你就能接觸到更多的事物。如果你只是在觀察不同的事物,你也許將成為歷史的一部分,而不是未來的一部分。”穆罕默德·賈拉爾·雷西告訴澎湃新聞,“因此,我們相信,通過共同努力,我們可以在國際范圍內打造新一代的AI產業?!?/p>
“AI已經在影響人們的生活和未來。媒體每秒、每天、每月都在發生變化。過去,作為媒體行業的領導者,我們總是認為我們必須考慮和規劃五年后的未來。現在,對于從明天開始的將來,我們就必須用長期戰略來規劃。”穆罕默德·賈拉爾·雷西說道,“我們必須盡可能多地利用技術,并努力了解我們的受眾以及他們希望得到什么,如果我們了解了這些,我們就可以利用這些東西來生產內容。”
“兩天前,我在全球媒體大會上遇到一個問題——有人問我,你認為未來會沒有研究人員嗎?你認為以后不會再有媒體編輯、媒體人和不同的媒體機構了嗎?我告訴他們,有一樣東西是人工智能無法賦予這個世界的,那就是人性、同理心。人工智能在一定程度上會說話和寫作,在一定程度上會給你提供東西,但它不會深入到人性層面?!比~宰亞·胡斯尼告訴澎湃新聞。
“深入到人性的層面才是觸動人心的層面?!比~宰亞·胡斯尼坦言。
(實習生唐妍雙對本文亦有貢獻)
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。