斯坦福報告:AI圖像生成工具使用大量兒童性虐待圖片進行訓練
圖片來源:GETTY IMAGES
一項最新報告披露,熱門AI圖片生成工具使用了數(shù)千張兒童性虐待圖片進行訓練,該報告呼吁相關(guān)公司采取措施,解決它們開發(fā)的技術(shù)存在的有害缺陷。
這些圖片使AI系統(tǒng)更容易生成逼真露骨的虛假兒童圖像,并且可以將青少年在社交媒體上穿著衣服的照片變成裸體照片,這引起了世界各地學校和執(zhí)法部門的警惕。
直到最近,反虐待研究人員還認為,一些不受控制的AI工具生成非法兒童圖像的唯一方法,就是把它們從成人色情內(nèi)容和良性的兒童照片這兩組在線圖像中提取的信息組合在一起。
但斯坦福互聯(lián)網(wǎng)觀察站(Stanford Internet Observatory)在龐大的AI數(shù)據(jù)庫LAION中發(fā)現(xiàn)了3,200多張疑似兒童性虐待圖片。LAION是一個在線圖片與標題索引,被用于訓練Stable Diffusion等當前領(lǐng)先的圖像生成工具。該觀察組織來自斯坦福大學(Stanford University)。它與加拿大兒童保護中心(Canadian Centre for Child Protection)和其他反虐待慈善機構(gòu)合作,發(fā)現(xiàn)非法材料,并將原始照片鏈接舉報給執(zhí)法機關(guān)。
它們的行動很快得到響應(yīng)。在2023年12月20日斯坦福互聯(lián)網(wǎng)觀察站報告發(fā)布前夜,LAION對美聯(lián)社(The Associated Press)表示,它已經(jīng)臨時移除了其數(shù)據(jù)集。
LAION是非營利組織大規(guī)模AI開放網(wǎng)絡(luò)(Large-scale Artificial Intelligence Open Network)的縮寫。該組織在一份聲明中稱,其“對于非法內(nèi)容堅持零容忍的政策,我們采取了高度謹慎的做法,把LAION數(shù)據(jù)集下線,會在保證安全之后再重新發(fā)布。”
雖然這些圖片在LAION約58億張圖片索引里只是九牛一毛,但斯坦福互聯(lián)網(wǎng)觀察站指出,它可能會影響AI工具生成有害結(jié)果的能力,并讓多次出現(xiàn)的真實受害者再次回想起先前遭到的虐待。
報告的作者、斯坦福互聯(lián)網(wǎng)觀察站的首席技術(shù)專家大衛(wèi)·泰爾表示,這個問題并不容易解決,原因能夠追溯到許多生成式AI項目因為競爭激烈而“急于上市”,并大范圍推廣。
泰爾在接受采訪時說:“匯總整個互聯(lián)網(wǎng)上的數(shù)據(jù),并將數(shù)據(jù)集用于訓練模型,這本應(yīng)該僅限于研究目的,不應(yīng)該是開源的,而且必須接受更嚴格的監(jiān)管。”
LAION的一個主要用戶是位于英國倫敦的初創(chuàng)公司Stability AI,它為LAION數(shù)據(jù)集的開發(fā)提供了幫助。Stability AI開發(fā)了文本生成圖片的模型Stable Diffusion。斯坦福的報告稱,雖然新版Stable Diffusion使用戶更難生成有害內(nèi)容,但2022年發(fā)布的一個舊版本(Stability AI稱其并未發(fā)布該版本)依然被整合到其他應(yīng)用和工具當中,而且仍然是“最受歡迎的生成露骨圖片的模型”。
加拿大兒童保護中心的信息技術(shù)總監(jiān)勞埃德·理查森表示:“我們無法回收這款模型。它被許多人安裝在本地的機器上。”加拿大兒童保護中心負責運營加拿大的在線性剝削舉報熱線。
Stability AI在12月20日表示,其僅提供經(jīng)過篩查的Stable Diffusion版本,并且“自從接管了對Stable Diffusion的獨家開發(fā)任務(wù)之后,公司便積極采取了預(yù)防措施,以減少其被濫用的風險。”
該公司在一份事先準備的聲明里稱:“這些過濾工具會阻止不安全的內(nèi)容進入模型。這樣做又可以反過來幫助阻止模型生成不安全的內(nèi)容。”
LAION源自德國研究人員和教師克里斯托弗·舒曼提出的一種理念。他在2023年早些時候告訴美聯(lián)社,他之所以希望把一個如此龐大的可視化數(shù)據(jù)庫對外公開,部分原因是為了確保未來AI的發(fā)展不會被幾家強大的公司所控制。
他說:“如果我們能夠?qū)I發(fā)展民主化,使整個研究界和全人類都可以從中受益,這將是更安全、更公平的做法。”
LAION的大部分數(shù)據(jù)來自另外一個數(shù)據(jù)庫Common Crawl。Common Crawl不斷從開放互聯(lián)網(wǎng)中抓取數(shù)據(jù),但其執(zhí)行董事里奇·斯克倫塔指出,LAION“有義務(wù)”在使用數(shù)據(jù)之前進行掃描和過濾。
LAION在2023年年底表示,其開發(fā)了“嚴格的過濾工具”,能夠在發(fā)布數(shù)據(jù)集之前監(jiān)測和移除非法內(nèi)容,并且依舊在努力完善這些工具。斯坦福的報告承認,LAION的開發(fā)者曾經(jīng)試圖過濾掉“未成年”露骨內(nèi)容,但如果他們事先征求兒童安全專家的意見,本可以做得更好。
許多文本生成圖片的工具都使用了LAION數(shù)據(jù)庫進行訓練,但尚不確定具體的名單。DALL-E和ChatGPT的開發(fā)者OpenAI表示,其并未使用LAION,并且改進了其模型,能夠拒絕涉及未成年人的性內(nèi)容請求。
谷歌(Google)的文本生成圖像工具Imagen模型基于LAION的數(shù)據(jù)集,但2022年,由于谷歌對數(shù)據(jù)庫審查后“發(fā)現(xiàn)了大量不良內(nèi)容,包括色情圖像、種族歧視性語言和有害的社會刻板印象”,因此公司決定放棄公開發(fā)布該模型。
追溯性清除相關(guān)數(shù)據(jù)困難重重,因此斯坦福互聯(lián)網(wǎng)觀察站呼吁采取更激進的措施。其中一項措施是,任何人如果基于LAION-5B(該模型中包含超過50億個圖片-文本數(shù)據(jù)對,因此而得名)開發(fā)了訓練數(shù)據(jù)集,就應(yīng)該“刪除數(shù)據(jù)集,或者與中間方合作清理相關(guān)材料”。另外一項措施是讓舊版Stable Diffusion從互聯(lián)網(wǎng)最陰暗的角落消失。
泰爾表示,“合法平臺可以停止提供相關(guān)版本下載”,尤其是在工具被頻繁用于生成不良圖像且沒有阻止此類行為的安全防護措施的情況下。
例如,泰爾點名了CivitAI平臺。該平臺被人們用于制作AI生成的色情內(nèi)容而受到歡迎,但該平臺缺乏杜絕生成兒童圖片的安全措施。報告中還呼吁AI公司Hugging Face采取更有效的方法,舉報和刪除虐待材料的鏈接。Hugging Face為模型提供訓練數(shù)據(jù)。
該公司稱,它長期與監(jiān)管部門和兒童安全團體合作,識別和刪除兒童虐待材料。CivitAI并未回復(fù)在其網(wǎng)頁提交的置評請求。
斯坦福的報告還質(zhì)疑,根據(jù)聯(lián)邦《兒童在線隱私保護法案》(Children’s Online Privacy Protection Act)規(guī)定的保護措施,未經(jīng)家人同意,是否應(yīng)該把任何兒童的照片,即便是最良性的照片,輸入AI系統(tǒng)。
反兒童性虐待組織Thorn的數(shù)據(jù)科學總監(jiān)瑞貝卡·波特諾夫表示,她所在機構(gòu)的研究發(fā)現(xiàn),雖然AI生成的兒童性虐待圖像在虐待者中并不流行,但這類圖像的流傳范圍正在持續(xù)擴大。
開發(fā)者能夠保證開發(fā)AI模型所使用的數(shù)據(jù)集中不含兒童虐待材料,從而減少這些傷害。波特諾夫稱,即使在模型發(fā)布之后,仍舊有機會徹底減少這類有害的使用。
科技公司和兒童安全團體目前正在為視頻和圖像添加“標簽”,通過這種獨特的數(shù)字標志跟蹤和移除兒童虐待內(nèi)容。波特諾夫指出,這種理念也適用于被濫用的AI模型。
她說:“AI行業(yè)目前還沒有這樣做。但我認為,他們可以而且應(yīng)該采取這種措施。”(財富中文網(wǎng))
譯者:劉進龍
審校:汪皓
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。