首頁(yè) > AI資訊 > 行業(yè)動(dòng)態(tài) > 那么多GAN哪個(gè)好?谷歌大腦潑來(lái)冷水:都和原版差不多

那么多GAN哪個(gè)好?谷歌大腦潑來(lái)冷水:都和原版差不多

新火種    2023-11-27

夏乙 編譯整理 量子位 出品 | 公眾號(hào) QbitAI 從2014年誕生至今,生成對(duì)抗網(wǎng)絡(luò)(GAN)熱度只增不減,各種各樣的變體層出不窮。有位名叫Avinash Hindupur的國(guó)際友人建立了一個(gè)GAN Zoo,他的“動(dòng)物園”里目前已經(jīng)收集了多達(dá) 214種有名有姓的GAN 。 DeepMind研究員們甚至將自己提出的一種變體命名為α-GAN,然后在論文中吐槽說(shuō),之所以用希臘字母做前綴,是因?yàn)?拉丁字母幾乎都被占了…… 這還不是最匪夷所思的名字,在即將召開(kāi)的NIPS 2017上,杜克大學(xué)還有個(gè)Δ-GAN要發(fā)表。 就是這么火爆! 那么問(wèn)題來(lái)了: 這么多變體,有什么區(qū)別?哪個(gè)好用? 于是,Google Brain的幾位研究員(不包括原版GAN的爸爸Ian Goodfellow)對(duì)各種GAN做一次“中立、多方面、大規(guī)模的”評(píng)測(cè),得出了一個(gè)有點(diǎn)喪的結(jié)論: No evidence that any of the tested algorithms consistently outperforms the original one. 量子位非常不嚴(yán)謹(jǐn)?shù)胤g一下: 都差不多……都跟原版差不多…… 比什么? 這篇論文集中探討的是無(wú)條件生成對(duì)抗網(wǎng)絡(luò),也就是說(shuō),只有無(wú)標(biāo)簽數(shù)據(jù)可用于學(xué)習(xí)。選取了如下GAN變體: MM GAN NS GAN WGAN WGAN GP LS GAN DRAGAN BEGAN 其中MM GAN和NS GAN分別表示用minimax損失函數(shù)和用non-saturating損失函數(shù)的原版GAN。 除此之外,他們還在比較中加入了另一個(gè)熱門(mén)生成模型VAE(Variational Autoencoder,變分自編碼器)。 對(duì)于各種GAN的性能,Google Brain團(tuán)隊(duì)選了兩組維度來(lái)進(jìn)行比較。 一是 FID(Fréchet Inception Distance) ,F(xiàn)ID的值和生成圖像的質(zhì)量負(fù)相關(guān)。 測(cè)試FID時(shí)用了4個(gè)數(shù)據(jù)集:MNIST、 Fashion MNIST 、CIFAR-10和CELEBA。這幾個(gè)數(shù)據(jù)集的復(fù)雜程度從簡(jiǎn)單到中等,能快速進(jìn)行多次實(shí)驗(yàn),是測(cè)試生成模型的常見(jiàn)選擇。 二是 精度(precision、)、查全率(recall)和F 1 得分 ,用來(lái)衡量判別式模型的質(zhì)量。其中F 1 是精度和查全率的調(diào)和平均數(shù)。 這項(xiàng)測(cè)試所用的,是Google Brain研究員們自創(chuàng)的一個(gè)數(shù)據(jù)集,由各種角度的三角形灰度圖像組成。 △ 精度和查全率都高、高精度低查全率、低精度高查全率、精度和查全率都低的模型的樣本 對(duì)比結(jié)果 Google Brain團(tuán)隊(duì)從FID和F 1 兩個(gè)方面對(duì)上面提到的模型進(jìn)行比較,得出了以下結(jié)果。 FID 通過(guò)對(duì)每個(gè)模型100組超參數(shù)的大范圍搜索,得出的結(jié)論是GAN在訓(xùn)練中都對(duì)于超參數(shù)設(shè)置非常敏感,沒(méi)有哪個(gè)變體能夠幸免,也就說(shuō),哪個(gè)GAN也沒(méi)能比競(jìng)品們更穩(wěn)定。 從結(jié)果來(lái)看,每個(gè)模型的性能擅長(zhǎng)處理的數(shù)據(jù)集不太一樣,沒(méi)有在所有數(shù)據(jù)集上都明顯優(yōu)于同類的。不過(guò),VAE相比之下是最弱的,它所生成出的圖像最模糊。 測(cè)試還顯示,隨著計(jì)算資源配置的提高,最小FID有降低的趨勢(shì)。 如果設(shè)定一個(gè)FID范圍,用比較多計(jì)算資源訓(xùn)練的“壞”模型,可能表現(xiàn)得比用較少計(jì)算資源訓(xùn)練的“好”模型要更好。 另外,當(dāng)計(jì)算資源配置相對(duì)比較低的時(shí)候,所有模型的最小FID都差不多,也就是說(shuō),如果嚴(yán)格限制預(yù)算,就比較不出這些模型之間具有統(tǒng)計(jì)意義的顯著區(qū)別。 他們經(jīng)過(guò)比較得出的結(jié)論是,用能達(dá)到的最小FID來(lái)對(duì)模型進(jìn)行比較是沒(méi)有意義的,要比較固定計(jì)算資源配置下的FID分布。 FID之間的比較也表明,隨著計(jì)算力的增加,最先進(jìn)的GAN模型之間體現(xiàn)不出算法上的優(yōu)劣差別。 精度、查全率和F 1 Google Brain團(tuán)隊(duì)還用他們的三角形數(shù)據(jù)集,測(cè)試了樣本量為1024時(shí),大范圍搜索超參數(shù)來(lái)進(jìn)行計(jì)算的精度和查全率。 對(duì)于特定的模型和超參數(shù)設(shè)置,最高F 1 得分會(huì)隨著計(jì)算資源配置的不同而不同,如下圖所示: △ 不同計(jì)算資源配置下各模型的F1、精度和查全率 論文作者們說(shuō),即使是一個(gè)這么簡(jiǎn)單的任務(wù),很多模型的F 1 也并不高。當(dāng)針對(duì)F 1 進(jìn)行優(yōu)化時(shí),NS GAN和WGAN的精度和查全率都比較高。 和原版GAN相比 Google Brain團(tuán)隊(duì)還將這些變體和原版GAN做了對(duì)比。他們得出的結(jié)論是,沒(méi)有實(shí)證證據(jù)能證明這些GAN變體在所有數(shù)據(jù)集上明顯優(yōu)于原版。 實(shí)際上,NS GAN水平和其他模型持平,在MNIST上的FID總體水平最好,F(xiàn) 1 也比其他模型要高。 相關(guān)鏈接 要詳細(xì)了解這項(xiàng)研究,還是得讀論文: Are GANs Created Equal? A Large-Scale Study Mario Lucic, Karol Kurach, Marcin Michalski, Sylvain Gelly, Olivier Bousquet 查找某種GAN變體,可以去文章開(kāi)頭提到的GAN Zoo 

— 完 — 

Tags:
相關(guān)推薦
免責(zé)聲明
本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢(qián)損失負(fù)任何責(zé)任。

熱門(mén)文章