推特2200贊:一只AI訓練排出180噸二氧化碳,“您的機器學習一點也不環保!”
量子位 報道 | 公眾號 QbitAI
當你打開這篇文章的時候,你的模型可能正在安靜地訓練。
模型的身后,有飛速運轉的GPU,為它提供訓練的動力。
曲線顯示,它的學習情況良好,你在一旁露出了“孺子可教”的圍笑。
就在此時,有人向你發射了直擊靈魂的提問:
你總是關心模型學得好不好,就不關心它學得累不累排放多少二氧化碳?
發問的是名叫Emma Strubell (簡稱艾瑪) 的研究人員,來自美國馬薩諸塞大學阿姆赫斯特分校。
艾瑪和小伙伴一起,研究了許多優秀NLP(自然語言處理) 模型的碳排,還和人類日常生活的碳足跡做了對比:
比如,訓練一只Transformer的碳排,相當于從坐飛機在舊金山和紐約之間往返200次。
過不了多久,團隊就會前往ACL 2019,與NLP領域的佼佼者們,分享自家的成果。
而在那之前,這項酸爽的研究,已經在推特上引發了大規模圍觀,有2200人點贊,也惹來了不小的爭議。
能排多少噸?
如果看艾瑪提供的數據,訓練好一只NLP領域的State-of-the-Art,包括調參包括實驗,大概需要排放3.3萬磅二氧化碳,相當于15噸:
而要訓練一只Transformer,包含神經網絡架構搜索 (NAS) 的那種,排放二氧化碳大概39.5萬磅,相當于180噸。
比剛才的SOTA多了10倍不止。
那么,這些噸位到底是什么概念?
如果還看艾瑪提供的數據:
訓練一只Transformer的碳排放量,相當于把三輛汽車從全新用到報廢;
如果換算成,一個人從紐約坐飛機去舊金山,再從舊金山回紐約,可以往返200次。
一個 (平均) 美國人10年日常生活的碳排,不過如此。
一個 (平均) 地球人30年日常生活的碳排,也不過如此。
現在,完整論文還沒放出,艾瑪說快了快了。
即便如此,驚人的數據也已在眾人矚目之下,收獲了許多質疑:
“你這碳排怎么算的?”
谷歌大腦的研究員David Ha,就提出了問題:
用千瓦時作指標才比較科學吧。因為不同的能源,每千瓦時的碳排會差出很多啊。看數據:
△不同國家的數據:每千瓦時,從41克到710克不等
他覺得,如果不知道能源是什么,就計算二氧化碳排放量,作為一篇論文并不嚴謹;
但如果是為了讓大家重視環境問題,用碳排來博眼球,那就說得通了。
評論區,有同樣感受的人類不在少數:
看來保護地球,也需要有一顆嚴謹的心。
One More Thing
當然,觀眾大多還是對這項研究表示喜聞樂見,有人說:
以后交論文的時候,應該要求把碳排信息附上。
閣下以為如何?
作者系網易新聞·網易號“各有態度”簽約作者
本文首發于微信公眾號:量子位。文章內容屬作者個人觀點,不代表和訊網立場。投資者據此操作,風險請自擔。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。