“AI一下”的耗電量,夠你吹多久空調?
來源:網易新聞
討論 AI 耗電高,不是斤斤計較,這背后是不折不扣的能源問題。
根據國際能源署(IEA)發布的《電力 2024——到2026年的分析與預測》,2022年數據中心、人工智能(AI)和加密貨幣行業的全球電力消耗占比為2%,預計到2026年將翻倍至1000太瓦時以上。
中科院計算所助理研究員程大寧接受澎湃新聞采訪時表示,根據調研,未來算力會向著更大規模、更快互聯、更小化發展。這有兩方面的原因:一方面是現在模型的規模越來越大,需要更大算力和更大規模的顯存才能支撐,另一方面,邊端設備的智能化需要更低功耗,更快速度的部署,邊端設備數量多,因此需求量也很大。而智能化設備已經成為生活中重要的一部分,未來推理會是更大的算力需求點。
程大寧還提到,從業內數據來看,國內一線大模型的運營成本中,電費占到了總成本的 50% 以上。
AI 如果一直這么耗電,普通人什么時候才能用上便宜的 AI 呢?要知道,GPT-4 的月費足足要 20 美元,文心一言的單月購買價格也要約 60 元。更多的 AI 工具開始選擇按使用量付費。有報道稱,因 AI 繪畫而揚名的初創公司 Stable Diffusion 已無力負擔天價算力賬單。
從總量上看,AI 耗電量不斷攀升無法避免,但科技公司也在想辦法減少 AI 這只“吃電怪獸”帶來的影響。
一條路是減小它的胃口,可以通過優化算法提高效率,給模型做量化、剪枝都是減少計算量的方法,因此也能減少電量消耗。另一方面,科技公司也在下注新型能源,OpenAI 的CEO,Sam Altman 就投資了一家核聚變初創公司。英偉達 CEO 黃仁勛則更樂觀,他認為如果算力進步足夠快,就不需要太過在意能耗。
回收熱能的策略也很重要。根據上海交通大學算力中心的估計,回收熱能可以減少算力中心碳排放4850噸/年,其中余熱回收占950噸。優刻得烏蘭察布數據中心的使用案例顯示,利用算力熱能功能可以節約50%左右的電費成本。
常言道,出來混總是要還的。AI 吃了這么多電修煉自己,除了吐出熱能,還能不能還我們一個新能源的未來呢?時間會告訴我們答案。
至少現在,在找 AI 閑聊前,得先掂量一下它的夸張耗電量。
參考資料:
《藏在 AI 背后的“吃電狂魔”》 - 雪豹財經社:
https://www.36kr.com/p/2725525783520512
《1 次訓練用電 2.4 億度,AI 為什么那么耗電?》 - 返樸:
https://mp.weixin.qq.com/s/VPnzuzUWSOw2coA0uz7ETQ
《一句黃仁勛沒說的話,火了》 - 36 氪:
https://36kr.com/p/2687714777493126
《算力的盡頭其實是電力?》 - 騰訊研究院:
https://m.huxiu.com/article/2861503.html
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。