首頁 > AI資訊 > 最新資訊 > AI推理時代:算力能耗瓶頸下的“密鑰”何在?

AI推理時代:算力能耗瓶頸下的“密鑰”何在?

新火種    2024-11-23

作者 | 程茜

編輯 | 漠影

2024年,千行百業對AI推理的需求將呈現出爆發式增長,行業對算力的需求遠遠超越以往。在這樣的形勢下,如何突破能耗瓶頸,進而獲取更充足的算力,已經成為每個企業迫在眉睫且亟待解決的關鍵問題。

然而,當前的現實情況是有效算力供給已無法滿足算力需求:一方面,從儲備到應用的算力需求都愈發旺盛,OpenAI CEO召集全球投資者組建聯盟為大模型構建基礎設施,馬斯克的無人駕駛出租車Cybercab為科技行業描繪了未來感十足的面面,還有性能愈發強大的GPT-o1等模型層出不窮。

另一方面,數據中心的算力潛能尚未被完全挖掘出來。數據中心常被認為是“耗電怪獸”,因為服務器運行伴隨著熱量釋放,溫度一旦超過極限值,服務器性能就會顯著降低,限制數據中心算力發揮。于是各類創新技術涌現,試圖讓數據中心再次突破能效瓶頸,釋放出被束縛的算力潛能。

這背后的關鍵變量就是冷卻技術,液冷技術作為推手幫助數據中心一次次突破制約。就在聯想集團Tech World上,聯想集團董事長兼CEO楊元慶與NVIDIA創始人兼CEO黃仁勛,這兩大全球科技行業頂尖企業的領軍者同臺,聯合發布全新液冷AI服務器,勇闖“最大工業革命”。

Scaling Law要失效了?Ilya曝自家創企采用替代方法,稱行業回歸“發現”階段

今天,伴隨2024/2025財年Q2財報,聯想集團發布《Game of AI》系列知識科普視頻的第二集《數據中心:如何與世界交換算力》。

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章