對話Arm高級副總裁:AI大模型帶來“計算”新挑戰,架構靈活性、生態是關鍵
作者 | 云鵬
編輯 | 李水青
智東西11月29日報道,今天Arm在北京舉辦了年度技術大會,會后智東西與少數業內媒體一起與Arm高級副總裁兼基礎設施事業部總經理Mohamed Awad等高管進行了面對面深度交流。
Awad在溝通會上首先對上午演講中的重點信息進行了總結,他的一個觀點令人印象深刻,在AI新時代,Arm要做的并不是打造一個“完美的架構”,而是為更多企業的創新提供一個更好的“平臺”,廠商們基于Arm架構可以設計出更多出色的芯片產品,例如英偉達的GH200 Grace Hopper。
AI大模型是當下科技產業討論中避不開的一個話題,Awad說,AI技術發展太快了,我們每次討論的內容都可能不一樣,在他看來,AI領域最大的挑戰之一就是內存帶寬,解決這樣的挑戰需要新的系統架構,提高內存一致性。系統架構的靈活性、強大的生態系統至關重要,這些都是滿足AI大模型發展需求的關鍵。
目前,從最小的設備到最大的數據中心,AI將會無處不在,每個涉及計算的領域都需要更多算力、更多加速能力。對于Arm而言,這是巨大的機會。在TCS24方案中,Arm會有更多針對AI的相關升級,后續會有更多信息釋放。
最近智能手機、PC等產品都在向生成式AI靠攏,比如提出AI PC的概念,Arm作為底層芯片技術提供商,對此是如何思考和布局的?AI大模型會給移動芯片生態帶來哪些變化?
對于智東西提出的這些問題,Awad給出了自己的看法,他提到,AI大模型的訓練更多會發生在云端,而推理過程則會發生在各個節點,從端側設備到云端。
從提升計算性能的角度來看,實現軟硬件的緊密耦合是必須的,包括CPU、NPU、GPU,整個計算系統。系統中的各個器件都不是孤立的,這也是Arm推出全面計算解決方案這樣一個概念的原因之一。
對于云巨頭自研芯片的產業趨勢,Awad認為,Arm這么多年以來做的都是“基礎設施建設”。五年以前,在基礎設施建設方面,廠商會購買預配置好的芯片,購置服務器,但如今云計算巨頭都在自研芯片。
云巨頭自研的目的并不只是為了降低成本,其最主要的目的是把每一顆芯片的性能、效能做到極致,根據自己的工作負載、圍繞自己的數據中心進行個性化定制。正因為有這樣的優化,他們才越來越不懼怕日益增長的數據處理需求,從而為“GPTs”時代做好準備。
昨晚AWS發布的自研芯片和微軟兩周前發布的自研芯片,都是芯片和對應的服務器同步開發的,此外,英偉達、AWS、微軟的CPU和加速器也都是一起開發的。
在基礎設施建設領域,Arm Neoverse計算子系統(CSS)的核心優勢是可以提供“預集成”,比如配置64核芯片和互聯模塊的產品,亞馬遜AWS對芯片物理層的配置做了一些改變,這些意味著需要做很多工作,例如I/O接口加速,而Arm的CSS已經將這些基礎工作做完了。
對于Arm的合作伙伴來說,廠商有很多選擇,比如選擇開箱即用的方案,或者使用芯粒、離散IP等方案。
在溝通后的參觀環節,我們看到基于Arm的云實例相比基于x86的云實例在性能和成本上都有比較明顯的優勢,在芯片EDA設計、視頻編解碼等應用場景中優勢比較明顯。
結語:構建AI時代的“基礎設施”,生成式AI加速Arm生態成長
在交流中,我們能看到Arm對于自身在AI新時代的機遇和挑戰都有比較清晰的認識,同時Arm給自己在產業中的定位似乎更傾向于底層平臺提供方,類似AI時代的“基礎設施”建設者,基于自身硬件、軟件、生態層面的優勢技術,賦能芯片廠商。
面向未來的AI大模型時代,例如高通、聯發科等移動芯片廠商,微軟、亞馬遜等云巨頭都在芯片領域有更多新的布局,生成式AI在移動芯片、服務器芯片市場也掀起了新的技術革新浪潮,Arm生態無疑會繼續加速成長。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。