ChatGPT開發商OpenAI探索自研芯片,已開始評估收購選項

界面新聞記者 | 彭新
1據媒體報道,ChatGPT開發商OpenAI正探索制造自研人工智能芯片,并已開始評估潛在的相關收購目標。
報道稱,OpenAI已經由去年開始討論解決AI芯片成本昂貴、供應短缺等問題的多項解決方案,其中包括自研AI芯片,與英偉達在內的芯片供貨商更緊密合作,推動AI芯片供應來源多元化。
目前,OpenAI已將獲得更多AI芯片列為公司首要任務。其尚未決定是否繼續推進自研AI芯片,但該決定若落成,將成為OpenAI的一項重大戰略,并在芯片研發中投入巨額資金,每年成本或高達數億美元,耗時超過數年,且最終也無法保證能成功研發。知情人士稱,若走收購路線加快獲取技術,OpenAI已經考慮對潛在收購目標啟動盡職調查。
若OpenAI選擇自研AI芯片,意味著其可能將加入互聯網公司掀起的AI芯片自研潮。包括谷歌、Meta、亞馬遜等互聯網巨頭因其龐大的業務需求紛紛下場造芯,一邊自研芯片,一邊采購英偉達的GPU組建龐大的數據中心。
谷歌早在2016年就推出為AI而生的TPU(張量處理單元)芯片,該芯片專門為其機器學習框架TensorFlow設計。谷歌TPU至今已經迭代到第四代,聲稱該芯片在性能勝過A100 1.2到1.7倍的同時,還大幅減少了耗電量。Meta在2020年就設計了第一代自研的AI推理芯片,并命名為MTIA(Meta訓練和推理加速器),Meta稱該芯片是為了自身業務背后的DLRM(深度學習推薦大模型)而設計。
實際上,若OpenAI選擇以收購形式獲取AI芯片技術,亞馬遜的做法將是可借鑒方向。亞馬遜2015年通過收購以色列芯片設計公司Annapurna Labs打入芯片行業,2018年11月,亞馬遜推出基于Arm架構的首款服務器芯片Graviton,主打性價比,該產品目前已經迭代到第三代;亞馬遜還在2019年、2020年分別發布了AI推理芯片Inferentia、訓練芯片Trainium。
不過,大公司多有自研芯片沖動,但英偉達GPU目前仍是企業用于AI應用的算力首選。 英偉達最大的優勢,就是其GPU芯片因為在AI算力方面的性能優勢,成為大模型訓練和部署的核心部件。 市場調研機構Omdia數據顯示,2022年,英偉達在全球數據中心AI芯片市場的份額超過七成,占據絕對優勢。
OpenAI自身高度依賴英偉達A100、H100等GPU芯片進行AI訓練與推理,據稱ChatGPT背后的人工智能大模型就使用超過1萬顆英偉達GPU進行訓練。且隨著ChatGPT引爆了生成式AI技術以來,對AI芯片的需求大幅提升,以加速訓練和運行各種人工智能應用,使得英偉達GPU產能緊缺,出現“一卡難求”現象。
但英偉達GPU成本高昂,除芯片采購和訓練的成本外,還包括運營成本。芯片行業調研公司SemiAnalysis首席分析師Dylan Patel曾估算,ChatGPT的運營成本為每天約70萬美元或每次查詢0.36美元。因此,OpenAI有充分動力推動尋求可替代英偉達GPU的AI芯片,以降低成本。
今年以來,市場就陸續有OpenAI推動AI芯片多元化的傳言傳出。今年4月,就有媒體報道稱,微軟早在2019年就開始開發內部代號為“雅典娜”的AI芯片,微軟至少有300人在進行該芯片的開發工作。該報道還稱,一些微軟和OpenAI的員工已經開始測試并使用這些芯片,微軟最快可以在明年讓雅典娜芯片在自家和OpenAI內部廣泛使用。
英偉達自身亦在努力解決GPU供應瓶頸,加快向OpenAI等客戶供貨。在8月底的財報會議上,英偉達CFO Colette Kres就提到,英偉達配置了CoWos(一種先進半導體2.5D封裝技術)封裝的額外產能。她預計市場對于英偉達數據中心GPU的需求將延續至明年,“隨著我們縮短供貨周期并增加產能,未來幾個季度的供應將繼續增加。”此外,英偉達還推出了不受制于CoWos先進封裝產能的L40S GPU,用于AI訓練和推理,作為H100的“平替”。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。