大模型已過時(shí),小模型SLM才是未來?蘋果正在研究這個(gè)
手機(jī)還是更適合小模型
大模型雖然好,但我的筆記本和手機(jī)都跑不動(dòng)呀。就算勉強(qiáng)能跑起來,也是奇慢無比。而與此同時(shí),對(duì)適合移動(dòng)和邊緣設(shè)備的小模型的需求卻在不斷增長,因?yàn)檫@些模型似乎才能真正滿足人們的日常需求。正因?yàn)榇耍胁簧傺芯空吆蛻?yīng)用開發(fā)者都認(rèn)為小模型才是 AI 的未來。



論文標(biāo)題:Computational Bottlenecks of Training Small-scale Large Language Models
論文地址:https://arxiv.org/pdf/2410.19456
首先,多小的模型才能算是小型語言模型,或按蘋果的說法 —— 小規(guī)模大型語言模型?這個(gè)蘋果團(tuán)隊(duì)給出的指標(biāo)是「參數(shù)量 ≤ 2B」。當(dāng)然,這并非人們公認(rèn)的標(biāo)準(zhǔn),也有人認(rèn)為 Ministral 3B 和 Llama 3.2 3B 等 3B 參數(shù)量的模型也算是 SLM。總之,大與小是一個(gè)會(huì)隨著計(jì)算基礎(chǔ)設(shè)施的演進(jìn)而動(dòng)態(tài)變化的標(biāo)準(zhǔn),昨天的大模型可能就會(huì)成為明天的小模型。盡管 SLM 規(guī)模很小,但其表現(xiàn)并不一定很差,并且已經(jīng)展現(xiàn)出了自己的巨大潛力。很多借助剪枝、蒸餾和量化等技術(shù)得到的 SLM 的性能并不比大得多的模型差,甚至有時(shí)候還能更勝一籌。舉個(gè)例子,Gemma-2B 的性能就優(yōu)于大得多的 OPT-175B,這就挑戰(zhàn)了大多數(shù)人的一個(gè)固有觀念:模型大小是有效性的主導(dǎo)決定因素。另外,也有采用互相驗(yàn)證等其它新穎方法提升 SLM 能力的研究思路,比如機(jī)器之心曾報(bào)道過的《兩個(gè)小模型互相驗(yàn)證,直接比肩大模型?微軟的 rStar 甚至沒用 CoT 和微調(diào)》。事實(shí)上,隨著 OpenAI ο1 系列模型的發(fā)布,通過優(yōu)化推理時(shí)間計(jì)算也成了提升 SLM 性能的重要途徑。性能足夠好的 SLM 具有很大的好處,最基本的就是速度快、效率高、性價(jià)比高。因此,SLM 對(duì)計(jì)算資源有限的組織(如小型企業(yè)和學(xué)術(shù)機(jī)構(gòu))非常有吸引力。蘋果的這項(xiàng)研究關(guān)注的是 SLM 的訓(xùn)練動(dòng)態(tài)。事實(shí)上,在訓(xùn)練方面,LLM 和 SLM 的差距很大。LLM 的計(jì)算需求和基礎(chǔ)設(shè)施需求并不一定適用于 SLM??紤]到云平臺(tái)可用的硬件配置多種多樣(包括 GPU 類型、批量大小和通信協(xié)議),有必要對(duì)這些影響 SLM 訓(xùn)練效率的因素進(jìn)行系統(tǒng)性的分析,尤其是要考慮一些符合實(shí)際的指標(biāo),比如每美元的損失和每秒 token 數(shù)。該團(tuán)隊(duì)的研究結(jié)果表明,對(duì)于更小型的模型,可以使用 A100-40GB GPU 和分布式數(shù)據(jù)并行(DDP)等更低成本選擇,同時(shí)不會(huì)對(duì)性能產(chǎn)生負(fù)面影響。對(duì)于更大型的模型,就必需更高級(jí)的配置了(例如 A100-80GB 和 H100-80GB GPU 搭配 Flash Attention(FA)和完全分片式數(shù)據(jù)并行(FSDP)),這樣才能處理更大的數(shù)據(jù)批以及防止內(nèi)存相關(guān)的問題。SLM 領(lǐng)域的最近研究進(jìn)展表明,擴(kuò)展 AI 系統(tǒng)不僅是要追求先進(jìn)的性能,也要考慮實(shí)際應(yīng)用。目前這股研發(fā) SLM 的趨勢(shì)表明,重新評(píng)估硬件和計(jì)算策略是非常重要的。蘋果這項(xiàng)研究為此做出了貢獻(xiàn),他們系統(tǒng)性地研究了在不同的云基礎(chǔ)設(shè)施和設(shè)置上,訓(xùn)練最多 2B 參數(shù)大小的 SLM 的計(jì)算瓶頸和成本效率。他們發(fā)現(xiàn):1. 相比于 LLM,F(xiàn)lashAttention 對(duì) SLM 來說更重要;2. H100-80GB 和 A100-80GB 等昂貴硬件對(duì) SLM 訓(xùn)練來說不一定具有成本效益;3. DDP 是 SLM 的最佳分布式訓(xùn)練方案;4. 對(duì) SLM 訓(xùn)練來說,最大化 GPU 內(nèi)存利用率并不是成本最優(yōu)的。模型和參數(shù)該團(tuán)隊(duì)研究的是 LLaMa 架構(gòu),畢竟不管是 LLM 還是 SLM,這都是當(dāng)今最流行的架構(gòu)。LLaMa-2 和 3 最小的版本分別是 7B 和 8B,但這對(duì)大多數(shù)移動(dòng)硬件來說還是太大了。為此,該團(tuán)隊(duì)進(jìn)行了一番操作:為了定義他們自己的模型,他們通過在 Llama 模型上擬合一條曲線而提取了模型的解碼器模塊和參數(shù)數(shù)量。見下圖 5。

GPU 類型:他們?cè)u(píng)估了三種英偉達(dá) GPU:A100-40GB、A100-80GB 和 H100-80GB。所有 GPU 使用的數(shù)據(jù)類型都是 BFloat16。
GPU 數(shù)量和通信:每種 GPU 類型都有三種主要訓(xùn)練配置,包括:單節(jié)點(diǎn)單 GPU(1 臺(tái) GPU)、單節(jié)點(diǎn)多 GPU(2、4 和 8 臺(tái) GPU)和多節(jié)點(diǎn)多 GPU(16、32 和 64 臺(tái) GPU)。當(dāng) GPU 超過 1 臺(tái)時(shí),還會(huì)評(píng)估分布式數(shù)據(jù)并行(DDP)和完全分片式數(shù)據(jù)并行(FSDP)這兩種通信方法。對(duì)于分片,他們也研究了兩種策略:1) 完全分片,即對(duì)所有梯度、優(yōu)化器狀態(tài)和權(quán)重進(jìn)行分片;2) grad_op 分片,即僅對(duì)梯度和優(yōu)化器狀態(tài)進(jìn)行分片(但權(quán)重不分片)。他們使用了 RDMA/EFA。
樣本數(shù)量:他們還評(píng)估了訓(xùn)練期間適合單個(gè) GPU 的各種樣本數(shù)量。他們將序列長度固定為 1028,并迭代適合單臺(tái)設(shè)備的批量大小。由于即使在最?。?00M)的模型中也無法將 128 個(gè)樣本放入單個(gè) GPU 內(nèi)存中,因此他們研究了每臺(tái)設(shè)備的批量大小為 4、8、16、32 和 64 的情況。這里不使用梯度累積
Flash Attention:他們研究了在注意力模塊中使用 Flash Attention 的影響。
實(shí)驗(yàn)結(jié)果該團(tuán)隊(duì)展示了 SLM 在 A100-40GB、A100-80GB 和 H100-80GB 上運(yùn)行的結(jié)果。他們?cè)?HuggingFace 中部署了模型,沒有附加任何額外的框架,batch size=1024,并使用 PyTorch 運(yùn)行了如下表數(shù)值設(shè)置的實(shí)驗(yàn)。



- 免責(zé)聲明
- 本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。