首頁 > AI資訊 > 最新資訊 > 1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動

新火種    2024-02-20

一個體量僅為2B的大模型,能有什么用?

答案可能超出你的想象。

因為若是用四個字來概括,那就是“多、快、好、省”:

多:它是業界第一個在端側部署多模態的大模型。快:一張1080Ti可高效微調、一臺機器可以持續訓練。好:性能跟體量極具反差感,在多項成績中超越了一眾主流“大體量”大模型。省:1元=1700000 tokens,成本為Mistral-Medium百分之一

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

那么,這個能夠“以小博大”,頗有四兩撥千斤意味的大模型,到底什么來頭?

不賣關子,它正是由清華系初創公司面壁智能最新發布的旗艦終端大模型——MiniCPM。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

并且團隊還給它起了個別具一格的昵稱——小鋼炮。

而在眾多亮點之間,最令人意外的還是小鋼炮用2B的“姿勢”所表現出來的性能。

例如與同樣是采用“以小博大”路數的大模型標桿之作Mistral-7B做比較,小鋼炮多項標準測試成績均勝出:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

再把與小鋼炮同“體量”的選手拉出來,大部分能力依舊是處于領先,并且英文能力還是較為出眾的那種:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

即使把Mistral-7B更大的模型拉進來同臺比擂,例如Llama2-13B、MPT-13B、Falcon 40B,多項成績較為出眾的仍是小鋼炮:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

若不論大模型的尺寸,把主流的全部囊括進來,在最接近人評的測試集MT-Bench中比較,小鋼炮也取得了較為不錯的成績:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

不僅如此,根據面壁智能CEO李大海的介紹:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

有一說一,成績和榜單是大模型能力的一方面,但更重要的還是要看大模型在實際應用中的效果。

2B“小鋼炮”效果一覽

老規矩,我們還是從不同維度來看下小鋼炮的實際應用效果。

中英夾雜提問,精準翻譯成法語

讓大模型在兩種語言之間做翻譯已然是件常見的事情。

團隊在現場給小鋼炮的翻譯任務加了一把難度,中英混合提問,并要求把整句翻譯成法語:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

從翻譯結果來看,小鋼炮準確地理解了中英混合的表述,并按照要求給出了精準的法語翻譯。

如果讓人類給一句話添加emoji,那么過程大致是要先理解這句話,然后再在恰當的位置塞進emoji表情。

那么這個任務小鋼炮是否能hold住呢?

請看結果:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

生日是要[慶祝]的,和也精準塞進了恰當位置,最重要是小鋼炮理解到了這句話是表達[愛意]。

再如“山東省最高的山是那座山,它比黃山高還是矮?差距多少?”這樣的問題,小鋼炮也是輕松應對:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

小鋼炮給自己寫代碼

大模型對給定的任務寫代碼現在也是司空見慣了。

如果讓大模型給自己寫段代碼呢?請聽題:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

小鋼炮在接收到任務之后,隨即開始“自己給自己寫代碼”,并且每一步的步驟內容也是非常清晰:導入所需庫→定義模型結構→定義訓練和評估函數→訓練模型→評估模型性能。

多模態首次上手機

正如我們剛才提到的,小鋼炮的亮點之一就是它是業界第一個在端側部署多模態的大模型。

在現場,李大海也對此做了相應的展示。

例如先“喂”給手機里的小鋼炮一張圖,并提問“這個蘑菇的名字是什么?有毒么”,小鋼炮就會先看圖再作答:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

當然,連續追問、上下文對話也是不在話下:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

據了解,上面展示的這些能力都是在量化版小鋼炮+OPPO手機+驍龍855芯片這個配置之下完成的。

之所以如此,是因為團隊想要展示小鋼炮是一個“省錢的大模型”。

怎么理解?

剛才手機里GPU的成本大約600元,每秒7.5tokens,假設運行5年報廢,共計170萬tokens,則其推理成本僅為1元。

如此,便可以得到一個成本公式:

1元=1700000tokens。

相比GPT-4的推理成本,1元=4700tokens,可以說是指數級的把價格打下去。

即便是與Mistral-medium相比,成本也是其1/100。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

這次也同步開源了一個更大也更好展示多模態能力的OmniLMM-12B,玩法就變得更多了。

例如舉著手機,在攝像頭下方比劃石頭、剪刀、布,并向小鋼炮提問:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

小鋼炮看完之后,在理解基礎上便會開始作答:

然后繼續給小鋼炮看一眼“拳頭”,并發問:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

繼續給小鋼炮看一眼“拳頭”,并發問:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

小鋼炮思考片刻后,給出了正確答案:

值得一提的是,從上面的演示中,我們可以看到小鋼炮在處理過程中是有一段時間的延遲。

現場也有人調侃說“我看這個視頻演示沒有加美顏”(指加速處理)。

對此,面壁智能聯合創始人、清華大學副教授劉知遠回答說:

怎么做到的?

整體來看,面壁智能在技術路線上一直高舉“高效”大旗,主要是從AI的三大要素作為突破口,即算力、算法和數據。

在算力層面上,面壁智能認為“Infra是大模型創業護城河”,Infra可以決定一家創業公司的技術上限。

若是沒有一個足夠“能打”的Infra,即使短期內能夠打造較好的模型,但越往后、越深入時會發現很快就會遇到技術瓶頸。

因此,在早年前,團隊便在業內較早地提出了BMTrain,一個分布式的高效訓練框架。

有了它,很深入地優化工作就可以快速地結合Infra落地實現。

除此之外,團隊陸續還推出了高效推理框架BMInf、高效壓縮框架BMCook,以及高效微調框架BMTune等等。

有這些具體的工具,便形成了面壁智能在算力層面的殺手锏——面壁ModelForce,全流程優化加速套件平臺。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

在算法層面上,面壁智能在技術發展過程中所積累出來的利器則是面壁模型沙盒(Model Sandbox)。

這實則也是一種方法論,可以將大模型從過去的煉丹形式變成了一種實驗科學。

而在歷經上千次的模型沙盒實驗之后,團隊在算法中的各種細節上也得到了一系列業界最優配置。

例如最優批次大小(batch size),可以大幅節省大模型訓練時的token量;再如所有尺寸的模型可以通過最優的超參數的配制,保證訓練任意大小的模型取得最好的效果等等。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

最后在數據層面上,優秀的數據也決定了大模型最后性能的成敗。

而這次小鋼炮的誕生,面壁智能僅僅是用了所積累的優質數據中,通過方法論所精選出來的1T。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

值得一提的是,為了行業更好的交流和發展,面壁智能開源了訓練、退火兩個階段來的數據配方來供參考。

除此之外,與小鋼炮相關的更多技術細節以及如何在手機上部署的教程等,均已經在GitHub中開源。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

感興趣的小伙伴,可以在文末鏈接處了解更多詳情~

不過最后,還有一個問題值得討論來一波:

大模型,為什么往“小”了搞?

其實在2023年,在大模型以小博大方面,便已經開始有了苗頭。

最為典型的,就是小鋼炮此次對標的Mistral-7B。

在它剛剛出道之際,便以更小的“姿勢”擊敗了更大體量的Llama2-13B、Llama 1(34B)等一眾大模型。

這就為“比大更大”內卷下的模型圈帶來了一定啟發。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

不過在此背后,大模型往“小”了做,所體現的是一種更大的趨勢。

一方面,從大模型從2022年底爆火至今,一個非常明顯的變化就是從專注訓練,逐漸轉向推理。

這是一個技術發展必然的結果,要從比性能和結果,到比誰的大模型更好用;而這個“用”,最好、最直接的體現就應當是在端側誰可以更“多快好省”地運行。

對此,李大海表示:

另一方面,市場的表現也是印證大模型往“小”發展的一點。

自從去年7月開始,非常明顯的一點是,眾多主流手機廠商、PC、汽車品牌,陸續在宣布接入大模型。

手機廠商例如華為、小米、榮耀、OPPO、Vivo、三星等;車企包括小鵬、蔚來、理想、吉利等等。

需求之大,可見一斑。

值得一提的是,從小鋼炮在GitHub開源的內容來看,目前它已經在眾多品牌的老機型上做了部署實驗。

因此,老手機上跑大模型也成為了一種可能。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

不過細心的朋友也注意到了,面壁智能其實從成立至今,也僅有短短一年的時間。

這就不禁讓人發問:一年時間是如何在技術上做到的這般突破?

其實在此背后,更多的是清華系成員們在公司成立之前,長久以來在技術上的積累與跟進。

早在2018年,面壁智能的核心技術團隊在BERT發布之后,便聚焦在清華NLP實驗的相關工作,發布過全球首個知識指導的預訓練模型ERNIE。

隨后在2020年,他們也作為“悟道”大模型首發主力陣容發布了全球第一個20億級中文開源大模型CPM 1,也持續參與了之后的CPM 2和CPM 3。

除此之外,在2022年,在開源相關工作中,面壁智能核心成員也參與到了OpenBMB開源社區的成立與運作。

由此可見,面壁智能的核心技術成員是屬于中國最早進行大模型研究的那一批。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

正是基于這樣的技術積累,也就不難理解面壁智能為何能夠在短短一年時間內交出如此之多的“作業”了:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

據了解,截至目前,面壁智能擁有100多人的科研團隊。

雖然平均年齡僅為28歲,但清北含量高達80%,也有來自阿里、字節、百度等國內外知名大廠的工程團隊。

加上團隊還主打一個“雙CP”組合,即大將里的“小哥哥”+“小鮮肉”里的大將,這種經驗與創新的碰撞,或許也是推動發展進程的原動力之一。

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

誠然,開年小鋼炮的發布給大模型帶來了不少驚艷,但也正如團隊所說,相關工作還有許多需要改進之處。

因此面壁智能在接下來的新進展,是值得關注的。

One More Thing

在小鋼炮發布現場,一張五道口大模型Valley圖格外吸睛。

用李大海的話來說:

1元=1700000tokens!清華系發布國產Mistral僅2B,老手機都帶得動,GitHub一天斬獲300+星

嗯,五道口,不愧是“宇宙中心”。

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章