再見了NVIDIA!華為昇騰NPU跑出了準(zhǔn)萬億參數(shù)大模型
現(xiàn)在,跑準(zhǔn)萬億參數(shù)的大模型,可以徹底跟NVIDIA Say Goodbye了。完成此舉的,正是華為!要知道,在此之前,訓(xùn)練萬億參數(shù)大模型這事,是有諸多“攔路虎”在身上的。
現(xiàn)在,跑準(zhǔn)萬億參數(shù)的大模型,可以徹底跟NVIDIA Say Goodbye了。完成此舉的,正是華為!要知道,在此之前,訓(xùn)練萬億參數(shù)大模型這事,是有諸多“攔路虎”在身上的。
在人工智能的應(yīng)用領(lǐng)域,出現(xiàn)了一些讓人始料未及的趨勢:很多傳統(tǒng)企業(yè)開始選擇在 CPU 平臺上落地和優(yōu)化 AI 應(yīng)用。例如制造領(lǐng)域在高度精細(xì)且較為耗時(shí)的瑕疵檢測環(huán)節(jié),就導(dǎo)入了 CPU 及其他產(chǎn)品組合,來構(gòu)建橫跨「云-邊-端」的 AI?缺陷檢測方案,代替?zhèn)鹘y(tǒng)的人工瑕疵檢測方式。
9月25日,阿里云開源通義千問140億參數(shù)模型Qwen-14B及其對話模型Qwen-14B-Chat,免費(fèi)可商用。阿里云此前開源了70億參數(shù)模型Qwen-7B等,一個(gè)多月下載量破100萬,成為開源社區(qū)的口碑之作。記者了解到,Qwen擁有出色的工具調(diào)用能力,能讓開發(fā)者更快地構(gòu)建基于Qwen的Agent
4月1日消息,據(jù)昆侖萬維官微發(fā)文,天工大模型3.0將于4月17日正式發(fā)布,并同步開源4000億參數(shù)MoE超級模型。這一模型采用了4千億級參數(shù)MoE混合專家模型,是全球模型參數(shù)最大、性能最強(qiáng)的MoE模型之一。
站長之家11月9日 消息:在今日的2023年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會上,阿里巴巴集團(tuán)CEO吳泳銘表示,阿里巴巴即將開源720億參數(shù)大模型。這將是國內(nèi)參數(shù)規(guī)模最大的開源大模型。據(jù)悉,此前,阿里云已先后開源通義千問70億參數(shù)模型Qwen7B和140億參數(shù)模型Qwen14B,模型累計(jì)下載量超過100萬。10
12月1日,阿里云舉辦通義千問發(fā)布會,開源通義千問720億參數(shù)模型Qwen-72B,這是繼通義千問此前開源140億參數(shù)大語言模型后又一次開源之舉。此外,通義千問還開源了18億參數(shù)模型Qwen-1.8B和音頻大模型Qwen-Audio。
克雷西 發(fā)自 凹非寺新火種 | 公眾號 QbitAI通義千問版o1來了,還是開源的!深夜,通義團(tuán)隊(duì)突然上線推理模型QwQ,參數(shù)量只有32B,在GPQA上擊敗了o1-mini。目前,QwQ的模型權(quán)重已在HuggingFace和魔搭社區(qū)上發(fā)布,還可以直接在線試玩。Ollama、Together.ai等大
3月18日消息,據(jù)媒體報(bào)道,馬斯克的AI創(chuàng)企xAI正式宣布其大語言模型Grok-1已實(shí)現(xiàn)開源,并向公眾開放下載。據(jù)了解,Grok-1是一款基于混合專家系統(tǒng)(Mixture-of-Experts,MoE)技術(shù)構(gòu)建的大語言模型,擁有3140億參數(shù),遠(yuǎn)超OpenAI GPT-3.5的1750億。
機(jī)器之心報(bào)道編輯:小舟這合理嗎?誰都沒有想到,ChatGPT 的核心秘密是由這種方式,被微軟透露出來的。昨天晚上,很多討論 AI 的微信群都被一篇 EMNLP 論文和其中的截圖突然炸醒。微軟一篇題為《CodeFusion: A Pre-trained Diffusion Model for Code
GPT-5有3-5萬億參數(shù),由7000塊B100煉成?!一夜間,下面這張圖在網(wǎng)上瘋轉(zhuǎn):仔細(xì)看,這是三星高管Jung Bae Lee(李禎培)在一場高級管理層峰會(CEO Summit)上演講。上面明晃晃寫著GPT-5 3-5T、B100 7000、HBM3E 8TB/s。網(wǎng)友發(fā)現(xiàn),不只是三星高管有“