首頁 > 參數(shù)

參數(shù)

  • 為AI加速而生:英特爾的至強(qiáng),現(xiàn)在能跑200億參數(shù)大模型了

    在人工智能的應(yīng)用領(lǐng)域,出現(xiàn)了一些讓人始料未及的趨勢:很多傳統(tǒng)企業(yè)開始選擇在 CPU 平臺上落地和優(yōu)化 AI 應(yīng)用。例如制造領(lǐng)域在高度精細(xì)且較為耗時(shí)的瑕疵檢測環(huán)節(jié),就導(dǎo)入了 CPU 及其他產(chǎn)品組合,來構(gòu)建橫跨「云-邊-端」的 AI?缺陷檢測方案,代替?zhèn)鹘y(tǒng)的人工瑕疵檢測方式。

  • 通義千問開源超百億參數(shù)模型大模型,周靖人:持續(xù)擁抱開源開放

    9月25日,阿里云開源通義千問140億參數(shù)模型Qwen-14B及其對話模型Qwen-14B-Chat,免費(fèi)可商用。阿里云此前開源了70億參數(shù)模型Qwen-7B等,一個(gè)多月下載量破100萬,成為開源社區(qū)的口碑之作。記者了解到,Qwen擁有出色的工具調(diào)用能力,能讓開發(fā)者更快地構(gòu)建基于Qwen的Agent

  • 阿里將開源720億參數(shù)大模型或?yàn)槟壳皣鴥?nèi)參數(shù)規(guī)模最大的開源大模型

    站長之家11月9日 消息:在今日的2023年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會上,阿里巴巴集團(tuán)CEO吳泳銘表示,阿里巴巴即將開源720億參數(shù)大模型。這將是國內(nèi)參數(shù)規(guī)模最大的開源大模型。據(jù)悉,此前,阿里云已先后開源通義千問70億參數(shù)模型Qwen7B和140億參數(shù)模型Qwen14B,模型累計(jì)下載量超過100萬。10

  • 通義千問開源720億和18億參數(shù)兩款大語言模型

    12月1日,阿里云舉辦通義千問發(fā)布會,開源通義千問720億參數(shù)模型Qwen-72B,這是繼通義千問此前開源140億參數(shù)大語言模型后又一次開源之舉。此外,通義千問還開源了18億參數(shù)模型Qwen-1.8B和音頻大模型Qwen-Audio。

  • Qwen版o1發(fā)布即開源!32B參數(shù)比肩OpenAIo1-mini,一手實(shí)測在此

    克雷西 發(fā)自 凹非寺新火種 | 公眾號 QbitAI通義千問版o1來了,還是開源的!深夜,通義團(tuán)隊(duì)突然上線推理模型QwQ,參數(shù)量只有32B,在GPQA上擊敗了o1-mini。目前,QwQ的模型權(quán)重已在HuggingFace和魔搭社區(qū)上發(fā)布,還可以直接在線試玩。Ollama、Together.ai等大

  • 迄今最大!馬斯克AI大模型Grok開源:參數(shù)量達(dá)3140億

    3月18日消息,據(jù)媒體報(bào)道,馬斯克的AI創(chuàng)企xAI正式宣布其大語言模型Grok-1已實(shí)現(xiàn)開源,并向公眾開放下載。據(jù)了解,Grok-1是一款基于混合專家系統(tǒng)(Mixture-of-Experts,MoE)技術(shù)構(gòu)建的大語言模型,擁有3140億參數(shù),遠(yuǎn)超OpenAI GPT-3.5的1750億。

  • 萬萬沒想到,ChatGPT參數(shù)只有200億?

    機(jī)器之心報(bào)道編輯:小舟這合理嗎?誰都沒有想到,ChatGPT 的核心秘密是由這種方式,被微軟透露出來的。昨天晚上,很多討論 AI 的微信群都被一篇 EMNLP 論文和其中的截圖突然炸醒。微軟一篇題為《CodeFusion: A Pre-trained Diffusion Model for Code

  • 三星高管劇透GPT-5:3-5萬億參數(shù),7000塊B100訓(xùn)練

    GPT-5有3-5萬億參數(shù),由7000塊B100煉成?!一夜間,下面這張圖在網(wǎng)上瘋轉(zhuǎn):仔細(xì)看,這是三星高管Jung Bae Lee(李禎培)在一場高級管理層峰會(CEO Summit)上演講。上面明晃晃寫著GPT-5 3-5T、B100 7000、HBM3E 8TB/s。網(wǎng)友發(fā)現(xiàn),不只是三星高管有“