首頁 > AI資訊 > 最新資訊 > 華為,AI大消息!

華為,AI大消息!

中國基金報    2025-02-08

  【導讀】華為AI模型量化相關專利公布,可減少AI模型占用內存

  華為布局AI(人工智能)領域迎來重要進展。

  天眼查顯示,近日,華為技術有限公司(以下統稱華為)申請的“人工智能模型的量化方法、處理系統和量化單元”專利公布,可以減少AI模型占用的內存。

  今年以來,華為公開的AI領域專利已達26項。2月5日,華為董事長梁華在廣東省高質量發展大會上發言稱,當前,AI技術正處于加速發展階段,在千行百業的應用也迎來關鍵時期,抓住新機遇的關鍵是創新。

  記者注意到,華為近期加大與DeepSeek的合作力度,包含華為ModelEngine支持DeepSeek全系列本地部署,DeepSeek系列新模型正式上線昇騰社區等。

  華為重要AI專利公布

  專利摘要顯示,華為此次申請的專利涉及AI領域,尤其涉及一種AI模型的量化方法、AI模型的處理系統、量化單元和計算設備。

  AI模型是利用數據和算法,對某一領域或任務中的問題進行建模和解決。目前,部分AI模型已經應用在機器翻譯、問答系統、語音識別和文本生成等領域。

  2月6日,華為中國發文稱,在全球AI技術飛速發展的背景下,模型的快速迭代與高效部署成為各大科技企業競相追逐的焦點。

  不過,隨著AI技術發展,相關AI模型的規模越來越大,存在參數量較大、占用內存較多等問題,導致計算復雜度不斷提升。

  為了解決上述問題,華為此次申請的專利提供了一種AI模型的量化方法。

  專利摘要顯示,量化單元可以基于運行AI模型的計算設備中各個計算單元的處理粒度,將量化矩陣分割成多個適用于各個計算單元處理粒度的分塊量化矩陣。

  量化單元可以對分塊量化矩陣進行量化處理,從而得到量化后的分塊量化矩陣,并存儲在存儲器中以減少AI模型占用的內存。

  量化矩陣可以是權重矩陣,也可以是激活矩陣。量化單元在量化過程中,是基于運行AI模型的計算設備中各個計算單元的處理粒度進行量化,不需要基于張量級別進行離群值的統計,實現AI模型對權重矩陣和激活矩陣都可以進行實時量化。

  華為與DeepSeek合作不斷深入

  2月6日,華為中國宣布,華為DCS AI全棧解決方案中的重要產品—ModelEngine,全面支持DeepSeek大模型R1&V3和蒸餾系列模型的本地部署與優化,加速客戶AI應用快速落地。

  據悉,ModelEngine作為大模型訓練、推理和應用開發的AI平臺,提供從數據預處理到模型訓練、優化及部署的一站式服務。

  華為中國介紹,用戶通過ModelEngine可以體驗DeepSeek的高效推理能力;開發者通過ModelEngine可實現對DeepSeek系列模型的“一鍵部署”,省去硬件選型、兼容性驗證和環境配置等步驟,大幅降低企業AI應用門檻。

  目前,華為旗下多個業務相繼與DeepSeek開展合作。

  2月5日,基于原生鴻蒙操作系統的小藝助手App接入DeepSeek-R1 Beta(公測)版。升級至原生鴻蒙的華為用戶,可以通過“小藝助手App-發現-智能體廣場”與DeepSeek對話。

  2月4日,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上線昇騰社區,支持一鍵獲取DeepSeek系列模型,支持昇騰硬件平臺上開箱即用,推理快速部署,帶來更快、更高效、更便捷的AI開發和應用體驗。

  公開資料顯示,DeepSeek最新發布的多模態大模型Janus-Pro,以及之前發布的大型語言模型DeepSeek-R1、DeepSeek-V3及DeepSeek-V2,在AI領域引起熱烈反響,多項技術提升了模型性能與效率。

(文章來源:中國基金報)

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章