首頁 > AI資訊 > 最新資訊 > 上海人工智能實驗室開源書生·浦語20B模型消費級GPU即可運行

上海人工智能實驗室開源書生·浦語20B模型消費級GPU即可運行

新火種    2023-09-23

  9月20日,上海人工智能實驗室等機構發布書生·浦語大模型(InternLM)200億參數版本InternLM-20B,并在阿里云魔搭社區開源首發、免費商用。

  書生·浦語(InternLM)大語言模型由上海人工智能實驗室聯合多家機構共同推出。今年6月,InternLM千億參數(104B)語言大模型首次發布,現已經歷多輪升級。7月,上海人工智能實驗室開源書生·浦語70億參數的輕量級版本InternLM-7B,且在業內率先開源貫穿數據、預訓練、微調、部署和評測的全鏈條工具體系。本次發布的InternLM-20B是一款中量級大模型,相較于InternLM-7B,其理解能力、推理能力、數學能力、編程能力等都有顯著提升。

  相比于此前國內陸續開源的7B和13B規格模型,20B量級模型具備更強大的綜合能力,復雜推理和反思能力尤為突出,能為實際應用場景提供更有力的性能支持;同時,20B量級模型可在單卡上進行推理,經過低比特量化后,可運行在單塊消費級GPU上,因而在實際應用中更為便捷。

  相比于此前的開源模型,InternLM-20B能以不足1/3的參數量,測評成績達到了Llama2-70B的水平,同時支持數十類插件,上萬個API接口功能,還具備代碼解釋和反思修正能力。另外,InternLM-20B在研發訓練的過程中,研究團隊進行了基于SFT和RLHF兩階段價值對齊,并通過專家紅隊的對抗訓練大幅提高其安全性。

(文章來源:上觀新聞)

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章