首頁 > AI資訊 > 最新資訊 > 火山引擎總裁譚待:從調用量來看,大模型成本已不是創新阻礙

火山引擎總裁譚待:從調用量來看,大模型成本已不是創新阻礙

科創板日報    2024-11-15

《科創板日報》9月24日訊(記者 郭輝)從今年5月字節跳動發布自研豆包大模型,并將API調用價格降至0.0008元/千Tokens——即低于當時行業價格的99.3%,四個月過去,豆包的日均調用數量已增長超過10倍。

在今日火山引擎AI創新巡展深圳站中,火山引擎總裁譚待宣布,**截至今年9月,豆包大模型日均Tokens使用量超過1.3萬億(今年五月的日均調用量為1200億次),日均生成圖片5000萬張、日均處理語音85萬小時。

“下半年是整個AI應用的元年,這個數字也進一步印證了這一觀點。”**譚待如是稱。

火山引擎總裁譚待

“當價格降十分之一,量就可能漲十倍。”至于低價大模型是否可持續,譚待在接受《科創板日報》等媒體采訪時表示,他們當前主要關注的是應用覆蓋,而不是收入。“要解鎖新場景,意味著需要更強的模型能力,我們覺得這更有價值”。

在譚待看來,只有大的使用量,才能打磨出好模型,大幅降低模型推理的單位成本;而當大模型價格從以分計價到以厘計價,也才能幫助企業以更低成本加速業務創新。

不過,譚待也認為,面向B端市場的業務,首先其前提一定是要可持續,不能像2C業務一樣考慮靠廣告盈利。他并不認同外界對大模型廠商業務存在負毛利情況的看法,“2B產品要實現正毛利,我們有能力也有信心做到”。

火山引擎對大模型的定價策略,引來其他廠商的跟進。

以阿里云為例,繼5月份將GPT-4級主力模型Qwen-Long價格直降97%之后,此次阿里云百煉平臺上的三款通義千問主力模型也迎來了價格的大幅下調,其中Qwen-Turbo的價格降幅達到了85%

“阿里這次降價挺好,第一次沒降到底,現在和我們一樣了。”譚待表示,以前成本是創新的阻礙,現在降價后,從調用量來看已不再是阻礙。“接下來要做的是在這個價格基礎上,提高質量和性能。其中質量指的就是讓模型能力更強、更多元。”

目前豆包大模型家族中,已經覆蓋了豆包通用模型、角色扮演模型、向量化模型等大語言模型,文生圖模型、圖生圖模型等視覺大模型產品,以及語音識別模型、語音合成模型等語音大模型。

今日(9月24日),火山引擎宣布豆包大模型新增視頻生成模型,還發布了豆包音樂模型和同聲傳譯模型,實現對語言、語音、圖像、視頻等全模態的覆蓋。

其中,新發布的豆包視頻生成模型包括PixelDance、Seaweed兩款大模型產品,并開啟面向企業市場的邀測。據悉,目前豆包視頻生成模型已在即夢AI內測版小范圍測試,并將于今年國慶節后上傳至火山方舟平臺開放預約使用。

豆包視頻生成模型定價暫時還未確定。譚待表示,視頻模型和語言模型應用場景不同,定價邏輯也有所不同,比如要綜合考慮新體驗、老體驗、遷移成本,最終能否廣泛應用還取決于是否比以前生產力ROI提升很多。

此前豆包主力模型公布在企業市場價格低于行業的99%,外界猜測字節跳動是否會進一步通過自研算力芯片實現降本。不過字節方面已對相關消息予以否認,并表示其在芯片領域探索還處于初期階段。

據悉,火山引擎此前曾推出自研DPU產品,來提供更高的帶寬能力,提升計算和存儲的傳輸效率,釋放單機GPU算力。

譚待接受《科創板日報》記者采訪進一步明確,火山引擎從第一天做云就強調軟硬件全棧優化,但不意味著都由自己來做。其中硬件研發指的更多是計算、存儲、網絡,要做端到端優化,同時做好組合。

“比如DPU和視頻編解碼芯片我們自己做,CPU、GPU等和友商合作,通過工程能力做好混合級聯調度提升性能和成本。”譚待表示,豆包Token能實現可持續低價的原因之一,就是他們在軟硬件之間做了很多優化。

進入到AI時代,譚待關注到,B端市場的變化一方面是企業需求變得更慢了,并且核心需求就是降本增效;另一方面,AI應用從以前的自上而下規劃,變為自下而上驅動創新。

因此,這對大模型廠商而言,挑戰變成從卷價格走向卷性能、卷更好的模型能力和服務。

譚待表示,大模型的應用成本已經得到很好解決,價格已不再成為瓶頸,未來要保持性價比,進一步把能力做好。

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章