成本最高降90%!百度發布端到端語音語言大模型,已在文小言上線
DoNews3月31日消息,在百度AI DAY上,百度發布業界首個基于全新互相關注意力(Cross-Attention)的端到端語音語言大模型,實現超低時延與超低成本,在電話語音頻道的語音問答場景中,調用成本較行業均值下降約50%-90%。當日,文小言宣布品牌煥新,率先接入該模型,還帶來多模型融合調度、圖片問答等功能升級。
接入全新的端到端語音語言大模型后,文小言不僅能支持更擬真的語聊效果,而且支持重慶、廣西、河南、廣東、山東等特色方言。據介紹,語音大模型具備極低的訓練和使用成本,極快的推理響應速度,語音交互時,可將用戶等待時長從行業常見的3-5秒降低至1秒左右。
更新后的文小言還支持“多模型融合調度”,通過整合百度自研的文心X1、文心4.5等頂尖模型,并接入DeepSeek-R1等第三方優質模型,實現了多模型間的智能協同。用戶可以選擇“自動模式”,一鍵調用最優模型組合,也可根據需求靈活選擇單一模型完成特定任務,大幅提升響應速度與任務處理能力。
同時,文小言還加強了圖片問答功能,用戶拍攝或上傳圖片,以文字或語音提問即可直接獲取深度解析。例如,拍攝一道數學題可實時生成解題思路與視頻解析;上傳多款商品圖可對比參數、價格,輔助購物決策;拍攝杯子設計圖后,AI可自動解析風格并生成同款手機殼、支架等周邊產品。
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。