GPT又迎重磅升級!但大模型的科學性挑戰(zhàn)仍有待攻克 復旦大學邱錫鵬

在近日的OpenAI開發(fā)者大會上,OpenAI創(chuàng)始人Sam Altman帶來了團隊最新的成果GPT-4 Turbo,同步在ChatGPT和API版本推出。據(jù)悉,這款最新大模型在長文本、知識庫、多模態(tài)、模型控制、模型微調(diào)、高速率六大方面的功能均進行了提升,而價格甚至比GPT-4還要低。
Sam Altman透露道:“今天,有大約200萬開發(fā)者使用我們的API進行開發(fā),超過92%的財富500強公司使用我們的產(chǎn)品,而ChatGPT的每周活躍用戶大約有1億。”
人工智能正不斷顛覆我們的生活,
世界范圍內(nèi),大模型也如
“雨后春筍”般涌現(xiàn)。
不過,在使用中,人們發(fā)現(xiàn):
大模型還有一些缺陷
有待攻克:
無法進行“逆向思考”,
常識性問題存在缺陷
……
在2023世界頂尖科學家智能科學大會上,復旦大學教授邱錫鵬表示:“很多人認為大型語言模型是一個工程性的問題,但我們這邊可以呈現(xiàn)的是,大型語言模型還有很多科學性的挑戰(zhàn)或者科學性的問題。”
大型語言模型存在科學挑戰(zhàn)

“人工智能,或者說自然語言處理,在過去的五年,實現(xiàn)了巨大的進展。”邱錫鵬談道。
不過,在使用中,人們發(fā)現(xiàn),不少對于人類思維來說易如反掌的問題,對大模型來說,卻依然無法攻克,其中就包括逆向問題:“大型語言模型并不能預測一個逆向的關(guān)系,如果這個語言模型已經(jīng)建構(gòu)了A to B的關(guān)系,它并不能夠逆向預測B到A的關(guān)系。”
長文本處理也同樣是個難題,“現(xiàn)在,大型語言模型是高度復雜的,我們希望大型語言模型能夠處理上千甚至上百萬的輸入文本。”邱錫鵬說道,當前的大型語言模型無法處理超長的文本輸入,如果我們要進一步給大型語言模型擴容,我們必須要建立一種新的架構(gòu),這個是我們面臨的第一個挑戰(zhàn)。”
另一方面,大模型“一本正經(jīng)地胡說八道”的情況,也不在少數(shù),大型語言模型會產(chǎn)生無意義或者不正確的結(jié)果,邱錫鵬對此給出一個思路:“如果想讓大型語言模型減少幻覺現(xiàn)象,我們必須要將更多的負面的反饋‘喂’給大型語言模型,這樣有助于大型語言模型的學習,他們可以學習到這些案例。”
除了這些在使用中比較常見的問題外,邱錫鵬同時也談到了目前大模型在變得更好的過程中,存在的科學挑戰(zhàn)。例如“思維鏈”——將復雜的問題化解為多個較簡單的問題,這是一個非常有用的概念。“這樣我們可以通過一個鏈式的結(jié)構(gòu)來逐一解決它們。怎么樣讓大型語言模型具備這種能力呢?這也是我們需要解決的挑戰(zhàn)。”
期待AI能夠幫助人類
實現(xiàn)更高維度的數(shù)據(jù)處理

對于AI for Science,邱錫鵬充滿希望:“我覺得人工智能的技術(shù),特別對于大型語言模型驅(qū)動的人工智能,對于科學研究來說是非常重要的一個工具。”“
我們要在人工智能工具
以及科研方面要找到一個平衡,
讓AI成為你的朋友。”
邱錫鵬談道,當前研究工作許多都是針對非常復雜、非常難的問題,“比如說就像大部分人無法想象3D以外的世界,或者更高維度的世界。現(xiàn)在很多的科研當中,我們都要處理高維度的數(shù)據(jù)。”但是,又無法直接獲得超高維度的數(shù)據(jù),只能進行投影,把它投影到二維或者三維,然后繼續(xù)來處理。
“我相信人工智能的技術(shù)
能夠幫助我們,
能夠在非常復雜的數(shù)據(jù)當中
找到更多的相關(guān)性。”
不過邱錫鵬也表示,在當前階段,對于作為科研工具使用的人工智能,科學家應該清楚地認識到其能力邊界:“我覺得我們應該知道這些人工智能工具的能力邊界,用合適的方法來利用人工智能。”
OpenAI發(fā)布的GPT-4 Turbo,
是否能夠在上述問題上有所突破?
尚有待使用者們的驗證。
AI的征途,還在遠方。
企業(yè)及專家觀點不代表官方立場
↓分享
↓點贊
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務必進行充分的盡職調(diào)查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。