首頁 > AI資訊 > 行業動態 > 谷歌新論文稱“AI即將超越人類”還不現實,有其自身局限性

谷歌新論文稱“AI即將超越人類”還不現實,有其自身局限性

新火種    2023-11-09

11 月 8 日消息,三名谷歌研究人員在最新提交給預印本文獻庫(ArXiv)的一篇論文中指出,人工智能領域的底層技術深度神經網絡 transformer 并不擅長歸納概括。

transformer 是 ChatGPT 等人工智能工具背后大語言模型的基礎。在 11 月 1 日提交給 ArXiv 的一篇新論文中,三名作者 Steve Yadlowsky、Lyric Doshi 和 Nilesh Tripuraneni 寫道:“當任務或功能需要超出預訓練數據的范圍時,transformer 出現了各種故障模式,發現即使是簡單的任務外延也會降低它們的歸納能力?!?/p>

根據這篇論文的說法,深度神經網絡 transformer 所擅長的是執行與訓練數據相關的任務,并不太擅長處理超出這個范圍的任務。

對于那些希望實現通用人工智能(AGI)的人來說,這個問題不容忽視。通用人工智能是技術人員用來描述可以完成任何人類所做事情的假想人工智能。就目前而言,人工智能非常擅長執行特定任務,但不像人類那樣能跨領域轉移技能。

華盛頓大學計算機科學與工程榮譽教授佩德羅?多明戈斯(Pedro Domingos)表示,新研究意味著“在這一點上,我們不應該對即將到來的人工智能過于瘋狂。”

人們將 AGI 吹捧為人工智能領域的終極目標,從理論上講,其代表著人類創造出與自己一樣聰明或比自己更聰明的東西。許多投資者和技術人員都在為此投入大量時間和精力。

本周一,OpenAI 首席執行官薩姆?奧爾特曼(Sam Altman)就與微軟首席執行官薩蒂亞?納德拉(Satya Nadella)共同登臺,重申了他關于“合作打造 AGI”的愿景。

實現這一目標意味著讓人工智能完成許多人類大腦可以完成的歸納性任務,包括適應不熟悉的場景、創建類比、處理新信息以及抽象思維等等。

但是,正如研究人員指出的那樣,如果這項技術連“簡單的任務外延”都難以實現,那么顯然我們離目標還很遠。

普林斯頓大學計算機科學教授阿爾溫德?納拉亞南(Arvind Narayanan)在社交媒體平臺 X 上寫道:“這篇論文甚至與大語言模型無關,但似乎是打破集體信念泡沫的最后一根稻草,讓許多人接受了大語言模型的局限性?!薄霸撌乔逍训臅r候了”。

英偉達高級人工智能科學家 Jin Fan 質疑為什么這篇論文的發現會讓人們感到驚訝,因為“transformer 本來就不是靈丹妙藥”。

多明戈斯表示,這項研究凸顯出,對于一項被吹捧為通向 AGI 之路的技術潛力,“很多人都感到非常困惑”。

他補充說:“這是篇剛剛發表的論文,有趣的是誰會感到驚訝,誰不會感到驚訝?!?/p>

雖然多明戈斯承認 transformer 是一項先進的技術,但他相信很多人認為這種深度神經網絡比實際要強大得多。

他說:“問題是神經網絡非常不透明,而且這些大語言模型都是在難以想象的大量數據上訓練的,這讓很多人對它們能做什么和不能做什么感到非常困惑?!薄八麄冮_始總認為自己可以創造奇跡?!?/p>

更高級的人工智能可能會在歸納概括方面做得更好。谷歌研究人員在研究中使用的是 GPT-2 比例模型,而不是更主流的 GPT-4 比例模型。

人工智能初創企業 Lamini AI 首席執行官莎朗?周(Sharon Zhou)認為,她自己并不覺得 transformer 很難歸納概括是個問題。

“這就是為什么我創辦了一家訓練模型的公司,而不僅僅是向它們提問,這樣它們就能學到新東西,”她說。“它們仍然非常有用,仍然可以引導和調整。”

本文源自:

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章