首頁 > AI資訊 > 最新資訊 > o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

新火種    2024-09-22

“o1發布后,一個新的范式產生了”。

其中關鍵,OpenAI研究科學家、o1核心貢獻者Hyung Won Chung,剛剛就此分享了他在MIT的一次演講。

演講主題為“Don’t teach. Incentivize(不要教,要激勵),核心觀點是:

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

思維鏈作者Jason Wei迅速趕來打call:

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

在演講中,Hyung Won還分享了:

技術人員過于關注問題解決本身,但更重要的是發現重大問題;硬件進步呈指數級增長,軟件和算法需要跟上;當前存在一個誤區,即人們正在試圖讓AI學會像人類一樣思考;“僅僅擴展規模” 往往在長期內更有效;……

下面奉上演講主要內容。

對待AI:授人以魚不如授人以漁

先簡單介紹下Hyung Won Chung,從公布的o1背后人員名單來看,他屬于推理研究的基礎貢獻者。

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

資料顯示,他是MIT博士(方向為可再生能源和能源系統),去年2月加入OpenAI擔任研究科學家。

加入OpenAI之前,他在Google Brain負責大語言模型的預訓練、指令微調、推理、多語言、訓練基礎設施等。

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

在谷歌工作期間,曾以一作身份,發表了關于模型微調的論文。(思維鏈作者Jason Wei同為一作)

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

回到正題。在MIT的演講中,他首先提到:

在他看來,AI領域正處于一次范式轉變,即從傳統的直接教授技能轉向激勵模型自我學習和發展通用技能。

理由也很直觀,AGI所包含的技能太多了,無法一一學習。(主打以不變應萬變)

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

具體咋激勵呢??

他以下一個token預測為例,說明了這種弱激勵結構如何通過大規模多任務學習,鼓勵模型學習解決數萬億個任務的通用技能,而不是單獨解決每個任務。

他觀察到:

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

對此他打了個比方,“授人以魚不如授人以漁”,用一種基于激勵的方法來解決任務。

然后AI就會自己出去釣魚,在此過程中,AI將學習其他技能,例如耐心、學習閱讀天氣、了解魚等。

其中一些技能是通用的,可以應用于其他任務。

面對這一“循循善誘”的過程,也許有人認為還不如直接教來得快。

但在Hyung Won看來:

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

換句話說,面對有限的時間,人類也許還要在專家 or 通才之間做選擇,但對于機器來說,算力就能出奇跡。

他又舉例說明,《龍珠》里有一個設定:在特殊訓練場所,角色能在外界感覺只是一天的時間內獲得一年的修煉效果。

原因也眾所周知,大型通用模型能夠通過大規模的訓練和學習,快速適應和掌握新的任務和領域,而不需要從頭開始訓練。

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

他還補充道,數據顯示計算能力大約每5年提高10倍。

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

總結下來,Hyung Won認為核心在于:

模型的可擴展性算力對加速模型進化至關重要

此外,他還認為當前存在一個誤區,即人們正在試圖讓AI學會像人類一樣思考。

但問題是,我們并不知道自己在神經元層面是如何思考的。

在他看來,一個系統或算法過于依賴人為設定的規則和結構,那么它可能難以適應新的、未預見的情況或數據。

造成的結果就是,面對更大規模或更復雜的問題時,其擴展能力將會受限。

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

回顧AI過去70年的發展,他總結道:

與此同時,面對當前人們對scaling Law的質疑,即認為僅僅擴大計算規模可能被認為不夠科學或有趣。

Hyung Won的看法是:

舉個例子,在機器學習中,一個模型可能在小數據集上表現良好,但是當數據量增加時,模型的性能可能會下降,或者訓練時間會變得不可接受。

這時,可能需要改進算法,優化數據處理流程,或者改變模型結構,以適應更大的數據量和更復雜的任務。

也就是說,一旦識別出瓶頸,就需要通過創新和改進來替換這些假設,以便模型或系統能夠在更大的規模上有效運行。

訓練VS推理:效果相似,推理成本卻便宜1000億倍

除了上述,o1另一核心作者Noam Brown也分享了一個觀點:

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

這意味著,在模型開發過程中,訓練階段的資源消耗非常巨大,而實際使用模型進行推理時的成本則相對較低。

有人認為這凸顯了未來模型優化的潛力。

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

不過也有人對此持懷疑態度,認為二者壓根沒法拿來對比。

o1核心作者分享:激勵AI自我學習,比試圖教會AI每一項任務更重要

對此,你怎么看?

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章