首頁 > AI資訊 > 最新資訊 > Scalinglaw正在放緩,實時學習才是通往AGI之路?

Scalinglaw正在放緩,實時學習才是通往AGI之路?

新火種    2024-12-31

在12月中旬的NeurIPS 2024會上,OpenAI 聯合創始人 Ilya Sutskever拋出了一個非常犀利的觀點:預訓練時代即將結束。

Ilya 表示,深度學習之所以成功,要歸功于「規模假設」,即利用非常大的數據集來訓練一個足夠大的神經網絡,只需要大力出奇跡,成功就“幾乎可以預見”,這一暴力法則也被稱為“Scaling law”。

而今,Scaling law正遭遇危機。Ilya 認為,當前提升計算能力的速度已經超過了可用于AI模型訓練的總量,數據增長已接近瓶頸,“當前仍然可以使用現有數據進行訓練,但趨勢終將放緩,預訓練時代也會逐步結束”。

這一說法并非孤言,根據海外媒體報道,越來越多的從業者正在重新評估“Scaling law”的有效性和局限性。

例如,投資了OpenAI的a16z 聯合創始人 Marc Andreessen在播客中表示,目前 AI 模型似乎正在趨于同一能力上限。AI公司Anyscale 聯合創始人Robert Nishihara則更為直接:“如果你只是投入更多計算,投入更多數據,那么模型就會變得更大——收益會遞減。”

一個很明顯的例證是,OpenAI 的下一代模型Orion在性能的提升幅度上,并不如從GPT-3 到 GPT-4。

Ilya的“暴論”,與諸多業者不謀而合。雖然Scaling law還沒有到達極限,諸多AI大廠仍然在進行大量的基礎設施投入,比如xAI將打造更大規模的算力集群用于訓練,但已有不少人在尋求新的思路。

Scaling law的信仰危機

數據、算法、算力被認為是人工智能的三駕馬車。基于規模宏大數據,利用性能更好的計算裝置,訓練更有效的模型,然后不斷地加大投入密度,用更多的算力訓練更多的數據,如此反復循環,就能穩步提升模型效果,

OpenAI無疑這種方法運用到了極致,從而締造出GPT3.0這個劃時代的大語言模型,并成功引起諸多AI公司的效仿,類似的范式也被親切地總結為“Scaling law”。

為了成功搶占AI高地,大公司們豪擲千金,用金錢鋪設了一張巨大的算力網絡。媒體報道稱,Meta在2023年購買了至少15萬顆H100芯片,馬斯克則透露xAI 的 Grok-3 用了 10 萬塊英偉達 H100 芯片。無數的算力需求涌向英偉達,NVIDIA也靠著賣“鏟子”成為芯片一哥。

然而,“大力出奇跡”的路徑很快就遇到了問題。

人們發現,模型的能力從最初的跨越式提升逐漸演化為一條平滑緩慢提升的曲線,當模型能力達到某個界點以后,每提升一小部分能力,就需要付出此前數倍的訓練成本。換言之,投入的邊際效益正在減少。

數據顯示,從2012年的AlexNet到GPT3.0,模型參數從6000萬增加到了1750億,規模提升了2916倍,訓練成本則從不到1萬美金提升到數千萬美金。而GPT從3.0到4.0,參數更大,投入更多,效果卻不盡如人意。Sam Altman曾在斯坦福大學的一場對話中表示GPT4并不聰明,老是犯錯,甚至非常愚蠢(dumbest)。

一邊是前沿技術高地的爭搶,一邊是Scaling law的放緩,這讓AI公司們陷入了兩難的窘境:毫無疑問必須加大對AI的投入,但傳統訓練模式瓶頸逐漸顯現,與之而來的是巨額成本投入卻未能帶來明顯效果。

Meta此前公布的材料顯示,LLaMA 總共使用了 2000 個 A100 GPU,并且用三周時間才能完成一次訓練。根據A100的價格測算, LLaMA 單次訓練的成本在 500 萬美金左右。而且,對于一個模型,需要訓練多次才能達到不錯的效果。如此一來,訓練越大規模參數的模型,其成本更高,包括芯片費用、電力費用、人力成本等等,已經讓諸多AI創業公司心生乏力。

巨大的資源投入宛如一個無底洞,讓人們不由得心生疑問:要實現AGI,還需要投入多少金幣?或許等到許多公司都走向暮年,人們都還走在通往AGI的路上。

另一個問題是,如此巨量的投入,將導致AI公司們面臨著嚴重的商業化問題,前期投入成本越多,導致產品在價格方面很難普眾,研發成本無法攤銷,進而陷入“成本高導致商業化難,商業化難則無法造血,沒有造血能力就會枯竭從而死去”的惡性循環,一波深度學習AI浪潮已經提示了這種可能性。

此外, Ilya對數據的擔憂正在成為現實,高質量的數據已經被頂尖的AI公司們“揮耗一空”,如何在有限數據下提升模型能力,并且在提升模型能力時降低成本,成為當前AI界討論的重要課題。

新思路:持續學習與實時學習

有著強化學習之父的Rich Sutton在播客中表示,深度學習只是“短暫學習”(transient learning),學習結束以后就不會再學習,這違背了自然的學習模式。而AI本身需要的是“持續學習”(Continuous Learning)能力,不僅僅是追求在固定數據集上的性能,這樣才能愈發接近AGI。

也就是說,「持續學習」具備時間上的延續性,需要高效利用有限的資源來維持學習過程,在環境變化時更新和調整其策略,并不斷通過獎懲機制來實現進化。從某種意義上講,「持續學習」也更接近于人的學習模式。

如果說基于經驗和數據的學習方式旨在“熟能生巧”,「持續學習」則是在有效的數據、算力資源約束下,解決模型“知識遺忘”帶來的重復訓練成本,讓學習變得更具性價比,并且在持續的學習過程中,變得更加智能。正因如此,「持續學習」也成為諸多AI公司正在研究方向。

國內外已經有諸多高校及研究機構、企業展開深入研究,例如港中文、清華等提出了多模態連續學習(MMCL)、清華大學提出了將神經啟發的適應性融入人工智能中的持續學習、Intel Labs則嘗試將「持續學習」應用于Neural Radiance Fields...等等。

實際上,在落地場景端,「持續學習」更能貼近人們對AI的渴望,比如自動駕駛、機器人控制、金融等等,模型需要在新數據的不斷涌進下學習最新數據,變得更加智能,才能滿足人們的預期。

這又衍生出另一種學習模式——“實時學習”(Real-time Learning),即時從數據中學習并迅速做出反應,進行快速決策。“實時學習”可以理解為一種另類的「持續學習」,前者側重依賴實時數據進行決策,后者側重于學習的整個過程,但最終目的都是實現更高的人工智能。

更具體一點,「持續學習」強調的是學習過程的連續性和持久性,涵蓋模型的整個生命周期;“實時學習”則側重于模型實際學習過程與決策的同步,模型需要在接收到數據以后立刻進行處理并進行決策。

從場景上看,「持續學習」更適合需要進行長期學習的場景,比如針對人體的健康監測、慢性病管理、智能設備上的語音助手等等;“實時學習”則適合自動駕駛、金融風控系統、股票實時交易、地震預測等等涉及實時數據處理的場景。

國內產業界對“實時學習”密切關注的并不多見,傳神語聯創始人何恩培認為,當下,大模型企業更加注重對模型“智慧”的深度挖掘,不應僅僅局限于盲目擴充訓練數據量和參數規模,而應當具備實時學習客戶數據的能力,重視數據的知識密度與質量,從而實現從數據到知識,從信息到“智慧”的高效轉化。

在企業應用場景中,實時學習不僅使企業無需將提供給大模型服務商進行訓練,降低了數據安全風險,同時避免了高昂的算力和人才成本投入。更重要的是,實時學習能夠避免微調模式對大模型通用能力的潛在削弱,且相較于基于向量檢索的模式,能更準確地輸出結果,讓大模型有效學習客戶數據并成為客戶業務領域專家,實現業務創新與優化。毫無疑問,“實時學習”已經成為業界關注并研究的重要方向。

路徑收斂與AGI之路

除了「持續學習」和“實時學習”,AI研究者們也在嘗試新的技術路線,并取得了不錯的進展。

例如,AI研究者們發現TTC(Test-Time Compute,測試時計算)可以在資源有限或需要模型具有高度適應性的情況下顯著提高模型性能。

TTC指的是在模型進行推理或測試時執行額外的計算,用以提高模型的性能或適應性。這與傳統的機器學習模型不同,后者在訓練階段學習所有必要的信息,然后在測試階段僅進行固定的前向傳播計算。

MIT的研究人員發表的論文也表明,測試時間計算能夠顯著提高人工智能模型在推理任務上的表現。而據報道,OpenAI 的o1模型就基于TTC進行優化訓練,效果非常不錯。

微軟首席執行官薩蒂亞·納德拉 (Satya Nadella)盛贊TTC:“我們正在見證一條新的擴展定律的出現。”指的便是OpenAI o1模型所依賴的測試時計算。

投資公司a16z 的聯合創始人 Midha 表示:許多實驗表明,盡管訓練前的縮放定律可能會變慢,但測試時間的縮放定律(在推理時給予模型更多的計算)可以提高性能。

TTC之外,業界也涌現出諸多工具主義,即通過提供優化訓練方法,降低數據移動成本,從而提高模型擴展效率。

OpenAI CEO Sam Altman曾指出,當前能達到最佳引擎的唯一路徑就是訓練大量的數據,但實際模型在處理數據時浪費了許多數據資源。未來應該會出現新方法,比如將數據和推理分開,以剝離模型的推理能力對大數據的需求,并解決數據瓶頸問題、降低成本。

得益于這些研究者們的持續努力,新的方法被提出、論證并應用,極大提高了模型能力。清華NLP實驗室提出的大模型密度定律(densing law)表明,模型能力密度隨時間呈指數級增長,2023年以來能力密度約每3.3個月(約100天)翻一倍。而根據擬合曲線,到了明年年底,只要8B參數就能實現和GPT-4一樣的效果。

這意味著業界的探索方向正朝著“不再盲目追求數據規模和堆算力”的方向演進,盡管Scaling law尚未完全失效,但更多的人注意到該定律的局限性,并探索新的解決方案。

簡而言之,在通往AGI這條路上,AI研究者們從未停止探索。從達特茅斯會議到GPT3.0橫空出世驚艷眾人,各種新奇的架構、范式、方法被發現,推動著AI向更高的維度進階。

這些范式和學習方法各有不同,但從客觀資源(數據、算力、電力等等)的角度看,研究者們的努力方向已經收斂至探索如何花更少的資源提升更多的模型能力上,一方面為了擺脫資源瓶頸(高質量數據的缺失和節約算力電力),一方面為了探索出一條更高效的技術路徑來實現AGI。

總結

現階段,人們還無法預測AGI降臨的奇點,也無法指定某一條路線為康莊大道。如何打破Scaling law的瓶頸,如何解決「持續學習」“災難性遺忘”問題,TTC是否會成為第二定律,怎樣提高實時學習的可解釋性和魯棒性,會不會涌現出新的范式……這些問題都還無法回答。

但有一點可以肯定的是,由AI這條主干分出的各條支線,終將殊途同歸地引領人們走向AGI的勝利。

免責聲明:此文內容為本網站轉載企業資訊,僅代表作者個人觀點,與本網無關。所涉內容不構成投資、消費建議,僅供讀者參考,并請自行核實相關內容。

原文轉自:河北網絡廣播電視臺
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章