谷歌證實大模型能頓悟,特殊方法能讓模型快速泛化,或將打破大模型黑箱
聲明:本文來自于
【新智元導讀】谷歌團隊認為,模型泛化能力無處不在,只要摸清條件,模型就不是隨機鸚鵡。
在特定情況下,人工智能模型會超越訓練數據進行泛化。在人工智能研究中,這種現象被稱為「頓悟」,而谷歌現在正在提供對最近發現的深入了解。
在訓練過程中,人工智能模型有時似乎會突然「理解」一個問題,盡管它們只是記住了訓練數據。在人工智能研究中,這種現象被稱為「頓悟」,這是美國作家Robert A. Heinlein創造的一個新詞,主要在計算機文化中用來描述一種深刻的理解。
當人工智能模型發生頓悟時,模型會突然從簡單地復制訓練數據轉變為發現可推廣的解決方案——因此,你可能會得到一個實際上構建問題模型以進行預測的人工智能系統,而不僅僅是一個隨機的模仿者。
谷歌團隊:「頓悟」是一種「有條件的現象」
「頓悟」在希望更好地理解神經網絡學習方式的人工智能研究人員中引起了很大的興趣。這是因為「頓悟」表明模型在記憶和泛化時可能具有不同的學習動態,了解這些動態可能為神經網絡學習提供重要見解。
盡管最初是在單個任務上訓練的小型模型中觀察到,但谷歌的最新研究表明,頓悟也可以發生在較大的模型中,并且在某些情況下可以被可靠地預測。然而,在大型模型中檢測這種頓悟動態仍然是一個挑戰。
在這篇文章中,谷歌研究人員提供了有關這一現象和當前研究的視覺展示。該團隊對超過1000個不同訓練參數的小型模型進行了算法任務的訓練,展示了「有條件的現象——如果模型大小、權重衰減、數據大小和其他超參數不合適,這種現象會消失?!?/p>
了解「頓悟」可能會改進大型AI模型
根據該團隊的說法,仍然有許多未解之謎,例如哪些模型限制會可靠地引起「頓悟」,為什么模型最初更喜歡記住訓練數據,以及研究中用于研究小型模型中這一現象的方法在大型模型中是否適用。
對「頓悟」的理解進步可能會為未來大型AI模型的設計提供信息,使它們能夠可靠且快速地超越訓練數據。
Tags:
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。