首頁 > AI資訊 > OpenAI神秘新模型Q*被曝光!據(jù)說太過強大可能毀滅人類?

OpenAI神秘新模型Q*被曝光!據(jù)說太過強大可能毀滅人類?

小巖    2023-11-29

作者:小巖

編輯:白云朵朵

正所謂一波未平,一波又起。

OpenAI的宮斗大戲在歷經幾次反轉后終于落下帷幕。就在看客們認為OpenAI終于要偃旗息鼓,回歸平靜時,新的一場風波迫不及待的開始了。

根據(jù)路透社曝光,就在Sam Altman被解雇之前,幾位研究人員曾給董事會寄出一封警告信。這封警告信的內容,很可能是引起整個事件的真正導火索。警告信中表示,內部名為Q*(發(fā)音為的Q Star)的下一代AI模型,發(fā)展的過于強大過于先進,到底有多強大和先進呢?大概是到了可以威脅人類的地步。

而Q*的主導人,正是OpenAI的首席科學家Ilya Sutskeve,也是其宮斗大戲中,始終處于風口浪尖上的人物。

大家很自然的就把這一切與OpenAI前幾天的“兵變”串聯(lián)在了一起,不禁發(fā)現(xiàn),這是一場分外精彩的大戲。

新模型Q*,究竟是什么?

截至目前,OpenAI官方還沒有關于Q*的詳細信息,我們先嘗試根據(jù)網(wǎng)上的信息,拼湊了解一下,究竟什么是Q*。

Q*,也叫Q Star。需要說明的是,雖然在深度學習的領域,區(qū)塊之間通過乘積來求解,但在Q*這里并非如此,它只是代表“star”。

在AI領域,與Q相關的,本質上都是Q學習(Q Learning)。Q學習這一基本概念最早誕生于1989年。2013年,DeepMind曾經通過改進Q學習的方式,推出過一個叫做深度Q學習的算法。深度Q學習最鮮明的特點就是使用經歷回放,即從過去多個結果中進行采樣,再使用Q學習,進而達到提高模型的穩(wěn)定性的作用,降低模型因為某一次結果導致訓練方向過于發(fā)散的風險。

一直以來,Q學習的研究都沒有太突出的成果,所以這個概念相對小眾。但Q學習起到了一個極其重要的作用——開發(fā)出了DQN。DQN是指深度Q網(wǎng)絡,誕生于深度Q學習。DQN的思路和Q學習是一模一樣的,但是在求得Q學習中最大獎勵值的過程,是用神經網(wǎng)絡來實現(xiàn)的。這一下子就顯得與眾不同了。

以上我們所解釋的是“Q”代表的含義,那其中的“*”又意味著什么呢?

由于OpenAI沒有官方解釋,大家只能對此進行推測。但很多業(yè)內專業(yè)人士認為,“*”代表的是A*算法。所謂A*算法的運行原理,是先通過啟發(fā)式算法(也就是估值),估算一個大概的值,當然這個值很有可能極其偏離正解。估算完成后就會開始循環(huán)遍歷,如果怎么都沒辦法求解那就重新估值,直到開始出現(xiàn)解。如此反復,最終得出最佳解。這種算法耗時較長,只能在實驗室環(huán)境進行操作。

通過以上的說明,想必大家對“Q”和“*”都有了初步的了解。根據(jù)AI圈的共識,OpenAI的Q*最有可能的樣子,就是利用Q學習快速找到接近最優(yōu)解的估值,再利用A*算法在小范圍內求解,從而省去大量沒有意義的計算過程,以此達到快速求得最佳解的效果。

出其不意的Q*,是否會過于強大,威脅人類?

對于出其不意的Q*,大家關注的點基本一致:它的研發(fā)進行到哪一步了?是否會威脅到人類?

之所以有這樣的擔憂,是因為大家把Q*的推出與Sam Altman此前在APEC峰會上的發(fā)言聯(lián)系在了一起。彼時,Altman表示,“OpenAI歷史上已經有過4次,最近1次就是在過去幾周,當我們推開無知之幕并抵達探索發(fā)現(xiàn)的前沿時,我就在房間里,這是職業(yè)生涯中的最高榮譽”。很多人認為,“最近的一次”,指的就是Q*。

而Ilya Sutskeve,也曾在幾周前的一次采訪中表示,“不談太多細節(jié),只想說數(shù)據(jù)限制是可以被克服,進步仍可以繼續(xù)”。

通過以上的信息,有人分析Q*目前至少具備兩個核心特性。一是突破了人類數(shù)據(jù)的限制,可以自己生產海量數(shù)據(jù);二是擁有了自主學習和自我改進的能力。特別是第2點,被認為很有可能對人類造成威脅。

但對此,一些業(yè)內專業(yè)人士給予了不同的意見。Meta首席人工智能科學家楊立坤(Yann LeCun)就認為,Q*是OpenAI的一次規(guī)劃性嘗試,并不意味著它已經取得了某些突破。諸如FAIR,DeepMind,OpenAI一類的頂級實驗室其實早早就對此有了研究。這不是什么新鮮的新聞,這看上去更像是在炒冷飯。

由此我們不難發(fā)現(xiàn),相較于Q*目前取得的進展,此次事件所帶給OpenAI的輿情影響力,似乎更大。

“人工智能是否會對人類構成生存風險”——這個問題始終值得警惕。

對于炒作和八卦,我們大可以一笑置之,但嚴峻的現(xiàn)實不容忽慮:不定期出現(xiàn)的炒作會讓大家降低對AI的警惕心理,會分散人們對AI可能造成的,AI已經造成的問題的注意力。

AI是否會對人類構成生存風險,這將是一把始終懸在人類頭頂?shù)倪_摩克利斯之劍。不僅OpenAI這一類的專業(yè)公司需要警惕“人工智能暴動”,全人類都應該對此保持清醒。譬如OpenAI 的董事會設計了“內部終止開關和治理機制”,以防止推出有害技術。再比如歐盟即將敲定全面的《人工智能法案》。目前立法者之間最大的爭論之一是,是否要賦予科技公司更多的權力,讓它們自行監(jiān)管尖端的人工智能模型。

一旦我們允許AI系統(tǒng)設定自己的目標,并開始以某種方式與真實的物理或數(shù)字世界對接,很可能會出現(xiàn)安全問題。炒作永遠都不會缺席,商業(yè)性質的公司永遠會將“優(yōu)先考慮自身利益”作為首要目標。在這種情況下,我們更需要擁有透過現(xiàn)象看本質的能力,了解AI,重視AI,警惕AI。

文字資料參考:

https://baijiahao.baidu.com/s?id=1783818518190772932&wfr=spider&for=pc

https://www.thepaper.cn/newsDetail_forward_25414675

https://baijiahao.baidu.com/s?id=1783677934667486076&wfr=spider&for=pc

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章