首頁 > AI資訊 > 行業(yè)動態(tài) > OpenAI的首席科學(xué)家表示,有了GPT-4,該公司就有了“實現(xiàn)魔法的配方”

OpenAI的首席科學(xué)家表示,有了GPT-4,該公司就有了“實現(xiàn)魔法的配方”

財富中文網(wǎng)    2023-11-21

圖片來源:AKUB PORZYCKI/NURPHOTO VIA GETTY IMAGES

GPT-4終于亮相了。這是OpenAI的最新版人工智能系統(tǒng),堪稱史上最強(qiáng)大的人工智能系統(tǒng),也是廣受歡迎的ChatGPT的人工智能模型的繼任者。

位于美國舊金山的人工智能實驗室OpenAI現(xiàn)在與微軟(Microsoft)開展密切合作,該實驗室稱,GPT-4比支持消費(fèi)者版本ChatGPT的GPT-3.5模型更強(qiáng)大。首先,GPT-4是多模態(tài)的:盡管它只生成文本,但它可以接收圖像和文本。這有助于提升人工智能模型“理解”照片和場景的能力。(盡管目前提供這種視覺理解功能僅依靠OpenAI與Be My Eyes的合作,后者是一款面向視障人士的免費(fèi)移動應(yīng)用程序。)

在一系列自然語言處理和計算機(jī)視覺算法的基準(zhǔn)測試中,新模型的表現(xiàn)比GPT-3.5要好得多。它在一系列原本為人類設(shè)計的考試評估中也表現(xiàn)得相當(dāng)出色,包括在模擬律師資格考試中取得了非常優(yōu)異的成績,而且還在從數(shù)學(xué)到藝術(shù)史的一系列大學(xué)先修考試中取得了滿分(滿分是5分)。(有趣的是,該系統(tǒng)在大學(xué)先修課程英語文學(xué)和英語作文考試中得分都很低,機(jī)器學(xué)習(xí)專家已經(jīng)提出疑問,即GPT-4在考試中的出色表現(xiàn)是否可能不如表面上看起來那么驚艷。)

根據(jù)OpenAI的說法,該模型針對提問返回基于事實的答案的可能性增加了40%,盡管在某些情況下,它仍然可能編造信息,人工智能研究人員稱之為“幻覺”。它也不太可能跳過OpenAI為該模型設(shè)置的護(hù)欄,這些護(hù)欄是為了防止它輸出有毒或有偏見的言論,或建議用戶采取可能造成傷害的行動。OpenAI表示,GPT-4比GPT-3.5更有可能拒絕此類請求。

盡管如此,GPT-4仍然有許多與其他大型語言模型相同的潛在風(fēng)險和缺陷。它并不完全可靠。它的答案是不可預(yù)測的。它能夠用來生成錯誤信息。它仍然可能跳過護(hù)欄,輸出危險的答案,這要么是因為它可能對閱讀輸出的人造成傷害,要么是因為它可能會鼓勵人們采取傷害自己或他人的行動。例如,它可以被用來幫助某人找到用家用產(chǎn)品制造簡易化學(xué)武器或爆炸物的方法。

正因如此,OpenAI提醒用戶“使用語言模型時應(yīng)該謹(jǐn)慎審查輸出內(nèi)容,特別是在高風(fēng)險情況下,必要時使用與特定用例需求相匹配的確切協(xié)議(比如人工審查、附加上下文或完全避免在高風(fēng)險情境中使用)。”然而,OpenAI已經(jīng)正式發(fā)布該模型,并將該模型提供給ChatGPT Plus的付費(fèi)用戶,該模型也將作為基于云的應(yīng)用程序編程接口(API)提供給企業(yè)。

GPT-4正式發(fā)布,這是關(guān)注人工智能發(fā)展的人士期待已久的。當(dāng)OpenAI在2022年11月下旬發(fā)布ChatGPT時,幾乎所有人都大吃一驚,但至少在一年前,OpenAI正在研發(fā)GPT-4的事情就已經(jīng)廣為人知了,盡管人們一直在猜測它究竟會是什么。事實上,在ChatGPT出乎意料的爆火引發(fā)轟動之后,人工智能炒作甚囂塵上,OpenAI的首席執(zhí)行官薩姆·奧爾特曼認(rèn)為有必要盡力為GPT-4即將發(fā)布的期望潑冷水。“GPT-4謠言四起是一件可笑的事情。我不知道這一切從何而來。”奧爾特曼于今年1月在舊金山的一次活動中接受采訪時說道。在提到通用人工智能(AGI)的概念時,他表示,這種超級智能機(jī)器一直是科幻小說的熱門題材,“人們的設(shè)想太美好了,他們會失望的。他們對我們寄予厚望,希望我們能夠研發(fā)出真正的通用人工智能,但現(xiàn)實是,我們沒有研發(fā)出真正的通用人工智能。”

3月15日,我與幾位幫助構(gòu)建GPT-4的OpenAI研究人員談?wù)摿怂墓δ堋⒕窒扌砸约八麄兪侨绾螛?gòu)建它的。研究人員簡單介紹了他們使用的方法,但他們有很多保密信息,包括模型的大小、用于訓(xùn)練的數(shù)據(jù)究竟是什么、訓(xùn)練和運(yùn)行它需要多少專用計算機(jī)芯片(圖形處理單元)、它的碳足跡等等。

OpenAI首席執(zhí)行官薩姆·奧爾特曼。圖片來源:OVELLE TAMAYO/ FORTHE WASHINGTON POST VIA GETTY IMAGES

OpenAI是由埃隆·馬斯克聯(lián)合創(chuàng)立的。馬斯克表示,他之所以選擇這個名字,是因為他希望這個新的研究實驗室能夠致力于實現(xiàn)人工智能民主化和透明化,并公布所有研究成果。多年來,OpenAI逐漸放棄了其創(chuàng)建之初關(guān)于透明度的承諾,由于關(guān)于GPT-4的細(xì)節(jié)公布很少,一些計算機(jī)科學(xué)家打趣說,該實驗室應(yīng)該改名。Nomic AI公司的設(shè)計副總裁本·施密特在推特(Twitter)上說:“我認(rèn)為這一做法關(guān)閉了‘Open’AI 的大門。他們在介紹 GPT-4 的 98 頁論文中自豪地宣稱,他們‘沒有’透露任何關(guān)于訓(xùn)練集內(nèi)容的信息。”

OpenAI的首席科學(xué)家伊利亞·薩茨科弗告訴《財富》雜志,保密的主要原因是“這是一個競爭非常激烈的環(huán)境”,該公司不希望商業(yè)對手迅速復(fù)制他們的成果。他還表示,在未來,隨著人工智能模型變得更加強(qiáng)大,而“這些功能很容易造成巨大傷害”,出于安全考慮,限制透露有關(guān)這些模型如何創(chuàng)建的信息將非常重要。

有時,薩茨科弗在談到GPT-4時,似乎故意回避對其內(nèi)部工作原理的嚴(yán)肅討論。在討論創(chuàng)建生成式預(yù)訓(xùn)練轉(zhuǎn)化器(或稱GPT)的高級流程時,他描述了一個“實現(xiàn)魔法的配方”,生成式預(yù)訓(xùn)練轉(zhuǎn)化器是支撐大多數(shù)大型語言模型的基本模型架構(gòu)。薩茨科弗說:“GPT-4是這種魔法的最新表現(xiàn)形式。”在回答關(guān)于OpenAI是如何設(shè)法減少GPT-4產(chǎn)生幻覺的傾向的問題時,薩茨科弗表示:“我們只是教它不要產(chǎn)生幻覺。”

為了安全性和易用性,進(jìn)行了6個月的微調(diào)

薩茨科弗在OpenAI的兩位同事提供了更多關(guān)于OpenAI如何“教它不要產(chǎn)生幻覺”的細(xì)節(jié)。OpenAI的技術(shù)人員雅各布·帕喬基指出,光是更大模型加持,以及在預(yù)訓(xùn)練期間增大學(xué)習(xí)的數(shù)據(jù)量,似乎就是其準(zhǔn)確性提高的部分原因。瑞安·洛是OpenAI負(fù)責(zé)“對齊”工作的團(tuán)隊的共同負(fù)責(zé)人,即負(fù)責(zé)確保人工智能系統(tǒng)只完成人類希望它完成的工作,而且不做我們不希望它做的事情。他說,在對GPT-4進(jìn)行預(yù)訓(xùn)練后,OpenAI還花了大約6個月的時間對模型進(jìn)行了微調(diào),使其既安全又易于使用。他表示,它使用的一種方法是收集人類對GPT-4輸出結(jié)果的反饋,然后利用這些反饋推動模型生成它預(yù)測更有可能從這些人類審查員那里得到積極反饋的回答。這個過程被稱為“從人類反饋中強(qiáng)化學(xué)習(xí)”,是使ChatGPT成為如此吸引人且大有用處的聊天機(jī)器人的部分原因。

洛指出,一些用于改進(jìn)GPT-4的反饋來自ChatGPT用戶的體驗,這表明,在許多競爭對手推出他們的系統(tǒng)之前,讓數(shù)億人使用該聊天機(jī)器人,可能為OpenAI創(chuàng)造了一個旋轉(zhuǎn)更快的“數(shù)據(jù)飛輪”,讓該公司在構(gòu)建未來先進(jìn)的人工智能軟件方面更具優(yōu)勢,競爭對手可能很難與之匹敵。

洛說,OpenAI專門用更多給出正確答案的例子來訓(xùn)練GPT-4,以提高模型執(zhí)行該任務(wù)的能力,并降低它產(chǎn)生幻覺的幾率。他還表示,OpenAI使用GPT-4來生成模擬對話和其他數(shù)據(jù),然后反饋給GPT-4進(jìn)行微調(diào),以幫助它減少幻覺。這是“數(shù)據(jù)飛輪”發(fā)揮作用的另一個例子。

“魔法”是否足夠可靠,可以面向大眾正式發(fā)布呢?

薩茨科弗為OpenAI發(fā)布GPT-4的決定進(jìn)行了辯護(hù),盡管它存在局限性和風(fēng)險。他說:“好吧,這個模型是有缺陷的,但有多大的缺陷呢?目前該模型還配置了安全緩解措施。”他還解釋說OpenAI認(rèn)為這些護(hù)欄和安全措施足夠有效,可以允許該公司發(fā)布該模型。薩茨科弗還指出,OpenAI的使用條款和條件禁止惡意使用該模型,如今,該公司的監(jiān)控程序已經(jīng)就位,試圖檢查用戶是否違反了這些條款。他說,結(jié)合GPT-4在幻覺等關(guān)鍵指標(biāo)上表現(xiàn)出的更好的安全性,以及它能夠拒絕“越獄”或跳過護(hù)欄的請求,“讓我們覺得繼續(xù)發(fā)布GPT-4是合適的,就像我們目前正在做的那樣。”

在為《財富》雜志的工作人員進(jìn)行的演示中,OpenAI的研究人員要求該系統(tǒng)寫一篇關(guān)于自身的總結(jié)性文章,但只使用以字母“G”開頭的單詞——GPT-4的行文相對連貫。薩茨科弗說GPT-3.5可能會搞砸這個任務(wù),因為它使用了一些不是以“G”開頭的單詞。在另一個例子中,演示人員向GPT-4展示了美國稅法的部分條例,然后給出了一個關(guān)于一對特定夫婦的場景,并要求GPT-4參照剛剛看過的法規(guī)條文計算他們應(yīng)該繳納的稅款。GPT-4似乎在大約一秒鐘內(nèi)就得出了正確的稅額。(雖然我未能回過頭來仔細(xì)檢查它給出的答案。)

盡管演示令人印象深刻,但一些人工智能研究人員和技術(shù)專家表示,像GPT-4這樣的系統(tǒng)對于許多企業(yè)用例來說仍然不夠可靠,特別是在信息檢索方面,因為GPT-4還是有可能出現(xiàn)幻覺。如果用戶向它提問,但該用戶并不知道答案,那么在這種情況下,可能就仍然不適合使用GPT-4。創(chuàng)建數(shù)據(jù)編目和開發(fā)檢索軟件的軟件公司Alation的聯(lián)合創(chuàng)始人及首席戰(zhàn)略官阿龍·卡爾布表示:“即使幻覺發(fā)生率下降了,但如果幻覺發(fā)生率沒有達(dá)到無限小,或者至少像人類專家分析師那樣小的情況下,可能就仍然不適合使用GPT-4。”

卡爾布還稱,即便提示模型只從特定的數(shù)據(jù)集生成答案,或者只使用模型總結(jié)通過傳統(tǒng)搜索算法搜索出的信息,也可能不足以確保模型沒有編造部分答案,也不足以確保模型不會給出在預(yù)訓(xùn)練期間學(xué)習(xí)的不準(zhǔn)確的或過時的信息。

卡爾布指出,使用大型語言模型是否合適,將取決于用例,以及由人類來審查人工智能給出的答案是否現(xiàn)實可行。他說,要求GPT-4生成營銷文案,在這種情況下,文案將由人類進(jìn)行審查和編輯,這可能是可行的。但在人類不可能對模型生成的所有內(nèi)容進(jìn)行事實核查的情況下,依賴GPT-4給出的答案可能是危險的。(財富中文網(wǎng))

譯者:中慧言-王芳

Tags:
相關(guān)推薦
免責(zé)聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認(rèn)可。 交易和投資涉及高風(fēng)險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。

熱門文章