首頁 > AI資訊 > 行業(yè)應(yīng)用 > 中外科學(xué)家發(fā)出AI安全警告:我們正處于人工智能的“奧本海默時刻”

中外科學(xué)家發(fā)出AI安全警告:我們正處于人工智能的“奧本海默時刻”

新火種    2024-12-03

界面新聞記者 | 陳振芳

界面新聞編輯 | 宋佳楠

“我們知道世界將會不同。一些人笑了,一些人哭了,絕大多數(shù)人沉默不語。”1945年7月16日凌晨5點(diǎn)30分,第一次核試驗(yàn)后,原子彈之父羅伯特·奧本海默如是說。

如今,AI正在越來越多地被拿來與核武器類比,也被認(rèn)為是“人類最后的技術(shù)”。

近日,智源大會舉辦的兩天內(nèi),大模型創(chuàng)業(yè)者像明星一樣被人群緊緊圍繞、合影。盡管極少談?wù)撋虡I(yè)版圖,他們的言論仍舊被迅速擴(kuò)散開來。當(dāng)AI從業(yè)者享受前所未有的追捧時,有關(guān)AI安全的討論也成為重中之重。

當(dāng)外界還在聚焦于GPT5何時發(fā)布,重磅炸彈是什么時,他們提問:如果AI能力被壞人拿走了,將會發(fā)生什么?如果AI可以控制現(xiàn)實(shí)世界,人類該怎么辦?

來自北京和加州的世界頂尖科學(xué)家們都對AGI的發(fā)展表達(dá)了擔(dān)憂,圍繞AI安全問題展開激辯。他們呼吁政府強(qiáng)有力的監(jiān)管必須介入AI發(fā)展。一個更安全的AI,也意味著更多層面更精細(xì)的監(jiān)管,AI的技術(shù)增速放慢。

與之前技術(shù)中立不同的是,多位科學(xué)家直言:AI是一個新物種,而非一項(xiàng)新技術(shù)。

“我們正處于人工智能的‘奧本海默時刻’。”MIT人工智能與基礎(chǔ)交互研究中心教授Max Tegmark提醒道,人類距離第一個AI核彈只有幾年的時間。

危險(xiǎn)的AI

2019年,Stuart Russell來到清華大學(xué)開講座,他剛剛出版了《人類兼容:人工智能及控制問題》一書,給清華大學(xué)人工智能學(xué)院院長、圖靈獎得主姚期智留下深刻印象。

“這不僅僅是作為人的純粹的智力追求,全世界都已意識到問題的嚴(yán)重性。”姚期智稱,AI與人類過往經(jīng)驗(yàn)不同,過去是壞人試圖利用工具作惡,但現(xiàn)在,這個工具可能就是對手。真正的難題在于:人類如何在新的環(huán)境中生活?如何與一個比人類更聰明的新物種共存?原則上,這是站不住腳的,兩個超級物種很難在地球上共存,并達(dá)到平衡。

智源研究院學(xué)術(shù)顧問委員會主任張宏江則表示,AI可以被應(yīng)用于任何目標(biāo),好或者壞的,就像核武器。AI正在以一種超級快的速度進(jìn)化。對此,Stuart Russell認(rèn)為,必須要做好計(jì)劃,不能任由其像科幻小說的發(fā)展那樣失控,“那些被認(rèn)為發(fā)生在未來遙遠(yuǎn)宇宙的事情,可能很快就要發(fā)生。”

AI有潛力改善人類生活,但關(guān)鍵在于,如何看待AI這一技術(shù)?

有人認(rèn)為,人類是可有可無的,只要有高智商的機(jī)器在地球上運(yùn)行,就是一個完全可以接受的選擇,這是最可怕的事情。Stuart Russel措辭嚴(yán)厲地指出,人類作為一個物種,只能選擇安全、有益的AI,要絕對保證AI不會失控,不會傷害我們,“如果沒有保證,唯一的選擇就是簡單地結(jié)束人工智能的發(fā)展。”

張宏江則表示,潛在的財(cái)富加速集中,與可能的工作兩極化,大模型將帶來新的工業(yè)化革命,人們應(yīng)該關(guān)注新的經(jīng)濟(jì)體系以及隨之而來的風(fēng)險(xiǎn)。過去六個月,并非每件事都那么美好,并非一切都在掌控之中,OpenAI的超級對齊團(tuán)隊(duì)解散是一個危險(xiǎn)的信號。“對齊是確保AI安全的重要步驟,具有人類價值,但我們是否投入了足夠的資源來自救?我們能采取什么行動?”

“我們只有2到4年的窗口期來解決這一問題。”Google DeepMind前沿安全與治理主任Allan Dafoe作出這一判斷。在他看來,即將到來的是一種新的生命形式,一個新物種,它將比我們更有能力,要部署比人類水平更高的系統(tǒng)。人工智能文明將很快超過人類的數(shù)量,或許會達(dá)到1:100,1:1000,甚至更高的人機(jī)比例。

在AI技術(shù)尚未完全開發(fā)出來之前,人們陷入對監(jiān)管的迷茫:AI安全的目標(biāo)是什么?

作為這一輪AI技術(shù)的最有力推動者——Open AI吸足“火力”。例如奧特曼說,OpenAI的愿景是創(chuàng)造一個安全和有益的AGI,并采取相應(yīng)的措施來減輕或消除這些風(fēng)險(xiǎn)和影響。Stuart Russell對此持批評意見,稱這顯然是倒退,“一旦你做了一個AI,它還不安全,那就太晚了,你沒有另一個十年的時間來弄清楚如何讓它安全。”制造安全的AI就意味著在一個狹窄的框架內(nèi)開發(fā)AI系統(tǒng)。

“大模型將保持其數(shù)據(jù)私密性,無論公司對軟件做出什么聲明,都不可信。”據(jù)Max Tegmark透露,Open AI的技術(shù)水平已經(jīng)達(dá)到GPT4.5,“奧特曼是一個聰明的家伙,我們需要認(rèn)真地對待他。”

美國最近的一項(xiàng)研究表明,最好的AI系統(tǒng)愚弄了42%的人,讓人類以為它是人。Anthropic的達(dá)里奧·阿莫給出了一個數(shù)字,人類有10%-25%的可能性被AI消滅。

解決之道

為應(yīng)對AI安全風(fēng)險(xiǎn),智源將AGI水平和能力劃分為0-5級。第3級時,AI的感知和認(rèn)知能力同時超越人;第4級,當(dāng)機(jī)器從具備意識進(jìn)化為具備自我意識,人類將淪為次等物種。第5級是AGI的認(rèn)知不再源于人類知識,AGI神經(jīng)結(jié)構(gòu)超越人類大腦,形態(tài)和智力水平都超出了人類想象,可以適應(yīng)不同的物理環(huán)境,開始宇宙智能進(jìn)化的新歷程。

AI技術(shù)的發(fā)展速度正在呈指數(shù)級增長,但監(jiān)管尚未跟上,這正是科學(xué)家們擔(dān)心的。

Max Tegmark認(rèn)為,人工智能的監(jiān)管應(yīng)該像醫(yī)藥、航空和核能等領(lǐng)域,“切爾諾貝利事件”的出現(xiàn)則會直接摧毀整個核工業(yè)。沒有安全,就沒有好處。

當(dāng)法律要求AI系統(tǒng)應(yīng)該輸出真實(shí)準(zhǔn)確的信息時,很多AI業(yè)界的人抱怨這太難了,他們無法實(shí)現(xiàn)。鑒于大模型算法無法強(qiáng)制執(zhí)行,AI系統(tǒng)發(fā)展的合理規(guī)定都將遭到強(qiáng)烈抵制,因?yàn)槿魏魏侠淼囊?guī)則都會限制技術(shù)開發(fā)。

Max Tegmar等多位科學(xué)家建議,應(yīng)該樹立AI行業(yè)監(jiān)管規(guī)范,例如美國的FDA、中國的國家藥品監(jiān)督管理局、中國民用航空局,有嚴(yán)格的藥品和航空安全標(biāo)準(zhǔn),政府對這些行業(yè)負(fù)有監(jiān)管責(zé)任,產(chǎn)品只有達(dá)到安全標(biāo)準(zhǔn)才能上市。

這些頂尖科學(xué)家們主要呼吁從以下三方面對AI實(shí)施安全監(jiān)管。

一是治理AI安全,全球合作至關(guān)重要。盡管國際合作是出了名的緩慢,但人工智能的風(fēng)險(xiǎn)是全球性問題,對人類構(gòu)成了重大甚至極端的風(fēng)險(xiǎn)。人類需要一個以AI安全為主題的大型國際組織。現(xiàn)在全球有30多個主要研究中心,但這些中心缺乏協(xié)調(diào)溝通,很多工作只能自主行動。

其次,應(yīng)當(dāng)先有政府和行業(yè)聯(lián)合制定的統(tǒng)一標(biāo)準(zhǔn),再銷售可信任的人工智能系統(tǒng)。

Max Tegmark表示,必須實(shí)施真正的安全標(biāo)準(zhǔn),以強(qiáng)硬的法律作為后盾,讓人工智能像其他行業(yè)一樣被規(guī)范和約束。中國是第一個實(shí)施嚴(yán)格人工智能安全法規(guī)的國家,而歐盟也在今年3月通過了《人工智能法案》。

再者,“紅線”的概念讓AI安全變得具體可行。今年3月,Geoffrey Hinton、姚期智、Stuart Russell、傅瑩等30余位專家,共同擬定并簽署了《北京AI安全國際共識》,為AI劃定五條不可逾越的紅線:自主復(fù)制或改進(jìn)、權(quán)力尋求、協(xié)助武器制造、網(wǎng)絡(luò)安全、欺騙。

上述專家們指出,人們不能僅僅是討論AI安全與否,因?yàn)榘踩筒话踩茈y區(qū)分,應(yīng)劃定紅線并要求AI不能越過這些紅線。讓AI像藥品、核電站、飛機(jī)一樣,接受合理、安全的監(jiān)管。

值得關(guān)注的是,這一共識并不具有真正的法律效應(yīng)和強(qiáng)制監(jiān)管的屬性。姚期智認(rèn)為,從長遠(yuǎn)來看,人類會建立一套與密碼學(xué)類似的基礎(chǔ)科學(xué)工具,主要處理知識的生產(chǎn)和分配,以及誰應(yīng)該擁有何種知識。

Max Tegmark也強(qiáng)調(diào),AI革命將帶來巨大危險(xiǎn),如果不以一種安全的方式制造它,所有人都是輸家,只有機(jī)器會贏。

相關(guān)推薦
免責(zé)聲明
本文所包含的觀點(diǎn)僅代表作者個人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。

熱門文章