首頁 > AI資訊 > 最新資訊 > OpenAI“內(nèi)斗”背后的路線之爭:AGI是否已經(jīng)降臨該加速還是踩剎車?

OpenAI“內(nèi)斗”背后的路線之爭:AGI是否已經(jīng)降臨該加速還是踩剎車?

界面新聞    2023-11-27

  OpenAI“內(nèi)斗”暫告一段落。自上周五首席執(zhí)行官Sam Altman突然被董事會宣布遭解雇、董事長兼總裁Greg Brockman辭職;緊接著Altman據(jù)傳將帶領(lǐng)一隊人馬加入微軟,到OpenAI員工以辭職威脅董事會要求Altman回歸;再到本周三,OpenAI董事會更換成員、Altman回歸OpenAI。表面上看,似乎是一場針對一家炙手可熱獨領(lǐng)風(fēng)騷的技術(shù)初創(chuàng)公司控制權(quán)的爭奪戰(zhàn),但本質(zhì)上是人工智能(AI)發(fā)展兩種路線的沖撞——一派抗著“加速主義”旗幟,希望AI在技術(shù)精英的帶領(lǐng)下加速前進(jìn)改造世界;另一邊則是以利他主義理論為根基、力求讓AI在人類控制下發(fā)展的保守派別。如果再深究下去,這是一場圍繞人類道德、資本主義和政治的博弈。

  此時此刻OpenAI以這種戲劇化的形式暴露在聚光燈下,或許意味著AI已經(jīng)發(fā)展到了一個關(guān)鍵的岔路口,接下來的選擇將關(guān)系到人類未來的福祉甚至存亡。到底該往哪兒走?

  OpenAI之所以能逼走CEO,原因在于其獨特的公司架構(gòu):最早由馬斯克、Altman等聯(lián)合成立的OpenAI是一個非盈利公司,即OpenAI Inc,最高權(quán)力為董事會;隨后在2019年,Altman在OpenAI下成立了一個盈利性子公司,OpenAI LP(現(xiàn)在名Open AI Global LLC)獲得微軟注資,得以支撐其快速的發(fā)展。但OpenAI的董事會仍保留著對公司的控制權(quán)。

  然而,隨著ChatGPT的狂奔,以及由此引發(fā)的全球范圍內(nèi)的AI競爭,OpenAI似乎已經(jīng)遠(yuǎn)離剛成立時的初衷,即打造以“為全人類服務(wù)”為宗旨的、安全可靠的通用人工智能(AGI)。

  此時,有必要審視AI領(lǐng)域長期存在的兩種對立的路線以及背后的哲學(xué)思潮。我們?nèi)绾慰创鼳I——是工具,是人類的伙伴,還是人類的駕馭者?;以及,我們是否以及應(yīng)該如何監(jiān)管AI——是企業(yè)和行業(yè)自治,還是政府強力監(jiān)管?甚至,人類是否會因AI滅亡?……

  科技與人類的關(guān)系:“有效加速”(effective acceleration)vs “有效利他”(effective altruism)

  加速主義萌芽于約20世紀(jì)初的未來主義運動。這一派別的追隨者認(rèn)為技術(shù)是一股強大、高速的力量,主張加快技術(shù)革命的速度,甚至對技術(shù)的毀滅性維度,如戰(zhàn)爭,都當(dāng)作“美”來贊頌。2010年左右加速主義分成兩個陣營并開始廣泛傳播,其中左翼認(rèn)為需要改變現(xiàn)有的資本主義架構(gòu)從而引導(dǎo)技術(shù)發(fā)展的方向;右翼則以哲學(xué)家Nick Land為代表,更強調(diào)資本的作用,認(rèn)為技術(shù)和社會的領(lǐng)導(dǎo)的權(quán)應(yīng)由專制的機(jī)構(gòu)和少數(shù)技術(shù)人員掌握,后者被視為當(dāng)下人工智能“有效加速主義”的哲學(xué)源頭。

  有效加速主義在硅谷擁有不少追捧者,比如在社交平臺X(原推特)上,會發(fā)現(xiàn)有賬號后面加有e/acc后綴(effective accelerationism的縮寫),包括YC掌門人Garry Tan,A16Z創(chuàng)始人Marc Anderessen等。

  他們對人工智能的看法如何?前阿里巴巴人工智能首席陶芳波有個簡潔版的解釋:

  人類應(yīng)該無條件地加速技術(shù)創(chuàng)新,并快速推出他們,來顛覆社會結(jié)構(gòu)。

  e/acc 運動認(rèn)為這種對社會的顛覆風(fēng)險,本質(zhì)上對人類有利,因為會迫使人類適應(yīng),從而幫助我們更快達(dá)到更高的意識水平。

  過去三百年人類隨著技術(shù)的顛覆而進(jìn)化,結(jié)果顯然都非常好。

  與有效加速主義相對的是“有效利他主義”,警惕人工智能對人類可能帶來的威脅。

  有效利他主義大概始于十年前,發(fā)端于牛津大學(xué)的校園,最早只是活躍于互聯(lián)網(wǎng)社區(qū),最近幾年勢頭兇猛,到如今已經(jīng)發(fā)展成為遍布全世界的宗教般的龐大網(wǎng)絡(luò),擁有大量子分支和派別,成立了一系列的非營利機(jī)構(gòu)、研究和預(yù)測中心、各種論壇等等,從比特幣社區(qū)到美國白宮都有了其追隨者身影,在硅谷更是有著大批擁泵。

  有效利他主義有著一套復(fù)雜的全新的世界觀體系,核心可以用哲學(xué)家Peter Singer的思想來概括,即“在維持基本生存以外你花的任何一筆錢,都是以另外一個人的死亡為代價”。該運動的領(lǐng)袖、牛津大學(xué)哲學(xué)系助理教授MacAskill將其進(jìn)一步歸納為:如果有人因極度貧困而死去,就相當(dāng)于你親手殺死了他們。硅谷科技明星Elon Musk曾直言不諱地表示,MacAskill的理念“非常符合他的哲學(xué)觀”。

  最早這一運動主要關(guān)注全球貧困、動物福利,但最近幾年,他們的焦點放在了人工智能對人類的威脅上。因為有效利他主義者認(rèn)為,保護(hù)未來的人類,就跟保護(hù)現(xiàn)在的人類一樣重要;而人工智能給人類帶來了存在主義危機(jī)(existential crisis)。

  顯然,有效利他主義者對人工智能的態(tài)度更傾向于負(fù)面的、警惕的。著名計算機(jī)科學(xué)家、德克薩斯大學(xué)教授Scott Aaroson在他的個人博客里曾總結(jié)了極端的有效利他主義者是如何看待AI的:

  人類的生存或毀滅取決于未來一兩年內(nèi)少數(shù)精英工程師的行動;

  關(guān)于AI風(fēng)險的公共宣傳價值有限,因為大多數(shù)人無論如何都不可能理解;

  人工智能會欺騙人類,同時努力摧毀人類,以令其效用函數(shù)最大化;

  從看起來無害到在幾小時或幾年內(nèi)密謀殺死所有人類,可能只需要一個門檻。

  ……

  OpenAI的路線之爭

  上周五之前,OpenAI最早董事會有6名成員,除首席執(zhí)行官Sam Altman和董事長兼總裁Greg Brockman,還有Quora的首席執(zhí)行官Adam DAngelo、喬治敦大學(xué)Helen Toner、咨詢公司Rand的兼職高級管理科學(xué)家Tasha McCauley,以及“AI之父” Geoffrey Hinton的學(xué)生、頂級人工智能科學(xué)家Ilya Sutskever,他也是OpenAI的聯(lián)合創(chuàng)始人以及此次內(nèi)斗的關(guān)鍵人物。

  OpenAI“內(nèi)斗”前后董事會架構(gòu)圖。

  OpenAI成立初衷是非盈利組織,因此董事會并非利益驅(qū)動。據(jù)Venturebeat等多家媒體報道,Angelo,Toner和McCauley均隸屬于有效利他主義陣營。2017年,OpenAI還曾獲得了Open Philanthropy的3000萬美元注資,而該項目是由有效利他資助的。OpenAI對此予以否認(rèn),表示這些非員工董事“與有效利他運動社區(qū)的互動主要集中在與AI安全相關(guān)的主題上,或者,提供為密切參與該團(tuán)體的人員的觀點。”

  但至少Toner和McCauley與利他主義運動關(guān)系極其密切。兩個人的名字經(jīng)常出現(xiàn)在利他主義運動的論壇里,甚至McCauley的名字還赫然出現(xiàn)在由極端利他主義運動官方背書的主要成員名單上。倆人還一同擔(dān)任英國國際人工智能治理中心的顧問委員會成員。

  Toner 還曾在 Open Philanthropy工作,并且因與人合作的一篇文章中批評OpenAI 在發(fā)布 ChatGPT 時的安全實踐不如其競爭對手 Anthropic,與Altman發(fā)生齟齬。在這篇論文中,她還提到,不能因為擔(dān)心中國在AI競爭中后來居上而拒絕對AI的監(jiān)管。

  Toner頻繁對外發(fā)聲警告AI風(fēng)險。今年5月,Toner警告不能過度依賴AI聊天工具,說其對人類來說“還有大量未知領(lǐng)域”,今年10月,她說美國政府應(yīng)該“采取措施保護(hù)民眾遠(yuǎn)離AI傷害和風(fēng)險,與此同時提升創(chuàng)新、捕捉技術(shù)福祉”。

  McCauley在公開輿論上并不活躍,鮮少就AI對外發(fā)表評論,可能部分因為她同時也是美國知名演員Joseph Gordon-Levitt的妻子。不過據(jù)她的X(原twitter)介紹,她是有效利他運動某個機(jī)構(gòu)的英國董事會成員。另外據(jù)《紐約客》報道,她和她的丈夫與MacAskill是志同道合的好友。另外,同Elon Musk一樣,她也是2017年阿西洛馬人工智能原則(Asilomar AI Principles)的簽署者。

  至于Adam DAngelo,他是否屬于有效利他主義者仍然存在爭議。不過從今年4月與Semafor的采訪中可以看出,他更關(guān)注的是如何讓AI與人類“對齊”,換句話說,人類應(yīng)該怎樣駕馭AI。他說這是他在OpenAI董事會的責(zé)任。“我不確定走到這一步是否是有風(fēng)險,但讓人們考慮這些問題是有用的。”但對AI他的態(tài)度比較樂觀:“如果在某個節(jié)點上出現(xiàn)了超級強大的AI,那么另外一些人也會擁有超級強大的AI來保衛(wèi)自己或者束縛AI或執(zhí)行法律。”

  作為OpenAI的技術(shù)靈魂人物,Ilya Sutskever顯得非常低調(diào),但他在公開場合無數(shù)次表達(dá)了對AI的擔(dān)憂,用的是更深刻的、格言一般的表述方式:

  他曾在X上發(fā)文,“如果你把智力看得比人類其他所有品質(zhì)都重要,那么你的未來會很糟糕。”

  他在接受英國《衛(wèi)報》采訪時,把AGI與人類的關(guān)系同人與動物的關(guān)系做類比。他說,人類不討厭動物,還喜歡許多動物,但是當(dāng)人類要造一條高速路時,不會向動物征求意見,因為高速路對人類很重要。“我認(rèn)為,默認(rèn)地,人類和通用人工智能的關(guān)系也將會是這樣。通用人工智能完全自動,按照自己的意愿行事。”

  今年10月,他接受MIT Technology Review采訪時表示,他現(xiàn)在的首要任務(wù)不是要開發(fā)下一代GPT或者其他產(chǎn)品,而是如何阻止“人工超級智能作惡”。他還認(rèn)為,ChatGPT可能是有意識的;世界需要睜開眼睛看看AI技術(shù)的真正實力,甚至,他預(yù)測未來有一天部分人類會選擇與機(jī)器融為一體。“一種可能性——以今天的標(biāo)準(zhǔn)來看可能很瘋狂,但以未來的標(biāo)準(zhǔn)來看不會那么瘋狂——就是許多人會選擇成為人工智能的一部分。”

  在Altman被解雇前,Sutskever在X上發(fā)布的最后一條推文這樣寫道,“最終,AI 將變得非常、非常、非常強大。我們將無法理解他們。他們會比我們聰明得多。到那個時候,強烈的銘印至關(guān)重要,只有這樣,他們對我們的感覺才會像我們對自己的孩子一樣。”

  出于對AI的擔(dān)憂,今年7月,他與OpenAI的科學(xué)家同事Jan Leike(后者也被普遍認(rèn)為是有效利他主義者)一起組建了一個團(tuán)隊,專注于他們所謂的“超級對齊”。超級對齊是OpenAI的術(shù)語,意即讓人工智能模型做人類希望其做的事情。該項目計劃利用OpenAI龐大計算資源的五分之一,在四年時間內(nèi)實現(xiàn)科技突破,做到真正駕馭比人類聰明得多的AI系統(tǒng)。

  那么,OpenAI此次內(nèi)斗的核心人物Altman,他又是如何看待AI和AI風(fēng)險? Altman負(fù)責(zé)創(chuàng)建了OpenAI的盈利子公司,并積極奔赴世界各地商討融資事宜。與此同時,他是OpenAI的聯(lián)合創(chuàng)始人之一,也是阿西洛馬人工智能原則的簽署人,在對外公開聲明中也經(jīng)常提及AI的風(fēng)險并提議對AI進(jìn)行適當(dāng)?shù)谋O(jiān)管。他還是UBI(universal basic income)理念的積極倡導(dǎo)者。

  以下是他在不同場合的一些公開發(fā)言:

  “如果AGI出了問題,沒有任何掩體能幫助任何人。可怕的是,把這個杠桿放到這個世界上,肯定會產(chǎn)生不可預(yù)測的后果。”

  “我們能夠管理好人工智能,我對此非常有信心。但如果我們對風(fēng)險不是非常警惕,如果不坦率地談?wù)撍赡軙兊枚嗝丛愀猓覀兙筒粫晒Φ毓芾硭!?/p>

  “我非常贊成資本主義。我認(rèn)為這是迄今為止發(fā)明的最不壞的系統(tǒng)。所以我完全贊同人們從中獲利。我只是認(rèn)為這項技術(shù)的發(fā)展需要一個不同于普通的激勵系統(tǒng)。”

  “人工智能將改變?nèi)藗兣c世界互動的方式。從深層次上來說,人工智能是這個世界、也是人們一直想要的技術(shù)。科幻已經(jīng)談?wù)撊斯ぶ悄茉S久了。”

  但在業(yè)內(nèi)人士看來,Altman是個偽裝的利他主義者,實則是加速主義者。陶芳波給出了三個證據(jù):

  證據(jù)1:Garry Tan 作為 Sam 的接任者來執(zhí)掌 YC,我很難想象他們不是一類人。以及有八卦說 Sam 被懷疑有小號來發(fā)表自己的加速主義立場。

  證據(jù)2:這次 Sam 被驅(qū)逐,很多掛著 e/acc 的人已經(jīng)把 Sam (Altman) 當(dāng)做一個象征。從 GPTs 的倉促推出,對 Worldcoin 項目的大力投資,他是懂怎么“加速”的。

  因此他認(rèn)為,Altman的減速表象,是內(nèi)部妥協(xié),尤其是對Ilya Sutskever的妥協(xié)。

  AGI——AI發(fā)展的關(guān)鍵節(jié)點

  實際上我們很難武斷地用“加速主義者”或者“利他主義者”的標(biāo)簽來定義OpenAI的前董事會成員,他們都看到了AI的潛能,也看到了AI的危害,只是在讓AI達(dá)成何種程度的“對齊”上存在分歧,是應(yīng)該加速還是踩剎車?如果踩剎車,踩到什么程度?

  但他們背后的兩種理念的拉扯,可能會影響到這些手握AI方向盤的少數(shù)幾個人,在一個關(guān)鍵問題上的判斷。這要回到OpenAI與微軟的協(xié)議內(nèi)容。

  根據(jù)OpenAI的官方資料,微軟從投資OpenAI子公司獲得的收益是有上限的,不得超出其投資額度的100倍,而且,這些收益僅限于通用人工智能(AGI)達(dá)成之前,AGI達(dá)成之后則微軟不能從中獲得任何收益。OpenAI對AGI的定義是,“一個高度自治的系統(tǒng),能在多數(shù)有經(jīng)濟(jì)價值的工作上超越人類”,但現(xiàn)實中如何判斷是否達(dá)成AGI,則完全取決于OpenAI董事會的定義。也可以這樣理解:AGI之前可以有限追求商業(yè)利益,在這之后需要為人類服務(wù)。

  OpenAI“內(nèi)斗”發(fā)生后,《紐約時報》曾援引三位OpenAI內(nèi)部人士的話稱,Ilya Sutskever越來越擔(dān)心OpenAI的技術(shù)可能已經(jīng)變得很危險,而Altman對此并未給予足夠重視。

  據(jù)路透社的最新報道,在Altman被罷免前幾天,OpenAI幾位研究人員曾致信董事會,警告他們發(fā)現(xiàn)了一種強大的AI技術(shù),可能威脅人類。這項技術(shù)來自內(nèi)部一個名叫Q*的項目,認(rèn)為Q*已顯示出接近人類的高級推理能力,可能意味著AGI出現(xiàn)了重大突破。

  這讓上周五Altman被罷免時,董事會給出的理由顯得格外耐人尋味:先是表示Altman“在與董事會溝通時始終不夠坦誠”,隨后又補充說,這一決定與“與財務(wù)、業(yè)務(wù)、安全或安保/隱私實踐相關(guān)的瀆職”等都無關(guān)。

  針對Altman為何被罷免的相關(guān)調(diào)查仍在繼續(xù)。Altman是否隱瞞了OpenAI相關(guān)技術(shù)的發(fā)展?OpenAI是否達(dá)成了AGI?……更多真相或?qū)⒏〕鏊妗?/p>

  值得一提的是,OpenAI的兩種路線之爭并非此時才出現(xiàn)。早在2018年,Elon Musk退出他投資發(fā)起的OpenAI另起爐灶,就曾經(jīng)表達(dá)對OpenAI越來越商業(yè)化的不滿。《埃隆·馬斯克傳記》里提到他曾說過的一句話, “想想《2001:太空漫游》中大開殺戒的計算機(jī)‘哈爾’直接與創(chuàng)造它的人類開戰(zhàn)。在人工智能系統(tǒng)中,人類可以設(shè)置哪些防火墻和自毀開關(guān),讓機(jī)器的行動與我們的利益保持一致?誰又有資格決定這些有關(guān)人類的利益是什么?”

  OpenAI的內(nèi)斗以Altman回歸、董事會大換血而暫停。原先的董事會成員中除Angelo外,其他均離開,取而代之的是前Salesforce聯(lián)合創(chuàng)始人Bret Taylor和美國前財長Larry Summers。

  相比之前的董事會成員,這兩位身上的“利他”色彩要淡得多。前者是AI技術(shù)領(lǐng)域的積極競逐者;后者是硅谷科創(chuàng)領(lǐng)域的積極參與者。更值得關(guān)注的是,后者的政治人物身份,可能讓圍繞OpenAI和AI的路線之爭,從道德和哲學(xué)倫理角度,更進(jìn)一步擴(kuò)展到了政治場域。也許,在這場事關(guān)世界大多數(shù)人未來但大多數(shù)人都無法參與的AI路線爭奪戰(zhàn)中,我們至少需要確保我們的注意力不要離場。

(文章來源:界面新聞)

Tags:
相關(guān)推薦
免責(zé)聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認(rèn)可。 交易和投資涉及高風(fēng)險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。

熱門文章