首頁 > AI資訊 > 行業應用 > OpenAI風波后,人工智能安全發展與監管將何去何從?

OpenAI風波后,人工智能安全發展與監管將何去何從?

新火種    2024-01-04

(本文作者王音,秦朔朋友圈撰稿人,平臺技術公司全球總法律顧問)

01

OpenAI 風波2023年,OpenAI的戲份很足。3月份時,ChatGPT4.0亮相,驚艷到了全世界,一時間大家紛紛嘗試讓ChatGPT寫小作文、編代碼,及至咋舌ChatGPT偶爾會胡編亂造一通的做派。眾多軟件科技公司更是緊跟潮流,卯足了勁開發各種應用的大語言模型。OpenAI帶動了人工智能(AI)的一輪新高潮。時至11月,Open AI再次震驚了全世界。公司董事會突然宣布CEO奧特曼去職。之后,局勢反轉再反轉,OpenAI員工集體威脅辭職,微軟馬上伸出橄欖枝愿意整體接收,最終一周之后,奧特曼重返CEO位置,董事會大改組,被認為是CEO罷免事件推手力量的公司首席科學家蘇茨克弗也不再任董事。OpenAI的大風波暫時平息。一個有意思的方面是,奧特曼雖然恢復CEO職位,卻并沒有回到董事會,而OpenAI的治理結構獨特,董事會是最高決策機構。

奧特曼為何遭罷免?

OpenAI是這樣官宣陳述的——“董事會經過深思熟慮的審查程序”,奧特曼“與董事會的溝通中沒有始終坦誠,阻礙了其履行職責的能力。董事會不再對他繼續領導OpenAI的能力充滿信心”。同一時間段,據悉OpenAI某位高管在給員工的溝通信中表示,奧特曼并沒有瀆職行為,在公司財務、業務、安全或隱私等方面也沒有失誤。奧特曼回歸后,關于其免職事件,OpenAI公司仍要開展內部調查。

02

追求速度還是安全?OpenAI事件一番戲劇性地演進,將一個人從幕后推到了大眾的矚目中,連帶他推崇的重要主張。這個人就是前文提及的,OpenAI首席科學家蘇茨克弗,他同時是OpenAI的聯合創始人。盡管ChatGPT4.0走紅后代表OpenAI在媒體上頻頻露臉的是CEO奧特曼,但事實上蘇茨克弗才是ChatGPT的核心發明人,攻克了AI重要的技術難題,被業界稱為“ChatGPT之父”。蘇茨克弗出生于前蘇聯,持以色列和加拿大的國籍。他是深度學習領域的專家。蘇茨克弗在讀博士期間師從圖靈獎得主,有“人工智能教父”之稱的杰弗里·辛頓(Geoffrey Hinton)。

在OpenAI所處的加州硅谷地區,對于人工智能的發展有兩派相反的觀點。一派希望全速推動人工智能的發展,認為隨著技術進步,相關的社會問題會自然而然地得到解決,這在歷史上多次證明,所以不必多擔憂。用中國的俗語來說,就是“船到橋頭自然直”。另有一派,則主張在AI程序向社會公開之前,先要在實驗室進行徹底測試,特別是生成式人工智能。蘇茨克弗是后一派觀點的代表人物。蘇茨克弗比較近期的公眾演講,包括今年3月份他接受英偉達CEO黃仁勛的采訪,和今年10月他的TED演講。

在演講中,蘇茨克弗直白地表示,AI將會發展達到人類的智能水平,進而超越人類智能,比人更聰明。他拋出一個深刻的問題:比人類更聰明的人工智能,將會怎樣對待人類?蘇茨克弗每每演講,都顯得邊講邊在沉思。他不茍言笑,卻觀點犀利,表達清晰。與人類的“生物大腦”相對照,蘇茨克弗稱人工智能是處在計算機系統中的“電子大腦”。“電子大腦”的優勢在于能夠充分全面地占有信息,在此基礎上,推導結果。蘇茨克弗習慣于以人和動物的關系,來類比將來通用人工智能(AGI)與人類之間或將存在的關系。他反復地會問觀眾,AI會愛人類嗎?AI會像今天人類對待動物那樣來對待人類嗎?公開演講時,蘇茨克弗頻頻穿著帶動物圖案的T恤出鏡頭,似乎為了加強他的觀點。蘇茨克弗向聽眾介紹,他之所以在2015年聯合創辦Open AI,出發點正是為了在推動AI發展的進程中,妥善解決AI和社會的問題。

03

AGI通用人工智能,何為“通用”?Artificial General Intelligence (AGI)中文譯為“通用人工智能”。其實,這個中文翻譯并沒有準確地傳意。General是相對Special而言的。在AI的這個語境下,人工智能機器人先后打敗了人類的國際象棋大師、圍棋大師,實現了蛋白質結構預測的重大突破,等等,這些赫赫成績反映了AI智能的某個(special)方面,或者說是單項考評的成績。而AGI指的是在綜合考評上AI全面地達到乃至超過人類智能的那個時刻,用通俗的話來說,就是“全面碾壓”。所以,用“綜合人工智能”或“全面人工智能”翻譯AGI,似乎更加提挈。AGI目前尚未實現,但是正在向人類走來。OpenAI在其公司網頁上預期,十年內,AGI會被實現。按人工智能成果的此起彼伏來看,十年不知道是不是一個保守的時間估計。此外還有一個AI名詞,GenerativeAI,中文翻譯是“生成式人工智能”。

為什么稱generative(生成),而不是creative(創作)?造詞者大概是考慮到目前的知識產權法律框架體系并不承認AI作為發明創作的主體,不賦予AI創作的主體資格。但是,從價值的角度來衡量,AI大語言模型生成的段落、文章以及圖片是否具備文化價值?人是否樂意花時間去閱讀乃至欣賞?認為AI作品是生成的而非創作的,這樣的界定更多來自于人類對待人工智能的主觀態度。但是,一旦AGI實現,其“生成”的作品例如出品的小說超出人類作家的水準,是否有必要開放創作發明的主體資格,延及AI?還是另外新辟AI-IP這個權利范疇?

04

OpenAI的Q*項目之謎奧特曼究竟為什么被董事會罷免?官宣中提到奧特曼沒有和董事會坦誠溝通,言下之意是他背著董事會秘密地干了些什么。敏銳的記者們在努力揭秘。據路透社等幾家媒體的報導,奧特曼在公司內部大力推進Project Q*項目,很可能是他被免職的重要原因。據稱,Project Q*的研究將AI的智能水平又推上了一個新的高度。AI將不僅能基于統計學的能力,在占有信息和數據的基礎上做預測,生成文字和圖片,還掌握了數學推理的能力。前者不一定有一個標準答案,而數學的答案是唯一的。

OpenAI的治理結構,采取了非盈利機構控制下屬盈利公司的模式,其最初的意愿正是希望AI的研究發展不受制于資本的影響。OpenAI的首席科學家蘇茨克弗更是積極倡導AI發展要顧及人類安全的大命題,安全謹慎地推進AI研究。ChatGPT4.0發布后,蘇茨克弗在今年四五月期間提出了OpenAI內部的一個名為“超級對齊(Super-alignment)”的項目,據說調動了占OpenAI五分之一的內部資源,著重于AI與安全的研究。根據路透社及其他媒體調查后所推斷,CEO奧特曼并沒有太重視AI帶來的安全擔憂,而是繼續大力推進人工智能的商業化,由此觸發了他被免職的一幕。

05

基辛格博士參與撰寫的暢銷書:The Age of AIThe AgeofAI《AI時代》被福布斯雜志評選為2022年“當年最暢銷的10本技術類書籍之一”,該書由基辛格博士及兩位技術領域的頂尖專家共同撰寫。書中指出,在人類發展的歷史長河中,推理是人類高度珍視,或者說是引以為傲的一項重要能力。如果人工智能突破推理的障礙,從而擁有了與人類相當的推理能力,甚至超越了人類的推理能力,那么這是否意味著人類對自身能力將產生懷疑?作者們認為,定義AI能力的同時,也意味著重新來定義人類的能力乃至人類的地位。

06

對AI將威脅人類安全的擔憂追溯到2015年,霍金、馬斯克以及多名人工智能專家已經聯名簽署了公開信,呼吁重視人工智能將帶來的社會影響,并展開認真的研究。公開信特別指出,人工智能雖然將帶來非常多的好處,甚至消除疾病和貧困,但要警惕人工智能趨向于不安全和不可控的態勢。近年來,隨著AI威力的持續升級,有關AI很可能帶來安全威脅的擔憂也不斷被放大。ChatGPT4.0推出后,馬斯克等上千名科技界人士發表公開信,提議所有人工智能實驗室立即暫停訓練比ChatGPT4.0更強大的人工智能系統至少六個月。當蘇茨克弗的導師、人工智能教父辛頓被記者采訪時問及人工智能是否會消滅人類,他回答:“我認為這并非不可想象。我只能說這些。”這話聽著,是不是讓人感到后脊發涼?硅谷是人工智能研究的前沿,也大概是有關人工智能與人類安全問題爭論最多的地方。

像蘇茨克弗這樣的頂級科學家在擔憂AI對人類可能帶來的不可挽回的影響,也有大量的富豪捐款投入在有關AI與安全問題的研究上。有效利他主義(effective altruism)是其中一種代表性的思潮,關心遠方最貧窮的人,關心子孫后代的生活環境,關注科技對人類的影響尤其是AI對社會的影響,考察如何定量評估干預產生的效果,利他的同時達成利己。回到本文開篇提到的奧特曼被免,OpenAI董事會大改組,對普羅大眾來說,這場戲劇性事件除了能為八卦談資增加題材,更向大眾揭開了AI與安全這個命題的面紗。由陌生到開始了解,從有所了解到更深入地探究,OpenAI風波好比是向大眾啟蒙AI安全問題的重要與迫切,這也是這個事件產生的積極社會影響。

07

AI監管,及國際合作近幾年來,中國、歐盟、美國等全球的主要國家和地區,有關AI監管都出臺了一系列法律法規,主要涉及隱私保護、數據安全、防范AI的武器化應用、算法反歧視等方面。這些都是重要問題,但不得不說,更重要的問題在于:AI一旦演進成為超級智能,將在多大程度影響人類安全本身?或者說,人類是否持續可以保有對AI的控制權?令人欣慰的是,今年11月初在英國召開了人工智能安全峰會,包括中國在內超過25個國家的政府代表和科技界人士參加。參會成員國同意以國際合作的途徑,建立人工智能的有效監管方法。盡管這看著是一個松散的非正式的合作模式,但是合作好過不合作,中國參與其中也可以爭取到發言權和交換意見的渠道。

可以說,人工智能的風險和對人類可能產生的根本性的影響,其重要性和后果一點都不遜于碳排放等問題,可以說有過之而無不及。正如代表中國參會的科技部副部長吳朝暉所指出的,人工智能的治理攸關全人類的命運,是世界各國面臨的共同課題。耐人尋味的是,在英國AI峰會后發布的全體與會國家宣言中,特別強調的一點是各國要加強合作,識別、理解AI帶來的風險,并采取適當的行動。宣言進一步指出,需要加深對于潛在風險的理解。從這些字里行間透露出來的信號是,AI迅猛發展,各國政府承認看不清楚其前景。馬斯克也參加了這次峰回,他對記者表示,在監管AI之前,必須要有洞察力。換言之,風險撲朔迷離,首要步驟是清晰識別和理解風險。而識別和理解AI風險,需要政府和科技界緊密合作,后者向前者介紹AI的發展狀況和風險,幫助政府了解和理解,進而制定規范,調動資源,有效監管。如此才談得上有效控制風險,指導科技界負責任地開發和部署人工智能。

(本文作者王音,秦朔朋友圈撰稿人,平臺技術公司全球總法律顧問)本文僅代表作者觀點。

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章