OpenAI大戲暫落幕或許更應該思考這個問題
當地時間21日晚,人工智能(AI)公司OpenAI表示,上周被董事會解雇的該公司創始人兼前CEO奧爾特曼(Sam Altman)將重新擔任該公司首席執行官。和他一起退出公司的聯合創始人、前董事會主席布羅克曼(Greg Brockman)也將重返公司。
過去五天內,奧爾特曼先是被突然解職,又極度接近復職,伴隨談判破裂,他突然官宣加入微軟公司,但最終仍回歸OpenAI。
OpenAI這場高層“內斗”大戲令越來越多人開始關注人工智能行業關于“有效加速主義”(簡稱為e/acc)和“末日論”的分歧,而要理解這對關系則不得不思考一個更底層的問題:AI對人類社會到底意味著什么?
“加速”與“末日論”
清華大學新聞學院元宇宙文化實驗室主任、教授沈陽接受第一財經記者采訪時表示,OpenAI近期事態牽扯到商業利益和觀念博弈兩個方面的矛盾,后者體現為,“加速派”和“末日論派”在人類與AI的關系上的分歧。
被解雇前幾天,奧爾特曼曾樂觀地向媒體透露,該公司正在推進GPT-5的開發,并計劃從OpenAI最大的投資者微軟公司獲得更多的資金支持。
而本月初,OpenAI首席科學家蘇茨基沃(Ilya Sutskever)在一個紀錄短片中則顯得更為悲觀,他稱:“我的感覺是,通用人類智能(AGI)的發展會出現雪崩。”
這二人的態度取向,折射出硅谷乃至全世界人工智能行業對安全與進步的分歧觀點,即“有效加速主義”和“末日論”。
前者的擁躉希望通過最高效、最具影響力的技術進步與突破來加速社會、經濟或技術系統的變革過程,并把風險視為變革的催化劑。而后者則更加審慎,認為一旦風險不可控,人工智能帶來的巨大影響將毀滅人類社會。
作為OpenAI的創始人之一,蘇茨基沃師從“人工智能教父”辛頓(Geoffrey Hinton)。他的老師曾對媒體表示:“你很難看出如何防止壞人利用它(AI)做壞事。”
蘇茨基沃沒有那么悲觀,但他認為,人與真正自主運行的通用人工智能(AGI)之間的關系應當像人類對待動物一樣。
“我們并不憎恨動物。我認為人類熱愛動物,對它們充滿感情,但當我們要在兩個城市之間修建一條高速公路時,我們并不會征求動物的同意。我們直接就做了,因為這對我們很重要。”蘇茨基沃曾說。
換言之,人類應該以這樣的方式訓練AI,使之為我所用,但做起來卻沒那么容易。蘇茨基沃稱:“第一批AGI的信念和愿望將極其重要,必須為其正確地編寫程序。”這也就是所謂“超級對齊”的工作。
今年7月,蘇茨基沃在OpenAI內部組建了一只“超級對齊團隊”,并對外招募人才,以達到“讓模型在最糟糕的情況下也能遵循人類的意圖”等目的。
但另外一面,奧爾特曼則在加速部署OpenAI產品的商業化,擴大消費者市場。
在11月6日OpenAI召開的開發者日上,奧爾特曼宣布了一系列新功能,包括推出助理應用程序接口(API)允許構建更復雜、更智能的AI,開放GPT應用商店,允許GPT的企業和個人定制等。
Iris目前在美國硅谷從事AI方向創業、也曾在多家科技企業負責AI相關產品開發,她現場參加了這場發布會。“當時他們拿出來做展示的產品,仿佛還處在被開發者在本地計算機或服務器上運行和測試(local host)的階段,就好像早上還在改程序錯誤,下午就拿來做演示了。”Iris告訴第一財經記者,“當時很大的感受是,誰還記得OpenAI在2015年建立時的使命是安全與廣泛受益(safe and broadly beneficial)呢?”
商業化與安全審查
Iris認為,奧爾特曼與蘇茨基沃之間關鍵的摩擦增大,與OpenAI的企業發展階段關系很大。
2015年,OpenAI作為非營利組織成立,自2019年接受微軟的大筆投資后,該公司轉型為“利潤封頂”的結構。公司仍然由非營利董事會管理,該董事會的任務不是實現股東價值最大化,而是確保創造“廣泛受益”的AGI。與此同時,微軟等投資者可以從OpenAI獲利,但他們的利潤是有上限的。超過上限的金額將會被返還給非營利機構。
她稱,最早期的OpenAI,尤其是在模型研發階段,更多以技術創新為基礎,隨后才開發出ChatGPT等產品。這一時期,OpenAI非常強調安全性,還必須探討一些會對人類未來社會產生數百年影響的重大課題。因此,蘇茨基沃這樣技術背景出身的創始人話語權非常大。這也是OpenAI早期作為非營利組織的合理選擇。
但隨著技術的發展,當到產品市場匹配(Product-market fit)階段,OpenAI更多開始考慮如何讓這些技術惠及更多人,蘇茨基沃自己在2019年也曾說過,“邁向AGI并不便宜”,OpenAI需要更多的資金。
而一旦商業化,“非營利”的頂卻很難蓋住。“OpenAI現在處于種子輪融資階段。年初時對外宣稱的估值只有290億美元,近期融資時這個數字已增加至900億美元。接下來,公司的發展將完全依賴于產品和業務的商業化。這意味著需要將產品更有效地推向市場。”Iris稱。
2022年11月,OpenAI發布基于GPT-3的聊天機器人ChatGPT,開始較為明確地產品化。而今年11月的開發日上,OpenAI不僅在模型層上有所推進,還引入微調(fine-tuning)和檢索增強生成(RAG)等基礎設施層的工具,并推出了GPT應用商店和企業定制等生態層的探索,這些都在一年內發生。
“盡管從成立之初開始,OpenAI就在做自己模型的研發,但從產品開發、安全審查開始,到把新功能推向市場,讓市場做檢驗,這一切都發生在一年間,這個速度相當快了。”Iris稱,“我不知道他們節省了多少時間在安全審查上,但我認為這和他們成立之初所期待的標準,以及現在市場上其他大公司的慣常標準相比,都不夠看。”
她繼續說道,許多大公司對AI產品的安全審查往往要耗時一年之久,“即使產品已經準備好上市,仍需經歷各種內部審批程序。比如硅谷某科技公司還會邀請顧問委員會從多個方面測試和監控該產品。只有通過了這些測試,他們才會推出新產品,而不是僅因為產品可用或有市場需求就匆忙推向市場,以此獲得融資。”
奧爾特曼回歸對AI行業意味著什么?
根據新的原則協議,奧爾特曼回歸OpenAI后,將在新董事會的監督下工作。新董事會由前Salesforce首席執行官泰勒(Bret Taylor)擔任主席、前美國財政部長薩默斯(Larry Summers)和現OpenAI董事會成員、問答平臺Quora首席執行官德安吉洛(Adam DAngelo)組成。
原本董事會成員中的麥考利(Tasha McCauley)、托納(Helen Toner)和蘇茨基沃都已不見了蹤影。曾與多位OpenAI雇員有過交流的Iris透露:“麥考利和托納一直都聚焦的是AI安全,強調寧可走慢點,也要保證AI對人類的安全。蘇茨基沃則認為,公司不應再擴大融資規模,因為AI自主技術已經開始令人擔憂。”
董事會成員的調整是否意味著公司內部注重安全審查派的落敗?奧爾特曼回歸,對人工智能行業又意味著什么?
“我認為他們內部可能還在研究這件事要怎么解決。而且,即使蘇茨基沃不在董事會中,也會有其他重視安全的人繼續推進這方面的工作。”Iris說。
沈陽認為,OpenAI的ChatGPT在技術發展上遠超過其他團隊。他稱,OpenAI應該按照自身的規劃速度推動AI技術的進步,同時接受廣泛的公眾監督,特別是在安全方面。
“人類一旦知道某事是可能的,且有明確的結果,就一定可以實現它。如果OpenAI不來引領AGI的開發,可能會有黑客集團嘗試,在沒有公眾監督的情況下,結果可能更危險。”沈陽說。
而對于AI快速商業化可能帶來的潛在安全隱患,沈陽認為,以目前AI的技術水平來看,情況還沒有到積重難返的地步。
“AI大模型的發展經歷著從文本、語音、圖像、視頻、空間視頻到具身智能大模型的階段,只有具身智能大模型的上線會對世界產生巨大影響。”沈陽解釋稱,“但根據當前情況,如果GPT-5無法從組合式創新進步到融合式創新,它所能造成的負面影響是有限的。”
Iris認為,奧爾特曼的回歸再正常不過。
“一般而言,把首席執行官換掉往往是因為營收問題,但奧爾特曼并沒有在這方面出問題。對于一個創業公司最重要的事,一是團隊,二是產品,而奧爾特曼是引領公司把這個餅做大的人。在他并沒有失去人心的情況下把他趕下臺,這個事情本身就很難成立。”她說。
(文章來源:第一財經)
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。