時評丨OpenAI宮斗背后:資本驅動AI狂飆被倫理“閃了一下腰”
上周末,美國人工智能公司OpenAI的創始人兼CEO山姆·奧特曼突然被董事會解雇,這一重磅消息在整個科技圈引起了軒然大波。隨后,包括微軟在內的多家投資機構向董事會施壓,要求恢復奧特曼的職位。后續事態的發展就猶如一場宮斗大戲,在短短的幾天時間里,這家擁有ChatGPT的全球人工智能頭部企業,經歷了解雇CEO、任命臨時CEO、更換臨時CEO、再到奧特曼重新回歸擔任CEO等一系列動蕩。在這充滿一波三折的戲劇性的背后,人們在關心這家頭部人工智能公司后續發展的同時,更加關注整個人工智能行業未來的發展,正如特斯拉及SpaceX的CEO埃隆·馬斯克所說的,奧特曼的被解雇是否與OpenAI出現了對人類安全有威脅的事情有關。
據彭博社的報道,奧特曼被解雇可能是由與OpenAI首席科學家伊爾亞·蘇茨克維發展理念不符所導致的。蘇茨克維認為OpenAI的首要任務“不是構建下一個GPT或DALL-E,而是找出如何阻止AI失控的方法”。相反,奧特曼卻醉心于商業化,通過不斷推出新的功能,涉足更多的領域,來籌集資金和擴大規模。在11月7日OpenAI首個開發者大會上,奧特曼發布了具有更長上下文、更新知識庫的迄今為止最強的GPT-4 Turbo以及可以定制化的GPTs。同時,奧特曼表示OpenAI正在開發下一代人工智能模型GPT-5。這些舉措都與蘇茨克維的理念相違背。他們關于商業發展與安全監管的理念分歧也折射出了當前整個人工智能行業發展的問題。
大模型需要大算力,沒有資本的巨大投入將難以實現大規模的運算。在目睹ChatGPT的成功后,各大資本紛紛進場。在資本的推動下,整個科技行業對大模型的研發熱潮涌動。硅谷新成立了許多大模型公司,中國互聯網大廠也都陸續推出了自己的大模型產品,還有許多垂直領域的大模型應用正在層出不窮的涌現。然而,資本最終是要逐利的。持續的巨大投入、日趨激烈的競爭環境,都會給商業變現帶來挑戰。為了搶占行業制高點,資本狂飆突進,狂熱地追求技術進步,一切限制技術發展的行為都將被忽略,而至關重要的AI安全問題、人工智能價值觀對齊問題都被置若罔聞了。畢竟“天下武功,唯快不破”,沒有誰愿意在逆水行舟的競爭環境中首先停下來。
可是,安全是一個必須直面的問題。11月1日至2日,全球首次人工智能安全峰會在英國召開,會議地點選在了“人工智能之父”阿蘭·圖靈發明第一代圖靈計算機的布萊切利莊園。這一充滿意義的會議選址也彰顯了在新的起點上人類需要重新思考人工智能未來的發展問題。
目前,對前沿人工智能可能存在的風險,AI業界還存在爭論。“人工智能三巨頭”、圖靈獎得主杰弗里·辛頓和約書亞·本吉奧認為AI技術可能會引發危險的“末日論”。而同為“人工智能三巨頭”、圖靈獎得主的楊立昆以及斯坦福大學教授吳恩達等人則認為沒有任何證據表明AI技術將會滅絕人類,對末日論的過度恐懼會扼殺創新。雖然對未來人工智能模型能否構成人類生存威脅的擔憂還存在爭議,但是對當前人工智能帶來的網絡安全、生物技術和加劇傳播虛假信息等方面的風險大家卻達成了廣泛共識。為應對人工智能技術的濫用與失控,英國成立了全球首個人工智能安全研究所,用以開發和評估先進的人工智能系統,推動基礎人工智能安全研究。OpenAI則拿出五分之一的算力用于安全研究,用以研發超級智能對齊,來保證人類對超級智能的可控。
未來已來。正如《OpenAI憲章》所說,我們致力于開展確保AGI安全所需要的研究,并推動AI領域廣泛采用這些研究。誠然,能造福全人類的AGI才是我們人類所需要的。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。