“宮斗”背后是對人工智能的道德拷問
近日,知名科技公司OpenAI陷入“宮斗”,董事會突然宣布將創(chuàng)始人兼首席執(zhí)行官薩姆·阿爾特曼掃地出門。作為發(fā)明ChatGPT的人工智能明星公司,OpenAI管理層的變動迅速引發(fā)關注。
身為公司“一把手”,阿爾特曼對OpenAI從一家小機構成長為全球科技領域“獨角獸”有著重要貢獻,為何董事會要趕走這樣一位“功勛人物”?目前來看,通用人工智能發(fā)展應當是“安全優(yōu)先”還是“商業(yè)化優(yōu)先”,是沖突爆發(fā)的核心原因之一。
OpenAI成立之初是一家非盈利機構,其設立了宏大愿景——確保人工智能不被壟斷以造福人類。這樣的理想主義目標,吸引了一大批頂級AI科學家紛紛加入。阿爾特曼則在 2019 年將這方“理想之地”改制成了營利公司,并推出ChatGPT引發(fā)了全球新一輪人工智能熱潮。然而,OpenAI在獲得巨大商業(yè)成功的同時,數據泄露、深度偽造、AI失控等一系列安全隱患愈發(fā)凸顯,而阿爾特曼仍在全力加速下一代GPT研發(fā)以鞏固商業(yè)優(yōu)勢。最終公司內部的“安全保守派”掀起風暴,推動董事會“流放”了阿爾特曼等“商業(yè)激進派”,試圖讓公司回歸初心。
猶記得八個月前,包括馬斯克在內的上千名科技人士曾發(fā)表聯(lián)名信,呼吁暫停超強AI研發(fā),也喚起了全球對AI安全問題的重視。如今,OpenAI上演的這出“權力的游戲”,再次將人工智能發(fā)展所面臨的道德拷問展現(xiàn)在世人面前。
眼下,由于涉及上千億參數與復雜的算法結構,一些AI大模型所展示的內容“涌現(xiàn)”能力已令締造者不可預測,其衍生的造假、侵犯隱私等問題更是大幅提高了監(jiān)管難度。令人擔憂的是,實現(xiàn)平衡AI發(fā)展、安全性和商業(yè)化之間的關系是一個復雜問題,需要綜合考慮技術成熟度、道德準則和法律法規(guī)等因素,必然耗費大量時間。但在商業(yè)公司對于金錢的欲望、壟斷的野心、落后的恐懼和安全的無共識下,全球人工智能行業(yè)已經陷入了“千模大戰(zhàn)”,在數據、算力和算法上瘋狂“內卷”。正如OpenAI首席科學家伊爾亞·蘇茨克維所指出的,“世界需要清醒地認識到,各公司競相研發(fā)使‘超級智能’從‘永遠可能不會發(fā)生’變成了‘很快就會發(fā)生’。”
在超越人類的人工智能出現(xiàn)之前,其風險應當被高估還是低估?不同的人有不同答案。但顯然,高估風險,人類或許會浪費一些資源,而低估,則很可能意味著無法彌補的傷害。汽車暢行馬路五十年后,安全帶才被發(fā)明出來有效減少事故發(fā)生;DDT殺蟲劑面世近百年后,人類才懷疑其有害環(huán)境……回顧科技發(fā)展史,對于前所未見的新科技,人類可能永遠不會有“準備好”的一天,但唯有行動起來才能解決問題,至少減輕傷害。
值得欣慰的是,全球對于強化人工智能監(jiān)管已經達成了一些共識。一方面,從美國提出負責任地使用人工智能的“五項核心原則”,到日本的“以人為本的人工智能社會原則”,再到中國的“包容審慎的分類分級監(jiān)管”……世界各國紛紛揮筆立法,以期為這一技術巨獸劃定明確的邊界。另一方面,近期通過2023年APEC會議、第三屆“一帶一路”國際合作高峰論壇等國際對話,各方積極貢獻智慧,支持在聯(lián)合國框架下討論人工智能治理,推動形成普遍參與的國際機制和具有廣泛共識的治理框架。這對于保障AI為人類的未來發(fā)展提供助力而不是成為威脅,都是有益航標。
今天的人類,已經跨越機械化、電氣化、自動化的山巒,行進于智能化的快車道。有理由相信,讓理性與智慧之光照耀人工智能的星辰大海,人類能夠引導這場科技革命走向更加明亮、公正和有益的未來。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。