革命性o1模型問世,OpenAI警示:生物武器風險也有所上升
9月14日訊(編輯 趙昊)美國人工智能公司OpenAI承認,其最新的o1模型“顯著”增加了被濫用于制造生物武器的風險。
當地時間周四(9月12日),OpenAI發布了新一代o1系列模型,宣稱可以推理復雜的任務并解決比以前的科學、編碼和數學模型更難的問題。這些進展也被認為是朝向通用人工智能(AGI)的關鍵突破。
根據測試,o1模型在國際數學奧林匹克的資格考試中,能夠拿到83%的分數,而GPT-4o只能正確解決13%的問題。在編程能力比賽Codeforces中,o1模型拿到89%百分位的成績,而GPT-4o只有11%。
OpenAI表示,根據測試,在下一個更新的版本中,大模型在物理、化學和生物學的挑戰性基準測試中,表現能夠與博士生水平類似。但能力越強的AI模型意味著其潛在的破壞力也更強。
同一時間,OpenAI公布了o1的系統卡(用于解釋AI如何運作的工具),報告概述了包括外部紅隊測試和準備框架(Preparedness Framework)等細節,并介紹了其在安全及風險評估方面所采取的措施。
報告提到,o1在“化學、生物、放射和核”(CBRN)武器相關的問題上存在“中等”(medium)風險——這也是OpenAI有史以來對其模型打出的最高風險評級。
OpenAI表示,這意味著該技術“顯著提升”了專家制造生物武器的能力。據了解,評級一共分為“低、中、高和嚴重”四檔,評級在“中”或以下的模型才可以部署,在“高”或以下的才可以進一步開發。
專家稱,具有更先進功能(例如執行逐步推理的能力)的AI軟件,在惡意行為者手中更容易被濫用。
圖靈獎得主、蒙特利爾大學計算機科學教授Yoshua Bengio表示,如果OpenAI現在在化學和生物武器方面構成“中等風險”,那么這“進一步加強了”立法的必要性和緊迫性。
Bengio提到了有望即將落地的“SB 1047法案”,全稱“前沿人工智能模型安全創新法案”。該法案要求大型前沿人工智能模型的開發者采取預防措施,其中就包括減少模型被用于開發生物武器的風險。
Bengio稱,隨著前沿AI模型向AGI邁進,如果沒有適當的防護措施,風險將繼續增加,“AI推理能力的提升及其利用該技能進行欺騙的潛力尤其危險。”
OpenAI首席技術官米拉·穆拉蒂(Mira Murati)告訴媒體,由于o1模型的先進功能,公司在向公眾推出該模型時采取了特別“謹慎”的態度。
她補充道,模型通過了紅隊測試,在整體安全指標上遠優于之前的版本。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。