OpenAI組建新團隊防范AI的“災難性風險”
每經 AI 快訊,OpenAI 當地時間 10 月 26 日在一篇博文中宣布其已經成立了一個名為 " 準備 "(Preparedness)的團隊,將分析并試圖防范人工智能系統潛在的 " 災難性風險 ",從網絡安全問題到化學、核和生物威脅。該團隊還將制定一項政策,旨在幫助公司確定如何降低開發 " 前沿模型 "(比目前技術能力更強的下一代人工智能技術)可能帶來的風險。長期以來,OpenAI 的目標一直集中在構建通用人工智能(AGI)上,即能夠比人類更好地執行一系列任務的人工智能。雖然目前的系統并不符合這一描述,但該公司表示其需要 " 確保我們擁有高性能人工智能系統安全所需的理解和基礎設施 "。(每日經濟新聞)
每日經濟新聞
宙世代宙世代ZAKER旗下Web3.0元宇宙平臺
智慧云智慧云ZAKER旗下新媒體協同創作平臺
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。