微軟谷歌聯盟積極推進AI安全標準
北京時間 10 月 25 日晚間消息,微軟、谷歌、人工智能初創企業 OpenAI 和 Anthropic 正加緊推進人工智能(AI)安全標準的制定工作,并于今日任命了一名董事,以期填補全球監管方面的空白。
圖源 Pexels今年夏天,這四家科技巨頭聯合成立了新的產業組織“前沿模型論壇”(Frontier Model Forum),致力于安全和負責任地開發 AI 模型。今日,他們又任命美國智庫布魯金斯學會(Brookings Institution)的人工智能主管 Chris Meserole 擔任該組織的執行董事。
此外,前沿模型論壇還表示,計劃向一個人工智能安全基金投資 1000 萬美元。
Meserole 對此表示:“我們距離真正的監管可能還有一段路要走。在此期間,我們希望確保這些系統(監管規則)盡可能安全。”
在過去的幾個月里,人們越來越擔心日益強大的人工智能有可能取代人類工作崗位,創造和傳播錯誤信息,或者最終超過人類智能。
Meserole 表示,該論壇將尋求對任何官方法規進行“補充”。據預計,歐盟的人工智能法案將在明年初敲定。與此同時,英國將于下周主辦首屆全球人工智能安全峰會,各國領導人和主要科技高管將受邀討論相關的合作。
Meserole 還稱,論壇最初將重點關注風險,包括人工智能幫助設計生物武器的能力,以及生成可用于促進關鍵系統黑客攻擊的計算機代碼的能力。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。