AI安全性受冷待?Meta重組RAI團隊全力押注生成式AI
財聯社11月19日訊(編輯 周子意)Meta發言人最新透露,Meta已經解散了其Responsible AI(RAI)部門,該部門致力于在開發和部署人工智能項目時對其安全進行監管。
發言人表示,RAI團隊的大多數成員已被重新分配到公司的生成人工智能(Generative AI)產品部門,而其他一些人現在將在人工智能基礎設施團隊工作。
Meta公司今年2月誕生的生成式人工智能團隊專注于開發能夠生成語言和圖像的產品,以模仿類似人類的人工智能版本。
自人工智能熱潮開始以來,不僅Meta公司,與此同時各大科技公司紛紛向機器學習開發和投入資金,以免在人工智能競賽中落后。
此次RAI部門的重組證實了公司首席執行官馬克·扎克伯格在2月份的財報電話會議上的話。他當時指出,RAI的重組將在Meta“效率年”接近尾聲之際進行的。到目前為止,該公司已經出現了一連串的裁員、團隊合并和重新分配。
安全監管還受重視嗎?
不過,雖然RAI部門解散了,但是確保人工智能的安全仍是科技巨頭們的首要任務,尤其是在監管機構和政府官員更加關注這項新興技術的潛在危害之際。
今年7月,Anthropic、谷歌、微軟和OpenAI成立了一個行業組織,專門致力于為人工智能的進步制定安全標準。
Meta發言人指出,RAI的員工現在已經分散在整個組織中,他們將繼續支持“負責任的人工智能安全開發和使用”。
該發言人表示,“我們將繼續優先考慮并投資于安全和負責任的人工智能開發。”
此外,值得一提的是,席卷本周末的OpenAI 的“政變”風波似乎透露出一個信息。
此次內斗的根源在于,AI監管與商業化之間的矛盾。OpenAI首席科學家Ilya Sutskever無法接受首席執行官Sam Altman激進的商業化戰略,因此和其他董事聯手,罷免了Altman和公司總裁Greg Brockman。
可見在AI商業化上不斷提速,已經把AI安全放在次要位置了。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。