OpenAI發(fā)文介紹保障AI安全的方法
北京商報訊(記者 楊月涵)當?shù)貢r間4月5日,ChatGPT研發(fā)者OpenAI在其官網(wǎng)發(fā)布了題為《Our approach to AI safety》(《我們保障AI安全的方法》)的文章,介紹了該公司確保AI模型安全性的部署。該文章介紹了六個方面的部署,一是構(gòu)建越來越安全的AI系統(tǒng),二是從實際使用中積累經(jīng)驗以改善安全措施,三是保護兒童,四是尊重隱私,五是提高事實準確性,六是持續(xù)研究和參與。
OpenAI表示,努力在可行的情況下從訓練數(shù)據(jù)集中刪除個人信息,微調(diào)模型以拒絕對私人信息的請求,而且能響應用戶從OpenAI的系統(tǒng)中刪除個人信息的請求。
加拿大隱私專員辦公室(OPC)4日宣布開始調(diào)查OpenAI,涉及“指控OpenAI未經(jīng)同意收集、使用和披露個人信息”的投訴。意大利數(shù)據(jù)保護局(Garante per la Protezione dei Dati Personali)上月底暫時禁用ChatGPT,并對該工具涉嫌違反隱私規(guī)則展開調(diào)查。
相關(guān)推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務必進行充分的盡職調(diào)查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。