18國簽署AI國際協議,全生命周期入手打造安全系統
21世紀經濟報道記者 馮戀閣 實習生李伊靜 廣州報道
ChatGPT發布距今已有近一年。隨著其技術和應用從小范圍的新奇嘗試走向與千行百業融合,與之相關的安全問題也走到聚光燈下。
2023年11月27日,美國、英國和其他十幾個國家共同簽署了國際協議《安全人工智能系統開發指南》(以下簡稱“指南”),幫助人工智能開發者依循“設計安全”的方法打造AI系統。
“安全性必須是核心要求,不僅開發階段,在系統的整個生命周期中都應保障安全。”指南發布的官方公告中如此寫道。
18國簽署協議
據悉,指南由英國國家網絡安全中心(National Cyber Security Agency,NCSC)主導,并與美國網絡安全和基礎設施安全局(Cybersecurity and Infrastructure Security Agency,CISA)共同制定。
據悉,這一指南并不具備強制性,其旨在幫助任何使用人工智能系統的開發人員在開發過程的每個階段做出明智的網絡安全決策,包括從零開始設計的或建立在已有的工具和服務之上的系統。
具體來看,其從安全設計、安全開發、安全部署以及安全運維四個關鍵領域給出了建議。
在對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣看來,協議覆蓋人工智能研發、部署和運行的整個生命周期,具有系統性指引的特征。
在安全設計方面,指南要求系統所有者提高員工對威脅和風險的認識、對系統面臨的威脅進行建模、在設計時考慮安全性、功能和性能、選擇 AI 模型時考慮安全優勢和權衡等。
“強調安全設計原則,即將治理的節點前置到設計階段,可以一定程度上有效避免‘先污染、后治理’的傳統風險治理路徑所帶來的弊端和局限。”張欣指出。
在開發階段,開發人員需采用確保供應鏈安全,遵守適用的安全標準;還需確保加密措施得到有效實施,以保護數據隱私等。
而部署階段,指南提出了包括保護基礎設施和模型免受損害、制定事件管理程序、負責任地發布AI系統、保障配置時的默認選項能夠廣泛地抵御常見威脅等。
在安全運維方面,指南則提供了系統部署后的安全保障舉措,包括運營人員應監控和記錄輸入端信息,以便在出現漏洞時調查和補救、呼吁運營人員參與信息共享社區,積極收集、分享經驗教訓等。
值得注意的是,指南中多次強調了評估和監控人工智能供應鏈的安全性,要求模型擁有者對訓練數據、代碼和模型的安全性做好監控。
“這點十分重要。”在張欣看來,與傳統的人工智能供應鏈相比,以生成式人工智能為代表的供應鏈結構實際上發生了實質性的變革,治理和監管框架應予以相應回應和調整。協議中要求確保整個供應鏈的安全,體現了技術邏輯、產業邏輯和法律邏輯的有機結合。
據悉,除了英國和美國,簽署協議的18個國家還包括德國、意大利、新加坡、澳大利亞等。
凝聚共識仍是難點
隨著人工智能治理的加速,各個國家、地區相關文件出臺節奏逐漸加快。
我國于今年7月發布《生成式人工智能服務管理辦法》;歐盟的《人工智能法案》今年來也已經歷經多輪修改和爭議;美國則于日前發布《關于安全、可靠和可信地開發和使用人工智能的行政命令》以期推進人工智能的開發和使用。
除了各國相繼出臺人工智能治理文件,跨越國家和地區的相關文件發布也逐漸密集。
“一系列治理文件恰是在全球人工智能治理新秩序形成過程中的必然階段。”張欣認為,近期出現的一系列技術及其應用使人類正以前所未有的速度逼近通用人工智能。這一發展趨勢革新了全球人工智能治理的格局,推動構建匯聚廣泛共識的全球人工智能治理體系也日益成為各方共同訴求。
比如10月,七國集團發布《開發先進人工智能系統組織的國際行為準則》,呼吁公司應定期評估其模型的風險,并關注可能對民主價值觀或社會構成威脅的系統。
同月早些時候,聯合國成立了一個新的AI咨詢機構,為國際社會加強對AI的治理提供支持。這一機構主要任務包括就風險和挑戰建立全球科學共識,為利用AI實現可持續發展目標提供助力,以及加強 AI方面的國際合作。
不過張欣也提醒道,目前,人工智能治理的國際合作仍然在現階段具有高度碎片化特征。一些國家和地區可能廣泛推行基于意識形態認同的“技術治理聯盟”,甚至出現為了贏得技術和經濟競爭優勢而削減監管的問題。因此,未來一段時間內,仍然需要探尋真正多元、包容、公平的全球人工智能治理協同與合作機制。
“如何真正匯聚共識,達成全球范圍內的有效協同仍然是難點與挑戰。”她指出。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。