首頁 > AI資訊 > 最新資訊 > 培育可信、可靠、負責任的AI|吳何奇

培育可信、可靠、負責任的AI|吳何奇

新火種    2025-05-04

黨的二十屆三中全會強調,建立人工智能安全監管制度。對于生成式AI等前沿技術而言,亟待構建涵蓋研發、應用、監管的全周期治理框架,確保技術演進始終行進在安全可控的發展軌道。在此背景下,構建具有中國特色的人工智能治理范式,實現大模型價值對齊的機制突破,已成為培育可信人工智能生態系統的戰略支點。

人工智能技術的迅猛發展將大模型價值對齊的重要性推向新高度。一方面,大模型價值對齊是塑造可信AI生態的核心命題。這要求從算法設計到應用場景落地的全生命周期中,必須嵌入人類價值共識與社會倫理準則,特別是在醫療決策、司法輔助等高敏領域。另一方面,人工智能技術的持續進步需要以社會信任為基石,確保智能系統與人類價值觀的精準對齊,這已成為破除信任壁壘的關鍵突破口。通過構建數據全生命周期管理體系,特別是在特征工程階段引入公平性審計,可以提升算法決策的透明度。這種透明化改造,實質上是在技術黑箱中嵌入可驗證的價值錨點。這種將技術可控性轉化為社會共識的實踐路徑,正在全球范圍內形成示范效應,為人工智能的規模化應用鋪平信任通道。

在數據要素深度應用的背景下,AI治理的三個核心問題尤為突出:一是數據隱私保護。當前AI系統采集的海量用戶數據包含大量生物特征、行為軌跡等敏感信息,但現行數據脫敏和加密技術難以完全防范安全漏洞。這種系統性風險不僅削弱公眾信任,更直接影響大模型訓練數據的完整性與合規性。二是偏見或歧視。由于數據的不完整性和算法的局限性,數據質量問題可能導致大模型在訓練過程中學習到偏見和歧視性信息,這種技術性偏見正在消解人工智能系統的決策公信力。三是人工智能的安全性和可靠性。由于深度神經網絡的“黑箱”特性導致其行為預測困難,其在運行過程中可能會出現各種安全性和可靠性問題。

對此,可從以下方面完善人工智能治理體系,推動大模型價值對齊:

一是筑牢數據隱私保護屏障。構建全周期數據安全管理框架需要多方協同。加快《人工智能法》立法進程,構建“標準-認證-問責”的閉環體系,探索建立類似歐盟CE認證的AI產品準入制度。通過出臺法規條例規范數據全生命周期的權責關系,建立分級分類監管機制。市場主體應推進隱私計算技術創新,深化聯邦學習、同態加密等前沿技術的應用場景,構建數據可用不可見的安全環境。同時完善公眾知情同意機制,通過可視化界面與簡明條款提升用戶隱私控制能力,培育全民數字權益保護意識。

二是構建AI治理雙軌機制。在人工智能邁入“模型即服務”的新階段,AI治理需要從被動響應轉向主動塑造。通過構建包含技術規范、制度框架、社會協同的立體化治理體系,有效防范“算法黑箱”“數據偏見”等風險,為技術創新劃定更為安全的發展航道。通過建立算法備案審查制度與動態評估體系,強制要求核心算法提交備案并定期進行公平性審計。研發端推行倫理嵌入設計,在算法模型中設置偏見檢測模塊和可解釋性接口。應用端建立影響分級制度,對教育、醫療等民生領域算法實施穿透式監管。搭建算法透明度公示平臺,利用自然語言生成技術將復雜模型轉化為可理解的決策邏輯說明。

三是強化AI系統可信保障。構建覆蓋研發全流程的安全認證體系,建立人工智能產品準入負面清單。在自動駕駛、醫療診斷等關鍵領域建立故障熔斷機制。推行AI系統雙盲壓力測試,通過模擬極端場景檢驗系統可靠性。建立人工智能事故追溯制度,明確研發者、部署者、使用者的責任邊界。

四是推動AI治理國際交流與合作。加強與其他國家和國際組織的AI治理交流與合作,推動AI治理國際標準的制定和實施。組建“一帶一路”AI治理聯盟,搭建跨國監管協作平臺。同時,鼓勵頭部企業參與全球倫理倡議,在海外業務中推廣中國治理方案,促進不同文化背景下的治理經驗共享。

(作者單位:上海政法學院)

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章