首頁 > AI資訊 > 最新資訊 > AI立法進行時丨讓AI更負責任,需打開“黑箱”

AI立法進行時丨讓AI更負責任,需打開“黑箱”

21世紀經濟報道    2023-12-25

  21世紀經濟報道見習記者肖瀟實習生劉悅行北京報道

  一項難以解釋、不被理解的科技,人們能信任它嗎?

  答案有些反直覺:也許能。

  在普遍認知中,信任的基礎是可解釋、可理解。但在漫長的技術史中,對大多數科技產品的信任往往并不取決于信息披露——想想電梯、電視、電腦,普通人不需要完全理解這些技術的邏輯,也能放心使用。

  人工智能技術在過去一年突飛猛進,“算法黑箱”始終是縈繞人工智能的一大困擾,透明度、可解釋性已經成為人工智能治理的共同原則。2023年11月,世界互聯網大會發布《發展負責任的生成式人工智能共識》,第六條共識就是增強生成式人工智能系統的透明度與可解釋性。

  對于人工智能,為什么強調透明度和可解釋性?二者有什么關系?應該為此設立怎樣的監管護欄?

  12月18日,由中國社會科學院法學研究所主辦,南財合規科技研究院承辦的“人工智能安全風險和法律規制研討會”在北京舉行,專家代表就人工智能的透明度和可解釋性,提出了多種思考視角。各界代表指出,考慮到非比尋常的計算量級,人工智能的可解釋性難度大。因此在制度設計上,針對需要保護個人權益的用戶、需要問責的監管機構,應將透明度和可解釋性分情景討論。提出具體要求時,需要尤其注意數據安全、知識產權保護問題。

  可解釋性是提高透明度的前提和手段

  中國人民公安大學數據法學研究院院長、法學院教授蘇宇首先指出,可解釋性一詞來自兩個方面:一是“可詮釋的機器學習”中的“可詮釋”(interpretable),二是“可解釋的人工智能”中的“可解釋”(explainable)。

  當下的人工智能治理要求中,通常采用的是“可解釋”。

  可解釋性和透明度有什么關系?南財合規科技研究院首席研究員、21世紀經濟報道合規新聞部副主任王俊分析,人工智能模型的可解釋性是提高透明度的前提和手段,也是影響透明度的重要因素。簡單來說,算法設計完成時,可解釋性程度就已基本確定,但此刻透明度仍然接近于零——需要通過事后的披露、解釋和說明工作,才能滿足透明度的要求。

  王俊進一步解釋,這是因為可解釋性是算法模型的客觀屬性,即某一算法在技術架構上是否具備了作算法解釋的條件;而透明度需要結合算法運行的客觀結果和用戶的主觀預期,也就是解釋算法決策的內在邏輯,特定因素在其中的實際影響力,讓其結果符合用戶的主觀認知和預期。

  “人工智能的決策空間會越來越大,未來我們不可避免跟人工智能打交道。透明度和可解釋性是保障人工智能系統可信的關鍵,也是落實我們每個人主體權利的重要一環。”王俊表示。

  人工智能可解釋嗎?

  在實踐層面,關于人工智能透明度和可解釋性的情況并不樂觀。斯坦福大學于10月18日發布的研究的“基礎模型透明指數”,對10家主要的人工智能公司進行排名。得分最高的是臉書母公司Meta Platforms推出的人工智能模型“Llama 2”,但得分僅有54%,而OpenAI的GPT-4排名第三,得分為48%。

  中國移動研究院法務管理主管郝克勤認為,目前的挑戰來自算法安全。“為了規避系統和算法被惡意利用和操控的風險,有必要對算法的運行保持最低水平的不透明度,雖然可能有損可解釋性,但是確保人工智能的安全性。而且從實際效果來看,模型的透明度會犧牲其有效性和準確性為代價,同時由于存在實際理解層面的偏差及算法的內部邏輯的描述難度,不合理的算法公開反而會適得其反,增強用戶不信任感。”此外,“代碼的披露以及知識產權安全等角度同樣面臨風險,可能泄露人工智能模型和工作機制等商業敏感材料,或者不恰當地披露用戶個人數據信息。”

  郝克勤也指出,最大的挑戰其實還是人工智能難以解釋。算法內在邏輯非常復雜,怎樣把技術術語描述成大眾和監管部門理解的內容有很大困難,很難向用戶解釋實現自動化的決策過程。

  王俊同樣認為,人工智能的可解釋性是一道難題:“有學者認為,不可解釋性本身就是人工智能的一種特性。而且,人類的思維是因果關系,但機器學習大部分是相關關系,向公眾解釋這一過程很難。”

  而對于透明度,王俊則認為過于寬泛的范圍會使公眾無法理解。此外,還存在義務范圍難以界定、人工智能研發者和提供者的合規成本難擔等一系列問題。

  拿透明度的制度設計來說,不同的主體和專業能力不一樣,透明度的標準也不盡相同。透明度的顆粒度也是一道難題。以隱私政策為例,過于冗長、細致的隱私政策,對普通用戶往往是一種負擔,甚至會阻礙用戶進一步理解實際個人信息收集情況。“如果透明度顆粒度太細,一定程度上就把責任和負擔轉嫁給了公眾。”王俊指出。

  值得注意的是,人工智能的透明度和可解釋性,和個人信息保護法下的透明度和可解釋性可能有不同含義。對外經濟貿易大學法學院教授許可認為,個人信息保護法圍繞個人的人格利益展開,但“不是所有的人工智能都與個人信息有關。”此外,從宏觀視角看待人工智能的可解釋性和透明度,許可認為可以將其統一理解為信息規制的工具,以信息披露的方式解決人工智能的種種問題。

  可解釋性和透明度通向何方?

  法律、監管政策中關于透明度與可解釋性的條款眾多、由來已久。當地時間12月8日,歐盟就全球首個全面監管AI的《人工智能法案》達成臨時協議,其中第13條納入了“設計透明”的原則,規定“高風險人工智能系統的設計和開發應確保其操作足夠透明,以便用戶能夠理解系統的輸出并適當使用它。”這意味著,在開發高風險的人工智能系統時,應該及早討論透明度問題。

  2023年10月,全國信息安全標準化技術委員會發布了《生成式人工智能服務安全基本要求》(征求意見稿),對于模型安全的服務透明度方面規定,以交互界面提供服務的,應在網站首頁等顯著位置向社會公開服務適用的人群、場合、用途等信息,和第三方基礎模型使用情況。

  但人工智能的透明度和可解釋性仍有許多角落需要探索。

  在許可看來,透明度、可解釋性對解決信任問題的作用是有限的,這是因為許多關于信息披露的經濟學研究都顯示,人們有“決策厭惡”的傾向——意思是人會避免做陌生、復雜的決定。可以說,信息披露并不是產生信賴的關鍵要素,它的目的應該是讓人工智能更負責任。

  許可解釋,責任首先面向用戶,除了普遍性的信息披露,如果發生個人侵權事件,可以要求人工智能的解釋承擔基于個案的證明責任。另一種責任則面向監管者,旨在完善問責機制。“中國之前的行政監管經驗,比如算法備案、算法評估,實際上都起到了固定信息的作用。目的是如果事后出現問題,能夠追究責任,而且后續的檢查都在這個框架中展開。”許可認為,透明度和可解釋性應該放置于信息披露的制度框架中,核心是面向監管機關的信息披露。

  蘇宇則認為,如何解釋應該分情景討論。對于面向一般公眾的常規情景,提供基本文字說明的軟解釋即可,現有實踐包括字節跳動、美團旗下產品的算法說明;對于專業使用場景,應該提供混合解釋。頂尖人工智能圍棋軟件就提供了一個很好的示范,下哪一步棋、每步棋的預測勝率、大致的預測依據,都有清晰的可視化解釋,能夠將專業術語翻譯為通俗易懂的語言。

  更深層次的問責問題,則是另一種情況。在這種情況下,需要以數值化、計量化的方式,可靠地披露算法模型中人們關心的某一個或某一組輸入對輸出的影響,也就是提供“硬解釋”。蘇宇坦言,人工智能計算量級巨大,可能難以實現算法解釋義務,但“可以提出架構透明的要求,不一定所有算法設計都公開,但起碼披露出大概架構。架構透明的基礎下,再針對權益保障和法律爭議問題,提供混合解釋或者硬解釋,以此保護不同場景下的合法權益。”

  此外,業界、學界代表都認同透明度和可解釋性應分不同維度。郝克勤就提到,維度可以是不同主體,比如分成需要保護個人權益的用戶、需要維護安全的監管機構;也可以是不同行業,比如按行業監管要求,分為自動駕駛、醫療、新聞領域等等。

  值得一提的是,自愿激勵、第三方治理的方式是多方認可的路徑。許可建議參考企業ESG認證,鼓勵市場化的專業測評、認證機構。而企業合規承諾書,也可以是提高用戶對人工智能系統信任的一大保障。

(文章來源:21世紀經濟報道)

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章