AI的治理模式與中國企業(yè)的應對策略
2025年2月11日,巴黎AI行動峰會引發(fā)了全球對AI治理的廣泛討論及爭議。一方面,包括中國、法國、印度在內的60個國共同簽署了《關于發(fā)展包容、可持續(xù)的AI造福人類與地球的聲明》,強調全球合作、包容性發(fā)展和可持續(xù)治理。但另一方面,美國和英國卻拒絕簽署該聲明,其中美國主張放松對AI的監(jiān)管,而英國則主張該聲明不符合其國家利益。這不僅顯示出各國在AI治理理念上的分歧,而且也凸顯了當前全球在AI監(jiān)管與發(fā)展之間的博弈。
就如何平衡AI的發(fā)展與安全的關系,全球主要有兩種具有影響力的理想類型:一是以“風險分級分類機制+政府強力規(guī)制”為基石,并強調“基本權利保護”的歐盟“權利主義”模式;二是以“市場機制+企業(yè)自我規(guī)制”為基石,并強調“數(shù)據(jù)流動利用”的美國“自由主義”模式。而我國則應當充分借鑒上述兩種模式的優(yōu)點,并同時摒棄其中的劣勢,實現(xiàn)平衡AI創(chuàng)新發(fā)展與個人權利保護之間的關系。
一、歐盟的權利主義模式
歐盟模式的法理基礎是以人為本的權利保護。鑒于AI可能對社會產生的重大影響以及建立信任的必要性,AI產業(yè)發(fā)展的前提條件是以人為本的技術,確保保護人的基本權利和自由,它應作為人類的工具,最終目的是提高人類福祉。歐盟模式的形成,與基于法治的個人權利保護傳統(tǒng)息息相關。如歐盟以“人格尊嚴”等權利價值導向來定義個人數(shù)據(jù),數(shù)據(jù)主體具有自主決定個人數(shù)據(jù)的處理目的及方式的權利。由此,我們很容易理解歐洲人為何不能容忍公開討論薪水,卻可以接受在公共場所脫掉比基尼。
歐盟模式的最終決定因素是經濟基礎,由于沒有成體系的AI產業(yè)及世界排名靠前的超大型AI企業(yè),歐盟在平衡發(fā)展與安全之間關系時,選擇“偏向”安全一邊的“權利保護”,即把權利保護植入AI立法,憑借價值觀等軟實力充分發(fā)揮布魯塞爾效應,影響世界各國的AI治理及立法實踐,尤其依靠超高的技術準入標準和合規(guī)成本,事實上限制了美國、中國等國的跨國企業(yè)進入歐盟市場,以便保護歐盟AI產業(yè);歐盟也可以依據(jù)嚴格的AI法,對違反合規(guī)義務的跨國企業(yè)處以巨額罰款。由此,歐盟把高標準的AI立法作為與美國、中國等主要貿易對手的競爭及談判籌碼,而且權利保護是絕對正確的價值觀,世界各國沒有任何理由予以反對。
歐盟模式的實現(xiàn)機制,則是充分強調政府強力規(guī)制基礎上的綜合治理。如在數(shù)據(jù)保護領域,歐盟一直致力于建立“行業(yè)準則及標準+法律強制性規(guī)范”的雙重規(guī)范體系和“企業(yè)自我規(guī)制+政府強制規(guī)制”的雙重治理體系。
二、美國的自由主義模式
美國AI治理模式的法理基礎是自由主義。其理論來源是產生于上世紀二三十年代的奧地利學派和美國承繼的新自由主義學派,代表人物是米塞斯和哈耶克。美國模式的兩根支柱為“市場主導”和“商業(yè)自由”,即主張市場主導配置下的AI企業(yè)的自我規(guī)制和對政府強制規(guī)制的理性限制。由此,美國對AI創(chuàng)新和產業(yè)發(fā)展的承諾成為反對政府無限干預的經濟理由,而對個人自由和企業(yè)自由的價值支持則被援引為是限制政府通過立法和政策強力規(guī)制AI產業(yè)的政治理由。
美國模式的“自由主義”在加州《前沿AI模型安全創(chuàng)新法》的反對意見中得到充分體現(xiàn):一是主張立法的嚴格規(guī)制將阻礙創(chuàng)新和產業(yè)發(fā)展。如該法案將對開源及初創(chuàng)企業(yè)造成了系統(tǒng)性損害,而它們是加州創(chuàng)新的策源地;如該法案將抑制了美國AI的研究與創(chuàng)新,給其他國家趕超美國提供了機會;如該法案將給加州的AI投資和產業(yè)發(fā)展帶來寒蟬效應。二是主張立法將帶來嚴重的不確定性。如該法案的模糊定義和嚴格法律責任,將給創(chuàng)新帶來了巨大的不確定性和風險;又如該案可能迫使AI研發(fā)轉入地下,這將極大降低AI模型和系統(tǒng)的安全性。
三、中國的AI治理實踐
對于AI的治理,中國早期以促進型產業(yè)政策等“發(fā)展議題”為主,近年來特別是隨著生成式AI的盛行,我們開始同時聚焦倫理審查、算法治理及數(shù)據(jù)隱私等“安全議題”。與歐盟的權利主義模式和美國的自由主義模式不同,中國特色的AI治理具體包括:
我們應當在平衡發(fā)展與安全之間關系的基礎上稍偏向“發(fā)展”一方,正如《生成式AI服務管理暫行辦法》所強調的“國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則,采取有效措施鼓勵生成式AI創(chuàng)新發(fā)展,對生成式AI服務實行包容審慎和分類分級監(jiān)管”。
我們的配置機制是社會市場論,既強調市場機制在AI領域的基礎性配置作用,也強調政府的保護性措施。
我們的實現(xiàn)規(guī)則應當是合作治理論,即強調在信任基礎上實現(xiàn)政府、市場及社會在AI領域的協(xié)同綜合治理。
四、中國AI企業(yè)的應對策略
面對紛繁復雜的全球AI治理模式,中國AI企業(yè)只有在確保技術安全性和法律合規(guī)性的基礎上,才能充分把握AI帶來的巨大經濟與社會紅利。為此,筆者建議中國AI企業(yè)作好以下措施:
1.定義并控制AI模型及系統(tǒng)的邊界。例如,在醫(yī)療、金融等高度敏感領域,AI系統(tǒng)的誤判可能導致嚴重后果,因此企業(yè)應設定嚴格的使用邊界,確保技術不會被應用于未經充分驗證的場景。同時,企業(yè)還需要建立技術準入機制,確保外部AI工具和服務的合規(guī)性。
2.制定詳細的AI治理計劃,建立長期風險管理體系。AI治理不僅涉及技術本身的安全性,還包括企業(yè)管理層的決策機制和執(zhí)行能力。企業(yè)應制定全面的AI治理框架,涵蓋數(shù)據(jù)處理、算法透明度、倫理審查、監(jiān)管應對等方面。與此同時,AI治理必須是動態(tài)的,企業(yè)需要建立定期評估機制,以適應不斷變化的法規(guī)環(huán)境和技術發(fā)展趨勢。
3.重點關注網(wǎng)絡安全、個人信息保護和數(shù)據(jù)安全。AI系統(tǒng)處理海量數(shù)據(jù),其中涉及大量個人信息和敏感數(shù)據(jù)。因此,企業(yè)必須遵循“零信任”安全原則,即在系統(tǒng)內部不默認信任任何用戶或設備,而是采用嚴格的身份驗證、數(shù)據(jù)加密、訪問控制等措施,以防止數(shù)據(jù)泄露和濫用。
4.實現(xiàn)AI風險的均衡化和分散化。AI系統(tǒng)的集中式架構可能導致單點故障問題,甚至帶來系統(tǒng)性風險。因此,企業(yè)應將AI功能模塊化、分散化,從而降低因技術故障或攻擊導致的整體損害。同時,企業(yè)還應加強AI系統(tǒng)的冗余設計,以提升穩(wěn)定性和容錯能力。
5.加強AI系統(tǒng)全生命周期的數(shù)據(jù)合規(guī)和治理。數(shù)據(jù)治理是AI治理的重要組成部分,企業(yè)必須在數(shù)據(jù)的采集、存儲、使用、共享和銷毀等各個環(huán)節(jié)建立嚴格的合規(guī)管理體系。例如,企業(yè)應確保數(shù)據(jù)的來源合法,避免使用未經用戶授權的數(shù)據(jù)訓練AI模型。
6.提高組織內部AI素養(yǎng),強化用戶培訓。AI企業(yè)應加強員工培訓,確保研發(fā)人員、管理者及用戶都能理解AI技術的風險和使用規(guī)范。例如,數(shù)據(jù)科學團隊需要接受關于算法公平性和偏見檢測的培訓,而普通用戶則應了解AI的基本操作和隱私保護要求。
7.通過倫理審查和偏見測量,確保AI的可信性。企業(yè)應建立AI倫理審查委員會,定期對算法進行偏見測量和公正性測試。此外,企業(yè)還可以引入外部專家審核機制,確保AI技術的使用符合社會責任要求,避免因算法偏見導致歧視性決策或不公平待遇。
綜上所述,中國AI企業(yè)在全球治理趨勢下,需要采取全面的合規(guī)措施,不僅要確保技術安全、數(shù)據(jù)合規(guī)和網(wǎng)絡安全,還要關注AI倫理、風險管理以及組織內部的AI教育。只有在合規(guī)的基礎上穩(wěn)步推進技術創(chuàng)新,中國AI企業(yè)才能在全球競爭中占據(jù)有利位置,充分把握人工智能發(fā)展的時代機遇。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。