首頁 > AI資訊 > 最新資訊 > 復旦大學管理學院張成洪:如何“治理”AI算法,為人類自身“解困”?

復旦大學管理學院張成洪:如何“治理”AI算法,為人類自身“解困”?

新火種    2023-09-20

8月31日訊(編輯 李夢琪 郭楠)據(jù)了解,國內(nèi)將有11家大模型陸續(xù)通過《生成式人工智能服務(wù)管理暫行辦法》備案,首批將在8月31日起陸續(xù)向全社會公眾開放服務(wù)。

image

為人工智能技術(shù)發(fā)展帶上枷鎖、規(guī)范發(fā)展是讓技術(shù)更好為人類服務(wù)的必然選擇。隨著《生成式人工智能服務(wù)管理暫行辦法》出臺及相關(guān)企業(yè)獲批備案,人工智能技術(shù)的創(chuàng)新應(yīng)用將會逐漸落地。

在復旦大學管理學院信息管理與商業(yè)智能系教授張成洪看來,AI算法發(fā)展帶來的“遠慮近憂”都值得思考,我們迫切需要對AI算法進行有效的治理。連線分享張成洪對AI算法的觀點,解讀AI算法引發(fā)的漣漪效應(yīng)以及應(yīng)對之法。

本文內(nèi)容整理自“問學·復旦管院”

AI的“遠慮近憂”

今年上半年,包括馬斯克在內(nèi)的千名全球科技人士聯(lián)名發(fā)布了一份公開信,呼吁暫停推出更強大的人工智能系統(tǒng)。

盡管我認為這份公開信的呼吁不太可行,但其中提出的許多觀點值得深思。其中,特別強調(diào)了需要建立專門負責人工智能的、有能力的監(jiān)管機構(gòu);強調(diào)了推出標明來源系統(tǒng)和水印系統(tǒng)的重要性,以幫助區(qū)分真實信息和合成信息,并跟蹤模型的泄露;此外,還提出需要強大的審計和認證體系,以確保人工智能系統(tǒng)的透明度和可信度。另外,公開信還提出了需要明確人工智能可能造成的傷害所對應(yīng)的責任歸屬。

這些內(nèi)容表明,科技領(lǐng)域的關(guān)注不僅僅局限于人工智能的應(yīng)用,更多地開始關(guān)注人工智能是否會帶來負面影響,是否需要對其發(fā)展進行適當?shù)南拗啤?/p>

即使不去考慮AI的“遠慮”,也需關(guān)注AI的“近憂”。

image

比如,電商平臺依賴算法進行推薦和定價,可能導致價格歧視和大數(shù)據(jù)殺熟現(xiàn)象;視頻網(wǎng)站通過算法推薦內(nèi)容,可能造成信息繭房,使消費者只接觸符合其觀點的內(nèi)容,加劇信息偏見;對于外賣騎手,AI算法的應(yīng)用可能影響他們的工作和收入,使他們感覺被“困”在算法規(guī)則中。

AI算法治理的基本原則

AI算法治理指基于風險防范的要求,對算法本身以及其應(yīng)用的場景和解決的問題,作為治理對象進行規(guī)范化、合規(guī)化的監(jiān)管和修正。

當涉及到算法的標準和要求時,出現(xiàn)了一些新的術(shù)語,例如公平的AI、可解釋的AI、負責任的AI和可信的AI等等。然而,綜合考慮這些概念,我們可以總結(jié)出一些關(guān)于制定、設(shè)計和運行AI算法的基本原則。

1)準確性。AI算法的首要任務(wù)是準確,如果不準確本身就沒用,還會帶來負面效果。

2)穩(wěn)定性。它要求我們的算法不僅在當前情境下準確可靠,還需在不同情境下保持準確可靠。

3)可靠性。保證算法決策依據(jù)的充分性,保證決策結(jié)果可靠,可信任。

4)公平性。保證算法的決策無偏向性,無指向性。

5)透明性(可理解性)。保證算法的決策過程是透明的,決策結(jié)果是讓大眾可以理解的。

6)安全性。算法的開發(fā)和使用必須免受安全隱患的影響,不能因為外部干擾或攻擊而導致算法誤判。

7)隱私保護。算法一定會使用數(shù)據(jù),所以要保證數(shù)據(jù)的安全,保護用戶隱私。

以上七點是制定AI算法的基本要求。

AI算法治理的主要挑戰(zhàn)是雖然目前有社會共識,有政策法規(guī)的要求,但還沒有形成AI算法治理的體系。難點在哪里?因為AI算法經(jīng)常是一個“黑匣子”,難以檢測AI算法是否符合透明可解釋、公平多樣、安全合規(guī)等要求。

此外,因為算法是由數(shù)據(jù)驅(qū)動的,設(shè)計人員怎么保證算法是合規(guī)合法的、符合科技倫理的?應(yīng)該由誰負責AI算法的治理?誰又有能力來做AI算法治理?

image

在我看來,AI算法治理至少要包含三個層次:

第一個層次,是算法治理的政策法規(guī),由國家行業(yè)的主管部門制定政策,給予指導。

第二個層次,是算法合規(guī)性的審計,依據(jù)法律法規(guī)或者行業(yè)要求對企業(yè)展開檢查和監(jiān)管,這個可能企業(yè)內(nèi)部做,也可能需要行業(yè)或國家成立專門的機構(gòu)監(jiān)管機構(gòu)去做。

第三個層次,是開發(fā)出合規(guī)合法的AI算法,這對開發(fā)人員、對算法工程師是有要求的。

AI算法審計的現(xiàn)狀與未來

算法合規(guī)性審計之所以重要,源于諸多因素。以2021年美團為例,為應(yīng)對社會上對于騎手困在算法中的關(guān)注。在國家出臺相應(yīng)要求以保護騎手權(quán)益之際,美團采取了措施,公開了其騎手調(diào)度管理算法。然而,此舉并未如預期般奏效,因公開程度較為粗略,難以被廣泛理解。

在此引發(fā)一個問題:公開的程度應(yīng)如何界定?若完全公開,是否會損害公司有關(guān)算法的知識產(chǎn)權(quán)?所以公開程度與算法的知識產(chǎn)權(quán)保護怎么去界定?這是一種矛盾,即不太可能要求企業(yè)完全向社會公開其AI算法。

相比之下,更好的方式是將其向?qū)I(yè)人士或?qū)徲嫏C構(gòu)公開,或者設(shè)立專門的審計機構(gòu),以審計為手段檢查企業(yè)或其AI程序是否遵守政策法規(guī),確保其算法達到合規(guī)向善的企業(yè)承諾。

目前,對于AI算法進行審計確實極具挑戰(zhàn)性。過去,企業(yè)對業(yè)務(wù)進行審計時可能發(fā)現(xiàn),大部分業(yè)務(wù)實際上是由信息技術(shù)(IT)主導的,或者說業(yè)務(wù)的運轉(zhuǎn)離不開IT系統(tǒng)。因此,對于IT系統(tǒng)的審計變得不可或缺,這可能需要對IT系統(tǒng)的邏輯進行嚴格審查。

而當我們現(xiàn)在面臨算法審計時,即便我們有條件打開算法的代碼,很可能仍然無法判斷其合規(guī)性。正如之前所述,許多算法是數(shù)據(jù)驅(qū)動的,連算法工程師自己也可能無法預測所訓練出的模型是否會違反某些倫理規(guī)范。尤其對于許多深度學習的AI算法來說,它們常常被視為黑匣子,難以深入探究其內(nèi)部機理。

算法治理努力仍然需要繼續(xù)前行,這需要在幾個方面展開工作。首先,制度建設(shè)方面是關(guān)鍵,其中一個方向是確立相應(yīng)的監(jiān)管體系。監(jiān)管部門需要將算法視為監(jiān)管的對象,并對其全過程進行監(jiān)管。有時候,由企業(yè)內(nèi)部自行進行算法治理,而在某些情況下需要引入第三方的算法治理機構(gòu)。

image

此外,我們還可以借鑒傳統(tǒng)審計流程的經(jīng)驗。例如,對于算法合規(guī)性審計,我們可以采用類似的方法。首先,制定一套標準,然后進行調(diào)研,收集必要的信息,并進行測試和反饋。最終,總結(jié)審計結(jié)果。這樣的流程我們過去用于內(nèi)部審計的經(jīng)驗,現(xiàn)在可以用于算法合規(guī)性審計。

目前,AI算法審計仍處于初步探索階段。尚未形成專門的AI算法審計機構(gòu),傳統(tǒng)的會計事務(wù)所也很少開展AI算法審計業(yè)務(wù)。確實,讓傳統(tǒng)的會計人員做AI算法審計也相當困難。然而,我認為AI算法審計是未來的必然趨勢,特別是在AI監(jiān)管要求不斷加強、AI負面事件增多的背景下,AI算法審計是必然的趨勢。

我覺得,類似于過去我們建立了軟件評測中心和安全評測中心一樣,各地區(qū)可能會逐漸建立專業(yè)的機構(gòu)來進行AI算法審計和認證工作。

雖然AI算法審計的道路充滿挑戰(zhàn),還需要大量的研究和探索,但同時也蘊含著巨大的機遇和潛力。隨著技術(shù)的不斷發(fā)展和專業(yè)機構(gòu)的建立,我相信AI算法審計會逐漸成為一項重要的工作,為確保AI系統(tǒng)的透明性、公平性和合規(guī)性發(fā)揮著關(guān)鍵作用。

image

綜合而言,人工智能對人類的影響深遠,然而它又可以說是一把“雙刃劍”。因此,我們既需善用人工智能,也要嚴密監(jiān)管,特別是在AI算法治理方面。盡管我國已在政策層面積極出臺許多相關(guān)政策,但就算法治理的合規(guī)性審計和合規(guī)算法開發(fā)而言,仍處于探索初期。

要推進AI算法治理,需要高校和企業(yè)共同研究推進,行業(yè)和政府制度也應(yīng)密切參與,同時,AI開發(fā)人員也需自覺承擔責任。我深信,通過對AI算法的有效治理,我們將確保科技未來的善用,真正實現(xiàn)人工智能的負責任發(fā)展。

相關(guān)推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。

熱門文章