首頁 > AI資訊 > 行業應用 > 歐洲AI監管的起源與未來

歐洲AI監管的起源與未來

新火種    2023-11-16

去年年底,由ChatGPT掀起了新一輪人工智能的熱潮還在持續。以生成式人工智能和大模型為代表的新一代智能技術發展日新月異,成為本輪世界科技革命和產業變革的先導力量。隨著以ChatGPT為代表的大模型進入應用,AI的重要性愈發凸顯。但是,發展的同時會帶來新的安全問題。是否需要對AI發展制定相應的法規進行監管?應該采取什么方法來監管AI?AI監管應該關注哪些方面的問題?

一覽:

AI的應用范圍在不斷擴大,其管理問題引發了人們的諸多擔憂。 盡管AI的發展日新月異,但歐洲目前還未推出專門針對AI的法規。 歐洲議會已投票支持通過《人工智能法》——一項針對AI的法規。 AI的使用和快速發展引發了人們對安全、透明度和自動化等重大問題的探討。 為了解決這些問題,法國國家信息與自由委員會(CNIL)成立了一個跨學科部門,專門負責AI相關事務。

生成式人工智能產業正在蓬勃發展。據彭博社(Bloomberg)報道,到 2032年,該產業的市值有望達到1.3萬億美元。但是,生成式AI的指數型增長在世界范圍內引發了不少擔憂,人們對其安全和立法問題也提出了不少疑問。面對這一不斷增長的市場,微軟、谷歌、OpenAI和初創公司Anthropic這四家美國AI巨頭正在聯手進行自我監管,以平息日益增多的質疑聲。歐洲正在考慮制定相關法規,英國首相蘇納克(Rishi Sunak)也在不久前宣布,將于今年年底在英國舉辦全球首次AI峰會。

由于AI的重要性愈發凸顯,法國國家信息與自由委員會(CNIL)史無前例地成立了一個AI監管部門。在部門主任Félicien Vallet的領導下,該機構正努力對安全、透明度和自動化等重大問題提供監管。

01 為什么CNIL認為有必要成立一個專門負責AI的新部門?

自1978年成立以來,CNIL這一監管部門始終負責法國境內的數據保護。2018年后,相關數據保護一直以通用數據保護條例(GDPR)為參考。最近,各大領域都出現了與AI相關的個人數據問題,且數量在不斷上漲。CNIL的一貫做法是以部門為基礎開展相關工作,例如,我們會設置專門負責衛生或政府事務的部門。我們的觀察顯示,AI正越來越多地應用于多種領域,包括:打擊房產稅偷稅漏稅(如基于衛星圖像的住宅游泳池自動檢測)、安保(如能分析人類行為的增強型視頻監控系統)、醫療保健(如輔助診斷)和教育(如基于學習習慣分析的教學模式個性化)等領域。作為個人數據處理的監管機構,法國國家信息與自由委員會(CNIL)特別關注可能對公民產生影響的AI應用。之所以設立一個專門負責AI的多學科部門,是因為該領域所涉及的問題具有跨學科性質。

02 CNIL對AI的定義是什么?是我們現在常說的生成式AI嗎?

CNIL對AI并沒有嚴格的定義。根據我們發布在網站上的描述,AI指的是一種邏輯和自動化過程,通常以算法為基礎,并以執行定義明確的任務為目的。歐洲議會將AI定義為機器用來“再現與人類相關的行為,如推理、規劃和創造力”的工具。生成式AI是現有AI系統的一個組成部分,但它也會引發人們對個人數據使用的擔憂。

03 CNIL采取了什么方法來監管AI?

CNIL采用了一種基于風險的方法。這一方法是歐盟正在起草的《人工智能法》(AI Act)的核心,它根據風險等級將AI系統分為了四類:不可接受、高風險、有限風險和最低風險。由于監管對“不可接受”這一等級的AI系統根本不予考慮,因此完全沒有在歐洲本土實施。高風險系統通常部署在醫療保健或政府事務等領域,由于它們總是牽涉到個人數據的處理,與個人的發展息息相關,因此格外敏感。在部署這些AI系統之前,也會采取一些特別的預防措施。生成式AI屬于有限風險系統,需要為用戶提供更大的透明度。低風險系統則不受任何特定義務的約束。

04 圍繞這些AI系統的主要問題是什么?

主要問題是透明度、自動化和安全性。有了透明度,人們才會明白AI系統在處理與其相關的個人數據,并且自己擁有一定的反對權。這些系統處理的信息體量可能十分龐大,而并非所有人都知曉這一點。

自動化也絕非萬無一失,即便有人類操作員的參與,過度信任機器等認知偏差也會影響決策,因此,我們需要對操作員的控制方法,以及操作員在決策環路中扮演的角色保持警惕。

AI系統的安全性是另一個主要擔憂。與其他IT系統一樣,AI系統也可能成為網絡攻擊的對象,特別是訪問劫持或數據盜竊。此外,它們還可能被惡意利用,如開展網絡釣魚活動或大規模傳播虛假信息等。

05 有沒有什么方法能夠確保這些法規的實施?

我們的行動計劃主要圍繞四點展開。首先是了解AI技術,畢竟該領域日新月異,每天都會迸發源源不斷的創新和靈感,技術也在突飛猛進。

第二是引導AI的使用。之前也說了,我們主要以《通用數據保護條例》(GDPR)為參考,但該文件比較中立,并沒有具體規定在AI時代下應如何處理個人數據。因此,我們需要根據AI的不同技術路徑和用途來調整GDPR的一般原則,從而為專業人員提供有效的指導。

第三點是與我們的歐洲同行、權利捍衛者(Défenseur des droits)、法國競爭管理機構(Autorité de la concurrence)及研究機構開展互動與合作,以解決與歧視、競爭和創新有關的問題,并動員各方廣泛參與這些問題的解決。

最后,我們需要在AI系統實施前后部署管控措施,并探索能夠助力我們執行管控的方法,如制定核對清單,使用自我評估指南等。

06 法國或其他國家有其他類似的項目嗎?

目前,無論是法國、歐洲境內還是其他地區,都沒有專門針對AI的法規,歐洲的《人工智能法》草案將是這一領域的首創。不過,與GDPR類似的通用法規可以間接適用于AI,且某些特定行業與產品安全相關的法規也可能適用于包含AI的產品,如醫療設備。

07 歐美的法規差異是否會在AI領域表現得更加明顯?

根據以往的經驗,歐洲在數字技術的法規實施方面一直比較積極主動,GDPR的頒布便是有力證明。不過,美國對AI監管的呼聲也越來越高。例如,OpenAI的首席執行官明確告訴美國國會,對AI進行監管將帶來諸多益處。話雖如此,我們也不應忘記,美國技術高管眼中的“適當監管”與歐洲的設想可能不盡相同。為了給《人工智能法》的通過做鋪墊,并盡量爭取主要工業企業的支持,歐委會委員Margrethe Vestager(負責競爭事務)和Thierry Breton(負責內部市場事務)分別提出了《人工智能行為準則》(AI Code of Conduct)和《人工智能契約》(AI Pact)。

本文為轉載內容,授權事宜請聯系原著作權人。


上海界面財聯社科技股份有限公司 版權所有 © 2014-2023 JIEMIAN.COM

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章