瞭望|人工智能時代的法治應對
明確技術“原則”,通過立法形成一套人工智能技術標準和評估體系來加以規范,是保障人工智能健康發展的重要“防火墻”
隨著人工智能在千行百業應用場景拓寬,技術在方便人們生產生活的同時,一旦發生法律糾紛,侵權主體的責任認定就成了擺在法學界面前的突出難題
數字化轉型所催生的新業態帶來政府監管挑戰,社會結構、制度框架、法律體系都需隨著數字化轉型變革而持續互動演進
加強人工智能法治保障須以促進社會整體利益為導向,避免法律規范不當擠壓人工智能發展的空間
文|《瞭望》新聞周刊記者 馮維健
今年1月,深度求索公司的DeepSeek一經發布,迅速引爆國際國內市場,其在知識問答、長文本處理、代碼生成和數學能力等方面的專業性,展現了我國在人工智能技術領域的突破性進展和創新性成就。
當前,人工智能技術飛速發展,在眾多領域展現出巨大潛力的同時,也引發了一系列關乎技術倫理、社會安全、版權保護等方面的擔憂。業內人士紛紛呼吁,強化人工智能立法,以法治建設支持和引導人工智能產業發展,構建在全球科技競爭中的制度優勢。
觀眾在 2025 年蘇州市“人工智能 +”創新發展推進大會上觀看機器狗表演(2025年2月14日攝) 李博攝 / 本刊
人工智能安全風險逐漸顯露
隨著生成式人工智能和大模型技術的廣泛應用,人們開始發現,在網絡上,“眼見也不一定為實”。
陜西警方2024年2月通報一起案件,某公司財務人員接到經理的視頻通話,要求她轉賬186萬元到一個指定賬戶。因為視頻通話中對方的聲音、長相和言談舉止都與經理一樣,財務人員迅速完成轉賬。事后當上級領導詢問這筆資金的去向時才發現被騙。本案中犯罪分子實施詐騙就是應用人工智能技術實現了聲音和視頻畫面的深度偽造。
“十幾分鐘音頻加上幾張照片就可以‘換臉’并模仿這個聲音,現實中一個普通高中生就可以做到。”黑龍江大學計算機與大數據學院(網絡安全學院)院長王磊說。
“借助‘AI換臉’‘AI擬聲’技術實施詐騙,犯罪成本越來越低,偵破難度越來越大。”北京金誠同達律師事務所高級合伙人馬林艷表示,技術被濫用是電信詐騙的“最后一環”,用戶的個人數據和隱私信息泄露則是前置條件。
2024年6月,公安部披露了多起涉及人工智能技術的深度偽造典型案例。其中一起案件中,犯罪嫌疑人利用人工智能技術對被害人照片進行“一鍵去衣”處理,批量生成了近7000張淫穢圖片并通過網絡販賣,嚴重侵害了他人的隱私權、名譽權等合法權益。
“在一些西方國家的選舉中,通過深度偽造,制作出虛假的候選人宣傳視頻,這些內容可能被用來抹黑競爭對手或美化特定候選人,從而影響選民的判斷和投票決策,破壞大選的公正;在戰爭中,極端勢力基于傳統游戲視頻,簡單加工后偽造成逼真的戰爭視頻,制造民眾恐慌甚至加劇國際關系緊張。”王磊說,深度偽造涉政風險往往更加突出,它可能伴隨政治操縱風險、社會動蕩風險、意識形態風險等危害國家安全。
國家工業信息安全發展研究中心黨委副書記吳鐵男表示,當前人工智能算法訓練和使用過程中存在“算法黑箱”、不可解釋等內生問題,以及過度使用、惡意應用,隱私泄露、數據濫用、“數據投毒”等問題。
“在人工智能風險管理體系中,自身風險和衍生風險都值得關注。其中,自身風險出自人工智能技術系統本身,包括數據、框架、模型、芯片、算力、網絡應用服務等風險,而衍生風險則應該放在個人、組織、社會、國家乃至全人類的視域下去討論。”中國信息通信研究院人工智能研究所高級業務主管呼娜英說,相較于自身風險可以通過技術標準提升加以防范,衍生風險的出現更要求法治跟進。
北京大學法學院教授、北京大學武漢人工智能研究院副院長張平認為,明確技術“原則”,通過立法形成一套人工智能技術標準和評估體系來加以規范,是保障人工智能健康發展的重要“防火墻”。
多項法律存在空白
人工智能作品能否受到知識產權保護?
“根據我國現行的《中華人民共和國著作權法》,人工智能的主體性正在知識產權界引發廣泛爭議。”上海理工大學出版學院講師李想表示,多數觀點認為生成式人工智能不能滿足《中華人民共和國著作權法》中的作者資格,其內容生成過程只是計算而非創作,應以創作工具視之。
而隨著技術快速發展,一些人工智能生成物似已實現了從“復制”到“創造”的跨越,生成式人工智能的著作權侵權風險與制度應對面臨“立法空白”。
2023年,北京互聯網法院針對人工智能生成圖片作品著作權侵權糾紛作出一審判決,認定原告使用開源軟件Stable Diffusion通過輸入提示詞方式生成的圖片作品體現了原告的智力投入,具備“智力成果”要件和“獨創性”要件,應當認定為作品,受《中華人民共和國著作權法》保護。
上述案件庭審曾在多個平臺直播,吸引了17萬網友觀看,引發較大關注。原告在庭審最后表示,自己的目的并不是為了賠償,而是希望法院通過這個案件,能夠對AI繪畫作品的著作權問題給出明確的裁量和認定標準,方便所有創作者參考。
“在人機融合的狀態下,司法實踐有必要進行明確區分,到底哪些是人創造出的內容,哪些是機器創造出的內容。”華東政法大學知識產權學院副院長于波稱,人工智能生成物出現后,現有創作模式產生顛覆性變化,給知識產權法律保護帶來前所未有的挑戰。
隨著人工智能在千行百業應用場景拓寬,一旦發生法律糾紛,侵權主體的責任認定就成了擺在法學界面前的突出難題。
以無人駕駛為例,在自動駕駛模式下,一旦發生交通事故,責任可能同時涉及車輛制造商、軟件系統開發設計者、車主等多個主體,責任追究和分配變得非常復雜。
“我國現有法規主要針對傳統機動車交通事故侵權責任的解決辦法,缺少對自動駕駛汽車駕駛主體的界定、數據采集等相關細則,也缺少對責任主體、責任承擔、數據保護的法律規定。”同濟大學法學院副教授張韜略稱,特別是緊急情況下,機器擁有進入“安全狀態”的“自主權”,由此造成的事故如何進行責任認定,需要在立法和司法實踐中加以解決。
由于訓練數據不均衡、算法設計缺陷等因素,人工智能容易出現偏見。在求職招聘、信貸審批、司法裁判等領域,可能因算法對特定群體特征的不當學習而產生歧視性決策,加劇社會不公平,損害部分弱勢群體的權益。
西安交通大學法學院教授焦和平表示,在求職招聘、信貸審批、司法裁判等過程中,平臺自身擁有一定的“裁判權”。人工智能技術的應用,使得這一流程全部算法化,由此造成的法律糾紛,需要法律進一步明確。
人工智能在司法實踐中的應用也成為法學界關注的焦點。吉林大學法學院教授謝登科認為,人工智能證據的認定存在一定實踐困境。當前,傳統電子數據分類方法可能不完全適用于人工智能證據,因為人工智能證據在形成過程中體現了機器深度學習的經驗,其真實性需要結合具體應用場景進行審查認定。
中國科學院大學公共政策與管理學院副教授、中國科學技術法學會人工智能專業委員會執行主任劉朝表示,當前需進一步總結人工智能的技術特性、運行規律,科學把握人工智能治理的發展邏輯,以此為基礎建立一套行之有效的法律制度體系,妥善規范人工智能技術可能帶來的風險挑戰。
參觀者在上海舉辦的2024世界設計之都大會上體驗虛擬現實眼鏡(2024年9月27日) 陳浩明攝 / 本刊
如何對人工智能前瞻性立法
擁抱人工智能時代,如何做到有法可依?
武漢大學法學院教授孫晉認為,數字化轉型催生新業態帶來政府監管挑戰,很難再沿用工業時代的管理思維予以應對,社會結構、制度框架、法律體系都需隨著數字化轉型變革而持續互動演進。
從2022年美國發布《人工智能權利法案》藍圖,到2024年歐盟通過《人工智能法案》,人工智能相關問題在全球范圍內越來越得到立法部門的廣泛重視,歐美一些國家先后出臺相應法律。
南通大學法學院副院長王曉燕說,我國近年來逐步出臺了有關算法備案、大模型備案和倫理審查登記等領域的指導意見,但技術發展之快已超出現有法律制度的規范,在加強技術檢測、強化行業自律的同時,應考慮人工智能前瞻性立法。
中國科學院大學公共政策與管理學院教授、科技與法律研究中心主任方新表示,我國近年來已經出臺了多部關于人工智能和網絡數據方面的政策法規和指導意見,但人工智能發展迅猛,對一些新的法律問題仍未達成共識,人工智能相關法律法規散見于各部門法中,尚未形成系統完備的人工智能立法。
深度求索公司的DeepSeek爆火后,其服務狀態頁面曾掛出紅色警報,其線上服務遭受持續的超大規模惡意攻擊。此外,DeepSeek還遭到一些境外敵對勢力的調查、禁用和網絡攻擊,其背后是對我國科技企業的技術打壓、經濟遏制和意識形態圍攻。
“在國防、政務、關鍵基礎設施等領域,人工智能安全至關重要。立法能夠規范相關技術研發、使用標準,防范外部勢力利用人工智能漏洞對國家主權、安全造成威脅,更好守護國家核心利益。”王磊說,對于人工智能立法,應該放在總體國家安全觀的視域下去審視。
中國法學會黨組書記,全國人大常委會委員、全國人大憲法和法律委員會副主任委員王洪祥表示,當前,一些西方國家在人工智能技術領域筑起“小院高墻”,對我進行全方位的遏制打壓。在此背景下,應積極進行科技領域的涉外法治斗爭,積極參與科技法治領域的國際規則和標準制定,以法治建設支持和引導人工智能發展,構建在全球科技創新競爭中的制度優勢。
“隨著科技創新成為國際戰略博弈的主要戰場,與之相對應的制度競爭也日益成為推動未來國際秩序演進的重要力量。”北京理工大學智能科技法律研究中心研究員張心宇稱,我國如針對人工智能產業采取前瞻性的法律制度設計,能夠更好防控安全風險,促進技術創新,推動國際合作。
在張心宇看來,人工智能技術具有明顯的跨國屬性。加快推動人工智能規則制定,形成具有中國特色的治理理論和實踐,也能為推動人工智能全球治理提供科學方案,貢獻中國智慧,提升我國在全球人工智能治理中的話語權和影響力。
隨著人工智能技術的快速發展,技術治理需要與法律實踐緊密結合,在防范潛在風險的同時,更應著眼于促進技術創新。北京航空航天大學法學院副教授趙精武稱,統一監管在任何法律的治理當中都只是起點,還應當關注不同科技創新主體的制度需求。
中國科學院院士房建成認為,加強科技法學研究和科技法治建設,更需要引進科學家為科技立法工作開拓前沿視野。
“當前,有關人工智能相關立法,已經從談原則的軟法時代進入講權利義務實體規定的硬法時代。”清華大學法學院教授、智能法治研究院院長申衛星坦言,在制定法律時應堅持安全和發展并重,二者之間如何協調是立法最大的難題之一。張心宇也表示,加強人工智能法治保障必須以促進社會整體利益為導向,避免法律規范不當擠壓人工智能發展的空間。
孫晉建議,盡快推動制定一部能夠覆蓋數字經濟核心產業的數字經濟促進法,以此作為發展數字經濟的基本法、上位法,統領反壟斷監管和數字化治理實踐,從而促進已有地方性法規、政策之間有效銜接,助力數字經濟行業可持續發展。■
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。