首頁 > AI資訊 > 最新資訊 > AI快速發展,立一部“根本大法”時機到了嗎?專家熱議

AI快速發展,立一部“根本大法”時機到了嗎?專家熱議

南方都市報    2025-03-26

  今年政府工作報告提出,持續推進“人工智能+”行動,將數字技術與制造優勢、市場優勢更好結合起來,支持大模型廣泛應用。近年來,我國人工智能產業取得長足進步,逐漸成為驅動新質生產力的重要引擎。與此同時,人工智能技術的每一步創新也不斷引發法律與倫理方面的深刻思考。

  用戶數據如何規范用于模型訓練?AI生成內容的版權歸屬如何確定?如何促進AI產業健康發展?為探尋技術創新與風險防范之間的平衡點,近日,中國政法大學民商經濟法學院民法研究所、走出去智庫、《互聯網法律評論》聯合主辦“人工智能版權前沿問題”研討會,來自法學、經濟學、公共政策等領域的專家學者齊聚一堂,就當前AI領域的前沿問題展開熱議。

減少“數據污染”,用戶須負責任地使用模型

  當前,大模型訓練依賴海量數據,而用戶數據通常會被用于模型的優化。如果未明確告知用戶將使用哪些數據或者數據的使用范圍過于模糊,可能引發對于數據被濫用風險的擔憂。會上多位專家提到,增強AI大模型透明度,切實保護個人隱私安全,已成為大模型企業的一道必答題。

  中國人民大學法學院副教授姚歡慶提出,各種單一數據對于個人而言沒有太多利用價值,但科技公司卻能通過不同數據庫的匯集和碰撞,迅速拼湊推導出更多的個人信息,比如近期受到熱議的“開盒”便是一個例子。由于個人用戶對數據價值的認知水平往往與技術公司的利用能力不對等,當前“用戶同意”機制仍有待完善,涉及個人隱私的“知情同意”應做到明白、清楚、仔細。

  中國政法大學比較法學研究院教授劉文杰表示,目前法律法規并未對用戶輸入內容是否能用于模型訓練作出直接規定,在實踐中,用戶為讓AI更好回答問題,相關提示詞可能涉及個人信息。根據《個人信息保護法》,信息輸入后,如果服務商想要儲存、再加工,需要向用戶明示并征求其同意。關于敏感個人信息,我國法律還有“一事一議”的特殊規定,即處理敏感個人信息不能采用概括同意或推定同意的授權模式,而必須獲得個人明確的、單獨的同意。

  北京理工大學智能科技法律研究中心研究員王磊則指出,大型平臺企業的數據利用大多合法合規,但黑灰產對大數據的非法運用十分猖獗,須通過政府監管、技術平臺和社會多方形成合力進行打擊。他指出,當前高質量數據的結構性匱乏已成為制約大模型發展的瓶頸,尤以醫療、交通、金融等領域為代表。

  另外,中國政法大學民商經濟法學院知識產權法研究所講師郝明英認為,在后端規制方面,除了重視“告知同意”,還應賦予用戶撤回和退出的權利。南都數字經濟治理研究中心去年發布的《生成式AI用戶風險感知與信息披露透明度報告(2024)》曾在實測15款頭部國產大模型時發現,僅有騰訊元寶、智譜清言等4家大模型在協議中提及允許用戶拒絕相關數據被用于AI訓練。

  針對當前模型訓練的數據訴求,與會專家討論指出,模型優化有時缺乏常識和判斷邏輯,與用戶提供的訓練數據質量有關。如果用戶不斷投喂錯誤觀點和結論,模型將可能賦予錯誤內容更優先權重。此外,數據標注環節若由非專業人員完成,標注錯誤往往引發“數據污染”,導致模型輸出產生“幻覺”。為了構建良好的生態系統,其中用戶負責任地使用模型也是重要一環。

AI生成內容權利、義務及責任應當相適應

  生成式人工智能在各領域被廣泛應用以來,其生成內容的版權糾紛也密集涌現。從2023年至今,我國已涌現一批相關司法判例,為AI生成內容的權利和責任歸屬問題提供了支撐。

  郝明英指出,中國現有判例表明,如用戶在提示輸入、結果篩選等環節體現“獨創性勞動”,即認定生成內容受版權保護。這與日本文化廳最新意見相近,結合產業實踐,OpenAI、Midjourney等海外平臺也大多在用戶協議中將生成內容權利歸屬于用戶,強調“人類創作性貢獻”的核心地位,“指令的具體性”是影響認定的因素之一。

  劉文杰則指出,當前司法實踐中對AI生成內容場景中用戶“作者”身份的判定其實不同于傳統著作權法理論。以北京互聯網法院相關判決為例,法院雖認可用戶對AI生成圖片的著作權,卻要求該用戶在作品上標注所使用的AI技術,這說明此處的用戶與傳統著作權法理論中的“作者”并不完全等同。用戶提供提示詞觸發模型運行,進而由模型輸出內容,此時用戶對生成作品的貢獻更接近于工具操作者或“制作者”,而非“創作者”。

  談及AI生成侵權內容時的責任問題,郝明英表示,目前基本各國都認同AI無法成為權利主體的觀點,這就意味著一旦出現侵權問題,它無法承擔相應責任。在生成內容權利歸屬于用戶的情況下,如果由平臺承擔侵權責任,就會違背“權責統一”的基本原則。

  她強調,基于AI生成內容的權利、義務及責任應當相適應,在發生侵權行為時衡量平臺責任,需主要考慮其注意義務的邊界。劉文杰也認為,如果人工智能生成內容受《著作權法》保護,就存在責任區分問題。只有承認生成內容相當程度上來自于平臺運營的人工智能模型,才能要求平臺承擔責任。

  對外經濟貿易大學政府管理學院講師馮昕瑞表示,AI對人類社會一大沖擊的體現是秩序被打破后帶來的混亂,從秩序維護的角度看,她傾向于給予使用者端更多的版權和責任。反之如果讓模型端承擔更多權利責任,一方面可操作性更低,另一方面過多的規制可能降低模型能力,從而影響產業效益。

  國研新經濟研究院創始院長朱克力則指出,經濟學強調“成本—收益”邏輯。工業時代,創作者投入大量時間、智力等成本,所以其著作權受法律保護以便獲得收益;但在人工智能時代,用戶進行文字、圖片等產出的投入成本明顯降低,且相關產品具有普惠性,在探討權益問題時需將如何平衡投入、產出也考慮進去。

AI法律監管應包容審慎,“讓子彈飛一會兒”

  如今,人工智能的飛速發展正推動人類社會生產從自動生產向智能生產轉變,面對其為“創作經濟學”帶來的巨大沖擊,我國現有的法律框架是否還能解釋和適應AI對創造力本質的改變?

  朱克力表示,過去的版權法律體系完全是基于人類作為創作主體而構建的,如今創作主體已經發生了變化,不僅包括人,還有“人機協作”等情形。這一背景下,原有法律框架與生產生活必然產生沖撞,如今對相關法律框架進行前瞻性調整的時機已經到來。

  那么,如何從監管角度規范和促進AI發展?王磊提出兩點更適合現階段AI監管政策的觀察。一是“小步快跑”——就個人信息保護、生成式人工智能、深度合成偽造等具體問題,相關主管部門以敏捷治理方式給出監管要求,如十條到二十條左右的規定,具有很強針對性和靈活性。

  二是,“讓子彈飛一會兒”——以共享經濟為例,在討論共享經濟要不要立法的過程中,共享經濟就已經不具備立法規制相應的規模了。這說明“市場有自我糾偏能力,要兼顧考慮法律框架,也要充分發揮產業和市場的力量。”在他看來,緩步推進立法新進程,對AI產業發展持開放性態度,對于科技企業及高新技術發展或更有利。

  劉文杰認為,從ChatGPT到DeepSeek、Manus,目前人工智能還處于飛速發展階段,其將對人類生活及國際競爭產生哪些長遠影響,仍待深入觀察。同時,目前我國行政主管部門通過規章、規范性文件等多種方式對人工智能產業進行監管,可根據實際情況及時調整監管力度。這種靈活監管模式有利于產業發展,相較于通過一部AI“根本大法”解決所有問題的設想更切合實際。

  他建議在不侵害人基本權利的前提下,采用更加包容的監管方式,“不是用大量禁止條款管它,用提倡的方法、促進的方法。”在相關應用落地時,對其進行審慎的安全評估,同時充分發揮市場力量,“如果你(應用)真的不好的話,不用開發商創造什么風險,市場自然會給你‘清場’。”

  郝明英也表示,如今人工智能、知識產權等都已成為國際競爭的抓手,甚至已經成為部分國家的“武器”。在這一背景下,未來法律進行適應性調整,既要從人類命運共同體角度出發,也要有國家競爭的因素考量。在全球視角與國際競爭層面,AI發展領域須加快提出“中國方案”,發出“中國聲音”。

(文章來源:南方都市報)

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章