首頁 > AI資訊 > 最新資訊 > 人工智能立法已勢在必行!張天任、劉永好、齊向東三位代表委員共談AI|兩會專訪

人工智能立法已勢在必行!張天任、劉永好、齊向東三位代表委員共談AI|兩會專訪

財聯社記者郭松嶠    2025-03-06

3月5日訊(記者郭松嶠)“雖然我國已出臺《生成式人工智能服務管理暫行辦法》,但該辦法僅針對生成式人工智能,無法全面涵蓋人工智能領域的各類問題和應用場景,啟動立法研究并制定專門的綜合性法律勢在必行?!?/p>

在近日召開全國兩會上,人工智能成為最受矚目的話題之一,記者也就此采訪了多位代表委員,全國人大代表,天能控股集團黨委書記、董事長張天任如是稱。

今年兩會,張天任計劃提交了多項議案和建議,其中包括建議制訂《人工智能管理法》。他建議,要建立健全數據保護與安全機制,規范人工智能所收集數據的使用范圍,僅限于在授權范圍內用于特定的人工智能研發、優化和應用場景;建立數據共享審批機制,明確數據共享的條件和流程,確保數據接收方具備相應的數據保護能力,并簽訂嚴格的數據保護協議。

相比于張天任,全國政協委員、新希望集團董事長劉永好則分享了大模型提升辦公效率的體驗。他對記者表示,公司已要求部分業務接入AI系統DeepSeek,以提高管理精細化和企業效率。此外,集團還投資了多家機器人公司,探索機器人與傳統產業場景的結合應用。

全國政協委員、全國工商聯副主席、奇安信集團董事長齊向東聚焦安全層面,提出建立適配大模型縱深防御體系的緊迫需求。他對記者表示,要明確大模型安全的組織架構,界定安全主體責任,對基礎安全、數據安全、應用系統開發安全、運行安全等方面提出清晰的技術保障要求。

可以借鑒“框架立法+動態調整”模式,設定基礎法律框架

:目前,人工智能領域的創新速度遠超傳統行業,在制定《人工智能管理法》時,如何確保法律具有足夠的前瞻性和靈活性,既能有效規范當下的行業行為,又能適應未來技術的快速發展?

張天任:可以借鑒“框架立法+動態調整”模式,設定基礎法律框架,同時輔以行政法規、行業標準、倫理準則等層級性規范,使其能夠根據技術演進動態調整。此外,建立跨部門、跨行業的AI治理機構,推動立法與科技同步演進,確保法律既能有效規范當下行業行為,又能適應未來技術發展。

數據是人工智能的核心要素,健全數據保護機制需從立法、技術、治理三個層面入手。首先,在現有《數據安全法》《個人信息保護法》等法律基礎上持續完善法律法規體系,明確數據分類分級標準以及在采集、存儲、處理、流通等環節的合規要求,細化個人信息保護與企業數據安全責任邊界,強化跨境數據流動監管,確保數據使用透明可控。其次,推動企業采用隱私計算、區塊鏈等技術,構建主動防御體系,建立數據安全風險評估與應急響應機制。同時,積極實現數據可用不可見,通過安全多方計算、聯邦學習等技術,在不泄露原始數據的前提下完成數據的分析與協同應用,保證數據在使用過程中的安全性。最后,建立企業與政府協同監管機制,通過行業自律、數據安全評估、國際合作等方式,平衡數據利用與隱私保護,構建健康的數據生態。最終形成政府監管、企業主責、社會監督的多元共治格局。

:從天能所從事的新能源鋰電池、智慧能源等核心業務來看,對我國人工智能產業的發展前景和競爭力有何期望?

張天任:從競爭力提升角度,我們希望人工智能在推動新能源產業升級、智能制造、能源管理等方面發揮更大作用。一方面,憑借 AI 技術打造智能化、無人化的先進生產制造體系,降低生產成本,提高產品質量,增強我國新能源產品在國際市場的價格與品質競爭力。

另一方面,借助人工智能構建更完善的能源管理平臺,推動智能電網、能源儲存與調度優化,提高新能源利用效率。未來,中國人工智能產業應加快標準制定和核心技術攻關,在全球競爭中掌握主動權,推動智能能源和綠色科技深度融合,助力“雙碳”目標實現。

建立適配大模型的縱深防御體系

:積極構建高可靠人工智能安全體系,著力為用戶提供有效的安全防護,既要用人工智能去驅動安全,又要做好人工智能自身安全。您認為,目前人工智能的發展面臨哪些嚴峻安全問題?

齊向東:我總結,人工智能發展面臨的安全問題大致可以分三類。

第一類是人工智能大模型自身的安全問題。開發風險、數據風險、應用風險和基礎環境風險這四大安全風險比較突出。開發方面,開源大模型要重點防范代碼缺陷和預留后門等問題;應用方面要防“內鬼”對訓練數據投毒,進行模型篡改、配置篡改;數據方面,要小心內部配置錯誤和弱口令等造成的數據庫暴露;基礎環境方面要重點關注云、API、傳統設備漏洞等等。目前,已有團隊發現DeepSeek存在嚴重漏洞,并可借此獲取后端隱私數據、API 密鑰、操作元數據,盡管漏洞很快被修補,但是根據我們的經驗,新漏洞會不斷被挖掘出來。

第二類是利用人工智能開展網絡攻擊的問題。人工智能促進了網絡攻擊手段的更新迭代,“飽和式”攻擊成為可能,攻擊者可以瞬時發動海量攻擊打垮已有的網絡安全體系。人工智能還提升了“以假亂真”的能力,深度偽造、認知戰、釣魚等威脅加劇。攻擊者可利用人工智能“換臉變聲”輸出虛假信息,開展網絡詐騙,或輸出背離主流價值觀的內容危害認知安全。

第三類是通過攻擊人工智能引發的“網絡攻擊大爆炸”。未來人工智能會成為社會的基礎設施,當大模型嵌入智慧城市、工控系統、智慧政務等關鍵領域時,會放大漏洞等傳統安全威脅,一旦人工智能大模型遭到攻擊可能會牽一發而動全身,引發社會服務中斷、生產停滯、隱私數據泄露等安全事件。

:那么,通過哪些維度或者體系提升人工智能的安全能力?

齊向東:針對這些安全問題,要從技術保障、制度保障、成果應用三方面入手,系統提升安全能力,確保人工智能安全發展。

第一,建立適配大模型的縱深防御體系,筑牢人工智能的安全根基。通過構筑覆蓋終端、應用、數據、模型、紅域的多維度核心防護能力,打造適用于人工智能的立體縱深防御體系,并給予威脅情報、大網數據監測等情報賦能,實現“對外防攻擊、對內防內鬼”,為人工智能大模型安全穩定運行保駕護航。

第二,制定大模型安全強制合規要求,夯實人工智能安全發展的制度保障。要明確大模型安全的組織架構,界定安全主體責任,對基礎安全、數據安全、應用系統開發安全、運行安全等方面提出清晰的技術保障要求。

第三,推廣“AI+安全”創新成果落地,走好提升安全能力的必經之路。隨著人工智能應用的進一步鋪開,要鼓勵更多產業用上、用好“AI+安全”創新成果,提高千行百業的網絡安全防護效能。

積極參與豬周期預測大模型體系建設

:你自己使用AI嗎?

劉永好:我自己經常使用AI大模型,手機上下載了多款軟件,還會比較哪個更好用。另外,我也鼓勵新希望集團的員工在工作中使用AI工具,公司員工向我做匯報的時候,以前都是用PPT,現在我要求他們用AI工具整理好,提煉要點,再交給我。AI大模型的應用確實提高了我們的工作效率。目前新希望集團鼓勵其設計隊伍、營銷隊伍、管理隊伍等都與AI大模型合作,我們要了解它、學習它、使用它,一定會給企業帶來好處。堅持主業的時候必須關注人工智能,把AI大模型應用到傳統產業上,就是在為傳統產業注入新質生產力。

“:鑒于豬周期波動劇烈,對企業經營影響不小,AI在解決這個問題上能發揮什么作用?請問新希望做了哪些嘗試?”

劉永好:由于豬周期波動劇烈,我們正在借助大數據和人工智能積極參與豬周期預測大模型體系建設。新希望具備三大優勢:一是擁有 40 多年行業經驗;二是作為中國最大的飼料生產企業,積累了海量數據;三是旗下眾多養殖企業能提供當下市場行情、價格及期貨波動等數據,再結合政府數據與歷史數據,在大模型支持下做好豬周期預測,這對國家和企業意義重大,后續還有諸多工作要推進。

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章