人工智能教父稱DeepSeek的進步可能會增加安全風險
鞭牛士報道,1月30日消息,據衛報報道,根據人工智能專家的一份具有里程碑意義的報告,人工智能系統被用于惡意行為的可能性正在增加,該研究的主要作者警告說,DeepSeek和其他破壞者可能會增加安全風險。
被譽為現代人工智能教父之一的約書亞·本吉奧 (Yoshua Bengio) 表示,中國初創公司 DeepSeek 的進步可能是一個令人擔憂的發展,因為該領域近年來一直由美國主導。
他說:這意味著一場競爭將更加激烈,從人工智能安全的角度來看 ,這通常不是一件好事。
本吉奧表示,美國公司和 DeepSeek 的其他競爭對手可以專注于重新奪回領先地位,而不是關注安全問題。ChatGPT 的開發商 OpenAI本周承諾將加快產品發布速度。DeepSeek 曾通過推出自己的虛擬助手向 OpenAI 發起挑戰。
「想象一下兩個實體之間的競爭,如果其中一方認為自己遙遙領先,那么他們就可以更加謹慎,并且仍然知道自己將保持領先地位。」Bengio 說。「而如果兩個實體之間有競爭,而他們認為另一方處于同一水平,那么他們需要加速。那么他們可能不會那么關注安全。」
在一份有關人工智能安全的廣泛報告發布之前,Bengio 是以個人身份發表此番言論的。
第一份完整的國際人工智能安全報告由包括諾貝爾獎得主杰弗里·辛頓在內的 96 位專家編寫。本吉奧是 2018 年圖靈獎(被稱為計算機界的諾貝爾獎)的共同獲獎者,他受英國政府委托主持這份報告,該報告于 2023 年在布萊切利園舉行的全球人工智能安全峰會上公布。小組成員由 30 個國家以及歐盟和聯合國提名。下一屆全球人工智能峰會將于 2 月 10 日至 11 日在巴黎舉行。
報告指出,自去年5月發布中期研究報告以來,聊天機器人等通用人工智能系統在可能被惡意使用的領域的能力已經增強,例如使用自動化工具突出軟件和IT系統中的漏洞,以及對生物和化學武器的生產提供指導。
該公司表示,新的人工智能模型可以生成制造病原體和毒素的分步技術說明,其能力超出了博士專家的能力。
OpenAI 承認,其先進的 o1 模型可以協助專家規劃如何制造生物威脅。
然而,報告稱,不確定新手是否能夠按照指導采取行動,而且該模型也可以用于醫學等有益的用途。
本吉奧在接受《衛報》采訪時表示,目前已經出現了一些模型,利用智能手機攝像頭,理論上可以指導人們完成危險任務,比如嘗試制造生物武器。
「這些工具越來越容易被非專業人士使用,因為它們可以將復雜的任務分解成每個人都能理解的小步驟,然后它們可以以交互方式幫助你正確完成任務。這與使用谷歌搜索等工具有很大不同。」他說。
報告稱,自去年以來,人工智能系統在無需人工干預的情況下自主發現軟件缺陷的能力方面取得了顯著進步。這可以幫助黑客策劃網絡攻擊。
然而,報告指出,自主發起現實世界的攻擊目前超出了人工智能系統的能力范圍,因為它們需要極高的精度。
在對人工智能帶來的風險進行分析時,該報告指出,深度偽造內容數量大幅增加,這種技術被用來制作令人信服的人物肖像——無論是圖像、聲音還是兩者兼有。
報告稱,深度偽造已被用來誘騙公司交出錢財、進行敲詐勒索以及制作色情圖片。報告稱,由于缺乏全面可靠的統計數據,很難衡量此類行為的確切增長水平。
此外,還存在惡意使用的風險,因為所謂的閉源模型(其底層代碼無法修改)可能容易受到越獄的影響,從而繞過安全護欄;而諸如 Meta 的 Llama 之類的開源模型可以免費下載并可由專家進行調整,這存在促進不良行為者惡意或誤導使用的風險。
在 Bengio 撰寫的報告的最后一分鐘補充中,這位加拿大計算機科學家指出,在 12 月(報告定稿后不久)OpenAI 推出了一種名為 o3 的新型高級推理模型。
Bengio 表示,該模型能夠在關鍵的抽象推理測試中取得突破,這是許多專家(包括他自己)直到最近才認為遙不可及的成就。
Bengio 寫道:o3 所顯示的趨勢可能對 AI 風險產生深遠影響,他還提到了 DeepSeek 的 R1 模型。「閱讀本報告中的風險評估時,應該理解自報告撰寫以來,AI 已經獲得了能力。」
本吉奧告訴《衛報》,推理技術的進步可能會對就業市場產生影響,因為它可以創造出能夠執行人類任務的自主智能體,但也可能為恐怖分子提供幫助。
「如果你是恐怖分子,你會希望擁有一個高度自主的人工智能。」他說。「隨著我們增加自主權,人工智能的潛在好處也隨之增加,風險也隨之增加。」
然而,Bengio 表示,人工智能系統尚未實現長期規劃,無法創造出完全自主的工具來逃避人類的控制。「如果人工智能無法進行長期規劃,那么它很難逃脫我們的控制。」他說。
此外,這份近 300 頁的報告還提到了人們對人工智能的普遍擔憂,包括生成詐騙和兒童性虐待圖像、有偏見的輸出以及隱私侵犯(例如泄露與聊天機器人共享的敏感信息)。報告稱,研究人員尚未能夠完全解決這些擔憂。
人工智能可以寬泛地定義為執行通常需要人類智能的任務的計算機系統。
該報告的全名是《先進人工智能安全性國際科學報告》,報告指出人工智能通過使用數據中心對環境產生迅速增長的影響,以及人工智能代理對就業市場產生深遠影響的可能性。
報告稱,人工智能的未來充滿不確定性,在不久的將來可能會出現各種各樣的結果,包括非常積極和非常消極的結果。報告稱,社會和政府仍有機會決定該技術的發展道路。
報告稱:這種不確定性可能會引發宿命論,讓人工智能看起來像是發生在我們身上的事情。但社會和政府如何應對這種不確定性的決定將決定我們將走哪條路。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。