ChatGPT構(gòu)建離不開PyTorch,LeCun言論引熱議,模型廠商不開放權(quán)重原來為此
想象一下,如果工業(yè)界的 AI 研究實驗室仍然封閉、沒有開源代碼,并為所有內(nèi)容申請和執(zhí)行專利,那么今天的 AI 行業(yè)將會變成什么樣子?
想象一個沒有 PyTorch 的世界,并且 Transformer、ResNet、Mask-RCNN、FPN、SAM、DINO、seq2seq、wav2vec、內(nèi)存增強(qiáng)網(wǎng)絡(luò)、Tansformers、BatchNorm、LayerNorm、Adam、去噪自動編碼器、聯(lián)合嵌入架構(gòu)以及大量的 SSL 方法都被施加專利,AI 行業(yè)又會變成什么樣子?圖源:twitter.
觀點引起更多人共鳴,有人認(rèn)為,「如果谷歌不開源 Transformers,OpenAI 甚至發(fā)明不了 GPT。真是虛假的『OpenAI』。」
圖源:twitter.
還不忘說一句,「ChatGPT 的構(gòu)建也離不開 PyTorch。」
論文地址:twitter.
大模型公司更加注重權(quán)重安全。Jason Clinton 是 Anthropic 首席信息安全官,他的主要任務(wù)是保護(hù)自家模型 Claude 的 TB 級權(quán)重文件免遭他人之手。「我可能將自己一半時間用來保護(hù)權(quán)重文件。這是我們最為關(guān)注和優(yōu)先考慮的事情,也是投入資源最多的地方」,他在 VentureBeat 的采訪中這樣說道。模型權(quán)重可不能落入「壞人」之手Jason Clinton 強(qiáng)調(diào),有人認(rèn)為公司對模型權(quán)重的擔(dān)憂是因為這些權(quán)重代表著極高價值的知識產(chǎn)權(quán)。其實不然,Anthropic 更重要的考慮在于防止這些強(qiáng)大技術(shù)落入「壞人」之手,產(chǎn)生不可估量的負(fù)面影響。
對誰能獲取基礎(chǔ)模型權(quán)重深表擔(dān)憂的遠(yuǎn)不止克林頓一人。事實上,白宮最近發(fā)布的關(guān)于「安全、可靠地開發(fā)和使用人工智能」的行政命令就要求基礎(chǔ)模型公司向聯(lián)邦政府提供文件,報告模型權(quán)重的所有權(quán)、占有情況以及采取的保護(hù)措施。OpenAI 也表達(dá)了類似的立場。在 2023 年 10 月的一篇博文中,OpenAI 表示正在繼續(xù)投資網(wǎng)絡(luò)安全和內(nèi)部威脅防護(hù)措施,以保護(hù)專有和未發(fā)布的模型權(quán)重。
40 種攻擊向量正在被執(zhí)行Rand 的報告《Securing Artificial Intelligence Model Weights》由 Sella Nevo 和 Dan Lahav 共同撰寫。報告強(qiáng)調(diào)了人工智能模型權(quán)重面臨的安全威脅和未來風(fēng)險。Nevo 在接受 VentureBeat 采訪時表明,當(dāng)前最大的擔(dān)憂不是這些模型現(xiàn)在能做什么,而是未來可能發(fā)生什么,尤其是在國家安全方面,例如被用于開發(fā)生物武器的可能性。該報告的目的之一是了解行為者可能采用的攻擊方法,包括未授權(quán)的物理訪問、破壞現(xiàn)有憑證和供應(yīng)鏈攻擊等。
報告最終確定了 40 種不同的攻擊向量,并強(qiáng)調(diào)它們不是理論上的,而是已有證據(jù)表明它們正在被執(zhí)行,甚至在某些情況下已被廣泛部署。開放基礎(chǔ)模型的風(fēng)險需要注意的是,并非所有專家都能在人工智能模型權(quán)重泄露的風(fēng)險程度以及需要限制的程度上達(dá)成一致,尤其是在涉及開源人工智能時。這再次印證了人工智能領(lǐng)域治理的復(fù)雜性和諸多挑戰(zhàn)。斯坦福大學(xué)人工智能學(xué)院政策簡報《Considerations for Governing Open Foundation Models》強(qiáng)調(diào),盡管開放基礎(chǔ)模型(即權(quán)重廣泛可用的模型)可以對抗市場集中、促進(jìn)創(chuàng)新并提高透明度,但其相對于封閉模型或現(xiàn)有技術(shù)的邊際風(fēng)險尚不明確。
該簡報以 Meta 的 Llama 2 為例,該模型于 7 月發(fā)布,其模型權(quán)重廣泛可用,使得下游修改和審查成為可能。雖然 Meta 公司曾承諾確保其未發(fā)布模型權(quán)重的安全,并限制能夠訪問模型權(quán)重的人員范圍,但在 2023 年 3 月 Llama 的模型權(quán)重泄露還是讓人印象深刻。喬治城大學(xué)人工智能評估高級研究員 Heather Frase 指出,開源軟件和代碼歷來都非常穩(wěn)定和安全,因為它可以依靠一個龐大的社區(qū)。在強(qiáng)大的生成式人工智能模型出現(xiàn)之前,普通的開源技術(shù)造成危害的幾率也十分有限。她提到,與傳統(tǒng)的開源技術(shù)不同,開源模型權(quán)重的風(fēng)險在于,最可能受到傷害的不是用戶,而是被故意當(dāng)作傷害目標(biāo)的人,例如深度偽造騙局的受害者。安全感通常來自開放不過,也有其他人表達(dá)了相反的觀點。
在接受 VentureBeat 采訪時,Hugging Face 機(jī)器學(xué)習(xí)工程師 Nicolas Patry 強(qiáng)調(diào),運行任務(wù)程序固有的風(fēng)險同樣適用于模型權(quán)重,但并不意味著應(yīng)該封閉。當(dāng)談到開源模型時,他們的想法是開放給盡可能多的人,比如最近 Mistral 的開源大模型。Nicolas Patry 認(rèn)為,安全感通常來自開放,透明意味著更安全,任何人都可以查看它。封閉的安全會讓人們不清楚你在做什么。VentureBeat 同樣采訪了開源框架 PyTorch Lightning 背后公司 Lightning AI 的首席執(zhí)行官 William Falcon,他認(rèn)為如果公司擔(dān)心模型泄露,那就為時已晚。開源社區(qū)追趕的速度難以想象,并且開放研究可以衍生當(dāng)前 AI 網(wǎng)絡(luò)安全所需的各種工具。在他看來,模型開放程度越高,能力越民主化,可以開發(fā)更好的工具來對抗網(wǎng)絡(luò)安全威脅。對于 Anthropic 而言,該公司一方面尋求支持領(lǐng)域研究,另一方面要保證模型權(quán)重的安全,比如聘用優(yōu)秀的安全工程師。
- 免責(zé)聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認(rèn)可。 交易和投資涉及高風(fēng)險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。