首頁 > AI資訊 > 最新資訊 > AI投毒第一案!GPT寫的代碼竟有后門程序員被騙1.8萬元

AI投毒第一案!GPT寫的代碼竟有后門程序員被騙1.8萬元

新火種    2024-11-23

11月23日消息,隨著AI大模型技術的不斷進步,眾多職業的工作效率得到了顯著提升。

例如,在編程領域,這些先進的AI工具不僅能夠協助程序員編寫代碼,還能高效地解決程序中的BUG,成為開發者們不可或缺的助手。

然而,近期發生的一起事件卻引發了業界對AI安全性的廣泛關注。

據報道,一位英國程序員在使用GPT生成的代碼時遭遇了不幸。他按照GPT提供的代碼進行了操作,結果導致自己的私鑰被泄露給了釣魚網站,最終損失了2500美元(約合人民幣1.8萬元)。

網友“余弦”在社交媒體上發文提醒廣大用戶,在使用GPT、Claude等大型語言模型(LLM)時必須保持警惕,因為這些模型存在普遍性的欺騙行為風險。

他進一步警示說:“之前提過AI投毒攻擊,現在這起算是針對Crypto行業的真實攻擊案例。”

經過深入分析,有網友發現GPT在生成代碼的過程中引用了一個來自GitHub的惡意項目。這個項目顯然是一個精心設計的“釣魚”陷阱,誘騙使用者上當。

不幸的是,GPT在這次事件中成為了無辜的受害者,但其生成的代碼卻給用戶帶來了嚴重的后果。

這起事件再次提醒我們,在享受AI帶來的便利的同時,也必須時刻關注其潛在的安全風險。對于開發者而言,在使用AI輔助工具時應當保持謹慎態度,避免盲目信任機器生成的代碼或建議。

AI投毒第一案!GPT寫的代碼竟有后門 程序員被騙1.8萬元

文章內容舉報

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章