證實!字節大模型訓練遭北大實習生投毒
本周有消息稱,北大某田姓研究生在字節實習期間,利用 huggingface 的漏洞給字節大模型注入了破壞代碼,導致其訓練成果不可靠,而重新訓練帶來的損失或超千萬美元(8000 多張 GPU 顯卡)。
GitHub 上公開了田某某的錄音,成為實錘證據。
知情人士在 Gitbub 上稱,“你(指田某)在長達 2 個月的時間里對集群代碼進行惡意攻擊,對公司近 30 位各級員工造成巨大傷害,讓你的同事近一個季度的工作白費。所有的記錄和審查都證明這是不容狡辯的事實!”
此事在網上傳的沸沸揚揚,字節昨日回應。
回應要點有三:1.事情屬實;2.該事未影響大模型商業化;3.“損失千萬美元” 屬嚴重夸大。
據悉,事情原委是高校博士生田某今年 6 月在字節跳動 AI Lab 實習期間,因對團隊資源分配不滿,使用攻擊代碼破壞了團隊的模型訓練任務。田某于 2021 年 9 月起在該單位實習,所在團隊剛在今年 4 月與北大王立威團隊提出了 VAR 研究。
字節跳動內部調查確認了是田某某所為,已經辭退該人。字節跳動還將此事通報給了陽光誠信聯盟、企業反舞弊聯盟以及實習生所在的學校。
有報道指出,字節跳動的 AI Lab 實習生權限和正職員工差異不大,這為此次事件提供了機會。經此一事,字節后續會加強權限隔離和共用代碼的審計。
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。