字節跳動大模型訓練被實習生攻擊背后內幕曝光:四點真相
10月19日消息,今日,字節跳動大模型訓練遭實習生攻擊一事引發廣泛關注,相關話題隨即登上熱搜。
據“大廠青年”爆料,據內部廠友透露,破壞模型訓練確有其事,但傳聞也有些夸張和虛構的信息。
據了解,事情發生在六月底。某著名高校博士生田某某在大廠商業化技術團隊實習,因為對團隊資源分配不滿,使用攻擊代碼破壞團隊的模型訓練任務。
首先,受影響的業務不是該廠的大模型,而是商業化技術團隊的模型訓練任務,也就是影響了廣告部門。
至于傳聞損失上千萬美元,則是太夸張了。
另外,“實習生被送進去”是假的,處理方式是辭退,同步行業聯盟,同步情況給學校。
在消息曝出后,該名涉事實習生試圖在社交平臺上辟謠,將責任推給他人,不過很快便遭到了接近字節跳動人士的否認。
據相關知情人士在Gitbub上表述,“你(指田某)在長達2個月的時間里對集群代碼進行惡意攻擊,對公司近30位各級員工造成巨大傷害,讓你的同事近一個季度的工作白費。所有的記錄和審查都證明這是不容狡辯的事實!”
據悉,田某某利用了Huggingface(HF)平臺的漏洞,在公司的共享模型中寫入了破壞代碼,導致模型訓練效果忽高忽低,無法產生預期的訓練成果。
一位前字節技術員工表示,“字節AI Lab的實習生權限和正職員工差異不大,也使得此次事件有了發生的機會”,其也對此次事件帶來的惡性影響表達了擔憂,“這件事之后肯定會極大地收縮實習生的權限”。
文章內容舉報
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。