AI竟慫恿美國少年弒親,周鴻祎:人工智能安全問題不亞于核武器
鞭牛士 12月23日消息,360集團創始人、董事長周鴻祎近日發布視頻分享了一個有關大模型安全的極端案例:AI竟然慫恿一個美國少年殺死自己的爹媽,這種駭人聽聞的事真發生了。周鴻祎稱,美國有個孩子向AI聊天機器人抱怨父母不讓自己玩手機,AI竟然鼓勵他殺死自己的父母。2024年9月,上述少年的家長已經起訴了聊天機器人所屬的character.ai平臺和谷歌公司(character.ai已被谷歌收購)。
周鴻祎還舉例了福州郭先生被AI換臉詐騙、新能源汽車和智能網聯車在智能駕駛模式下失控以及利用大模型生成虛假新聞誘導投資者跟風買入股票等事件,他表示:“隨著AI對不同行業的滲透,AI會改變每一個行業和產品,同時也會帶來很多新的安全問題。比如一個正常、安全的人工智能模型應該有嚴格的倫理道德和法律界限的設定,像這種明顯違反人倫道德的內容,根本就不應該被深沉和輸出,這說明機器人的模型在訓練過程中可能存在數據被污染、甚至數據被投毒的可能性。”
周鴻祎稱,如果大模型的訓練數據中包含了不良的價值觀或者有害的信息,那么就會導致大模型產生幻覺、胡說八道,甚至可能會輸出一些危險的內容,在某些場合可能會導致致命的錯誤,如醫療、軍事、航空、航天、道路交通等領域。如果AI胡編亂造、造信口開河,就會造成不可挽回的巨大損失,若放任這種情況不管,就有可能出現新聞中所看到的超出人類控制,威脅人類,甚至導致人類死亡的情況發生。
周鴻祎表示,大模型安全是個全世界人類面臨的共同威脅,這個問題如果不能解決,大模型的誕生就像打開了潘羅拉盒子,不知道是福還是禍。“我覺得人工智能安全問題,是不亞于核武器的最大的一種安全挑戰。我們又組建了一個復仇者聯盟,來對付人類歷史上最大的威脅”。
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。