又一巨頭放任AI軍事化!谷歌“撕毀”不將AI用于開發(fā)武器的承諾
2月5日訊(編輯 瀟湘)繼OpenAI、Meta等美國人工智能領(lǐng)軍企業(yè)放任自家模型用于軍事目的后,谷歌近來也“偷偷摸摸”地加入了這一陣營。
據(jù)當?shù)孛襟w周二發(fā)現(xiàn),谷歌已從其人工智能原則中刪除了一段承諾避免將AI技術(shù)用于武器等潛在有害應(yīng)用的承諾。
該公司似乎更新了其公開的AI原則頁面,刪除了上周還存在的名為“我們不會追求的應(yīng)用”的部分——例如“造成或可能造成整體傷害的技術(shù)”,包括武器。
谷歌高級副總裁James Manyika和人工智能實驗室DeepMind負責人Demis Hassabis隨后在一篇博客文章中,為這一舉措進行了辯護。他們認為,企業(yè)和政府需要在“支持國家安全”的人工智能方面進行合作。
該博客文章表示,隨著技術(shù)的發(fā)展,該公司于2018年發(fā)布的最初的人工智能原則,需要進行更新。
“數(shù)十億人在日常生活中使用人工智能。人工智能已經(jīng)成為一種通用技術(shù),也是無數(shù)組織和個人用來構(gòu)建應(yīng)用程序的平臺,”文章稱,“AI已經(jīng)從實驗室的一個小眾研究課題,轉(zhuǎn)變?yōu)橐环N像手機和互聯(lián)網(wǎng)一樣普及的技術(shù)。”
值得一提的是,這篇博客文章是在Alphabet周二發(fā)布Q4報告之前不久發(fā)布的。最終財報顯示,谷歌去年四季度的業(yè)績?nèi)跤谑袌鲱A期,并導致其股價在盤后下跌。
又一家“撕毀承諾”
毫無疑問,此番谷歌在人工智能原則上措辭變動,將令其成為最新一家放任向AI軍事化靠攏的美國人工智能公司。
正如去年曾報道過的那樣,硅谷在數(shù)年前還對五角大樓避之不及,但如今隨著AI技術(shù)的發(fā)展,兩者之間卻似乎正在建立更為深層次的聯(lián)系。
而此番谷歌的轉(zhuǎn)變則更為令人們感到唏噓。
事實上,早在人們對人工智能引發(fā)倫理問題的興趣高漲之前,谷歌創(chuàng)始人謝爾蓋·布林和拉里·佩奇就曾表示,他們的公司座右銘是“不作惡”。當該公司于2015年重組為Alphabet時,他們的口號也依然是“做正確的事”。
前谷歌道德人工智能團隊的聯(lián)合負責人、現(xiàn)任人工智能初創(chuàng)公司Hugging Face首席倫理科學家Margaret Mitchell表示,刪除“傷害”條款可能會對谷歌開展的工作類型產(chǎn)生影響。
她說:“刪除該條款將抹去谷歌許多人在人工智能道德領(lǐng)域所做的工作,更成問題的是,這意味著谷歌現(xiàn)在可能會致力于直接部署可以殺人的技術(shù)。”
長期以來,谷歌員工一直在爭論如何平衡人工智能領(lǐng)域的道德問題和競爭態(tài)勢,尤其是OpenAI的ChatGPT的推出讓這家搜索巨頭倍感壓力之際。2023年,一些谷歌員工便曾對外表達了擔憂,認為該公司在人工智能領(lǐng)域重振雄風的動力可能導致道德失范。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。