首頁 > AI資訊 > 行業(yè)動態(tài) > 谷歌公布人工智能使用原則:不會開發(fā)武器,但真的能做到嗎?

谷歌公布人工智能使用原則:不會開發(fā)武器,但真的能做到嗎?

新火種    2023-11-01

當(dāng)一家有全球影響力的公司,樂于討論人工智能技術(shù)使用的道德問題時,我們應(yīng)該慶幸,因為至少看起來,事情在朝對的方向發(fā)展。

當(dāng)?shù)貢r間6月7日,在千呼萬喚中,谷歌終于通過官方博客發(fā)布了關(guān)于使用人工智能(AI)的七項指導(dǎo)原則。其中包括不會將AI技術(shù)應(yīng)用于開發(fā)武器,不會違反人權(quán)準(zhǔn)則將AI用于監(jiān)視和收集信息,避免AI造成或加劇社會不公等。

之所以說千呼萬喚,原因是谷歌發(fā)布這套指導(dǎo)原則的過程一波三折。事件的起因是谷歌與美國軍方合作的Maven項目。谷歌在該項目中向美國國防部提供用于機(jī)器學(xué)習(xí)應(yīng)用的TensorFlow API接口,以幫助軍事分析人員檢測圖像中的物體。

但雙方的合作立刻引起了谷歌內(nèi)部員工、媒體、學(xué)術(shù)界,甚至部分工業(yè)界的指責(zé)。他們認(rèn)為谷歌與美國軍方的合作,有可能讓AI技術(shù)成為軍方的幫兇,這與谷歌一直倡導(dǎo)的“不作惡”公司文化相悖。

谷歌公司內(nèi)部也因此掀起了離職潮,并約有4000名員工寫了請愿信,要求谷歌公司高層停止與美國軍方的合作。同時,外部的輿論也讓谷歌倍感壓力。

在這種情況下,谷歌做出了一系列緩解內(nèi)外部壓力的舉措。首先,谷歌召開了員工大會,谷歌云CEO黛安·格林向員工解釋了這份與美國軍方的合同僅價值900萬美元,且這項目不是為了攻擊目的。其次,谷歌宣布將在2019年,Maven項目合同到期后,停止與美國軍方合作,不再尋求新合同。第三,谷歌終于在拖了近一年的時間后,推出了AI的指導(dǎo)原則,兌現(xiàn)了項目簽訂時的承諾。

不可觸碰的“香餑餑”:AI武器化

與美國軍方合作AI項目,導(dǎo)致谷歌面對的內(nèi)部和外部壓力,其實是近年來各界對于AI武器化討論的縮影。

谷歌內(nèi)部曾有郵件顯示,谷歌云首席科學(xué)家、副總裁李飛飛在討論這一項目是曾強(qiáng)烈建議雙方在合同中回避“AI”(人工智能)這個字眼。

“無論付出什么代價,都必須要避免提及或者使用到AI這兩個字。武器化人工智能可能是AI領(lǐng)域里最敏感的話題,沒有之一。對于媒體而言這簡直就是紅肉(red meat),他們會找到一切方式毀掉谷歌。”這位來自斯坦福大學(xué)人工智能實驗室的學(xué)者在郵件中說。

“我不知道如果媒體開始討論谷歌正在秘密建造AI武器或AI技術(shù),并為國防工業(yè)服務(wù)會發(fā)生什么。”李飛飛說。

作為斯坦福大學(xué)人工智能實驗室的一名教授,又在谷歌公司中擔(dān)任要職,李飛飛一直堅持相信的是以人為中心的人工智能,可以用積極和慈善的方式讓人類受益。她還表示,任何將人工智能武器化的項目研究,都將違背她的原則。

在工業(yè)界,與軍方的合作一直是各家科技企業(yè)想要爭奪的“香餑餑”:通常來說與軍方合作意味著能獲得的長期且價值高昂的合同。《The Verge》曾指出,雖然谷歌這次與美國軍方的合同僅值900萬美元,但這對谷歌未來獲得合同開了好頭。李飛飛也曾建議谷歌內(nèi)部將這次的合作描繪成是谷歌云平臺的重大勝利。

實際上,除了谷歌外,IBM、微軟、亞馬遜等公司都盯著美國軍方的合作。在美國軍方合作的項目中,這些公司都曾是相互競標(biāo)的對手。

但在AI學(xué)術(shù)界,對于這樣的合同有不同的聲音和擔(dān)憂。今年5月份,一個人權(quán)和技術(shù)團(tuán)體聯(lián)盟齊聚一堂,發(fā)布了一份名為“多倫多宣言”的文件,要求各國政府和科技公司確保AI尊重平等和非歧視的基本原則。

在份文件的重點是各國政府和科技公司有義務(wù)防止機(jī)器學(xué)習(xí)系統(tǒng)歧視,以及能確保在某些情況下不會出現(xiàn)違反現(xiàn)有人權(quán)法的事情發(fā)生。

“我們必須把注意力集中在這些技術(shù)將如何影響個人和人權(quán)。在機(jī)器學(xué)習(xí)系統(tǒng)的世界里,誰來承擔(dān)損害人權(quán)的責(zé)任?”這份宣言的序言部分寫道。

一直以來這兩個問題也是學(xué)術(shù)界討論的重點。在谷歌與軍方合作的項目公布后,今年5月15日,國際機(jī)器人武器控制委員會(ICRAC)向谷歌母公司Alphabet發(fā)出了一封公開信,再次要求谷歌停止其與國防部在Maven項目上的合作協(xié)議,承諾不去開發(fā)軍事科技,并保證不將其搜集的個人數(shù)據(jù)用于軍事行動。

信中寫到:和許多其他數(shù)字技術(shù)公司一樣,谷歌收集了大量關(guān)于用戶行為、活動和興趣的數(shù)據(jù)。谷歌不能僅利用這些數(shù)據(jù)改進(jìn)自己的技術(shù)和擴(kuò)大業(yè)務(wù),還應(yīng)該造福社會。公司的座右銘是“不作惡”,這是眾所周知的責(zé)任。

“像谷歌這樣跨國公司的責(zé)任必須與他們的用戶國際化相匹配。根據(jù)谷歌所考慮的國防部合同,以及微軟和亞馬遜已經(jīng)實施的類似合同,這樣的做法標(biāo)志著擁有大量全球敏感私人數(shù)據(jù)的科技公司與一個國家軍隊的危險聯(lián)盟。它們還表明,谷歌未能與全球公民社會和外交機(jī)構(gòu)進(jìn)行接觸,這些機(jī)構(gòu)已經(jīng)強(qiáng)調(diào)這些技術(shù)的道德風(fēng)險。”信中稱。

今年4月份,還曾有逾50名頂尖的人工智能研究員宣布,向韓國科學(xué)技術(shù)院發(fā)起抵制。此前,這家韓國一流大學(xué)和一家軍工企業(yè)合作開設(shè)了人工智能實驗室。發(fā)起抵制的研究員稱,這是一所“AI武器實驗室”。

如何確保AI技術(shù)不會用來作惡

在內(nèi)部員工給予辭職壓力,以及外部媒體、學(xué)術(shù)界的監(jiān)督下,谷歌最終做出了妥協(xié)。公布AI使用指導(dǎo)原則后,谷歌員工表示了歡迎。

Google大腦研究員Dumitru Erhan就在自己的推特上表示:“看見這個出來了好開心”。

谷歌現(xiàn)任AI負(fù)責(zé)人杰夫·迪恩在自己的推特賬號上,除了分享了谷歌發(fā)表的這份原則之外,還提到為了真正踐行這些原則,他們還提出了一套技術(shù)實踐指南,指導(dǎo)科學(xué)家和工程師們在構(gòu)建AI產(chǎn)品的時候應(yīng)該注意什么。

DeepMind聯(lián)合創(chuàng)始人穆斯塔法(Mustafa Suleyman)盡管自己沒有發(fā)表觀點,但在推特上轉(zhuǎn)發(fā)了人權(quán)觀察組織(Human Rights Watch)的話:各國政府應(yīng)該關(guān)注到科技行業(yè)的最新動態(tài),開始就禁止全自動武器展開協(xié)商,制定新的國際法規(guī)。

員工的歡迎是一方面,但在實際中谷歌率先做出的這套原則是否真的使用,又是另一個問題了。《紐約時報》的文章稱,由于谷歌此前一再強(qiáng)調(diào)自己為國防部所做的工作并非出于“進(jìn)攻目的”,這些指導(dǎo)原則能否將該公司排除在類似Maven的合同之外,尚不清楚。

值得一提的是,在谷歌提出的AI原則中,谷歌也表示將會繼續(xù)與政府和軍方展開AI合作,例如網(wǎng)絡(luò)安全、培訓(xùn)以及征兵等領(lǐng)域。

對于崇尚開源和開放的硅谷文化來說,谷歌的這套原則還可能面臨另一個問題:即便谷歌說不讓自己的技術(shù)用于武器開發(fā),但一旦變成開源項目,這些技術(shù)和代碼就有可能用于作惡,就像其他的工具與技術(shù)一樣。

最后,正如谷歌在最新指導(dǎo)原則中表明的那樣,制定足夠廣泛的規(guī)則,以涵蓋各種各樣的場景,又能足夠靈活以至于不排除有益的工作,其實是很困難的。

這時候,與以往一樣,公共監(jiān)督和不停的辯論,或許是確保人工智能公平部署,并產(chǎn)生對社會有益的方式之一。正如谷歌這次面對的情況一樣,對于那些手握數(shù)據(jù)和技術(shù)的科技公司而言,它們必須要習(xí)慣于公眾開始討論技術(shù)使用的道德問題。

附谷歌公布的AI指導(dǎo)原則:

AI應(yīng)用目標(biāo):

我們相信AI應(yīng)當(dāng)

1.對社會有益。

2.避免制造或加劇偏見。

3.提前測試以保證安全。

4.由人類擔(dān)責(zé)。

5.保證隱私。

6.堅持科學(xué)高標(biāo)準(zhǔn)。

7.從主要用途、技術(shù)獨特性、規(guī)模等方面來權(quán)衡。

我們不會將AI應(yīng)用于:

1.制造整體傷害之處。如一項技術(shù)可能造成傷害,我們只會在其好處大大超過傷害的情況下進(jìn)行,并提供安全措施;

2.武器或其他用于直接傷害人類的產(chǎn)品;

3.收集使用信息,以實現(xiàn)違反國際規(guī)范的監(jiān)控的技術(shù);

4.目標(biāo)違反被廣泛接受的國際法與人權(quán)原則的技術(shù)。

相關(guān)推薦
免責(zé)聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認(rèn)可。 交易和投資涉及高風(fēng)險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。

熱門文章