研究人員警告:人工智能需要更好地理解和管理
蘭卡斯特大學(xué)(Lancaster University)的一位學(xué)者表示,人工智能(AI)和算法有能力并正在被用來(lái)加劇激進(jìn)化、加強(qiáng)兩極分化、傳播種族主義和政治不穩(wěn)定。國(guó)際安全學(xué)教授喬-伯頓(Joe Burton)認(rèn)為,人工智能和算法不僅僅是國(guó)家安全機(jī)構(gòu)用來(lái)挫敗惡意網(wǎng)絡(luò)活動(dòng)的工具。他認(rèn)為,人工智能和算法還可能助長(zhǎng)兩極分化、激進(jìn)主義和政治暴力,從而對(duì)國(guó)家安全本身構(gòu)成威脅。

此外,他還說(shuō),安全化進(jìn)程(將技術(shù)視為一種生存威脅)在人工智能的設(shè)計(jì)、使用及其產(chǎn)生的有害結(jié)果方面起到了重要作用。
伯頓教授的論文最近發(fā)表在愛(ài)思唯爾影響力較大的《社會(huì)中的技術(shù)》雜志上。
他說(shuō):"人工智能通常被認(rèn)為是用來(lái)打擊暴力極端主義的工具,而這是辯論的另一面。"
這篇論文探討了人工智能在歷史上以及在媒體和大眾文化的描述中是如何被安全化的,并通過(guò)探討人工智能在現(xiàn)代產(chǎn)生極化、激進(jìn)化效應(yīng),從而助長(zhǎng)政治暴力的例子。
文章引用了經(jīng)典電影系列《終結(jié)者》,該片描述了一個(gè)"復(fù)雜而惡毒"的人工智能所實(shí)施的大屠殺,這比任何其他電影都更能引起大眾對(duì)人工智能的認(rèn)識(shí),以及對(duì)機(jī)器意識(shí)可能導(dǎo)致人類毀滅性后果的恐懼--在這種情況下,就是核戰(zhàn)爭(zhēng)和蓄意滅絕一個(gè)物種的企圖。
伯頓教授寫(xiě)道:"對(duì)機(jī)器的不信任、與機(jī)器相關(guān)的恐懼以及機(jī)器與人類面臨的生物、核和基因威脅的聯(lián)系,促使各國(guó)政府和國(guó)家安全機(jī)構(gòu)希望影響技術(shù)的發(fā)展,以降低風(fēng)險(xiǎn),并(在某些情況下)利用其積極的潛力。"
伯頓教授說(shuō),先進(jìn)的無(wú)人機(jī),如在烏克蘭戰(zhàn)爭(zhēng)中使用的無(wú)人機(jī),現(xiàn)在能夠完全自主,包括目標(biāo)識(shí)別和辨認(rèn)等功能。雖然包括聯(lián)合國(guó)在內(nèi)的各國(guó)都在開(kāi)展廣泛而有影響力的辯論,要求禁止"殺手機(jī)器人",并讓人類參與生死決策,但武裝無(wú)人機(jī)的加速和整合仍在繼續(xù)。
在網(wǎng)絡(luò)安全--計(jì)算機(jī)和計(jì)算機(jī)網(wǎng)絡(luò)的安全方面,人工智能正得到廣泛應(yīng)用,其中最普遍的領(lǐng)域是信息和網(wǎng)絡(luò)心理戰(zhàn)。
普京政府在 2016 年針對(duì)美國(guó)選舉進(jìn)程采取的行動(dòng)以及隨之而來(lái)的劍橋分析公司丑聞表明,人工智能有可能與大數(shù)據(jù)(包括社交媒體)相結(jié)合,產(chǎn)生以分化、鼓勵(lì)激進(jìn)信仰和操縱身份群體為核心的政治效應(yīng),它展示了人工智能分裂社會(huì)的力量和潛力。
在病毒大流行期間,人工智能被視為追蹤病毒的積極手段,但也引發(fā)了對(duì)隱私和人權(quán)的擔(dān)憂。
文章對(duì)人工智能技術(shù)本身進(jìn)行了研究,認(rèn)為人工智能的設(shè)計(jì)、所依賴的數(shù)據(jù)、如何使用以及其結(jié)果和影響都存在問(wèn)題,文末向從事網(wǎng)絡(luò)安全和國(guó)際關(guān)系研究的人員發(fā)出了強(qiáng)有力的信息。
伯頓教授是網(wǎng)絡(luò)沖突和新興技術(shù)方面的專家,同時(shí)也是該大學(xué)安全與防護(hù)科學(xué)計(jì)劃的成員,他寫(xiě)道:"人工智能無(wú)疑能夠以積極的方式改變社會(huì),但同時(shí)也帶來(lái)了風(fēng)險(xiǎn),我們需要更好地理解和管理這些風(fēng)險(xiǎn)。了解該技術(shù)在其開(kāi)發(fā)和使用的各個(gè)階段所產(chǎn)生的分裂性影響顯然至關(guān)重要。從事網(wǎng)絡(luò)安全和國(guó)際關(guān)系研究的學(xué)者有機(jī)會(huì)將這些因素納入新興的人工智能研究議程,避免將人工智能視為政治上中立的技術(shù)。換句話說(shuō),人工智能系統(tǒng)的安全性,以及如何將其用于國(guó)際地緣政治斗爭(zhēng),不應(yīng)凌駕于對(duì)其社會(huì)影響的擔(dān)憂之上。"
編譯來(lái)源:ScitechDaily
- 免責(zé)聲明
- 本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。