首頁 > AI資訊 > 最新資訊 > 外國專家怎么看軍事人工智能?

外國專家怎么看軍事人工智能?

新火種    2023-10-26

外國專家怎么看軍事人工智能,這很重要!有很多戰友總說想看點不一樣的東西想知道一些外面世界的信息今天開始,劍客君給大家連載一系列文章,點贊收藏。今日文章:軍事人工智能的人道視角文|尼爾·戴維森(來源于香山論壇投稿)可以說,自我上次訪問北京以來,科學和技術領域最重要的一些發展是在機器學習方面,包括大型語言模型的快速發展——人工智能工具迅速引起了公眾的

圖片源于網絡

因此,我特別高興能參加今年論壇中關于加強人工智能國際安全管理的討論。紅十字國際委員會已提請各方注意從人道視角會看會產生重大人道影響的人工智能在武裝沖突中的若干應用。例如,人工智能的某些軍事應用可能會增加自主武器帶來的危險,加劇網絡行動和信息戰對平民造成的傷害,并對人類判斷在武裝沖突中的關鍵作用產生負面影響。其中最令人擔憂的是,有人建議人工智能可被用于核武器使用方面的決策指導,這就有可能加劇使用核武器的風險,造成災難性后果。

圖片源于網絡

近年來,中國發表了《加強人工智能倫理治理》和《規范人工智能軍事應用》的立場文件,并在最近的《攜手共建人類命運共同體:中國的倡議與行動》中表達了對 "人工智能缺乏完善治理 "的擔憂。令人鼓舞的是,中國強調人工智能應 "以人為本 ",且應遵循“人工智能為善”的原則。這與紅十字國際委員會對武裝沖突中的人工智能所采取的 "以人為本的方法 "相互關聯——該方法的重點是基于武裝沖突參與者的法律義務和道德責任來保留人類對武器的控制和判斷。紅十字國際委員會的即刻關切是當今武裝沖突中人工智能的高風險應用。因此,一個重要的優先事項是應對自主武器在軍事上日益發展所帶來的危險——自主武器指在沒有人類干預的情況下選擇并對目標使用武力的武器。此類武器引發了嚴重的人道、法律和倫理問題,而人工智能又加劇了這些問題,因此紅十字國際委員會一直在敦促各國通過新的國際規則,對這些武器加以具體禁止和限制。

圖片源于網絡

10 月 5 日,聯合國秘書長安東尼奧·古特雷斯和紅十字國際委員會主席發出緊急聯合呼吁,要求各國在 2026 年之前完成上述有關談判。紅十字國際委員會強調,必須禁止使用直接以人為攻擊目標的自主武器和不可預測的自主武器,例如由機器學習控制的武器,同時對所有其他武器制定明確而具體的限制。這與中國明確規定(必須受到禁止的) "不可接受的自主武器系統"和(必須受到規范)的 "可接受的自主武器系統"的做法相輔相成。隨著當今武器的獲取及其在沖突中的使用的快速發展,紅十字國際委員會歡迎中國在此方面的舉措,并鼓勵中國加強努力,爭取地區和國際社會的支持與合作,為自主武器劃定明確的法律紅線,以保護現在和未來幾代人。像北京香山論壇這樣的論壇為尋求對話提供了一個獨特機會,以支持將有效應對當代挑戰的多邊倡議。

圖片源于網絡

紅十字國際委員會非常重視與中國的持續對話,無論是通過該組織常駐北京的紅十字國際委員會東亞地區代表處、還是通過常駐位于紐約聯合國總部的雙方相關代表機構、以及與中國常駐日內瓦使團開展對話。我個人非常期待在第十屆北京香山論壇上就這些問題進行深入交流。作者簡介:尼爾·戴維森(Neil Davison)是位于日內瓦的紅十字國際委員會(ICRC)總部國際法、政策和人道主義外交部武器和敵對行為部門的高級科學和政策顧問。尼爾自2011年以來一直代表紅十字國際委員會參加多邊裁軍討論。領導紅十字國際委員會應對自主武器和軍事人工智能等新興技術帶來的挑戰。在加入紅十字國際委員會之前,尼爾在民間從事政策研究。尼爾具有生物學背景,獲得了和平研究的博士學位。

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章