人工智能監管路在何方?Meta高管警告不要制造道德恐慌
11月2日訊(編輯 馬蘭)英國布萊切利公園正在召開具有里程碑意義的人工智能峰會,歐盟高官和人工智能領域的專家將聚集在一起,討論如何制定人工智能行業的安全標準。
英國前副首相、Meta現任全球事務總裁Nick Clegg在峰會開幕前提前表明態度,呼吁不要過早對人工智能技術進行監管。
他強調,詆毀者們意圖把人工智能安全問題拔高到所有人都無法接受的程度,然后自己再干涉監管來獲得主動權。
他還提到無線電、自行車、互聯網都曾引發過道德恐慌,十年前無人駕駛概念出來時,人們還被恐嚇將不存在卡車司機,因為所有汽車都將完全自動化。但現實是,美國現在面臨著卡車司機短缺的情況。
監管的關鍵人工智能領域關于AI風險性的爭論已進入白熱化階段,各路大佬紛紛下場,一時間將人工智能安全隱憂帶上新的風口浪尖,但大佬們背后卻仍惺惺相惜,只稱學術之爭不傷友誼。
Clegg之外,計算機科學家、Google Brain聯合創始人吳恩達、Meta首席人工智能科學家LeCun都表達了對AI風險人為夸大的風險,并指出這是大型科技公司用以壟斷人工智能的手段之一。
LeCun表示,科技業中一些領導者確實存在一種毫無根據的優越感,導致他們相信,他們可以做AI但民眾不能做,以及超級人工智能出現指日可待,并具備法學碩士畢業生的所有特征,即知法懂法且還能守法。
被稱為人工智能教父的Geoffrey Hinton則回應稱,他的憂慮并非站在大公司角度出發,他從谷歌離開就是最好的證明。
但Hinton承認自己確實更愿意看到少數公司掌握人工智能技術,以方便實施監管。他將人工智能類比成核武器,稱核武器公開分享的話未必能讓世界更安全,讓少數大機構持有這種技術永遠比讓壞人持有來得好,人工智能也是如此。
細究兩派的觀點不難發現,關于人工智能監管規則的制定,或許是否開放開源才是解開這道題目的關鍵。
不過,專家們對于AI風險的激辯并不能改變英國峰會的主基調。周三,來自中美等28個國家的代表同意共同努力,以遏制人工智能飛速發展帶來的災難性風險。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。