首頁 > AI資訊 > 最新資訊 > 馬斯克曾因AI帶來的威脅而失眠,如今發出警告:人工智能比核彈危險

馬斯克曾因AI帶來的威脅而失眠,如今發出警告:人工智能比核彈危險

新火種    2023-12-11

作者 | 一刻君

K

一個如此強大的工具

他如何被我們使用而不傷害我們?

這是我們遇到所有人工智能

創造秩序危機的一個追問

當地時間11月29日,在DealBook峰會上,馬斯克對于這段時間OpenAI的“政變”風波發表了自己的猜測。馬斯克表示,雖然自己不清楚這場鬧劇的內情,但他擔憂這一切對于AI將意味著什么,并希望能夠知曉舊董事會罷免奧特曼的真實原因。

后來馬斯克在被追問AI對于人類究竟是好是壞時回答道:“我們生活在一個有史以來最有趣的時代。我認為,有段時間我確實很受打擊,還會因為想到AI帶來的威脅而失眠。后來,我選擇接受命運的安排,想著‘好吧,即使毀滅將要到來,我還是想要繼續活下去嗎?’然后,我覺得自己肯定會選擇活下去,因為那才是最有趣的,即使我(對于毀滅)做不了什么。”

在會上,向來強調AI威脅論的馬斯克也再次呼吁政府應當對AI進行監管:“我認為AI比核彈更危險。我們監管核彈,可你不能在自家后院制造核彈,我覺得我們應該對AI實施某種監管。”

在OpenAI的“政變”風波發生后,幾名內部的研究人員曾向OpenAI董事會致信,警告稱一項強大的AI發現可能威脅到人類。OpenAI在這項名為Q*的項目上取得的進展讓部分公司內部人士相信,這可能是他們找到“超級智能(即AGI)”的突破點。OpenAI將AGI定義為“比人類更聰明的AI系統”,相信這也是讓馬斯克擔憂的根本原因。

今天要分享的是一刻talks的講者,哈佛大學法學博士、未來法治研究專家郭銳的演講,他向我們介紹了目前人工智能所遇到的倫理問題,并提出了應對的兩個原則,分別是人的根本利益原則和責任原則,呼吁每個人都積極參與到人工智能倫理風險問題的思考中。

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章