馬斯克:人工智能比核彈更危險(xiǎn)
11月30日消息,特斯拉首席執(zhí)行官埃隆·馬斯克稱,我們應(yīng)該對人工智能實(shí)施某種監(jiān)管。
馬斯克說道:“在我看來,人工智能比核彈更危險(xiǎn)。”
馬斯克一直關(guān)注人工智能的發(fā)展,并警告隱性風(fēng)險(xiǎn),這不是馬斯克第一次用核彈來比喻人工智能的危險(xiǎn)了。
2017年,他就曾指出,人工智能技術(shù)開始變得比核彈頭更危險(xiǎn),因?yàn)樗梢圆皇芟拗频貜?fù)制自己,而人類無法控制它。
早在2013年,谷歌正計(jì)劃收購DeepMind時(shí),馬斯克就表示反對:“人工智能的未來不應(yīng)該讓拉里(谷歌創(chuàng)始人之一)說了算。”
其實(shí),推出GPT的人工智能研究實(shí)驗(yàn)室“OpenAI”,就是馬斯克為了應(yīng)對人工智能可能帶來的風(fēng)險(xiǎn),與奧特曼一起創(chuàng)建的。
馬斯克希望通過開源軟件,讓盡可能多的人能夠使用人工智能,形成一種防火墻。
2018年,馬斯克曾試圖將OpenAI并入特斯拉,但遭到拒絕,導(dǎo)致了他與OpenAI的決裂。
2023年,馬斯克創(chuàng)立X.AI,力求在競爭中保障人工智能的安全。
相關(guān)推薦
- 免責(zé)聲明
- 本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。