首頁 > AI資訊 > 最新資訊 > 人工智能論壇:科技大佬在閉門會議上警告人工智能的危險和“超級智能”

人工智能論壇:科技大佬在閉門會議上警告人工智能的危險和“超級智能”

新火種    2023-09-15

文 | Antonio Peque?o IV

事件概要

周三,Meta首席執(zhí)行官馬克·扎克伯格、特斯拉首席執(zhí)行官埃隆·馬斯克和前微軟首席執(zhí)行官比爾·蓋茨等科技巨頭在一個閉門人工智能論壇上與美國兩黨議員舉行了會面。科技大佬們在會上就人工智能提出了廣泛的監(jiān)管框架,并警告說,這項蓬勃發(fā)展的技術(shù)如果沒有受到監(jiān)管,可能會為人類帶來生存危險。

周三,Meta首席執(zhí)行官馬克·扎克伯格出席在華盛頓國會山舉行的首屆人工智能洞察論壇。圖片來源:CQ-ROLL CALL, INC VIA GETTY IMAGES

關(guān)鍵事實

在開幕致辭中,扎克伯格強調(diào)了人工智能的安全性和可及性政策的必要,但他也指出,“如果在未來的某個時候,這些系統(tǒng)能夠接近超級智能的水平”,那么Meta公司將重新考慮對人工智能的監(jiān)管方法。

扎克伯格還呼吁美國在人工智能領(lǐng)域發(fā)揮領(lǐng)導作用,稱“世界使用的技術(shù)標準”由美國來定義非常重要。

特斯拉首席執(zhí)行官埃隆·馬斯克也參加了本次論壇,但他的座位距離扎克伯格這位潛在的籠斗對手很遠。馬斯克在離開峰會時告訴記者,人工智能帶來了一場“文明風險”,并補充說,“人工智能殺死我們所有人的可能性很低,但絕不是零。”

馬斯克還呼吁成立一個聯(lián)邦人工智能部門,OpenAI首席執(zhí)行官山姆·阿爾特曼(Sam Altman)也提出了這一想法。阿爾特曼周三告訴記者,人們對人工智能的監(jiān)管已經(jīng)達成了共識,但對這種監(jiān)管應(yīng)該是什么樣子有不同的看法。

馬薩諸塞州民主黨參議員伊麗莎白·沃倫(Elizabeth Warren)對會議的閉門性質(zhì)提出了批評,并告訴記者稱,所有出席會議的議員們都“只是坐在那里,不問任何問題”。

據(jù)美國全國廣播公司(NBC)報道,密蘇里州共和黨議員喬希·霍利(Josh Hawley)沒有出席本次會議,還在后來批評了這些參會的科技高管,稱他們是“為我們的國家做壞事”的人,是從人工智能發(fā)展中獲利的“利益方”。

關(guān)鍵背景

與歐洲不同,在立法者、科技高管、學者和民權(quán)專家進行了數(shù)月的會議之后,美國尚未在人工智能監(jiān)管政策方面取得合法進展。然而,霍利和康涅狄格州民主黨參議員理查德·布盧門撒爾(Richard Blumenthal)上周發(fā)布了一項兩黨人工智能監(jiān)管框架,要求人工智能公司申請由獨立監(jiān)督機構(gòu)管理的許可證,該機構(gòu)將能夠根據(jù)框架規(guī)則對申請人進行審核。

相關(guān)推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。

熱門文章