首頁 > AI資訊 > 最新資訊 > 拜登首席科學顧問:多次與總統討論AI問題將盡快出臺防范風險措施

拜登首席科學顧問:多次與總統討論AI問題將盡快出臺防范風險措施

新火種    2023-09-20

8月22日訊(編輯 牛占林)作為拜登的首席科學顧問兼白宮科技政策辦公室主任,阿拉蒂·普拉巴卡爾(Arati Prabhakar)是一位在美國科技界擁有深厚影響力的女性工程師。在近期接受媒體采訪時,普拉巴卡爾透露,已經與總統拜登多次討論有關于人工智能(AI)問題,拜登要求盡快出臺防范人工智能風險的保障措施。

普拉巴卡爾正在幫助美國政府制定國家人工智能發展戰略,以防范錯誤信息和該技術的其他潛在缺點,部分依賴于亞馬遜、谷歌、微軟和Meta等美國大型科技公司的合作。

在上個月,亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI等七家主要人工智能公司將做出自愿承諾,承諾內容包括在公開發布之前測試它們人工智能系統的安全性和能力,投資研究該技術對社會的風險,以及促進針對它們的系統漏洞的外部審查。

拜登政府表示,為了遏制快速發展的人工智能技術帶來的誤導和其他風險,已與大型科技公司達成一項為這種技術設置更多防護措施的協議,包括開發水印系統,幫助用戶識別人工智能生成的內容。

對此,普拉巴卡爾指出,世界上最先進的人工智能公司大多在美國,這是美國國家發展的一個巨大的優勢。但我們也必須清楚,必須要制定相應的規則,七家主要人工智能公司的自愿承諾只是在履行自己的責任。

普拉巴卡爾補充道,政府部門也必須加強行動,無論是行政部門還是立法部門,如此才能使相關技術和公司行穩致遠,也希望更多的公司和國家加入進來。

她表示:“已經與拜登多次談論過人工智能的話題,他非常專注于理解人工智能是什么,以及人們是如何使用它的。”

普拉巴卡爾指出,拜登非常關注人工智能技術帶來的社會影響和可能的結果,這些談話很有探索性和前瞻性,但他也非常關注具體的行動。

對于人工智能可能的風險,普拉巴卡爾表示,這些深度學習系統有一個技術特點,那就是它們是不透明的,它們本質上是黑盒子。而作為人類,我們面臨的大多數風險都來自無法解釋的事情。

普拉巴卡爾提到,要特別關注人工智能系統的武器化、隱私問題、歧視性決策,以及人工智能生成的內容擾亂選舉等風險。

而防范風險方面,她認為不會有完美的措施,但在對這些系統的安全性和有效性有足夠的了解之后,可以真正使用它們,并獲得新興技術所能提供的價值。

普拉巴卡爾還表示,雖然還不能給出一個具體的時間表,但總統已經明確表示,這是一個非常急迫的問題,將會盡快出臺防范風險的措施。

相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章