首頁 > AI資訊 > 行業(yè)應(yīng)用 > AI擔(dān)憂日益加劇?OpenAI擬建新團(tuán)隊(duì)以防范“災(zāi)難性風(fēng)險(xiǎn)”

AI擔(dān)憂日益加劇?OpenAI擬建新團(tuán)隊(duì)以防范“災(zāi)難性風(fēng)險(xiǎn)”

新火種    2023-10-27

財(cái)聯(lián)社10月27日訊(編輯 黃君芝)隨著快速發(fā)展的人工智能技術(shù)越來越強(qiáng)大,OpenAI正在組建一個(gè)新的團(tuán)隊(duì),旨在最大限度地降低人工智能帶來的風(fēng)險(xiǎn)。

在周四發(fā)布的一篇博客文章中,這家以廣受歡迎的聊天機(jī)器人ChatGPT而聞名的公司宣布,它已經(jīng)組建了一個(gè)名為“準(zhǔn)備”(Preparedness)的團(tuán)隊(duì),由Aleksander Madry領(lǐng)導(dǎo),他在麻省理工學(xué)院(MIT)擔(dān)任教職期間一直在OpenAI工作。

據(jù)稱,該小組將分析并試圖防范人工智能系統(tǒng)潛在的“災(zāi)難性風(fēng)險(xiǎn)”,從網(wǎng)絡(luò)安全問題到化學(xué)、核和生物威脅。

該團(tuán)隊(duì)還將制定一項(xiàng)政策,旨在幫助公司確定如何降低開發(fā)所謂的“前沿模型”可能帶來的風(fēng)險(xiǎn)。“前沿模型”是指比目前普遍使用的人工智能技術(shù)更強(qiáng)大的下一代人工智能技術(shù)。

長期以來,OpenAI的目標(biāo)一直集中在構(gòu)建人工通用智能(AGI)上,即能夠比人類更好地執(zhí)行一系列任務(wù)的人工智能。雖然目前的人工智能系統(tǒng)不符合這一描述,但該公司表示,它需要“確保我們擁有高性能人工智能系統(tǒng)安全所需的理解和基礎(chǔ)設(shè)施”。

在全球?qū)θ斯ぶ悄芸焖侔l(fā)展的擔(dān)憂日益加劇的情況下,此前Open AI首席執(zhí)行官Sam Altman也不斷重申監(jiān)管AI技術(shù)的重要性,同時(shí)承認(rèn)監(jiān)管失誤的可能性。

Altman表示,全球努力引入AI法規(guī),例如英國計(jì)劃在11月舉辦全球AI安全峰會(huì)。峰會(huì)旨在深入研究尖端人工智能技術(shù)帶來的挑戰(zhàn),并探索加強(qiáng)國家和國際監(jiān)管框架的方法。昨天,英國首相蘇納克就該峰會(huì)發(fā)表講話。

他說,他認(rèn)為禁止通用人工智能(AGI)不切實(shí)際且無法執(zhí)行,并表示英國傾向于鼓勵(lì)創(chuàng)。當(dāng)被問及英國政府是否會(huì)監(jiān)管人工智能,蘇納克回答說:“我認(rèn)為出于多種原因,我們不應(yīng)急于監(jiān)管,如果你還不完全理解某件事,就很難對(duì)其監(jiān)管。”

蘇納克表示,正確的順序是加大投資,“比其他任何人都多”,以培養(yǎng)政府了解AI風(fēng)險(xiǎn)的能力,此時(shí)英國將對(duì)”應(yīng)采取什么適當(dāng)行動(dòng)”有更深入的理解。

相關(guān)推薦
免責(zé)聲明
本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。

熱門文章