首頁 > AI資訊 > 最新資訊 > 時評|對AI的風險到了該“直接討論”的時候了

時評|對AI的風險到了該“直接討論”的時候了

新火種    2023-10-22
近日,圖靈獎得主、被譽為“人工智能之父”的杰弗里·辛頓(Geoffrey Hinton)在接受美國《60分鐘》節目訪談時表達了對人工智能所引發的潛在風險的擔憂。聯想到他今年5月份不惜從工作了10年的谷歌離職,以便更自由地談論AI的風險,人們不禁要問,在如今由LLM(大語言模型)帶來的新一輪人工智能增長正如火如荼的時候,討論AI的風險有必要嗎?誠然,AI正以前所未有的速度改善著我們的生活,提供了從提高效率到解決復雜問題的種種工具,如個人智能助手、藥物輔助設計、自動駕駛等等。然而,由于AI技術的嚴重數據依賴以及不透明等特性,容易導致其受數據質量的影響而帶來諸如性別歧視、種族歧視等問題;同時AI也可能引發社會問題,如AI自動化技術導致的工人失業問題、AI的普及和應用不均可能導致的社會不公平問題;此外,AI還給社會治理帶來了極大的挑戰,AI在給我們生活帶來便利的同時也給各種犯罪行為提供了便利。利用AI可以快速地創建非?!罢鎸崱钡募賵D片、假視頻,給社會信息的真實性和可信度構成風險。這些問題的突顯加劇了人們對AI技術未來所帶來風險的擔憂,對AI風險的討論迫在眉睫。也許有人會說,任何事物都有兩面性,人類已有數千年的管控經驗,AI的風險值得我們如此大動干戈嗎?是的,對AI風險的重視程度怎么樣都不為過,因為AI技術面臨失控的可能。AI的風險可能遠遠超出了我們的預料,超越了我們人類所能應對的能力,而這絕不是危言聳聽。正如ChatGPT所展現的那樣,AI已經具有理解和推理能力,而隨著GPT的繼續發展,它將有可能取得比人類更強的學習和推理能力。設想有一天,AI通過生成大量的以假亂真的文字、圖片、視頻等信息,利用社交媒體來影響和控制我們的輿論,而對這些行為我們人類將毫無感知。更為可怕的是,目前AI已經可以自主編寫計算機代碼,未來,AI也可以通過修改自身的代碼,來擺脫人類設置的限制,最終逃脫人類的控制。同時,它還可能通過編碼制造出更多的AI,并通過控制大量附屬的AI來對人類發起挑戰。而這些是我們人類歷史上還從未遇見過的,人類社會將進入一個由AI帶來的充滿不確定性的非常時期。未來,人工智能有可能超越人類智能,人類社會有可能首次面臨來自超越自己智能的AI的挑戰。因此,趁當前的技術還在可控范圍內,當務之急,我們應該敦促社會各方盡快討論,以為AI加上“緊箍咒”。今天人們越來越多地在討論科技產業變革帶來的不確定性對人類的共同挑戰。我們回望早期工業化時代的“紅旗法案”,并未成為這個工業巨頭發展的實質障礙。進入人工智能時代,誰扮演著在汽車的前方揮舞紅色旗幟示警的角色?倫理道德是否繼續在科技的突飛猛進中不斷退縮?這是人類面臨的共同問題。(作者:易坤 北京理工大學計算機學院博士)來源:“科協之聲”微信公眾號
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章