AI有時會“一本正經地胡說八道”,谷歌CEO也不完全明白原因
谷歌母公司Alphabet的CEO桑德爾·皮查伊。圖片來源:MATEUSZ WLODARCZYK—NURPHOTO/GETTY IMAGES
最近各大科技巨頭都在人工智能聊天機器人上發力,谷歌也不例外。它最新推出的Bard聊天機器人可以迅速生成任何東西——從關于莎翁文學的論文,到說唱歌詞。但是以Bard為代表的這些聊天機器人還有一個嚴重的問題尚未解決。那就是它們有時會胡編亂造。
比如說,在CBS電視臺上周日的《60分鐘》節目上,Bard在談到通脹問題時,曾自信滿滿地宣稱,彼得·特明的《通脹戰爭:一部現代史》一書“講述了美國的通脹史”,這本書還探討了美國的通脹政策。問題是這本書根本就不存在。
問題是,Bard撒的這個謊具有很強的迷惑性。彼得·特明是麻省理工學院的一位知名經濟學家,他研究的領域就是通貨膨脹,而且寫過十幾本經濟學方面的書,只不過沒有任何一本叫這個名字。Bard在回答通脹問題時,不光“幻想”出了這本書,甚至還“幻想”出了一系列其他經濟學書籍的名稱和摘要。
Bard是谷歌推出的一款對標ChatGPT的聊天機器人,它是今年三月份才剛剛發布的,但它已經不只一次在公開場合鬧笑話了。此前它曾在一次公開演示中聲稱,詹姆斯韋伯太空望遠鏡曾在2015年首次捕捉到一顆系外行星的照片,但是實際上,Bard所說的這顆行星是位于智利的“甚大望遠鏡”于2014年發現的。
像Bard和ChatGPT這樣的聊天機器人都使用了大型語言模型(又稱LLMs)來對數十億個數據點進行分析,來預測語義中的下一個單詞。這種方法又叫所謂的“生成式人工智能”。它有時會給產生一種言之鑿鑿的錯覺,讓人覺得它給出的答案是可信的,但事實并非如此。那么AI機器人的這種“一本正經地胡說八道”是否是一種普遍現象呢?
對此,谷歌CEO桑達爾·皮查伊上周日在接受《60分鐘》采訪時承認,這個問題是“意料之中”的。“這個領域目前還沒有人能解決‘錯覺’的問題。所有型號的生成式AI都存在這個問題。”
當被到這個問題未來是否會得到解決時,皮查伊表示:“在這個問題上有很多爭論。”但他認為,他的團隊最終會在這方面“取得進展”。
一些人工智能專家指出,由于人工智能系統的復雜性,要取得這種進展,可能是一件很困難的事。皮查伊表示,就連谷歌的工程師都“無法完全理解”人工智能技術有時為何會有那樣的反應。
他表示:“我們這個領域的人把這方面的問題稱為‘黑箱’。你也不知道它為什么會這樣說,或者為什么會出錯。”
皮查伊說,谷歌工程師們對AI聊天機器人的工作模式“已經有了一些概念”,他們對生成式AI的理解水平正在提高。“不過目前的技術水平就是這樣。”不過對于一些批評人士來說,皮查伊這個解釋顯然不能讓他們滿意。不少批評人士警告說,復雜的人工智能系統很可能會引發意想不到的后果。
比如,微軟創始人比爾·蓋茨今年3月表示,人工智能技術的發展很可能會加劇全球的貧富差距。他在一篇博客文章中寫道:“市場力量不可能自然而然地產生自動幫助窮人的AI產品和服務,更有可能發生的是相反的情況。”
最近幾個月,伊隆·馬斯克也反復在公開場合提到人工智能可能造成的風險。他表示,這項技術對經濟的沖擊將不亞于“小行星撞擊地球”。上個月,馬斯克甚至聯名1100多位科技企業CEO、技術專家和AI研究人員,呼吁全球暫停開發人工智能工具6個月——當然很多人不知道的是,他同時正忙著創辦自己的人工智能公司。
斯坦福大學人本AI研究中心曾對人工智能行業的從業者進行過一項年度調查,調查結果顯示,很多AI從業者認為,人工智能技術的發展,使得“深度造假”變得越來越容易,這很可能會加劇虛假信息的泛濫,甚至有可能危害環境。該研究中心上周表示,AI帶來的威脅甚至有可能達到“核級別的災難”。
上周日,谷歌CEO皮查伊也在參加節目時透露,即便是在谷歌內部,也有一些研究人員擔心,人工智能一旦應用不當,“可能會產生非常有害的影響”。他還表示:“我們尚未找到所有問題的答案,而且這項技術的發展是很快的。如果你問我,這個問題有沒有可能讓我睡不著覺,答案是當然肯定的。”
皮查伊還表示,為了確保人工智能造福所有人,AI系統的開發工作“不僅應該包括工程師,還應該包括社會科學家、倫理學家、哲學家等等”。
“我認為,這些問題是社會在發展過程中需要解決的問題,而不應該由一個公司來決定。”他說。(財富中文網)
譯者:樸成奎
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。