揭穿 6 個人工智能神話:將事實與虛構區(qū)分開來
發(fā)現(xiàn)流行的 AI 神話背后的真相,并深入了解生成式 AI 在當今世界的真正功能和影響。

圖片由編者提供
人工智能無疑是我們這個時代的流行語。它的流行,特別是隨著 ChatGPT 等生成式 AI 應用程序的出現(xiàn),將其帶到了技術辯論的最前沿。
每個人都在談論像 ChatGPT 這樣的 AI 生成應用程序的影響,以及利用它們的能力是否公平。
然而,在這場完美的風暴中,圍繞人工智能或人工智能一詞的眾多神話和誤解突然激增。
我敢打賭,你可能已經(jīng)聽說過很多了!
讓我們深入研究這些神話,打破它們,并了解人工智能的真正本質(zhì)。
1.AI是智能的
與普遍的看法相反,人工智能根本不是智能的。如今,大多數(shù)人確實認為人工智能驅(qū)動的模型確實是智能的。這可能是由于在“人工智能”名稱中加入“智能”一詞
但智能意味著什么?
智力是生物體獨有的特征,定義為獲取和應用知識和技能的能力。這意味著智能允許生物體與周圍環(huán)境互動,從而學習如何生存。
另一方面,人工智能是一種機器模擬,旨在模仿這種自然智能的某些方面。我們與之交互的大多數(shù) AI 應用程序,尤其是在商業(yè)和在線平臺中,都依賴于機器學習。

圖像由 Dall-E 生成
這些是使用大量數(shù)據(jù)針對特定任務進行訓練的專用 AI 系統(tǒng)。他們在指定的任務中表現(xiàn)出色,無論是玩游戲、翻譯語言還是識別圖像。
然而,在它們的范圍之外,它們通常毫無用處......人工智能在一系列任務中擁有類似人類的智能的概念被稱為通用人工智能,我們遠未實現(xiàn)這一里程碑。
2. 越大越好
科技巨頭之間的競爭通常圍繞著吹噓其人工智能模型的龐大規(guī)模展開。
Llama 的 2 個開源 LLM 發(fā)布以強大的 700 億個功能版本讓我們感到驚訝,而谷歌的 Palma 則有 5400 億個功能,OpenAI 最新推出的 ChatGPT4 以 1.8 萬億個功能大放異彩。
然而,LLM 的十億個特征并不一定能轉(zhuǎn)化為更好的性能。
數(shù)據(jù)質(zhì)量和訓練方法通常是模型性能和準確性的更關鍵決定因素。斯坦福大學的 Alpaca 實驗已經(jīng)證明了這一點,一個簡單的 70 億個特征驅(qū)動的基于 Llama 的 LLM 可以與驚人的 1760 億個特征驅(qū)動的 ChatGPT 3.5 相提并論。
所以這顯然不行!
并非越大越好。優(yōu)化 LLM 的大小及其相應的性能將使這些模型在本地的使用大眾化,并允許我們將它們集成到我們的日常設備中。
3. 人工智能的透明度和問責制
一個常見的誤解是,人工智能是一個神秘的黑匣子,沒有任何透明度。在現(xiàn)實中,雖然人工智能系統(tǒng)可能很復雜,而且仍然相當不透明,但人們正在做出重大努力來提高其透明度和問責制。
監(jiān)管機構正在推動以合乎道德和負責任的方式使用人工智能。《斯坦福人工智能透明度報告》和《歐洲人工智能法案》等重要運動旨在促使企業(yè)提高人工智能透明度,并為政府制定這一新興領域的法規(guī)提供依據(jù)。
透明人工智能已成為人工智能社區(qū)的焦點討論點,涵蓋了無數(shù)問題,例如允許個人確定人工智能模型的徹底測試以及理解人工智能決策背后的基本原理的過程。
這就是為什么世界各地的數(shù)據(jù)專業(yè)人士已經(jīng)在研究使人工智能模型更加透明的方法。
因此,雖然這可能是部分正確的,但它并不像常見的那么嚴重!
4. 人工智能的無誤性
許多人認為人工智能系統(tǒng)是完美的,不會出錯。這與事實相去甚遠。與任何系統(tǒng)一樣,人工智能的性能取決于其訓練數(shù)據(jù)的質(zhì)量。這些數(shù)據(jù)通常是由人類創(chuàng)建或策劃的,而不是說總是如此。
如果這些數(shù)據(jù)包含偏見,人工智能系統(tǒng)會無意中使它們永久化。
麻省理工學院的一個團隊對廣泛使用的預訓練語言模型的分析揭示了將性別與某些職業(yè)和情感聯(lián)系起來的明顯偏見。例如,空姐或秘書等角色主要與女性特質(zhì)有關,而律師和法官則與男性特質(zhì)有關。在情感方面也觀察到了同樣的行為。
其他檢測到的偏見是關于種族的。隨著 LLM 進入醫(yī)療保健系統(tǒng),人們擔心它們可能會使有害的基于種族的醫(yī)療實踐永久化,這反映了訓練數(shù)據(jù)中固有的偏見。
人為干預必須監(jiān)督和糾正這些缺點,確保人工智能的可靠性。關鍵在于使用具有代表性和公正的數(shù)據(jù),并進行算法審計來抵消這些偏見。
5. .AI與就業(yè)市場
最普遍的擔憂之一是人工智能將導致大規(guī)模失業(yè)。
然而,歷史表明,雖然技術可能會使某些工作過時,但它同時催生了新的行業(yè)和機會。

圖片來自LinkedIn
例如,世界經(jīng)濟論壇預測,雖然人工智能可能會在2025年取代8500萬個工作崗位,但它將創(chuàng)造9700萬個新工作崗位。
6. 人工智能接管
最后一個也是最反烏托邦的那個。流行文化,如《黑客帝國》和《終結者》,描繪了一幅人工智能奴役人類潛力的嚴峻畫面。
雖然埃隆·馬斯克(Elon Musk)和斯蒂芬·霍金(Stephen Hawking)等有影響力的聲音表達了擔憂,但人工智能的現(xiàn)狀與這種反烏托邦形象相去甚遠。
今天的人工智能模型,如ChatGPT,旨在協(xié)助完成特定任務,不具備科幻故事中描述的能力或動機。
所以就目前而言......我們?nèi)匀话踩?/p>
主要結論
總之,隨著人工智能不斷發(fā)展并融入我們的日常生活,將事實與虛構區(qū)分開來至關重要。
只有清楚地了解它,我們才能充分發(fā)揮其潛力,負責任地應對其挑戰(zhàn)。
神話會遮蔽判斷并阻礙進步。
有了知識和對人工智能實際范圍的清晰理解,我們就可以向前邁進,確保該技術服務于人類的最佳利益。
Josep Ferrer 是來自巴塞羅那的分析工程師。他畢業(yè)于物理工程專業(yè),目前在應用于人類移動的數(shù)據(jù)科學領域工作。他是一名專注于數(shù)據(jù)科學和技術的兼職內(nèi)容創(chuàng)作者。您可以在LinkedIn,Twitter或Medium上與他聯(lián)系。
原文標題:6 Artificial Intelligence Myths Debunked: Separating Fact from Fiction
原文鏈接:https://www.kdnuggets.com/6-artificial-intelligence-myths-debunked-separating-fact-from-fiction
編譯:LCR
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內(nèi)容相關的任何行動之前,請務必進行充分的盡職調(diào)查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責任。