首頁 > AI資訊 > 最新資訊 > 人工智能值得恐慌嗎?

人工智能值得恐慌嗎?

新火種    2023-10-07

...不,但您個人對技術(shù)缺乏了解可能是。

由提示“沖浪板上的可愛機(jī)器人”生成的圖像AI。

上周我在看ABC播出的早餐新聞。本周,他們每天都在做會議,告知人們有關(guān)詐騙、它們?nèi)绾芜\(yùn)作以及需要注意什么。其中一位演講者問是什么讓騙局更加多產(chǎn),她提出可能是人工智能。

[提示終結(jié)者電影中的審判日鏡頭]

令我感驚訝的是,受訪者避免參與以人工智能為重點的對話,但人工智能是否使詐騙變得更容易?嗯,當(dāng)然是這樣,但這類似于說計算機(jī)使做很多事情變得更容易。

見鬼,數(shù)百年來,技術(shù)一直在讓事情變得更容易。以“輪子”為例。你認(rèn)為有多少農(nóng)民擔(dān)心失去工作到馬車?

然后是工業(yè)革命,技術(shù)革命,現(xiàn)在是人工智能革命。

如果你認(rèn)為我們現(xiàn)在正在經(jīng)歷一個新的階段......好吧,逐步淘汰人類,你真的被誤導(dǎo)了。自今年以來,這種情況一直在發(fā)生,如果你認(rèn)為人工智能現(xiàn)在正在影響我們的生活,請再想一想。

在17世紀(jì),萊布尼茨、托馬斯·霍布斯和勒內(nèi)·笛卡爾等學(xué)者深入研究了理性思維可能以類似于代數(shù)或幾何的方式構(gòu)建的觀點。霍布斯以他在《利維坦》中的工作而聞名,他斷言“理性只是一種計算形式”。

最好防止出現(xiàn)關(guān)于機(jī)器功率的夸大想法的可能性。— 艾達(dá)·洛夫萊斯

用機(jī)器的過程取代人類的思想可以追溯到 1800 年代初的第一臺計算機(jī)。想象一下當(dāng)時人們對它的看法。他們害怕某些東西,而不是人類,能夠復(fù)制人類思想的各個方面。

當(dāng)時,發(fā)布第一個計算機(jī)程序的Ada Lovelace表示,最好防止出現(xiàn)關(guān)于機(jī)器能力的夸大想法的可能性,這種說法在今天更普遍,我只能推測圍繞AI的歇斯底里。

你不能打開電視,登錄YouTube,或者查看Facebook,而不會被一堆關(guān)于人工智能的危言聳聽的文章和標(biāo)題所搭訕。就在今天,我在YouTube上看到了一段視頻的橫幅,其中谷歌前首席執(zhí)行官說“人工智能正在達(dá)到不歸路”。

[提示終結(jié)者電影中的審判日鏡頭]

大量的文章和剪輯顯示人工智能開發(fā)人員聳聳肩說他們不知道他們的人工智能是如何工作的,他們對結(jié)果感到驚訝,這也為誤解和存在主義的批判恐慌增添了更多的燃料,這種恐慌似乎正在失控。

因此,為了撲滅這場所謂的“末日”計算革命的火焰,我想在對話中注入一些事實,并消除一些常見且不斷發(fā)展的神話。

首先,ChatGPT不是人工智能化身的例子,但是,《星際迷航》中的數(shù)據(jù)先生是。怎么說呢?嗯,首先...ChatGPT是一個建立在神經(jīng)網(wǎng)絡(luò)之上的大型語言模型(LLM)。

這是什么意思?簡而言之,ChatGPT 已經(jīng)閱讀了幾乎所有已經(jīng)寫過的內(nèi)容,統(tǒng)計分析了哪些單詞最有可能跟隨其他單詞,因此能夠預(yù)測下一個最佳單詞應(yīng)該是什么(給定人工輸入)。它通過神經(jīng)網(wǎng)絡(luò)完成所有這些計算。神經(jīng)網(wǎng)絡(luò)是人工智能的一種形式。它不是人工智能的全部

如果人工智能的領(lǐng)域是地球,那么神經(jīng)網(wǎng)絡(luò)將是......說。。。加拿大和神經(jīng)網(wǎng)絡(luò)是被稱為機(jī)器學(xué)習(xí)的人工智能技術(shù)的一個子領(lǐng)域。這將包括其他技術(shù),例如,包括北美和南美大陸。

現(xiàn)在考慮到人工智能的所有方面,數(shù)據(jù)先生確實是一個偉大的榜樣,因為他的身體幾乎體現(xiàn)了人類可以做的一切(包括他在《下一代:第 4 季第 3 集》中收到的情感芯片)。此外,人工智能領(lǐng)域還遠(yuǎn)未創(chuàng)造出如此完整的人類機(jī)器復(fù)制品,而現(xiàn)在,這樣的“人工智能存在”是純虛構(gòu)的作品。

其次,這些AI(即神經(jīng)網(wǎng)絡(luò))研究人員的采訪和剪輯將手拋向空中,驚訝于他們的AI工作并表示他們不知道它是如何工作的,是......好吧,我叫...胡說八道$%t。

神經(jīng)網(wǎng)絡(luò)概念建立在我們對信號如何通過人腦的理解之上。人類腦細(xì)胞,稱為神經(jīng)元,成為神經(jīng)網(wǎng)絡(luò)中的感知器。在不涉及所有架構(gòu)和算法的情況下,本質(zhì)上是人工神經(jīng)網(wǎng)絡(luò)模擬人類神經(jīng)網(wǎng)絡(luò),直到一些低級的復(fù)雜工作。每個感知器,就像一個神經(jīng)元,是一個微小的開關(guān),可以允許或拒絕電信號通過它。

現(xiàn)在,如果你對某物進(jìn)行人工模擬,它的工作方式就像你建模的東西一樣,而且它有效......那么回應(yīng)不應(yīng)該是萬歲,而不是呵呵嗎?

像ChatGPT構(gòu)建的神經(jīng)網(wǎng)絡(luò)一樣,可能有數(shù)十億個感知器。在這種網(wǎng)絡(luò)的訓(xùn)練過程中,每個感知器都會計算自己的閾值,該閾值決定了它何時打開或關(guān)閉,就像我們自己大腦中的實際神經(jīng)元一樣。因此,研究人員和開發(fā)人員可能實際上并不知道每個感知器的這些閾值是什么,但這并不是什么神秘的難以理解的事情。如果開發(fā)人員想知道每個感知器的閾值是多少,他們只需要查看計算機(jī)內(nèi)存,但說他們不知道它是如何工作的是不負(fù)責(zé)任的。

[提示終結(jié)者電影中的審判日鏡頭]

第三,雖然人工智能最近似乎確實在以指數(shù)級的速度轟炸我們,但這并不是人工智能的全部。幾乎所有的應(yīng)用程序和服務(wù)都是建立在OpenAI的GPT架構(gòu)之上的。為什么?這是因為它具有廣泛的應(yīng)用程序,可用于各種上下文,例如客戶支持、內(nèi)容生成、語言翻譯、頭腦風(fēng)暴想法等。它的多功能性使其對企業(yè)和個人都具有吸引力。此外,OpenAI使其界面用戶友好,這意味著即使沒有技術(shù)專長的個人也可以通過簡單的界面輕松與模型進(jìn)行交互。這種可訪問性有助于其廣泛采用。因此,基本上,在將人類語言用作服務(wù)的任何地方,OpenAI的工具都可以用來開發(fā)一種工具,幾乎可以取代人類擔(dān)任這些角色。

最后但并非最不重要的一點是,回到我的第一點,自從第一臺計算機(jī)出現(xiàn)以來,我們就被所謂的人工智能所包圍。歷史記載,隨著曾經(jīng)的神奇機(jī)器成為主流,人工智能的定義隨著時間的推移而變化,開發(fā)人員一直在尋求機(jī)器的下一個類似人類的能力。

1955年,斯坦福大學(xué)教授約翰·麥卡錫(John McCarthy)(他是第一個創(chuàng)造人工智能一詞的人)將其定義為“制造智能機(jī)器的科學(xué)和工程”。這本身并不那么引人注目,你甚至可以認(rèn)為它有點循環(huán)。人工智能是人類思維過程的機(jī)械化的觀點可以追溯到公元前一千年的中國、印度和希臘哲學(xué)家。他們

圖靈根據(jù)他的定義設(shè)計了一個著名的測試。雖然多年來有很多嘗試來擊敗圖靈測試(圖靈測試試圖通過類似聊天的界面欺騙人類,讓他們認(rèn)為他們正在與另一個人互動),但直到最近這些大型語言模型才真正實現(xiàn)。雖然這些模型的成功和它們的智能引起了軒然,但馬庫斯指責(zé)說:“我不認(rèn)為這是向智能的進(jìn)步。這是愚弄你有智慧的人的進(jìn)步。

就個人而言,我支持馬庫斯。任何吹捧這些大型語言模型實際上是聰明的、有意識的,甚至是有知覺的,都是荒謬的。他們正在愚弄我們,請注意,事實上,他們更符合馬庫斯對人工智能的定義,而不是實際上更符合圖靈。

這是一個兔子洞,我可以繼續(xù)下去,但現(xiàn)在不會......還有一件事:人工智能會攻擊人類并導(dǎo)致我們的滅絕嗎?

[提示終結(jié)者電影中的審判日鏡頭]

所有技術(shù)都可以用于善惡。機(jī)器只能做它們被編程要做的事情。這并不是說計算機(jī)還沒有犯過影響人類生活的有害錯誤(通過人為錯誤編程到其中)。

計算機(jī)犯錯誤導(dǎo)致生命損失的一個悲慘例子發(fā)生在1990年的海灣戰(zhàn)爭期間。美國為攔截來襲飛毛腿導(dǎo)彈而部署的愛國者導(dǎo)彈系統(tǒng)存在嚴(yán)重的軟件錯誤,導(dǎo)致其錯誤估計飛毛腿導(dǎo)彈的位置。25年1990月28日,一枚飛毛腿導(dǎo)彈擊中了沙特阿拉伯達(dá)蘭的一個美國陸軍軍營,造成100名美國士兵死亡,約<>人受傷,因為愛國者系統(tǒng)由于軟件錯誤而未能攔截它。這一事件突顯了對關(guān)鍵計算機(jī)系統(tǒng)進(jìn)行嚴(yán)格測試和驗證的重要性,特別是用于軍事防御的計算機(jī)系統(tǒng),因為在這種高風(fēng)險情況下的計算機(jī)錯誤可能會產(chǎn)生毀滅性的后果。

計算機(jī)導(dǎo)致人類死亡的另一個例子,這次是在醫(yī)療情況下,是25年代的Therac-1980事件。Therac-25是一種放射治療機(jī),存在軟件設(shè)計缺陷,導(dǎo)致競爭條件并導(dǎo)致患者接受嚴(yán)重過量的輻射。這個缺陷造成了嚴(yán)重的傷害、燒傷和死亡。

這些事件凸顯了強(qiáng)大的軟件設(shè)計、嚴(yán)格的測試和嚴(yán)格的安全協(xié)議的必要性,以防止此類悲劇的發(fā)生。

當(dāng)然,當(dāng)我們完全有能力對自己做這件事時,我們不需要計算機(jī)算法來摧毀人類......哎呀,我跑題了。

總結(jié)一下,回答我最初的問題,“人工智能有什么值得恐慌的嗎?...不,但你個人對這項技術(shù)缺乏了解可能是,因為如果沒有對人工智能的力量以及它如何塑造我們的未來有足夠的了解,它可能注定會被誤解、濫用,并且很少努力確保其負(fù)責(zé)任和有益的使用。

相關(guān)推薦
免責(zé)聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認(rèn)可。 交易和投資涉及高風(fēng)險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。

熱門文章