AI火爆背后的三大焦慮與思考
一夜之間,ChatGPT、微軟bing、谷歌bard、文心一言等,各種智能AI的產品沖擊著我們的生活,也不可避免地帶來相關焦慮,究竟會帶來怎樣的便利,為此付出的代價是什么?是的,一切受益都是需要付出代價,只不過看上去不需要代價的是因為相關因素沒有顯現,而非不存在。由此產生的焦慮也是必然,無論是生產商、資本,還是普通人,都有自己的焦慮,也都有各自的思考,值得我們梳理和深度研究。
資本的焦慮:AI是科研、資本、時間的積累
各家公司紛紛拿出大語言模型的應用產品,OpenAI發布了GPT-4,百度推出了文心一言,微軟Office的AI助手Microsoft 365 Copilot將應用進一步與場景結合,Midjourney發布V5版本,谷歌也上線了Bard聊天機器人接受測試。AI在一夜之間就爆火了,而且各路資本的快速涌入,幾乎將賽道都占滿了,甚至已經泡沫化了。
ChatGPT幾乎是霸屏了近期的熱點話題,其不足兩個月用戶突破1個億,隨后更是快速增長,這成為歷史上增長速度最快的消費應用程序。ChatGPT只是眾多已面世的AI系統中的一個典型代表,是一個大型的語言模型和一個能基本通過圖靈實驗的智能對話機器人。ChatGPT背后的核心是生成式AI技術,具體包含有自注意力機制、預訓練語言模型、雙向預測架構、卷積神經網絡(CNN)和循環神經網絡(RNN)等,使之可以生成高質量的文本,并對文本進行翻譯、摘要、問答等多種任務。
但問題是ChatGPT的核心架構和理論都是國外原創的,這個技術的代差不是單純的資本可以接近的,實際上,ChatGPT是AI 2.0時代的雛形,還是有很多的待改善的因素。即便如此,國內相關產品和ChatGPT的差距還是巨大的。GPT全名叫做Generative Pre-trained Transformer,用生成式方法預訓練的Transformer;ChatGPT的基礎便是OpenAI提出的GPT,和BERT差不多,也就是預訓練,只是預訓練的方式不一樣。僅GPT-3有1750億參數,45TB的訓練數據(1TB=1000GB),訓練所使用的設備包括285000個CPU和10000個GPU;GPT-4則更進一步升級。
這個模型的護城河有兩點:(1)訓練數據的收集,(2)訓練和維護所產生的費用。因此,ChatGPT模型的護城河在于訓練數據收集和燒錢的計算過程,除非在人工智能有深度積累,既有數據的積累,也有研究上的積累,否則很難有復制的機會。資本都是逐利的,追求快準狠的機會,而科研卻需要持續的積累,且短期看不到利潤的,所以很多國內資本如今非常焦慮,是有道理的。
由于ChatGPT還沒上市,但微軟是ChatGPT的大股東,之前已經陸續向ChatGPT投資了幾十億美金,最近打算再追加100億美金。之后微軟的持股預計會提升到49%,所以微軟算是直接受益方。而計劃接下來發布和Chatgpt同樣功能,目前為AI人工智能的龍頭谷歌;還有亞馬遜、微軟、谷歌占據了全球云計算近70%份額。因此,這個是一個對資金、科研、時間等諸多消耗的因素。
人的焦慮:未來的出路在哪里
AI火爆的另一面,不少人都在焦慮我們的工作會不會被ChatGPT取代?每次談論智能AI時,許多人會先想到它帶來的便利和未來發展的潛力,但不可否認的是隨后也會擔心,AI對工作的改變,能加速改變商業模式,以及相關崗位的因素。隨著機器人和自動化技術的發展,許多重復性的工作,都面臨被AI取代的風險。AI可以自動完成一些煩瑣、重復和機械的工作,例如數據分析、文件整理、圖像識別等。這可以節省人們的時間和精力,提高工作效率。
AI可以處理海量的數據和信息,從中找到模式和規律,幫助人們解決復雜的問題,例如醫療診斷、氣象預測等。也會根據這樣的大數據,分析個人的興趣和需求,為他們提供個性化的服務和推薦。但AI不是萬能的。雖然AI在某些領域表現出色,但它也有局限性和不足之處。如AI可以創造劇本,可以寫詩,可以寫文章,而我們可以發現,AI是沒有情感的,是沒有生活經驗的,這樣的文字可以很華麗,很有邏輯,卻沒有生活味兒。因此,越是有情感的文字,越是實在的文章,反而越能打動人。這就是為何,AI虛擬人并沒有取代主持人,解說員等職業的原因,人們也不喜歡看“不真”的東西。
所以,對于程序員也是如此,實現某個功能很容易,AI也能實現,但如何滿足人們的需求,找到這樣的因素才是關鍵。那么,越是與人交流,才越能讓自己擁有更多的機會。財商知識,是讓人變得更加開朗,多與人交流,朋友多了,圈子大了,創造價值的機會就多了,實現財富的可能性也就大了。因此,對學生來說,先學會與人交往,尤其是真誠的表達,無論是寫文章,還是交流,都是如此,這樣未來的機會才會多,而不是單純地學知識就行的。
工作也是如此,無論你做什么工作的,要多疊加技能,比如說數據分析員,你要是單純研究表面的數據,那你永遠跑不過AI的,但如果多去調研和實踐,明白背后的原因,尤其是考慮到人的情緒因素,這就是AI很難理解的,卻是市場中永遠存在的,這樣你的職位不僅很牢固,而且很有價值。同樣道理,很多因素,從理論是可以的,但為何實際不行了?說白了,就是有人的因素存在,人也是最復雜的,多研究人,多從人的需求思考,不僅商機多,而且還能提升自己。
我們需要思考的是如何做一些有創造性的工作。這里面有一個很典型案例,那就是在2017年10月18日的時候,就成立了一個“阿爾法狗”人工智能管理的基金:AI Powered Equity ETF(AIEQ)。AI成立以來,戰勝了標普500指數嗎?答案出乎大家意料,AIEQ在五年多的時間中,僅上漲了29%,同期標普500上漲了60%。這意味著,AI投資還替代不了投資者,這意味什么?說白了,其對于人的情緒化因素還很難,畢竟一個市場如果是非常理性的,那就太簡單了,算法就能實現了,問題就在于,市場是用滿了各種誤讀,可以解讀,以及認知錯誤的,因此,要想不被替代,就多想一些,給人提供服務的因素。
還有,AI的發展需要數據、算法和技術的支持,但同時也需要人類的智慧和判斷力。在某些情況下,AI甚至可能會出現錯誤或失誤。那么,我們需要在使用AI的過程中保持警惕和謹慎,避免過度依賴AI,以免發生意外和失誤。所以,可以肯定的是,一些需要創意性和抽象性思維以及高度社交智慧和談判技巧等方面的工作短時間內不會被AI取代。實際上,用人公司也在焦慮,他們在測算,利用AI降低人工成本,你沒用AI,別的公司用了,那么就會被淘汰,因此,都在進行著估算。
AI的風險與使用思考
AI的廣泛應用,也讓AI創建者們都有了焦慮。如比爾蓋茨談人工智能的風險和問題,還是給我們很多啟示的。“AI并不一定擅長理解人類請求的上下文,這導致了一些奇怪的結果。當您請求AI編寫一些虛構的東西時,它可以很好地完成。但是當您請求有關旅行建議時,它可能會推薦不存在的酒店。這是因為AI不夠了解你的語境,無法確定它是否應該生成虛假酒店,還是只告訴你有空房間的真實酒店。此外,在處理抽象推理時AI經常會出錯,給出錯誤的答案。”“但這些技術的問題總會解決,而AI所構成的威脅,與大多數發明一樣,人工智能可以用于善意或惡意。政府需要與私營部門合作,尋找限制風險的方法。”
這其實提出來一個準入的因素。AI還面臨著安全和隱私問題。隨著AI應用的不斷擴大,越來越多的個人和企業的數據被收集和分析,這可能會導致個人隱私泄露和數據安全問題。在這種情況下,需要嚴格的監管和法律保護來保障人類的利益。AI需要處理海量的個人數據,例如,我們在社交媒體上的行為、位置數據、健康記錄等,這些數據的泄露或濫用可能會帶來嚴重的后果。AI應該遵守人類的道德和法律標準,以保護人類的權利和利益。政府和企業應該制定相關的道德和法律標準,確保AI的合法性和合理性。
由于科研在前,且總是超前的,而相關監管面臨著空白,而這方面會有很大的不確定性,哪些領域可以使用AI,使用的范圍有多大,還有后續出現問題后的權責因素,這些如今都是未知,卻是AI使用時必須要思考的。只有確定了不可碰觸的因素,才會有充分可使用發揮的空間,因此法律和道德因素,恰恰是讓其擁有自由使用的關鍵。
而在未來很長一段時間內,AI的使用是不可避免,學會如何相處是關鍵,各方的焦慮都是有其實際意義的,也都需要解決,而 “人機協同工作模式”,即人類工作者和人工智能程序共同完成日趨復雜的工作,最終呈現出“人機協同共生”的局面,或許是相對合理的解決方案。每個人都要做好迎接AI時代的諸多改變,這是值得我們思考的因素。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。