徐英瑾:大數據不是通用AI的未來丨AI時代的人類意見
親愛的讀者:
很高興與你們分享我對于人工智能(AI)的一些見解和思考。人工智能誕生之后,大約形成了“基于規則”和“基于數據”這兩大技術路線。雖然前者曾經在技術歷史上占據主要優勢,但目前人們談起的人工智能,主要還是基于大數據。
很多人認為人工智能的發展,本質上是堆數據、堆算力,當然還要堆金錢。國家與國家間的人工智能競爭,無非也是在這些維度上展開的。
但有趣的是,不少人同時覺得,人工智能的發展還需要倫理制約,不能讓其過多侵犯個體隱私。問題在于,怎么可能一面指望基于大數據技術的人工智能自身能夠不斷發展的同時,又不去侵犯個體的隱私?這就像既要一匹賽馬跑得比動車快,又要希望賽馬吃得比小馬駒還少。毋寧說,大數據技術這一饕鬄怪獸所要吞噬的飼料,就是海量的個人數據。
因此,如果說數據采集構成了現在主流人工智能的生命線,那么在不改變這一技術現實的前提下,對于隱私的任何保護都會成為一種作秀。
以歐盟對于人臉識別技術的限制為例,為了體現歐洲式的政治正確,在歐盟范圍內對人臉的機器識別,是不能包含對于被識別人士的種族識別機制的,以此防止出現種族歧視現象。但這里的問題是,由于監督相關技術平臺之后臺運作的門檻很高,一般民眾采集證據證明自己的圖像已經被不恰當利用的門檻也非常高。換言之,此類規范性條款的制定,恐怕只能滿足歐洲立法機關的道德虛榮心,并不能真正幫到被困在信息網格中的普羅大眾。
于是,目前主流的人工智能敘事已經陷入了一種精神分裂的狀態:一方面人們高喊要趕上主流人工智能技術發展的大潮,不發展就會落后;一方面卻又要做出一種要保護個體隱私的道德姿態。這當然不是一種能夠長久保持的狀態,而做出這一判斷的理由,也并非僅僅是基于倫理考量的。正如驅動機車的石油不是取之不竭的那樣,使得大數據技術得以運作的數據資源也非取之不竭的。
舉例來說,今天的ChatGPT的確能夠很好地模擬莎士比亞或海明威的文筆,但這畢竟只是在吃人類既有人文資源的紅利。假若未來的作家高度依賴這樣的技術工具進行寫作,其文筆與格調就會被定死在人類精神發展的現有階段,進入某種無聊的重復之中。同時,由于此類大語言模型對于主流語言的偏好,蘊藏在小語種與方言中的人類智慧就會被慢慢邊緣化,成為無法被打撈的人類文化遺產。我們即將迎來海德格爾口中的“常人狀態”被機器加以固化的新歷史階段。
眼下的世界,是不是我們這一代人在年幼時候所希望的人工智能時代?答案恐怕是否定的。
至少在我孩童時,我對智能的憧憬既不是希望其能夠像“阿爾法狗”那樣在圍棋比賽中打敗人類,也不是希望其能夠像ChatGPT那樣幫助我們寫結婚請柬。道理非常簡單,圍棋水平高不高,或者,是否能夠抽出一刻鐘自己擬定一份結婚請柬,并不是什么大事。當時的我更希望人工智能技術與機器人技術相互結合,做出一些真正人類沒法或很難做到的事情:沖進火場救人、下潛到水里撈人、去南極建立科考站等等。但令人遺憾的是,今天我們的技術狀態卻恰恰是:即使在技術最發達的國家,一旦發生地震火災等巨大災害,我們依然需要人類救災員親身涉險。盡管現有的大數據技術已經能夠根據某項火災的網絡熱度向讀者推送相關視頻,而現在的多模態大數據技術也已經能夠針對相關視頻制作與之對應的語言評注。但那又怎么樣?
這幾年,我一直在提倡一種與大數據技術不同的小數據技術,相關的技術細節在我的著作《人工智能哲學十五講》(北京大學出版社2021年出版)中已有詳細闡述。在這里,我想就“小數據技術”的哲學思想前提做一番澄清。
大數據技術的思路來自于還原主義,即認為人類智能的來源既然是大腦,我們就需要對大腦做生理學層面的數學建模,由此出現了所謂的深度學習的技術路徑。
小數據技術思路的哲學前提則是反還原主義,即認為人類智能的真正奧秘并不需要下降到生理學層面去理解,只需要在心理學層面上加以模擬。假若在心理學層面上觀察人類心智,我們會發現,人類心智恰恰是以一種很節儉的方式在運作:孩童能通過很少的狗與狼的照片樣本了解到兩種動物的區分,同時,也可以通過較少的語言樣本掌握母語。優秀的企業家可以通過不太多的商業情報找到商機,優秀的軍事家還能通過對于關鍵情報的把握掌握戰機等等。
一種基于少量情報的心智模型,已經在德國心理學家吉仁澤(GerdGigerenzer)那里得到系統的研究,并在華裔人工智能科學家王培的“非公理化推理系統”中得到了全面的計算機建模嘗試。
我堅信這樣的技術路徑是能夠走通的。一旦走通,困擾大數據技術的倫理困境將自然被化解:既然新技術路徑在本質上并不需要消耗大量數據,人們自然不用擔心這樣的技術路徑會對用戶的隱私構成實質性威脅。
然而,雖然我多年提倡小數據技術,但似乎在輿論場上依然處于劣勢。我個人認為原因有兩個:第一,大數據技術已經對不少相關企業的創研思路構成束縛,并由此使得其產生路徑依賴。這使得與大數據技術不同的小數據技術很難得到全面的重視。第二,小數據技術雖然在倫理風險上遠小于大數據技術,但規避倫理風險顯然不是當前人工智能發展的主要動力源。毋寧說,獲得商業落地的機會,才是一項研究項目被重視的主要理由。
但問題在于,商業循環的短周期本身就很難與人類歷史發展的長時段后效的考慮相合拍,這就使得一種純粹基于商業驅動的人工智能發展路徑很難容忍新路徑的基礎性研究。
主流人工智能學界陷于大數據技術泥潭恐怕還會持續很長時間。不過,對于這一現狀,我也不想做過多抱怨。他們做他們的,我們做我們的,盡管“他們”的人數比“我們”多。然而,在哥白尼的時代,相信托勒密體系的人難道不也更多嗎?
徐英瑾
2023年12月
(作者系復旦大學哲學學院教授)
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。