首頁 > AI資訊 > 最新資訊 > GPT與數字鴻溝3.0

GPT與數字鴻溝3.0

新火種    2024-01-04

來源:法治周末

智道

欄目主持人:於興中

“技術是推動最不發達國家實現可持續發展的重要力量,但同時必須正視技術帶來的危險,讓技術成為縮小而不是加深鴻溝的工具”

□ 李亞娟

隨著美國OpenAI公司研發的人工智能(AI)模型ChatGPT(GPT意為生成式預訓練轉換器)橫空出世,生成式人工智能狂潮席卷科技產業,圍繞大模型的技術軍備競賽熱火朝天。

今年3月,OpenAI與賓夕法尼亞大學合作發表的論文提出“約80%的美國勞動力至少有10%的工作任務可能會受到GPT引入的影響,而約19%的工人可能會看到至少50%的任務受到影響。這種影響涵蓋了所有薪資水平,高收入職位更可能用到GPT。”

計算機和網絡技術的迅速發展產生了數字鴻溝的問題。數字鴻溝,又稱信息鴻溝,通常指在全球數字化進程中,不同國家、地區、行業、人群之間由于對信息通信技術獲得、應用程度的不同以及創新能力的差別造成的信息落差、知識分隔和貧富分化,是傳統的國際和國內不平等、社會分層在數字化時代的延續。

數字鴻溝概念的提出主要是由于計算機和網絡技術的出現以及信息革命的影響,導致那些擁有計算機和其他數字技術的人比沒有這些技術的人更具競爭力和優勢。

隨著計算機與網絡技術的更新迭代,數字鴻溝的內涵也在不斷變化。數字鴻溝1.0指數字設施與數字技術的獲取或接入缺乏導致的差距。數字鴻溝2.0主要表現為人們對于新型數字技術應用的不平等現象,即在數字設施與數字技術接入無障礙后,對數字技術的應用能力依然存在差距。此時,縮小數字鴻溝的努力體現為提升民眾數字素養。而以GPT等大模型主導的生成式人工智能等新興技術,會進一步產生新的技術差距與應用不平等,這是數字鴻溝3.0的表現形式。

研發上的不均等

大模型的研發與使用需要大量的算力和數據,具備大數據資源和高算力設備的機構和公司更容易使用人工智能技術,而這些機構通常集中于發達國家和地區。GPT等大模型對算力、算法和數據都有強依賴。GPT-4總共包含了1.8萬億參數,一次的訓練成本為6300萬美元,非百億美金公司很難持續跟進。

沒有足夠財富和能力支撐GPU(圖形處理器)算力運行而產生的差距可以被視為GPT鴻溝的一種形式。由于GPT需要大量的算力和數據來進行訓練和運行,只有那些有足夠財富和能力的人、企業或國家才能夠投入足夠的資金用于GPU算力的運行。這也可能使得他們能夠更快地發展和推廣GPT技術,從而獲得更多的創新和競爭優勢,而那些缺乏資金或能力的人、企業或國家可能無法跟上GPT等大模型的發展步伐,從而落后于其他人、企業或國家。

應用存在不平等

數字化加速后,人們使用數字技術的條件和機會出現了明顯的差異。某些地區或群體可能無法獲得高質量的互聯網連接,無法有效訪問和使用GPT技術。GPT等人工智能技術的應用需要一定的經濟投入,包括購買軟硬件、付費使用API(應用程序編程接口)等,經濟條件較差的地區或個人可能受限于經濟能力而無緣使用這一技術。由于教育水平、專業背景等原因,某些人群可能無法充分理解和掌握GPT等技術的使用方法,比如,ChatGPT應用后產生了提示工程師(Prompt Engineer)這一崗位。Prompt是一種重要的工具,能夠與GPT交互提問來提高生成結果的準確性、控制生成內容、幫助模型理解任務。不具備Prompt能力的群體和公司在應用GPT等大模型時也會因此影響輸出結果,從而產生技術應用的差距。

GPT等大模型技術可能會大量應用于發達地區或富裕階層。也就是說掌握相應知識和技能的人,才能充分利用這種技術。而欠發達地區或較貧困的群體,因為培訓和教育資源有限,則可能無法享受到這些技術帶來的便利,或者說無法從這場技術革命中受益,從而加大地區和社會階層的不平衡。例如,智能家居和自動駕駛等高新技術的應用,對于一些人來說是科技的福祉,但對于經濟欠發達、數字技術普及水平不高的地區來說,對他們的生活生產則不會有什么影響。

治理與安全領域的不平等

在數字時代,數字技術的使用不僅涉及個人的權益,也涉及社會的穩定和安全,因此數字技術的治理和安全問題成了一個相當嚴峻的問題。在數字技術治理和安全問題上,發達國家的治理能力往往比發展中國家強,數字技術治理不平等問題因此進一步顯現。

人工智能技術的前景和潛在威脅是世界各國關注的共同問題。GPT等大模型技術一經推出即引發熱議,生成式人工智能技術意味著人工智能發展進入新的階段。

3月31日,聯合國教科文組織總干事阿祖萊呼吁各國立即執行《人工智能倫理問題建議書》。這個規范性的全球框架由教科文組織193個會員國一致通過。

5月16日,OpenAI創始人兼首席執行官山姆·阿爾特曼出席了美國國會召開的主題為“AI監管:人工智能的規則”的聽證會。他建議美國政府加強對大型AI模型研發的監管。

英國牛津大學人工智能倫理研究所的高級研究員伊麗莎白·雷尼爾斯向媒體表示:“AI的發展可能放大了自動化決策的規模,這些決策可能是有偏見的、歧視性的、排他性的或其他不公平的,難以理解但卻不容爭議。”

歐盟人工智能監管法案的制定工作已經持續數年。6月14日,歐盟議會通過該法案草案。更新后的草案專門針對ChatGPT等生成式人工智能工具補充了新的規定,將 ChatGPT和類似的生成式AI與高風險系統置于同一級別,并引入了旨在監管“通用人工智能”的新措施。

在中國,7月10日,國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局公布《生成式人工智能服務管理暫行辦法》。該辦法堅持發展和安全并重、促進創新和依法治理相結合的原則,對生成式人工智能服務實行包容審慎和分類分級監管。

大模型通常會使用龐大的數據集進行訓練,而這些數據集往往會反映出現實世界中的不平等現象。如果這些模型被用于社會決策、執法或安全監控,它們可能會強化現有的不公平和不平等。例如,如果模型主要基于特定群體的數據進行訓練,它可能無法準確地理解其他群體的需求和問題,從而在決策中對這些群體不公平。

大模型的研發始于科技發達的國家,但卻會應用于所有互聯網覆蓋的地區。大數據技術、訓練數據來源、數字基礎設施、經濟差距和監管框架等因素在各個國家和地區之間存在差異,大模型的開發和應用需要龐大的計算和資源,這導致只有具備足夠的資源和技術能力的組織或個人才能從中受益。這種技術壁壘可能在社會治理和安全領域中導致不平等,使得一些群體無法獲得公平的機會和資源。此外發達國家有更多監管大模型及其應用的工具與更強的監管能力,在監管缺位的國家和地區,大模型應用的結果可能延續并強化現有的不平等,并對某些群體或地區造成不利影響。

在教育領域產生的不平等

在教育領域,GPT的到來稱得上一場“地震”。在OpenAI發布GPT-4同日,教育非營利組織可汗學院即推出由GPT-4驅動的AI學習平臺Khanmigo,學習者只要點開網頁右下角的機器人氣泡,就會收獲一個循循善誘的輔導教師——它不僅能發現學生的錯誤,還能引導學生解釋、反思推理的過程。可汗學院創始人薩爾曼·可汗說,“它能夠推測出學生心中可能存在的誤解,這已經稱得上一名優秀的導師了”。

同時,因為ChatGPT強大的內容生產力,許多學生用它來完成作業和論文,進而產生關于學術不端的爭議。當教育者還在為“ChatGPT是否會破壞我們所認識的教育”各執一詞時,緊隨其后面世的GPT-4的大量相關應用,適用于備課、自學、練習、寫作及英語學習等教育場景中,再度擴展了GPT的影響邊界。如果正確使用GPT-4,人們將實現“利用AI帶來教育領域最大正面變革”的可能。

但是并非所有地區和所有學生都有機會和資源能夠享受到大模型技術對教育的革命性變革。只有經濟實力強大的學校或機構能夠使用和受益于大模型技術,而較為貧困或資源有限的地區或社群可能無法獲得同樣的機會、設施、技術支持、師資和培訓,這可能進一步加劇教育中的不平等。

語種與文化的不平等

作為自然語言模型,GPT-4文本數據的訓練源限制在英語語境下。因為英語在全球交流與學術中的地位,其他語言的文本則會被忽略。大模型的訓練需要萬億文本數據,這也決定了即便小語種文本被用作訓練數據,也會因為數據量不夠大而不能產生預期的訓練結果。預訓練數據的英語語種決定了大模型及其應用天生存在文化上的不平等,因為模型對其他語種和文化的理解和生成能力受到限制。

比如,應用于翻譯場景時,由于未經過其他語種的訓練,GPT-4可能在翻譯非英語文本時存在偏差,翻譯結果可能不準確。又比如,在GPT-4生成文本時可能存在對某些文化的誤解或刻板印象,因為其訓練數據未包含足夠多的多樣化文化背景。另外,因為GPT-4對英語文本的處理有偏好,所以對其他語種的表達方式和語法結構可能存在固有偏見并對其他語種產生不利結果。

即便OpenAI計劃提高GPT-4模型的語言和文化的多樣性與平等性,使用多樣化的語種和文化背景的訓練數據,也會因為部分語種的數據文本規模有限而不能實現。因此需要采取措施來糾正模型中的語種與文化偏見,并進行更全面和平衡的評估與測試。

今年,聯合國秘書長安東尼奧·古特雷斯在為5月17日“世界電信和信息社會日”發表的視頻致辭中強調:“技術是推動最不發達國家實現可持續發展的重要力量,但同時必須正視技術帶來的危險,讓技術成為縮小而不是加深鴻溝的工具。”解決GPT等大模型鴻溝及其帶來的數字不平等需要社會各界的共同努力,需要通過開放共享、提供基礎設施、培訓和教育、政府支持、國際合作、公正透明和有效監管等措施減輕不平等問題,確保大模型應用對各國和地區更加公平和平等。

(作者系西北工業大學公共政策與管理學院法學系副教授)

責編:尹麗

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章