首頁 > AI資訊 > 最新資訊 > AI十人談①|張鈸院士:對(duì)大模型本身的學(xué)術(shù)研究非常迫切、重要

AI十人談①|張鈸院士:對(duì)大模型本身的學(xué)術(shù)研究非常迫切、重要

新京報(bào)    2024-01-04

  2023年以來,大模型領(lǐng)域持續(xù)火爆,各方力量持續(xù)入局,在快速推進(jìn)人工智能時(shí)代到來的同時(shí),也顯現(xiàn)出各種問題和挑戰(zhàn)。

  中國科學(xué)院院士、清華大學(xué)人工智能研究院名譽(yù)院長張鈸表示,對(duì)大模型本身的學(xué)術(shù)研究非常迫切、重要。到現(xiàn)在為止國內(nèi)的大模型主要集中在垂直領(lǐng)域應(yīng)用上。而全世界對(duì)大模型的理論工作原理、所產(chǎn)生的現(xiàn)象都是一頭霧水,所有的結(jié)論都推導(dǎo)產(chǎn)生了“涌現(xiàn)現(xiàn)象”。“實(shí)際上這反映了我們對(duì)它一點(diǎn)不清楚。這個(gè)問題必須搞清楚,我們才有可能發(fā)展出有中國特色的大模型。”張鈸表示,對(duì)此,有三個(gè)方面的問題研究比較重要。

  首先是“大模型為什么能夠產(chǎn)生出來非常連貫的、多樣化的人類語言?”在他看來,這主要靠三方面的措施,第一是文本的語義表達(dá),也就是把文本里的詞、句、段落全變成向量,這給構(gòu)造一個(gè)連續(xù)的拓?fù)淇臻g創(chuàng)造了條件。第二個(gè)是轉(zhuǎn)換器,注意力機(jī)制可以保證上下文的一致性。最后是下一個(gè)詞的預(yù)測(cè)。

  第二個(gè)問題是,大模型為什么會(huì)產(chǎn)生幻覺?他指出,這個(gè)問題涉及ChatGPT跟人類自然語言生成原理的不一樣,最根本的區(qū)別在于,ChatGPT生成的語言是外部驅(qū)動(dòng)的,而人類的語言是在自己意圖的情況下驅(qū)動(dòng)的,所以ChatGPT內(nèi)容的正確性和合理性是不能保證的。

  “只有經(jīng)過ALignment(對(duì)齊)才能解決這個(gè)問題。”張鈸指出,之所以能從GPT3.5到GPT4,幾個(gè)月時(shí)間有那么多變化,主要就是“對(duì)齊”的功勞。在“對(duì)齊”方面,國內(nèi)做的工作太少。不過他同時(shí)也指出,做“對(duì)齊”是做治理,治理以后內(nèi)容的多樣性會(huì)下降,所以還需要平衡開放和治理的關(guān)系。

  張鈸把ChatGPT生成的語言稱作GPT語言。在他看來,第三個(gè)需要研究的問題是,將來努力的方向是什么,是不是把GPT語言完全對(duì)齊到人類的自然語言?他認(rèn)為這個(gè)可能性不大。“因?yàn)橄雽?shí)現(xiàn)這個(gè)目標(biāo),你必須讓GPT有自我意識(shí)。”

  這樣(讓GPT有自我意識(shí))沒有必要。他強(qiáng)調(diào)道,因?yàn)槿斯ぶ悄茏非蟮氖菣C(jī)器智能,希望這個(gè)智能和人類的智能不一樣,它某些方面比人類有優(yōu)勢(shì),某些方面比人類有缺點(diǎn),只有這樣人類才能和機(jī)器和平共處。“目前最重要的是,我們要研究、了解GPT語言,只有徹底了解了它,才能更好地發(fā)展它,使用它,或者說從產(chǎn)業(yè)角度來講才可以發(fā)展出更健康的人工智能產(chǎn)業(yè)。”

  人工智能產(chǎn)業(yè)如何做大做強(qiáng),是目前這一領(lǐng)域從業(yè)者遇到的最大問題。張鈸分析稱,和信息產(chǎn)業(yè)相比,人工智能產(chǎn)業(yè)的發(fā)展過程更曲折。這主要緣于兩個(gè)原因。一是目前人工智能的軟硬件與應(yīng)用場(chǎng)景、應(yīng)用領(lǐng)域密切相關(guān)。比如,人工智能的“智能芯片”與計(jì)算機(jī)的芯片完全不同,前者是為特定的算法、領(lǐng)域服務(wù)的,不具備計(jì)算機(jī)硬件的通用性,因此會(huì)遇到如何擴(kuò)大市場(chǎng)的困擾。

  二是人工智能缺乏理論基礎(chǔ),算法和模型都具有很大的缺陷和局限,這也對(duì)它的應(yīng)用領(lǐng)域產(chǎn)生了限制。由于它的方法本身的限制,比如安全性、隱私保護(hù)等,使得人工智能的應(yīng)用領(lǐng)域也受到限制。

  對(duì)此,張鈸提出了兩點(diǎn)意見。首先,人工智能要往各種維度去發(fā)展。比如,語音信息處理就不僅是語音或說話人識(shí)別,可以擴(kuò)展到其他應(yīng)用領(lǐng)域,不僅能用來做身份鑒別,也可以用來診斷疾病,診斷機(jī)器的問題或者觀察機(jī)器的運(yùn)行等。

  其次,人工智能要有維度上的擴(kuò)展,這是針對(duì)算法本身的局限性。機(jī)器學(xué)習(xí)的方法是運(yùn)用大數(shù)據(jù)處理,而大數(shù)據(jù)的處理方法雖然有很多優(yōu)點(diǎn)也很實(shí)用,但本身并不安全。“我們需要通過對(duì)算法缺陷的改進(jìn),也就是發(fā)展第三代人工智能的思路來擴(kuò)展它的應(yīng)用范圍。”張鈸介紹稱,這包括數(shù)據(jù)與知識(shí)的結(jié)合、多特征的融合、多種模態(tài)的結(jié)合以及軟硬件的結(jié)合等。

  “從傳統(tǒng)人工智能到生成式人工智能的變化是劇烈的,這讓我們有理由、有底氣相信,它會(huì)改變這個(gè)世界。生成式人工智能一方面能夠給企業(yè)家?guī)頇C(jī)會(huì),企業(yè)家有使命去利用這個(gè)機(jī)會(huì)發(fā)展新產(chǎn)業(yè);另一方面,也給企業(yè)家?guī)碡?zé)任,企業(yè)家在開發(fā)、應(yīng)用大模型時(shí),一定要考慮可能產(chǎn)生的負(fù)面影響。”張鈸說。


(文章來源:新京報(bào))

相關(guān)推薦
免責(zé)聲明
本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。

熱門文章