OpenAI的o1模型推理時(shí)蹦出中文專家猜:AI可能只想用最高效的語(yǔ)言來(lái)思考
媒體報(bào)道,在OpenAI 發(fā)布其首個(gè)“推理”AI模型o1不久后,有用戶注意到一種奇怪的現(xiàn)象:即使用戶是用英語(yǔ)提問(wèn),這一模型有時(shí)會(huì)在回答問(wèn)題時(shí)突然“轉(zhuǎn)而用”中文、波斯語(yǔ)或其他語(yǔ)言“思考”。
例如,當(dāng)被問(wèn)及“單詞‘strawberry’中有多少個(gè)‘R’?”時(shí),o1會(huì)開(kāi)始其“推理”過(guò)程,通過(guò)一系列推理步驟得出答案。如果問(wèn)題是用英語(yǔ)寫(xiě)的o1的最終回答會(huì)是英語(yǔ),但在得出結(jié)論之前,它可能會(huì)在某些步驟中使用其他語(yǔ)言。
一位Reddit用戶表示,“o1在中途隨機(jī)地開(kāi)始用中文思考。” 另一位用戶在X發(fā)文詢問(wèn):“為什么o1會(huì)隨機(jī)開(kāi)始用中文思考?整段對(duì)話(超過(guò)5條信息)都沒(méi)有使用中文。”
OpenAI尚未對(duì)o1的這種奇怪行為作出解釋,也沒(méi)有正式承認(rèn)這一現(xiàn)象。AI專家對(duì)此也沒(méi)有明確答案,但他們提出了一些猜測(cè)。
使用中文數(shù)據(jù)標(biāo)注引起?包括 Hugging Face 的首席執(zhí)行官 Clément Delangue等人表示,像o1這樣的推理模型接受了大量包含中文字符的數(shù)據(jù)訓(xùn)練。谷歌DeepMind的研究員Ted Xiao聲稱,包括OpenAI在內(nèi)的一些公司使用中國(guó)的第三方數(shù)據(jù)標(biāo)注服務(wù),而o1轉(zhuǎn)向中文可能是“推理過(guò)程中受到中文語(yǔ)言影響”的一個(gè)例子。
Ted Xiao在X上寫(xiě)道:
“OpenAI和Anthropic等實(shí)驗(yàn)室利用[第三方]數(shù)據(jù)標(biāo)注服務(wù),為科學(xué)、數(shù)學(xué)和編程領(lǐng)域的高水平推理數(shù)據(jù)提供支持,而許多數(shù)據(jù)提供商都位于中國(guó)。”
在AI訓(xùn)練領(lǐng)域,標(biāo)注(Labels,也稱為標(biāo)簽或注解)在訓(xùn)練過(guò)程中幫助模型理解和解釋數(shù)據(jù)。例如,用于訓(xùn)練圖像識(shí)別模型的標(biāo)注可能包括為對(duì)象周?chē)砑訕?biāo)記,或?yàn)閳D像中的每個(gè)人、地點(diǎn)或物體提供描述。
研究表明,帶有偏見(jiàn)的標(biāo)注可能會(huì)導(dǎo)致帶有偏見(jiàn)的模型。例如,普通標(biāo)注員更可能將非標(biāo)準(zhǔn)英語(yǔ)(如美國(guó)黑人英語(yǔ),AAVE)標(biāo)記為“不健康”(toxic)語(yǔ)言,這導(dǎo)致基于這些標(biāo)注訓(xùn)練的AI毒性檢測(cè)器更傾向于認(rèn)為AAVE 是“不健康”的。
不過(guò),也有一些專家并不認(rèn)同“中文數(shù)據(jù)標(biāo)注”的猜測(cè)。他們指出,o1同樣可能在解決問(wèn)題時(shí)切換到印地語(yǔ)、泰語(yǔ)或其他語(yǔ)言。
AI只想使用最高效的語(yǔ)言來(lái)思考?另一種觀點(diǎn)認(rèn)為,o1和其他推理模型可能只是使用了它們認(rèn)為最能有效實(shí)現(xiàn)其目標(biāo)的語(yǔ)言(或出現(xiàn)了幻覺(jué))。
阿爾伯塔大學(xué)的助理教授、AI 研究員Matthew Guzdial在接受TechCrunch采訪時(shí)說(shuō),“模型并不知道語(yǔ)言是什么,也不知道語(yǔ)言之間有區(qū)別。對(duì)它來(lái)說(shuō),這些只是文本而已。”
實(shí)際上,模型并不直接處理單詞,而是處理“標(biāo)記”(tokens)。標(biāo)記可以是單詞(例如“fantastic”),也可以是音節(jié)(例如“fan”、“tas”和“tic”),甚至是單詞中的單個(gè)字符(例如“f”、“a”、“n”、“t”、“a”、“s”、“t”、“i”、“c”)。
像標(biāo)注一樣,標(biāo)記也可能引入偏見(jiàn)。例如,許多從單詞到標(biāo)記的轉(zhuǎn)換器假設(shè)句子中的空格表示一個(gè)新單詞的開(kāi)始,而實(shí)際上并非所有語(yǔ)言都使用空格來(lái)分隔單詞。
Hugging Face的軟件工程師Tiezhen Wang贊同這一觀點(diǎn),認(rèn)為推理模型的語(yǔ)言不一致性可能源于模型在訓(xùn)練期間與特定語(yǔ)言建立的某些關(guān)聯(lián)。
“通過(guò)接納每一種語(yǔ)言的細(xì)微差別,我們擴(kuò)展了模型的世界觀,使模型能夠全面學(xué)習(xí)人類知識(shí)。例如,我喜歡用中文做數(shù)學(xué),因?yàn)槊總€(gè)數(shù)字只有一個(gè)音節(jié),這讓計(jì)算更簡(jiǎn)潔高效。但在討論諸如‘無(wú)意識(shí)偏見(jiàn)’之類的話題時(shí),我會(huì)自動(dòng)切換到英語(yǔ),因?yàn)槲易畛蹙褪峭ㄟ^(guò)英語(yǔ)學(xué)習(xí)和吸收這些概念的。”
AI模型是概率機(jī)器,通過(guò)大量示例的訓(xùn)練學(xué)習(xí)模式,并據(jù)此作出預(yù)測(cè)。然而,非盈利組織艾倫人工智能研究所的研究科學(xué)家Luca Soldaini警告說(shuō),“我們無(wú)法確定模型內(nèi)部的運(yùn)行邏輯。對(duì)已經(jīng)部署的AI系統(tǒng)進(jìn)行這類觀察,由于其高度不透明性,是無(wú)法支持任何結(jié)論的。這也說(shuō)明了為什么在構(gòu)建AI系統(tǒng)時(shí)保持透明性至關(guān)重要。”
- 免責(zé)聲明
- 本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴本文觀點(diǎn)而產(chǎn)生的任何金錢(qián)損失負(fù)任何責(zé)任。