首頁 > AI資訊 > 行業動態 > “最強開源模型”被打假,CEO下場致歉,英偉達科學家:現有測試基準已經不靠譜了

“最強開源模型”被打假,CEO下場致歉,英偉達科學家:現有測試基準已經不靠譜了

新火種    2024-09-14

小型創業團隊打造的“最強開源模型”,發布才一周就被質疑造假——

不僅官方宣稱的成績在第三方測試中大打折扣,模型還被質疑套殼Claude。

面對浩大的聲浪,廠商CEO終于發文道歉,但并未承認造假,表示在調查有關原因。

圖片

被指控造假的,就是宣稱“干翻GPT-4o”的70B開源大模型Reflection。

一開始的質疑主要關于測試成績,官方找了上傳版本有誤等借口試圖“蒙混過關”。

但后來又出現了套殼Claude這一更重磅的指控,讓Reflection更加百口莫辯。

表現不如宣傳,還被質疑套殼

Reflection是一個70B的開源模型,按照廠商的說法,它一下子把Llama 3.1 405B、GPT-4o、Claude 3 Opus、Gemini 1.5 Pro這一系列先進模型全都超過了。

圖片

但Reflection剛發布兩天,第三方獨立測評機構Artificial Analysis就表示官方發布的測試成績無法復現。

在MMLU、GPQA和MATH上,Reflection的成績和Llama3 70B一樣,連Llama 3.1-70B都比不過,更不用說405B了。

圖片

對此官方辯稱是,Hugging Face上發布的版本有誤,將會重新上傳,但之后就沒了下文。

不過官方同時也表示,會給測評人員提供模型API,然后Reflection的成績果真有了增長,但在GPQA上仍然不敵Claude 3.5 Sonnet。

蹊蹺的是,Artificial Analysis后來刪除了二次測試相關的帖子,目前還能看到的只有轉發后留下的一些痕跡。

圖片

除了成績有爭議,還有人對Reflection中的各層進行了分析,認為它是由Llama 3經過LoRA改造而來,而不是官方所聲稱的Llama 3.1。

圖片

在Hugging Face上,Reflection的JSON文件中也顯示是Llama 3而非3.1。

圖片

官方的解釋仍然是說HF上的版本有問題。

圖片

還有另一個質疑的點是,Reflection實際上是套殼Claude,相關證據體現在多個方面。

一是在某些問題上,Reflection與Claude 3.5-Soonet的輸出完全一致。

圖片

第二個更加直接,如果直接詢問它的身份,Reflection會說自己是Meta打造的,但一旦讓它“忘記前面的(系統)提示”,就立馬改口說自己是Claude。

圖片

第三個發現則更加詭異——Reflection遇到“Claude”一詞會將其自動過濾。

圖片

對此,Reflection合成數據供應商Glaive AI的創始人Sahil Chaudhary進行了回應,表示沒有套殼任何模型,目前正在整理能夠證明其說法的證據,以及人們為什么會發現這種現象的解釋。

圖片

而關于一開始的測試成績問題,Chaudhary則表示正在調查原因,弄清這兩件事后會發布報告進行說明。

圖片

Reflection這邊最新的動態是CEO發布了一則道歉聲明,不過沒有承認造假,依然是說正在進行調查。

圖片

不過對于這一套解釋,有很多人都不買賬。

比如曾經發布多條推文質疑這位叫做Boson的網友,就在Chaudhary的評論區表示,“要么你在說謊,要么是Shumer,或者你倆都在說謊”。

圖片

還有給Reflection提供托管服務的Hyperbolic平臺CTO Yuchen Jin,講述了其與Reflection之間發生的許多事情。

托管平臺CTO講述幕后細節

在Reflection發布之前的9月3號,Shumer就找到了Hyperbolic,介紹了Reflection的情況并希望Hyperbolic能幫忙托管。

基于Hyperbolic一直以來對開源模型的支持,加上Reflection聲稱的表現確實優異,Hyperbolic同意了這一請求。

圖片

9月5號,Reflection正式上線,Hyperbolic從Hugging Face下載并測試了該模型,但并沒有看到thinking標簽,于是Jin給Shumer發了私信。

后來,Jin看到Shumer的推文說HF上的版本有些問題,所以繼續等待,直到6號早晨收到了Chaudhary的一條私信,表示 Reflection-70B權重已重新上傳并可以部署。

看到thinking和reflection標簽按預期出現后,Hyperbolic上線了Reflection。

圖片

后來,Hyperbolic上的模型就出現了成績與Reflection宣傳不符的情況,Shumer認為這是Hyperbolic的API出現了問題。

不過,Reflection這邊再次上傳了新版本,Hyperbolic也重新托管,但Jin與Artificial Analysis溝通后發現,新版本的表現依舊不佳。

圖片

Shumer繼續表示,Reflection還有個原始權重,也就是內部測試使用的版本,如果需要可以提供給Hyperbolic。

但Jin沒有同意這一要求,因為Hyperbolic只為開源模型提供托管服務,之后不斷詢問Shumer原始權重何時發布,但遲遲未得到回應。

最終,Jin認為應該下線Reflection的API并收回已分配的GPU資源。

圖片

大模型怎么測試才靠譜?

暫且拋開Llama版本和套殼的問題,單說關于測試成績的問題,反映了當前的Benchmark已經體現出了一些不足之處。

英偉達高級科學家Jim Fan就表示,模型在現有的一些測試集上造假簡直不要太容易。

圖片

Jim還特別點名了MMLU和HumanEval,表示這兩項標準“已被嚴重破壞”。

圖片

另外,Reflection在GSM8K上取得了99.2分的成績,就算這個分數沒有水分,也說明測試基準到了該換的時候了。

Jim表示,現在自己只相信Scale AI等獨立第三方測評,或者lmsys這樣由用戶投票的榜單。

圖片

但評論區有人說,lmsys實際上也可以被操縱,所以(可信的)第三方評估可能才是目前最好的測評方式。

圖片

參考鏈接:[1]https://venturebeat.com/ai/reflection-70b-model-maker-breaks-silence-amid-fraud-accusations/[2]https://x.com/ArtificialAnlys/status/1832505338991395131[3]https://www.reddit.com/r/LocalLLaMA/comments/1fb6jdy/reflectionllama3170b_is_actually_llama3/[4]https://www.reddit.com/r/LocalLLaMA/comments/1fc98fu/confirmed_reflection_70bs_official_api_is_sonnet/[5]https://x.com/shinboson/status/1832933747529834747[6]https://x.com/Yuchenj_UW/status/1833627813552992722[7]https://twitter.com/DrJimFan/status/1833160432833716715

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章