預(yù)訓(xùn)練時代走向終結(jié),然后呢?|對話AMD首席工程師、NexaAI聯(lián)創(chuàng)
Zhaoyang Wang | Chief Editor, GenAI Assembling
Zack Li | Co-founder & CTO, Nexa AI
Xiyue (Anderson) Xiang | Principle Member of Technical Staff, AMD
近日,已經(jīng)霸屏中美AI頭版多天、火得一塌糊涂的DeepSeek,繼以對標(biāo)GPT-4o的V3和對標(biāo)o1的R1沖擊硅谷模型界、血洗美股科技股市場后,再次發(fā)布了名為Janus-Pro的多模態(tài)模型系列。并稱其圖像生成表現(xiàn)已超越OpenAI的DALL-E 3,Google的Emu3-Gen和Stability AI的Stable Diffusion XL等領(lǐng)先產(chǎn)品。
從Ilya Sutskever的"預(yù)訓(xùn)練時代終結(jié)論",到橫空出世的DeepSeek以超高性價比撼動AI格局,行業(yè)對AI算力需求是否迎來拐點,似乎成為不可回避的熱門話題。
就在一周前,全球 AI 社區(qū)GenAI Assembling邀請到兩位行業(yè)專家——Nexa AI CTO兼聯(lián)合創(chuàng)始人Zack Li和AMD首席工程師、前SambaNova Systems 高級工程經(jīng)理及創(chuàng)始成員Xiyue Xiang。他們分別從芯片端和設(shè)備端AI的角度,在硅谷展開了一場關(guān)于預(yù)訓(xùn)練和推理、AI算力需求轉(zhuǎn)移、軟硬件協(xié)同優(yōu)化、端側(cè)智能機遇,及行業(yè)未來走勢的深度對話。
以下為對話實錄:
Zhaoyang Wang:這場討論的主題是"預(yù)訓(xùn)練走向終結(jié)——接下來是什么?"正如業(yè)內(nèi)許多人所知,前半句話出自Ilya Sutskever,而今天我們要聊的是未來走向。很高興邀請到兩位杰出的嘉賓。Xiyue來自AMD,Zack來自Nexa AI。兩位先做一下自我介紹。
Xiyue Xiang:感謝邀請,很高興來到這里。我的中文名是XiYue,英文名是Anderson。我是AMD的首席工程師,主要專注于利用AI技術(shù)解決芯片工程中的挑戰(zhàn),也參與開發(fā)了幾款面向SOC的AI驅(qū)動產(chǎn)品。在加入AMD之前,我是SambaNova Systems的創(chuàng)始團隊成員,擔(dān)任高級工程經(jīng)理,帶領(lǐng)團隊交付AI加速器的系統(tǒng)固件和FPGA原型。
Zhaoyang Wang:謝謝Xiyue。那么Zack呢?
Zack Li:大家好!我是Zack Li,Nexa AI的CTO和聯(lián)合創(chuàng)始人。創(chuàng)立Nexa以前,我在Google和Amazon工作了幾年,專注于設(shè)備端AI。Nexa AI是一家由斯坦福校友創(chuàng)辦的創(chuàng)業(yè)公司,專門研究設(shè)備端AI模型和AI基礎(chǔ)設(shè)施。我們的主要產(chǎn)品之一是設(shè)備端AI Agent模型Octopus,并開發(fā)了OmniVision和OmniAudio兩款多模態(tài)模型。這些開源模型在Hugging Face上非常受歡迎。我們還推出了Nexa SDK,支持在筆記本電腦和移動設(shè)備上運行設(shè)備端AI模型,在過去三個月獲得了超過4,000個GitHub星標(biāo)。我們的客戶包括HP、Lenovo等。非常高興能和大家分享!
Zhaoyang Wang:很高興有來自不同領(lǐng)域的兩位專家——一位來自芯片行業(yè),另一位來自AI模型領(lǐng)域。也許可以先請Xiyue開始。由于不是所有人都熟悉芯片行業(yè),你能給我們介紹一些基礎(chǔ)知識嗎,比如用于訓(xùn)練和推理的芯片有什么區(qū)別?
Xiyue Xiang:當(dāng)然可以。簡單來說,訓(xùn)練和推理對芯片的要求是不同的。
先說訓(xùn)練。訓(xùn)練模型就像在學(xué)校學(xué)習(xí),數(shù)據(jù)量越大,模型就學(xué)得越好。因此訓(xùn)練本質(zhì)上看重的是吞吐量,意味著芯片必須能實時高速地處理海量輸入數(shù)據(jù)。訓(xùn)練過程中的不同操作——比如計算密集型、內(nèi)存密集型或網(wǎng)絡(luò)密集型任務(wù)——都需要特定的性能。
計算方面,在前向傳播過程中,系統(tǒng)執(zhí)行大量矩陣乘法和加法運算。在反向傳播過程中,它會計算每一層權(quán)重的梯度。這些任務(wù)都非常計算密集,這就是為什么芯片廠商專注于提升芯片的計算能力(FLOPs或TOPs)。內(nèi)存方面,訓(xùn)練時需要存儲大量數(shù)據(jù),包括模型的參數(shù)和中間計算結(jié)果。就像人需要同時記住很多信息,所以芯片需要同時提供大容量內(nèi)存和極高的內(nèi)存吞吐量。網(wǎng)絡(luò)連接方面:當(dāng)我們用多個芯片協(xié)同訓(xùn)練時,它們之間需要快速交換數(shù)據(jù),就像團隊成員之間需要高效溝通一樣。這需要高速互連和可擴展的解決方案。
而推理就不同了。推理是一場延遲的較量,最重要的是反應(yīng)速度。比如自動駕駛時,車必須能立即識別出路上的障礙物。推理主要的挑戰(zhàn)在于如何快速調(diào)用存儲的模型來得出結(jié)果。
總的來說,芯片廠商已經(jīng)對AI工作負載有了更深入的理解,正在根據(jù)不同市場的獨特需求定制他們的產(chǎn)品。
Zhaoyang Wang:這很有趣。據(jù)我了解,很多AI從業(yè)者使用相同的芯片進行訓(xùn)練和推理。你能詳細說明這是否屬實嗎?如果預(yù)訓(xùn)練確實要結(jié)束了,芯片公司打算如何適應(yīng)?
Xiyue Xiang:好的。我認為推理在未來將發(fā)揮更重要的作用。從我在SambaNova的經(jīng)驗來看,我們最初專注于構(gòu)建訓(xùn)練解決方案,但最終因為推理市場的重要性日益提升而轉(zhuǎn)向了這個方向。對于超大規(guī)模計算服務(wù)商來說,對訓(xùn)練和推理使用相同的硬件和軟件架構(gòu)通常是有意義的,因為這樣既經(jīng)濟又實用。然而,對于那些只專注于推理的客戶來說,一個更具成本效益的解決方案可能更可取。這是我的觀點。
Zhaoyang Wang:謝謝。下一個問題是給Zack的。當(dāng)我們談到預(yù)訓(xùn)練即將結(jié)束這個觀點時,背后還有一個理論,就是算力正從訓(xùn)練階段轉(zhuǎn)向推理階段。具體來說,推理可以分為兩部分:一部分在云端,另一部分,也就是你們關(guān)注的重點,在設(shè)備端。你認為這個趨勢會成為現(xiàn)實嗎?這對你們公司意味著什么?我記得你們公司現(xiàn)在有兩年歷史了,對嗎?
Zack Li:沒錯,兩年了。Nexa AI從一開始就專注于設(shè)備端AI,在推理方面投入了大量研發(fā)資源。我們開發(fā)了SDK以 及量化解決方案,可以將模型尺寸縮小到能在平板電腦或手機上運行。這個趨勢完全符合我們公司的愿景和研發(fā)方向。我們注意到,雖然模型正在變得更小更智能,但基礎(chǔ)設(shè)施方面仍然存在明顯的差距。以PyTorch為例,目前還沒有成熟的基礎(chǔ)設(shè)施能在移動設(shè)備上高效運行大型模型。我們正是看準(zhǔn)了這個機會,開發(fā)了用于壓縮和部署模型到邊緣設(shè)備的工具包。
Zhaoyang Wang:這很有意思。能詳細說說你們在小型模型技術(shù)方面的進展嗎?
Zack Li:當(dāng)然可以。要讓模型能在設(shè)備上高效運行,工具包需要輕量化且通用。
讓我問問:在座有多少人使用過PyTorch或做過基礎(chǔ)張量運算?如果有,請舉手。——好的,比我預(yù)期的人數(shù)還多。那么,有多少人嘗試過在筆記本電腦上使用Hugging Face之類的工具來運行模型?請舉手。——看來只有少數(shù)人試過。
這就是問題所在。如果你用過PyTorch或基于云的解決方案,你就會知道它們通常帶有龐大的工具包——通常下載量超過1GB。這些工具包在不同后端之間的兼容性也不是很好。比如,PyTorch在AMD設(shè)備上需要Rocm后端,在NVIDIA設(shè)備上需要CUDA后端等等。這種可擴展性差是一個主要挑戰(zhàn)。為了解決這個問題,我們開發(fā)了一個精簡的工具包提供給企業(yè)客戶。這些工具包可以將模型——無論是從我們這里下載的還是從Hugging Face等平臺下載的——壓縮并擴展到各種設(shè)備上,包括手機、筆記本電腦、機器人,甚至自動駕駛系統(tǒng)。
Zhaoyang Wang:很酷。我還有個后續(xù)問題:你提到你們作為一個兩年的創(chuàng)業(yè)公司,押注于小型模型和推理的重要性,但競爭一定是個因素。像Meta、Google和OpenAI這樣的大公司也在構(gòu)建自己的大模型,而小模型通常來自于這些大模型的蒸餾。有人認為,只有能夠創(chuàng)建最好的大模型的公司才能生產(chǎn)出最好的小模型。你怎么看待這種競爭?
Zack Li:這是個很好也很難回答的問題。我來分享一個有趣的故事。2024年5月,我們受邀到Apple Park為他們的高管做演講。僅僅一周后,在WWDC上,Apple發(fā)布了他們的設(shè)備端AI解決方案Apple Intelligence。他們在這方面投入了很多精力,提供了不同的模型,從較小的設(shè)備端版本到較大的版本都有。內(nèi)部甚至有傳言說這些設(shè)備端模型是從更大模型蒸餾而來的。
在設(shè)備端AI領(lǐng)域,像Apple、Google和Microsoft這樣的大公司在計算能力和數(shù)據(jù)獲取方面有顯著優(yōu)勢。但他們的方法通常是將基于云的解決方案縮小到設(shè)備端,目標(biāo)是創(chuàng)建能處理廣泛任務(wù)的模型。相比之下,我們專注于設(shè)備端AI的特定實際應(yīng)用場景,使我們的模型高度專業(yè)化并針對客戶需求進行優(yōu)化。
比如,我們開發(fā)的Optimus模型就是專門為設(shè)備端AI Agent設(shè)計的。它達到了GPT-4級別的函數(shù)調(diào)用準(zhǔn)確率,在推理和問答方面表現(xiàn)非常出色。這種專業(yè)化使我們能夠提供更有針對性和更有效的解決方案。
另一個關(guān)鍵區(qū)別是基礎(chǔ)設(shè)施。像Apple這樣的大公司主要為自己的硬件設(shè)計系統(tǒng)。比如Apple Intelligence本質(zhì)上是推廣他們最新iPhone的一種方式。他們沒有動力去支持舊款機型或Android設(shè)備。相比之下,我們建立了一個跨平臺的基礎(chǔ)設(shè)施——無論是Android、iOS、macOS、Windows還是Linux都可以使用。
我們的解決方案兼容各種設(shè)備,包括那些帶寬較低的設(shè)備。大公司通常專注于自己的生態(tài)系統(tǒng),比如Apple的Mac生態(tài)系統(tǒng)或Google的Pixel生態(tài)系統(tǒng),并不優(yōu)先考慮跨平臺兼容性。這正是我們看到的巨大機會所在。
Zhaoyang Wang:我覺得這意味著你們需要在成為領(lǐng)域?qū)<液蜆?gòu)建跨生態(tài)系統(tǒng)可擴展平臺之間取得平衡。
Zack Li:沒錯,要能擴展到不同的生態(tài)系統(tǒng)。
Zhaoyang Wang:這也反映了AI領(lǐng)域的一個更廣泛的趨勢。邊界變得越來越模糊——軟件工程師需要了解硬件,芯片設(shè)計師需要知道算法如何運作。我的下一個問題就基于此:OpenAI正在用新的o1系列替代GPT,我們也看到了像DeepSeek這樣的先進模型。它們的成功似乎來自于高度優(yōu)化的硬件和軟件深度協(xié)同來最大化模型的運行效率。Xiyue,AMD是如何通過軟件開發(fā)來加強自己在這個不斷發(fā)展的領(lǐng)域中的地位的?
Xiyue Xiang:在討論AMD的策略之前,我想先更好地梳理這個問題。目前,在擴展AI能力方面存在兩個主要挑戰(zhàn)。一是提升AI模型本身的可擴展性,二是降低訓(xùn)練這些模型的成本。
舉個例子,大家可能都知道OpenAI在訓(xùn)練GPT-4時已經(jīng)用盡了大部分高質(zhì)量訓(xùn)練數(shù)據(jù)集。雖然擴展定律是否仍適用尚不清楚,但幾個月后,他們發(fā)布了GPT-4 Turbo,引入了多模態(tài)功能,然后他們又增加了一個新維度:測試時計算。測試時計算本質(zhì)上允許模型在提供答案前"思考更長時間",使其能夠改進和驗證響應(yīng)以提高可擴展性。這就是像o1和o3這樣的模型背后的核心理念。
從成本角度來看,去年12月DeepSeek V3的發(fā)布就是個很好的例子。他們成功地用550萬美元訓(xùn)練了一個6710億參數(shù)的模型——比用H100 GPU訓(xùn)練同等規(guī)模模型通常需要的5億美元大大減少。他們通過混合專家架構(gòu)和混合精度訓(xùn)練等創(chuàng)新實現(xiàn)了這一目標(biāo),這讓他們能夠使用更便宜的計算資源卻獲得可媲美的結(jié)果。
如果沒有軟硬件的端到端優(yōu)化,這些挑戰(zhàn)是無法解決的。僅僅有一個強大的芯片是不夠的。我見過很多優(yōu)秀的公司制造出很棒的芯片,但他們卻難以創(chuàng)建可擴展和高效的軟件。舉個例子,你可以設(shè)計一個具有一個petaflop計算能力的芯片,但如果你的軟件效率低下,你可能只能使用20%的性能——浪費了80%。
說到AMD,我們正在通過三個主要方面來擴展我們的軟件能力。首先,我們開發(fā)了自己的開源軟件平臺ROCm(Radeon Open Compute),它專門用于編程GPU和像MI300這樣的AI加速器。其次,我們通過戰(zhàn)略收購來擴展。例如,我們?nèi)ツ晔召徚薙ilo AI,2022年收購了Xilinx,我們可能會繼續(xù)進行類似的交易。最后,也許是最重要的,我們致力于建立一個強大的生態(tài)系統(tǒng),實現(xiàn)與PyTorch和TensorFlow等流行框架的無縫集成。我們還在與主要的AI基礎(chǔ)設(shè)施供應(yīng)商密切合作,確保我們的硬件和軟件解決方案都具有可擴展性和高效性。
Zhaoyang Wang:很好。現(xiàn)在問問Zack。在機器學(xué)習(xí)工作流程和訓(xùn)練方面,Nexa AI是如何更好地"榨干"硬件的全部潛力的?
Zack Li:我注意到一些公司采用硬件-軟件協(xié)同設(shè)計的方法。我認為這是一個很好的商業(yè)模式,因為它允許他們通過直接銷售硬件獲得更多利潤。但這也帶來了挑戰(zhàn),比如管理物流鏈和處理制造流程。
在Nexa AI,因為我的核心團隊主要由算法和AI專家組成,我們更專注于模型層面。我們開發(fā)的工具包允許開發(fā)者將模型部署在各種設(shè)備上——無論是筆記本電腦、手機還是機器人。這些年來,我們試用過NVIDIA的軟件,也試用過Intel的和AMD的。我逐漸意識到,軟件正在成為芯片公司吸引客戶和開發(fā)者(特別是個人開發(fā)者)的關(guān)鍵因素。以Intel的OpenVINO為例,如果你購買Intel的臺式機或筆記本電腦,你就能充分利用他們的NPU(神經(jīng)網(wǎng)絡(luò)處理器),它是開源的。在今年CES,我看到三四家創(chuàng)業(yè)公司完全基于Intel的NPU構(gòu)建他們的軟件棧。同樣,我也看到創(chuàng)業(yè)公司基于AMD的GPU開展業(yè)務(wù)。
所以,軟件效率正在成為一個關(guān)鍵的差異化因素,特別是對創(chuàng)業(yè)公司而言。雖然FLOPs和RAM這樣的規(guī)格很重要,但芯片公司在這些領(lǐng)域的產(chǎn)品往往很相似。因此,軟件棧成為許多開發(fā)者和客戶選擇硬件時的決定性因素。
Zhaoyang Wang:從你的角度來看,什么是好的軟件?
Zack Li:但就個人而言,我認為他們的工具包都很不錯,我們當(dāng)然希望進一步加強合作來改進它。
Zhaoyang Wang:也許我們可以討論一下未來:芯片領(lǐng)域的下一個重大突破是什么,我們在技術(shù)突破方面可以期待什么?
Xiyue Xiang:當(dāng)我們談?wù)撔酒O(shè)計方面可能發(fā)生的事情時,我想從五個角度來探討:工藝技術(shù)、計算、內(nèi)存、網(wǎng)絡(luò)和封裝。
首先是工藝技術(shù)。大家都說摩爾定律即將終結(jié),也許這是對的。但工藝制程會繼續(xù)縮小這個趨勢是不可否認的。這使我們能夠集成更多晶體管并減少功耗,盡管速度比以前慢。從臺積電和英特爾的進展就可以看出這一點。我相信這個趨勢會持續(xù),直到量子計算等顛覆性技術(shù)成熟。
第二是計算。芯片廠商和創(chuàng)業(yè)公司正在投入大量精力設(shè)計專門的計算單元,以支持各種精度和稀疏性。他們還在探索新興架構(gòu),如數(shù)據(jù)流架構(gòu),以克服傳統(tǒng)馮·諾依曼系統(tǒng)的局限性。
第三,讓我們談?wù)剝?nèi)存,特別是HBM(高帶寬內(nèi)存)。HBM已經(jīng)被采用來解決AI時代至關(guān)重要的內(nèi)存帶寬和延遲問題。我相信HBM在性能、密度和容量方面會繼續(xù)發(fā)展。但它非常昂貴。為了平衡成本和性能,芯片廠商可能會探索將SRAM、HBM和DDR內(nèi)存結(jié)合起來的分層內(nèi)存層次結(jié)構(gòu)。這種方法有助于優(yōu)化成本、帶寬和延遲之間的平衡。
第四是網(wǎng)絡(luò)。網(wǎng)絡(luò)可擴展性有兩個維度:向上擴展和向外擴展。向上擴展涉及提升單個系統(tǒng)或節(jié)點的性能。向外擴展意味著復(fù)制多個系統(tǒng)來解決單個問題,這需要在傳輸協(xié)議方面的創(chuàng)新,如RoCE(融合以太網(wǎng)上的RDMA)、NVLink或新興的UCIe(通用芯片互連快車)等。這也要求交換機廠商創(chuàng)造更可擴展和經(jīng)濟的解決方案來構(gòu)建更大的網(wǎng)絡(luò)。
最后是封裝。我們目前有2.5D封裝(CoWoS)和3D封裝(基于TSV的技術(shù))。最近,Broadcom宣布了一種叫做3.5D封裝的技術(shù),盡管具體細節(jié)還不是很清楚。我猜測這是2.5D和3D技術(shù)的結(jié)合,能夠?qū)⒍鄠€芯片拼接在一起形成更大的芯片。這與向基于芯片組的系統(tǒng)級模塊(SoM)發(fā)展的趨勢相符,這正在推動封裝技術(shù)的發(fā)展。
Zhaoyang Wang:我的最后一個給Zack。關(guān)于設(shè)備端AI,越來越多的人認為這將是下一個重大突破。這也意味著商業(yè)模式可能會發(fā)生根本性的改變。比如,在基于云的AI中,大多數(shù)盈利都與使用多少token有關(guān)——向云端發(fā)送數(shù)據(jù)、處理數(shù)據(jù),然后接收輸出,所有這些都需要付費。然而對于設(shè)備端AI,當(dāng)有人購買智能手機時,他們實際上已經(jīng)為計算能力付費了,因為所有操作都在設(shè)備本地進行。他們不需要為發(fā)送到云端的token付費。作為一個創(chuàng)業(yè)公司的創(chuàng)始人,你在這里看到新的商業(yè)模式機會嗎?
Zack Li:設(shè)備端AI的商業(yè)模式——如何商業(yè)化或盈利——確實與基于云的解決方案不同。首先,我同意設(shè)備端AI正在勢頭漸起。Apple Intelligence幫助提高了公眾對設(shè)備端AI的認識,展示了它的能力。此外,a16z的管理合伙人Jennifer Li提到2025年將是邊緣AI起飛的一年。我們甚至在辦公室里highlight這句話來激勵團隊。
說到盈利,設(shè)備端AI需要一種不同的方法。與云AI中基于token的模式不同,設(shè)備端AI的盈利通常涉及與像AMD這樣的芯片公司和智能手機、筆記本電腦制造商等OEM廠商的密切合作。這種模式通常按設(shè)備、按安裝次數(shù)對邊緣設(shè)備收費。這不是我們獨有的模式——其他幾家設(shè)備端AI公司也在使用這種方法。
Zhaoyang Wang:為了結(jié)束這次討論,作為行業(yè)的不同視角,現(xiàn)在你們可以互相向?qū)Ψ教釂栆粋€最感興趣的問題。Xiyue,你先來。
Xiyue Xiang:Zack,考慮到AI能力明顯從云端向邊緣設(shè)備轉(zhuǎn)移的趨勢,你認為2025年最大的機會是什么?
Zack Li:這是個很好的問題。我認為最大的機會在于創(chuàng)建一個可以跨各種硬件平臺擴展的解決方案。云和硬件生態(tài)系統(tǒng)的主要區(qū)別在于,在云端,你可以使用像CUDA這樣的單一工具包,但在邊緣設(shè)備上,硬件環(huán)境要分散得多。比如,一臺筆記本電腦可能有來自不同廠商的CPU、GPU和NPU,要創(chuàng)建一個能有效利用所有這些組件的可擴展解決方案并不容易。
任何能巧妙解決這個問題的人都將獲得顯著優(yōu)勢。這就是為什么我們在這個領(lǐng)域投入巨資——確保AI模型能在不同硬件上高效運行。現(xiàn)在,可能只有十分之一的人有使用PyTorch的經(jīng)驗,可能只有百分之一的人使用過工具包在筆記本電腦上運行模型。我希望到今年年底,我們能看到每100人中有10個甚至20個人在他們的設(shè)備上運行大型邊緣AI模型。
Zhaoyang Wang:很好。那么Zack,你有什么問題要問Xiyue?
Zack Li:Xiyue,隨著你提到的從云端到邊緣的轉(zhuǎn)變,你認為我們很快就能看到支持個性化AI的硬件,能夠在設(shè)備本地完全理解和學(xué)習(xí)嗎?如果是,這可能在什么時候發(fā)生?
Xiyue Xiang:首先,我完全同意人們對個性化AI解決方案有強烈需求。我很希望我的手機能學(xué)習(xí)我的習(xí)慣,在我做決定時提供量身定制的建議。其次,要獲得無縫的AI體驗,我們需要能記住并根據(jù)我們的個人經(jīng)歷進行調(diào)整的AI系統(tǒng),因為這定義了我們是誰以及我們?nèi)绾翁幚韱栴}。
從這兩個角度來看,需求是不可否認的。而且,我注意到主流AI框架開始支持設(shè)備端訓(xùn)練。例如,PyTorch、TensorFlow Lite和ONNX都已經(jīng)開始啟用這個功能。Google正在積極開發(fā)這方面的內(nèi)容,Apple也開始支持這些努力。這表明供應(yīng)商認識到了對設(shè)備端訓(xùn)練的強烈需求,并認為這是一個可行的方法。在我看來,我們很可能在未來幾年內(nèi)看到這個領(lǐng)域的成熟產(chǎn)品。
Zhaoyang Wang:謝謝大家!
- 免責(zé)聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風(fēng)險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負任何責(zé)任。