匯豐重磅報告:AI能追蹤美聯儲嗎?
近日,匯豐銀行發布了一份題為《AI能追蹤美聯儲嗎?》的報告,深入探討生成式人工智能在分析美聯儲官員講話及預測貨幣政策方向中的潛力與局限。
匯豐開發了一款基于GPT-4的AI工具,專門用來自動評估美聯儲講話的相關性、內容摘要、政策傾向(鷹派/鴿派/中性)及其背后理由。
通過分析54篇美聯儲講話,匯豐發現,對于分析與貨幣政策高度相關的講話,AI工具的表現接近于一位“努力工作的初級分析師”,并且與人類專家的結論在大多數情況下接近。
然而,在處理與貨幣政策無關或相關性較低的講話時,AI可能會生成不準確甚至虛構的內容,降低了用戶的信任度。
因此,匯豐的結論是,AI工具雖有潛力提高生產力,但目前尚不足以完全取代人類分析師,尤其是在高精度要求的任務中。
AI分析美聯儲講話匯豐開發的AI工具通過“逐句篩選+整體分析”的方法,對美聯儲官員的講話進行四個方面的分析:相關性篩選、內容摘要、政策傾向判斷(鷹派、鴿派或中性)以及決策依據說明。
研究團隊希望通過這一工具回答一個核心問題:AI是否能夠可靠、準確地分析美聯儲的政策信號,從而為投資者提供實用的參考。
報告指出,AI工具在分析高度相關的講話時表現令人印象深刻,其產出質量與一位“努力工作的初級分析師”相當。尤其在判斷政策傾向時,AI的結果與人類專家大致一致。
例如,在研究的54篇講話中,AI在判斷其為“中性”時與人類專家完全一致,而在評估“鷹派”或“鴿派”時也較少出現重大偏差。
“我們可以看到,現在對鴿派或中立的演講沒有任何分歧。對于模型視為鷹派的10次演講,我們的人類專家同意這一觀點的演講有8次,其他專家認為,只有2次演講是中立的。”
盡管AI工具展現了一定的能力,但報告也指出了多項AI的短板。
首先,生成式AI的“創造性”有時會導致問題,尤其在處理與貨幣政策無關的講話時,AI可能會虛構信息以“滿足”用戶需求。這種現象被稱為“幻覺”(Hallucination),可能會嚴重損害用戶對工具的信任。
“人工智能模型已經被訓練得表現出強烈的幫助愿望,它會傾向于編造信息來給你答復,而不是提醒你,你的問題令人困惑或無法回答。”
此外,AI工具在重復任務中的不一致性也是一個關鍵挑戰。報告發現,即使在相同條件下,AI對同一講話的分析結果可能會有所不同。
匯豐的研究團隊強調,雖然人類分析師在一定程度上也存在主觀性,但單一分析師在不同時間對同一內容的解讀通常具有一致性,而AI卻無法保證這一點。
AI能取代分析師嗎?匯豐的研究表明,盡管AI工具在分析任務中有一定表現,但其目前仍無法完全取代人類分析師的作用。
報告指出,AI在一些較為基礎和重復性的任務中,如篩選相關信息和生成摘要,表現出色。然而,在涉及復雜推理和深度解讀的工作中,AI與人類的差距仍然明顯。
匯豐表示,AI工具的表現類似于初級分析師的水平,但它無法像人類一樣通過經驗和反饋不斷改進。這一點對企業來說尤為重要,因為培養人類分析師不僅是為了當前的產出,也是為了未來的發展潛力。
報告還強調,AI的“隨機性”和“創造性”特質雖然為技術帶來了靈活性,但也成為廣泛應用的障礙。在金融市場等高精度需求領域,用戶對結果的穩定性和可信度要求極高。如果AI工具的產出需要人類專家反復核查,其所謂的效率提升將大打折扣。
“但當你向??智能?具詢問它的意見時,它的意見會時時刻刻發生變化。除非人性發生根本性變化,否則人工智能?具很可能無法充當值得信賴的顧問。這在短期內似乎不太可能發生。”
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。