人工智能追蹤他人心理狀態能力如何?國際最新研究稱與人類相當
中新網北京5月25日電 (記者 孫自法)人工智能可否追蹤他人心理狀態?能力如何?施普林格·自然旗下專業學術期刊《自然-人類行為》最新一期發表一篇人工智能研究論文顯示,在測試追蹤他人心理狀態能力(也稱心智理論,Theory of Mind)的任務中,兩類人工智能大語言模型(LLM)在特定情況下的表現與人類相似,甚至更好。
該論文介紹,心智理論對人類社交互動十分重要,是人類溝通交流和產生共鳴的關鍵。之前的研究表明,大語言模型這類人工智能可以解決復雜的認知任務,如多選決策。不過,人們一直不清楚大語言模型在被認為是人類獨有能力的心智理論任務中的表現是否也能比肩人類。
在本項研究中,論文第一作者和共同通訊作者、德國漢堡-埃彭多夫大學醫學中心 James W. A. Strachan與同事及合作者一起,選擇能測試心理理論不同方面的任務,包括發現錯誤想法、理解間接言語以及識別失禮。他們隨后比較了1907人與兩個熱門大語言模型家族(GPT和LLaMA2模型)完成任務的能力。他們發現,GPT模型在識別間接要求、錯誤想法和誤導的表現能達到有時甚至超越人類平均水平,而LLaMA2的表現遜于人類水平;在識別失禮方面,LLaMA2強于人類但GPT表現不佳。
論文作者指出,LLaMA2的成功被證明是因為回答的偏見程度較低而不是因為真的對失禮敏感,而GPT看起來的失利其實是因為對堅持結論的超保守態度而不是因為推理錯誤。
論文作者提醒說,人工智能大語言模型在心智理論任務上的表現堪比人類不等于它們具有人類般的能力,也不意味著它們能掌握心智理論。
他們總結表示,這項研究進展是未來研究的重要基礎,建議后續進一步研究大語言模型在心理推斷上的表現會如何影響個體在人機交互中的認知。
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。