近期,人工智能領(lǐng)域的一項(xiàng)新研究在學(xué)術(shù)界引起了廣泛討論。亞利桑那州立大學(xué)的一組研究人員在預(yù)印本平臺(tái)arXiv發(fā)布了一篇論文,對大型語言模型如ChatGPT的理解提出了新視角。他們質(zhì)疑,這些被廣泛認(rèn)為具備思考或推理能力的AI模型,實(shí)際上可能只是在執(zhí)行數(shù)據(jù)相關(guān)性的匹配任務(wù)。
論文詳細(xì)闡述了研究小組的發(fā)現(xiàn)。他們指出,盡管這些AI模型在解答問題時(shí)往往會(huì)展示出一系列看似邏輯連貫的中間步驟,但這并不等同于真正的推理過程。相反,這些模型更像是在進(jìn)行大規(guī)模的數(shù)據(jù)相關(guān)性計(jì)算,而非理解或推斷因果關(guān)系。
研究小組進(jìn)一步強(qiáng)調(diào),將AI模型的行為擬人化,可能會(huì)誤導(dǎo)公眾對其內(nèi)在機(jī)制的正確理解。他們通過對比一些高性能的推理模型,如DeepSeek R1,來說明這一點(diǎn)。盡管這些模型在某些特定任務(wù)上表現(xiàn)出色,但這并不意味著它們具備人類的思考能力。實(shí)際上,AI的輸出結(jié)果并沒有包含真正的推理步驟。
這一發(fā)現(xiàn)對于當(dāng)前高度依賴AI技術(shù)的社會(huì)具有重要意義。研究人員提醒,用戶在依賴AI模型進(jìn)行決策時(shí),應(yīng)當(dāng)對其能力保持審慎態(tài)度。AI模型生成的中間步驟,盡管看似合理,但可能并不反映真正的推理過程,這可能會(huì)導(dǎo)致用戶對AI的問題解決能力產(chǎn)生過度樂觀的誤判。






