在人工智能領(lǐng)域,一款名為GLM-4.1V-9B-Thinking的模型正以驚人的表現(xiàn)吸引著業(yè)界的目光。該模型憑借其僅9B的參數(shù)規(guī)模,在HuggingFace平臺(tái)上榮登趨勢(shì)榜榜首,實(shí)現(xiàn)了以小搏大的壯舉。
GLM-4.1V-Thinking是一款多模態(tài)通用推理大模型,它不僅能夠處理圖像、視頻和文檔等多種類(lèi)型的數(shù)據(jù)輸入,還專(zhuān)為解決復(fù)雜認(rèn)知任務(wù)而設(shè)計(jì)。這款模型在GLM-4V架構(gòu)的基礎(chǔ)上進(jìn)行了創(chuàng)新,引入了“思維鏈推理機(jī)制”,這一機(jī)制顯著增強(qiáng)了模型的因果推理能力。同時(shí),通過(guò)采用“課程采樣強(qiáng)化學(xué)習(xí)策略”,GLM-4.1V-Thinking在跨模態(tài)任務(wù)中的表現(xiàn)更加穩(wěn)定。
值得注意的是,盡管GLM-4.1V-9B-Thinking的參數(shù)規(guī)模控制在10B級(jí)別以?xún)?nèi),但其性能卻毫不遜色。在包括MMStar、MMMU-Pro、ChartQAPro和OSWorld在內(nèi)的28項(xiàng)權(quán)威評(píng)測(cè)中,該模型取得了23項(xiàng)10B級(jí)模型的最佳成績(jī)。尤為在其中的18項(xiàng)評(píng)測(cè)中,GLM-4.1V-9B-Thinking的表現(xiàn)甚至與參數(shù)量高達(dá)72B的Qwen-2.5-VL持平或超越,這充分展示了其作為小體積模型的卓越性能潛力。
對(duì)于對(duì)GLM-4.1V-9B-Thinking感興趣的開(kāi)發(fā)者和研究人員來(lái)說(shuō),可以通過(guò)以下鏈接獲取更多信息:在Github上,該模型的倉(cāng)庫(kù)地址為https://github.com/THUDM/GLM-4.1V-Thinking;而在Hugging Face平臺(tái)上,可以通過(guò)https://huggingface.co/THUDM/GLM-4.1V-9B-Thinking訪問(wèn)該模型的頁(yè)面。






