近期,Qwen系列模型家族迎來了一位新成員——Qwen3-30B-A3B-Thinking-2507,這一重大更新標志著該系列在智能表現上的又一次飛躍。新版本不僅在體積上保持輕巧,更在推理能力、通用應用及文本處理能力上實現了顯著提升。
與早前于4月29日開放的Qwen3-30-A3B相比,新版本Qwen3-30B-A3B-Thinking-2507在多個關鍵性能測試中展現出了明顯優勢。在數學領域,新模型在AIME25評測中的得分高達85.0,這一成績已經超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking),彰顯了其卓越的數學解析能力。在編程能力測試中,LiveCodeBench v6的得分同樣達到了66.0,進一步證明了新模型在代碼理解和生成方面的實力。
不僅如此,Qwen3-30B-A3B-Thinking-2507在知識水平測試中也取得了顯著進步,無論是GPQA還是MMLU-Pro評測,都較之前版本有了明顯提升。這顯示了模型在廣泛知識領域的學習和應用能力。
在通用能力方面,新模型同樣表現出色。無論是寫作評測WritingBench,還是Agent能力測試BFCL-v3,以及多輪對話和多語言指令遵循測試MultiIF,Qwen3-30B-A3B-Thinking-2507均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking),展現了其在自然語言理解和生成方面的強大實力。
新模型的另一大亮點是其上下文理解能力的顯著增強。原生支持256K tokens,且可擴展至1M tokens,這一改進使得模型能夠處理更長的文本輸入,從而更好地理解和生成復雜內容。新模型的思考長度也有所增加,開發者在面對高度復雜的推理任務時,可以通過設置更長的思考預算來充分發揮其潛力。
為了讓更多開發者和研究人員受益于這一新版本,Qwen3-30B-A3B-Thinking-2507已經在魔搭社區和HuggingFace平臺開放源代碼。其輕量級的特性使得模型能夠輕松適配消費級硬件,實現本地部署。同時,Qwen Chat也同步上線了新模型,供開發者們親身體驗其強大的推理和生成能力。






