【ITBEAR】9月14日消息,國內AI技術領域的佼佼者元象XVERSE,近日發布了一款具有里程碑意義的開源模型——XVERSE-MoE-A36B。這款模型以高達2550億的總參數和360億的激活參數,實現了千億級別模型的性能飛躍,且已全面開源,供中小企業、研究者和開發者無條件免費商用。

XVERSE-MoE-A36B的推出,不僅彰顯了元象在AI大模型領域的技術實力,更以其卓越的性能和開源的特性,為國內的AI應用落地提供了強有力的支持。據悉,該模型在權威評測中表現優異,大幅超越了包括Skywork-MoE、Mixtral-8x22B等多個同類模型。
據ITBEAR了解,元象團隊在XVERSE-MoE-A36B的研發過程中,進行了一系列的技術優化和創新。其中包括采用4D拓撲架構以平衡通信、顯存和計算資源,設計預丟棄策略以減少不必要的計算和傳輸,以及實現高效的算子融合等。這些技術手段共同提升了模型的訓練性能和推理速度,使得XVERSE-MoE-A36B在同類模型中脫穎而出。
值得一提的是,元象還借鑒了“課程學習”理念,在模型訓練過程中進行動態數據切換。這一創新做法不僅打破了傳統訓練模式的限制,還使得模型能夠持續學習新引入的高質量數據,從而提升了語料覆蓋面和泛化能力。
元象自成立以來,便專注于打造AI驅動的3D內容生產與消費一站式平臺。此次發布的XVERSE-MoE-A36B模型,無疑是其AI技術路線圖上的又一重要里程碑。該模型的開源和免費商用,將進一步推動國內AI技術的發展和普及,助力中小企業和研究者在AI領域取得更多突破。
在商業應用方面,元象也積極探索將AI技術應用于實際場景。其自主研發的AI角色扮演與互動網文App Saylo,便是基于MoE模型的成功應用案例。Saylo憑借逼真的AI角色扮演和有趣的開放劇情,在港臺地區取得了顯著的下載量和用戶口碑。
總的來說,元象XVERSE發布的XVERSE-MoE-A36B模型,以其卓越的性能、創新的技術手段和開源的特性,為國內AI技術的發展注入了新的活力。未來,我們有理由期待元象在AI領域取得更多創新成果,推動AI技術的廣泛應用和落地。

#元象XVERSE# #開源模型# #MoE架構# #AI技術# #應用落地#






