【ITBEAR科技資訊】9月12日消息,微軟研究院昨日宣布推出了一款全新的預(yù)訓(xùn)練語言模型,名為phi-1.5,該模型包含13億個參數(shù),旨在適用于各種自然語言處理任務(wù),如問答(QA)、聊天和代碼生成等多個場景。

據(jù)悉,phi-1.5的訓(xùn)練數(shù)據(jù)來源多樣,包括來自StackOverflow平臺的Python相關(guān)問答內(nèi)容、競賽代碼,以及合成的Python教科書等多種數(shù)據(jù)集。這一多樣性的數(shù)據(jù)集有望讓模型更好地理解和處理不同領(lǐng)域的文本信息。

微軟表示,在一系列的基準(zhǔn)測試中,phi-1.5表現(xiàn)卓越,尤其在常識、語言理解和邏輯推理方面表現(xiàn)突出。與擁有70億參數(shù)的meta公司的llama-2模型相比,phi-1.5在AGIeval得分上超越了后者。此外,在帶有LM-eval Harness的GPT4AL測試套件中,phi-1.5也展現(xiàn)出與70億參數(shù)的llama-2相媲美的性能。

這一新的預(yù)訓(xùn)練語言模型的發(fā)布,有望為自然語言處理領(lǐng)域帶來更強(qiáng)大的工具,為各種應(yīng)用場景提供更高效的解決方案,進(jìn)一步推動了自然語言處理技術(shù)的發(fā)展和應(yīng)用前景。






