亚洲视频二区_亚洲欧洲日本天天堂在线观看_日韩一区二区在线观看_中文字幕不卡一区

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.430618.com 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

 

編輯:陳萍

有了這項研究,大模型的數學能力更強了。

上周,微軟與中國科學院聯合發布的 WizardMath 大模型火了。

該模型有 70B、13B、7B 三個參數規模,研究者在兩個數學推理基準 GSM8k 和 MATH 上的測試表明,WizardMath 優于所有其他開源 LLM,達到 SOTA。

在 GSM8K 上,WizardMath-70B-V1.0 模型的性能略優于一些閉源 LLM,包括 ChatGPT 3.5、Claude Instant 1 和 PaLM 2 540B。

WizardMath-70B-V1.0 模型在 GSM8k 基準測試中達到 81.6 pass@1,比 SOTA 開源 LLM 高出 24.8 分。

WizardMath-70B-V1.0 模型在 MATH 基準測試中達到 22.7 pass@1,比 SOTA 開源 LLM 高出 9.2 分。

其中,GSM8k 數據集包含大約 7500 個訓練數據和 1319 個測試數據,主要是小學水平的數學問題,每個數據集都包含基本算術運算(加、減、乘、除),一般需要 2 到 8 步來解決。MATH 數據集來自 AMC 10、AMC 12 和 AIME 等著名數學競賽當中的數學問題,包含 7500 個訓練數據和 5000 個具有挑戰性的測試數據:初等代數、代數、數論、幾何、微積分等。

下圖顯示,WizardMath 在 GSM8k 基準測試中獲得第五名,超過了 Claude Instant 1(81.6 vs. 80.9)、ChatGPT(81.6 vs. 80.8)和 PaLM 2 540B(81.6 vs. 80.7)。值得注意的是,與這些模型相比,WizardMath 模型的尺寸要小得多。

HuggingFace 已上線 3 個版本(分別為 7B、13B 和 70B 參數)。現在,相關論文已經公布了。

論文地址:

https://Github.com/nlpxucan/WizardLM

項目地址:

https://github.com/victorsungo/WizardLM/tree/main/WizardMath

模型權重:

https://huggingface.co/WizardLM/WizardMath-70B-V1.0

方法介紹

該研究提出了一種名為 Reinforced Evol-Instruct 方法,如圖 1 所示,其包含 3 個步驟:1、監督微調。2、訓練指令獎勵模型以及過程監督獎勵模型。3、Active Evol-Instruct 和 PPO 訓練。

監督微調:繼 InstructGPT 之后,該研究還使用了監督指令 - 響應對進行微調,其中包含:

  • 為了使每個步驟的解析都更加容易,該研究使用 Alpha 版本的 WizardLM 70B(微調的 LLaMA 模型)模型對 GSM8k 和 MATH 重新生成了 15k 個答案,以 step-by-step 方式生成解決方案,然后找出正確答案,并使用這些數據對基礎 Llama 模型進行微調。
  • 該研究還從 WizardLM 的訓練數據中采樣了 1.5k 個開放域對話,然后將其與上述數學語料庫合并作為最終的 SFT ( supervised fine-tuning )訓練數據。

Evol-Instruct 原則:受 WiazrdLM 提出的 Evol-Instruct 方法及其在 WizardCoder 上有效應用的啟發,該研究試圖制作具有各種復雜性和多樣性的數學指令,以增強預訓練 LLM。具體來說:

  • 向下進化:首先是增強指令,通過使問題變得更加容易來實現。例如,i):將高難度問題轉化為較低難度,或 ii) 用另一個不同主題制作一個新的更簡單的問題。
  • 向上進化:源自原始的 Evol-Instruct 方法,通過 i)添加更多約束,ii)具體化,iii)增加推理來深化并產生新的更難的問題。

Reinforced Evol-Instruct :受 InstructGPT 和 PRMs 的啟發,該研究訓練了兩個獎勵模型,分別用來預測指令的質量和答案中每一步的正確性。

實驗及結果

該研究主要在 GSM8k 和 MATH 這兩個常見的數學基準上測試了模型的性能,并使用大量基線模型,包括閉源模型:OpenAI 的 GPT-3、GPT-3.5、ChatGPT、GPT-4,谷歌的 PaLM 2、PaLM、 Minerva,Anthropic 的 Claude Instant、Claude 1.3、Claude 2, DeepMind 的 Chinchilla;開源模型:Llama 1、Llama 2、GAL、GPT-J、GPT-Neo、Vicuna、MPT、Falcon、Baichuan、ChatGLM、Qwen 和 RFT。

與閉源模型的比較。在表 1 中,WizardMath 70B 稍微優于 GSM8k 上的一些閉源 LLM,包括 ChatGPT、Claude Instant 和 PaLM 2 540B。

如圖 2 所示(見上文),WizardMath 目前在所有模型上排名前五。同時,WizardMath 70B 在 MATH 上也超越了 Text-davinci-002。詳細結果如下:

WizardMath 13B 在 GSM8k 上優于 PaLM 1 540B(63.9 vs 56.5)、Minerva 540B(63.9 vs 58.8)和 GPT-3.5(63.9 vs 57.1)。同時,它在 MATH 上超越了 PaLM 1 540B(14.0 vs. 8.8)、GPT-3 175B(14.0 vs. 5.2)。

WizardMath 70B 在 GSM8k 上實現了與 Claude Instant(81.6 vs 80.9)、ChatGPT(81.6 vs 80.8)和 PaLM 2(81.6 vs 80.7)更好或相當的性能。同時,WizardMath 70B 在 MATH 基準測試中也超過了 Text-davinci-002(22.7 比 19.1)。

與開源模型的比較。表 1 中所示的結果表明,WizardMath 70B 在 GSM8k 和 MATH 基準測試中明顯優于所有開源模型。詳細結果如下:

WizardMath 7B 超越了大多數開源模型,這些模型的參數數量約為 7B 到 40B 不等,包括 MPT、Falcon、Baichuan-chat、Vicuna v1.3、ChatGLM 2、Qwen、Llama 1 和 Llama 2 。盡管它的參數數量要少得多。

WizardMath 13B 在 GSM8k 上明顯優于 Llama 1 65B(63.9 vs. 50.9)和 Llama 2 70B(63.9 vs. 56.8)。此外,它在 MATH 上的表現遠遠優于 Llama 1 65B(14.0 vs. 10.6)和 Llama 2 70B(14.0 vs. 13.5)。

WizardMath 70B 在 GSM8k 上超越了 Llama 2 70B(81.6 比 56.8),提升達到 24.8%。同時,它在數學方面也比 Llama 2 70B(22.7 比 13.5)高出 9.2%。

表 2 顯示了 WizardMath 70B 模型在 MATH Subtopics上的結果。

分享到:
標簽:模型
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定