📢 #Gate广场征文活动第二期# 正式啓動!
分享你對 $ERA 項目的獨特觀點,推廣ERA上線活動, 700 $ERA 等你來贏!
💰 獎勵:
一等獎(1名): 100枚 $ERA
二等獎(5名): 每人 60 枚 $ERA
三等獎(10名): 每人 30 枚 $ERA
👉 參與方式:
1.在 Gate廣場發布你對 ERA 項目的獨到見解貼文
2.在貼文中添加標籤: #Gate广场征文活动第二期# ,貼文字數不低於300字
3.將你的文章或觀點同步到X,加上標籤:Gate Square 和 ERA
4.徵文內容涵蓋但不限於以下創作方向:
ERA 項目亮點:作爲區塊鏈基礎設施公司,ERA 擁有哪些核心優勢?
ERA 代幣經濟模型:如何保障代幣的長期價值及生態可持續發展?
參與並推廣 Gate x Caldera (ERA) 生態周活動。點擊查看活動詳情:https://www.gate.com/announcements/article/46169。
歡迎圍繞上述主題,或從其他獨特視角提出您的見解與建議。
⚠️ 活動要求:
原創內容,至少 300 字, 重復或抄襲內容將被淘汰。
不得使用 #Gate广场征文活动第二期# 和 #ERA# 以外的任何標籤。
每篇文章必須獲得 至少3個互動,否則無法獲得獎勵
鼓勵圖文並茂、深度分析,觀點獨到。
⏰ 活動時間:2025年7月20日 17
NVIDIA NeMo-RL 利用 GRPO 進行高級強化學習
張彼得
2025年7月10日 06:07
NVIDIA推出NeMo-RL,一個用於強化學習的開源庫,支持與GRPO的可擴展訓練,並與Hugging Face模型集成。
NVIDIA 已推出 NeMo-RL,這是一個前沿的開源庫,旨在增強強化學習 (RL) 的能力,具體內容可以參考 NVIDIA 的官方博客。該庫支持可擴展的模型訓練,從單 GPU 原型到大規模的千 GPU 部署,並與 Hugging Face 等流行框架無縫集成。
NeMo-RL的架構與特點
NeMo-RL 是更廣泛的 NVIDIA NeMo 框架的一部分,以其多功能性和高性能能力而聞名。該庫包括與 Hugging Face 模型的原生集成,優化的訓練和推理過程。它支持 DPO 和 GRPO 等流行的強化學習算法,並採用基於 Ray 的編排以提高效率。
NeMo-RL的架構設計時考慮了靈活性。它支持各種訓練和回滾後端,確保高層算法實現與後端細節保持無關。這種設計允許模型的無縫擴展,而無需修改算法代碼,使其非常適合小規模和大規模部署。
使用 GRPO 實現 DeepScaleR
這篇博客文章探討了如何應用NeMo-RL來重復使用Group Relative Policy Optimization (GRPO)算法的DeepScaleR-1.5B食譜。這涉及到訓練高性能的推理模型,例如Qwen-1.5B,以便在AIME24學術數學挑戰中與OpenAI的O1基準進行競爭。
訓練過程分爲三個步驟,每個步驟都增加使用的最大序列長度:從8K開始,然後是16K,最後是24K。這種逐步增加有助於管理推出序列長度的分布,優化訓練過程。
訓練過程與評估
訓練設置涉及複製 NeMo-RL 倉庫並安裝必要的軟件包。訓練分階段進行,模型持續評估以確保達到性能基準。結果表明,NeMo-RL 在僅 400 步內達到了 0.65 的訓練獎勵。
在AIME24基準測試中的評估顯示,訓練模型超越了OpenAI O1,突顯了NeMo-RL與GRPO算法結合時的有效性。
開始使用 NeMo-RL
NeMo-RL 可供開源使用,提供詳細的文檔和示例腳本,存放在其 GitHub 存儲庫中。這個資源非常適合那些希望使用可擴展和高效的方法進行強化學習實驗的人。
該庫與Hugging Face的集成及其模塊化設計使其成爲研究人員和開發者在項目中利用先進強化學習技術的強大工具。
圖片來源:Shutterstock