一種分布式訓練中參數(shù)更新方法及裝置
基本信息

| 申請?zhí)?/td> | CN201910864527.1 | 申請日 | - |
| 公開(公告)號 | CN110633798A | 公開(公告)日 | 2019-12-31 |
| 申請公布號 | CN110633798A | 申請公布日 | 2019-12-31 |
| 分類號 | G06N3/08(2006.01) | 分類 | 計算;推算;計數(shù); |
| 發(fā)明人 | 王洪偉; 李鑫; 李長亮 | 申請(專利權)人 | 成都金山數(shù)字娛樂科技有限公司 |
| 代理機構 | 北京智信禾專利代理有限公司 | 代理人 | 北京金山數(shù)字娛樂科技有限公司; 成都金山數(shù)字娛樂科技有限公司 |
| 地址 | 100085 北京市海淀區(qū)小營西路33號金山軟件大廈2層西區(qū) | ||
| 法律狀態(tài) | - | ||
摘要

| 摘要 | 本申請?zhí)峁┮环N分布式訓練中參數(shù)更新方法及裝置,其中所述分布式訓練中參數(shù)更新方法包括:接收分布式訓練集群中的每個訓練節(jié)點傳遞的梯度;根據(jù)每個訓練節(jié)點傳遞的梯度計算訓練模型的損失值并更新所述訓練模型的模型參數(shù);根據(jù)所述損失值確定模型訓練的訓練階段;根據(jù)所述訓練階段對所述模型參數(shù)進行壓縮,獲得壓縮模型參數(shù);將所述壓縮模型參數(shù)同步至所述分布式訓練集群的每個訓練節(jié)點,更新每個訓練節(jié)點中的模型參數(shù)。本申請?zhí)峁┑姆植际接柧氈袇?shù)更新方法自適應地減少了參數(shù)同步時通信量的大小,即保證了模型參數(shù)的同步效率,又保證了訓練結果的精度,在進行分布式訓練時,提高了模型訓練的速度。 |





