一種面向金融場景的端到端自然語言處理訓練框架與方法
基本信息

| 申請?zhí)?/td> | CN202111163479.7 | 申請日 | - |
| 公開(公告)號 | CN113887230A | 公開(公告)日 | 2022-01-04 |
| 申請公布號 | CN113887230A | 申請公布日 | 2022-01-04 |
| 分類號 | G06F40/295(2020.01)I;G06F40/30(2020.01)I;G06F16/35(2019.01)I;G06K9/62(2006.01)I;G06N3/04(2006.01)I;G06N3/08(2006.01)I;G06Q40/02(2012.01)I | 分類 | 計算;推算;計數; |
| 發(fā)明人 | 付志兵;張夢超;李漁;費斌杰 | 申請(專利權)人 | 北京熵簡科技有限公司 |
| 代理機構 | 上海劍秋知識產權代理有限公司 | 代理人 | 徐浩俊 |
| 地址 | 100085北京市海淀區(qū)上地三街9號D座3層D408 | ||
| 法律狀態(tài) | - | ||
摘要

| 摘要 | 本發(fā)明公開了一種面向金融場景的端到端自然語言處理訓練框架與方法,涉及自然語言處理領域,所述訓練框架包括:Google原生BERT模塊、FinBERT預訓練模塊、基于類似self?training思想從外部相關數據中挖掘新數據模塊、下游任務語料上進行預訓練模塊、用半監(jiān)督學習的框架來充分利用無標簽語料模塊、知識蒸餾模塊、線上部署模塊。所述訓練方法包括以:步驟1、FinBERT預訓練;步驟2、基于類似self?training思想從外部相關數據中挖掘新數據;步驟3、下游任務語料上進行預訓練,對所述FinBERT進行再一次預訓練,得到的模型稱之為TASK FinBERT;步驟4、用半監(jiān)督學習的框架來充分利用無標簽語料,在TASK FinBERT的基礎上,訓練得到的模型稱之為UDA FinBERT;步驟5、蒸餾學習,將學習到的知識和特征蒸餾到輕量級模型上。 |





