一種基于多任務(wù)多視圖增量學(xué)習(xí)的用戶行為識(shí)別方法
基本信息

| 申請(qǐng)?zhí)?/td> | CN202210370808.3 | 申請(qǐng)日 | - |
| 公開(公告)號(hào) | CN114708553A | 公開(公告)日 | 2022-07-05 |
| 申請(qǐng)公布號(hào) | CN114708553A | 申請(qǐng)公布日 | 2022-07-05 |
| 分類號(hào) | G06V20/52(2022.01)I;G06K9/62(2022.01)I;G06N3/04(2006.01)I;G06N3/08(2006.01)I;G06V10/774(2022.01)I;G06V10/82(2022.01)I;G06V10/80(2022.01)I | 分類 | 計(jì)算;推算;計(jì)數(shù); |
| 發(fā)明人 | 張嘯;師脈旺;于東曉 | 申請(qǐng)(專利權(quán))人 | 山東大學(xué) |
| 代理機(jī)構(gòu) | 青島華慧澤專利代理事務(wù)所(普通合伙) | 代理人 | - |
| 地址 | 250013山東省青島市即墨區(qū)濱海路72號(hào) | ||
| 法律狀態(tài) | - | ||
摘要

| 摘要 | 本發(fā)明公開了一種基于多任務(wù)多視圖增量學(xué)習(xí)的用戶行為識(shí)別方法,包括以下步驟,S1.采集活動(dòng)姿態(tài)數(shù)據(jù),將數(shù)據(jù)劃分多個(gè)部分,并根據(jù)參與訓(xùn)練的人員確定任務(wù)數(shù)量以及每個(gè)任務(wù)的視圖數(shù)量,初始化每個(gè)階段的參數(shù);S2.利用多任務(wù)多視圖深度神經(jīng)網(wǎng)絡(luò)為傳感器數(shù)據(jù)提取特征;S3.參數(shù)更新,通過計(jì)算多個(gè)損失函數(shù),并通過反向傳播進(jìn)行參數(shù)更新;S4.所有階段訓(xùn)練結(jié)束,獲得最終的預(yù)測(cè)結(jié)果。其優(yōu)點(diǎn)在于,MTMVIS使用多任務(wù)多視圖深度神經(jīng)網(wǎng)絡(luò)的每一層分別提取特征,并為每個(gè)任務(wù)使用注意力層加權(quán)多任務(wù)多視圖深度神經(jīng)網(wǎng)絡(luò)所有層的輸出作為最終的輸出層。MTMVIS使用自適應(yīng)權(quán)重鞏固來減輕災(zāi)難性遺忘問題并增強(qiáng)模型可擴(kuò)展性。 |





