一種基于三維深度視覺的致險(xiǎn)行為時(shí)空特征獲取與識(shí)別方法
基本信息

| 申請(qǐng)?zhí)?/td> | CN202011467738.0 | 申請(qǐng)日 | - |
| 公開(公告)號(hào) | CN114694240A | 公開(公告)日 | 2022-07-01 |
| 申請(qǐng)公布號(hào) | CN114694240A | 申請(qǐng)公布日 | 2022-07-01 |
| 分類號(hào) | G06V40/20(2022.01)I;G06V20/40(2022.01)I;G06V10/774(2022.01)I;G06V10/82(2022.01)I;G06K9/62(2022.01)I;G06N3/04(2006.01)I | 分類 | 計(jì)算;推算;計(jì)數(shù); |
| 發(fā)明人 | 孫毅鋒;劉庭煜 | 申請(qǐng)(專利權(quán))人 | 南京理工大學(xué) |
| 代理機(jī)構(gòu) | 南京理工大學(xué)專利中心 | 代理人 | - |
| 地址 | 210094江蘇省南京市孝陵衛(wèi)200號(hào) | ||
| 法律狀態(tài) | - | ||
摘要

| 摘要 | 本發(fā)明涉及一種基于三維深度視覺的致險(xiǎn)行為時(shí)空特征獲取與識(shí)別方法,所述方法包括以下步驟:步驟1:針對(duì)需對(duì)致險(xiǎn)行為進(jìn)行監(jiān)控的區(qū)域,構(gòu)建視覺傳感網(wǎng)絡(luò),經(jīng)過信息采集通過人體姿態(tài)估計(jì)算法獲得行為人各行為的骨架關(guān)節(jié)點(diǎn)坐標(biāo)信息;步驟2:對(duì)骨架關(guān)節(jié)點(diǎn)坐標(biāo)信息進(jìn)行預(yù)處理;步驟3:基于深度學(xué)習(xí)設(shè)計(jì)致險(xiǎn)行為在線時(shí)空特征獲取與識(shí)別模型;步驟4:構(gòu)建深度學(xué)習(xí)模型,聯(lián)合分類回歸模塊損失函數(shù)對(duì)模型進(jìn)行訓(xùn)練;步驟5:使用深度傳感器實(shí)時(shí)采集行為人骨架數(shù)據(jù),并將數(shù)據(jù)流輸出至深度學(xué)習(xí)模型中進(jìn)行識(shí)別,并將識(shí)別結(jié)果存儲(chǔ)至數(shù)據(jù)庫中。本發(fā)明能夠?qū)崿F(xiàn)無需安全管理行為人的參與,即可識(shí)別預(yù)定義的行為類別,以實(shí)現(xiàn)實(shí)時(shí)智能監(jiān)控。 |





