基于ViT的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)增強方法

基本信息

申請?zhí)?/td> CN202210174016.9 申請日 -
公開(公告)號 CN114548405A 公開(公告)日 2022-05-27
申請公布號 CN114548405A 申請公布日 2022-05-27
分類號 G06N3/08(2006.01)I;G06N3/04(2006.01)I 分類 計算;推算;計數(shù);
發(fā)明人 吳均城;王華龍;楊海東;李澤輝;魏登明 申請(專利權(quán))人 佛山市南海區(qū)廣工大數(shù)控裝備協(xié)同創(chuàng)新研究院
代理機構(gòu) 廣州科沃園專利代理有限公司 代理人 -
地址 528200廣東省佛山市南海高新區(qū)佛高科技智庫中心A座4樓
法律狀態(tài) -

摘要

摘要 本發(fā)明提供一種基于ViT的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)增強方法,S1、假定A是輸入的圖像,S2、TransMix在注意圖的指導(dǎo)下分配混合標(biāo)簽,S3、將原始的M從H、W轉(zhuǎn)換為相應(yīng)的像素區(qū)域,S4、數(shù)據(jù)集使用ImageNet?1k,S5、圖像分類模型選用DeiT?T、PVT?T、XCiT?T,S6、引入實現(xiàn)過程的pytorch偽代碼,本方法簡單易行且不會對模型引入任何額外參數(shù),使訓(xùn)練的難度減小,本方法可以根據(jù)每個像素的顯著性重新加權(quán),不需要額外的參數(shù)和最小的計算開銷;應(yīng)用的TransMix是基于ViTs的注意地圖混合標(biāo)簽,它可以彌補輸入空間和標(biāo)簽空間之間的差距。