《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計(jì) > 設(shè)計(jì)應(yīng)用 > 基于頻域注意力時(shí)空卷積網(wǎng)絡(luò)的步態(tài)識(shí)別方法
基于頻域注意力時(shí)空卷積網(wǎng)絡(luò)的步態(tài)識(shí)別方法
《信息技術(shù)與網(wǎng)絡(luò)安全》2020年第6期
趙國順1,2,方建安1,2,瞿斌杰1,2,Samah A.F.Manssor1,2,孫韶媛1,2
1.東華大學(xué) 信息科學(xué)與技術(shù)學(xué)院,上海201620; 2.數(shù)字化紡織服裝技術(shù)教育部工程研究中心,上海201620
摘要: 為了解決步態(tài)信息冗余多、特征重要性分布不均勻以及步態(tài)的時(shí)空特征難以學(xué)習(xí)的問題,提出了基于頻域注意力的時(shí)空卷積網(wǎng)絡(luò)進(jìn)行步態(tài)識(shí)別。該方法改進(jìn)了三維卷積網(wǎng)絡(luò)(C3D)學(xué)習(xí)時(shí)空特征,同時(shí)提出了一種頻域注意力卷積操作,既減少了冗余計(jì)算,注意力的調(diào)整又提高了學(xué)習(xí)效果。網(wǎng)絡(luò)首先將步態(tài)信息劃分為五組,然后通過改進(jìn)的卷積進(jìn)行時(shí)空特征抽取,最后通過Softmax層進(jìn)行分類。在中科大數(shù)據(jù)集CASIA dataset B中進(jìn)行測試,在Bag狀態(tài)與Coat狀態(tài)下準(zhǔn)確率分別為88.5%、92.8%,分別較傳統(tǒng)深度卷積網(wǎng)絡(luò)(Deep CNN)提升3%左右,同時(shí)注意力在網(wǎng)絡(luò)學(xué)習(xí)中重新分布,各個(gè)角度下的準(zhǔn)確率也平均提升2%左右。
中圖分類號(hào): U491.1文獻(xiàn)標(biāo)識(shí)碼: ADOI: 10.19358/j.issn.2096-5133.2020.06.003
引用格式: 趙國順,方建安,瞿斌杰,等. 基于頻域注意力時(shí)空卷積網(wǎng)絡(luò)的步態(tài)識(shí)別方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(6):13-18.
Gait recognition method based on frequency domain attention spatio-temporal convolutional network
Zhao Guoshun1,2,F(xiàn)ang Jianan1,2,Qu Binjie1,2,Samah A.F.Manssor1,2,Sun Shaoyuan1,2
1.School of Information Science and Technology,Donghua University,Shanghai 201620,China; 2.Engineering Research Center of Digitized Textile & Apparel Technology,Ministry of Education,Shanghai 201620,China
Abstract: In order to solve the problems of redundant gait information, uneven distribution of feature importance, and difficulty in learning the spatiotemporal features of the gait, a spatiotemporal convolutional network based on attention in the frequency domain was proposed for gait recognition. In the experiment, the spatial and temporal characteristics of three-dimensional convolutional network(C3D) learning were improved. At the same time, a frequency-domain attention convolution operation was proposed, which not only reduced redundant calculations, but also adjusted the attention and improved the learning effect. The network firstly divides the gait information into five groups, then extracts the spatiotemporal features through improved convolution, and finally classifies them through the Softmax layer. Tested in the CASIA dataset B of the Chinese University of Science and Technology, the accuracy rates in the Bag state and Coat state are 88.5% and 92.8% respectively, which are about 3% higher than traditional deep convolutional networks(Deep CNN). At the same time, attention is redistributed in network learning,the accuracy rate of each angle is increased by about 2% on average.
Key words : frequency domain;attention;3D convolution;gait recognition;biometrics;deep learning

步態(tài)特征,通俗來說就是人行走時(shí)的姿態(tài)外觀,具體包括手臂、大腿、小腿等身體輪廓的變化,由于步態(tài)的采集不需要與被識(shí)別者有物理上的接觸,也不需要近距離的接觸,因此應(yīng)用場景比較完善。醫(yī)學(xué)研究表明,每一個(gè)人的步態(tài)都有自己的形態(tài),具有唯一性,使用步態(tài)識(shí)別具有一定的安全性,不會(huì)導(dǎo)致信息的錯(cuò)誤。將步態(tài)識(shí)別技術(shù)應(yīng)用于當(dāng)今智能監(jiān)控領(lǐng)域,可以在多場景下對(duì)人員進(jìn)行監(jiān)控,防止意外情況發(fā)生,也有利于鎖定犯罪嫌疑人,節(jié)省人力物力。

目前,關(guān)于步態(tài)識(shí)別的方法主要有兩種。一種是基于步態(tài)模板的方法,主要是通過構(gòu)建步態(tài)特征,比如關(guān)節(jié)點(diǎn)的位置變化、重心的起伏周期等幾何數(shù)字特征,將一個(gè)人的行走視頻序列壓縮成一個(gè)模板,然后通過匹配待預(yù)測行人的步態(tài)與模板的相似度進(jìn)行識(shí)別。另一種方法是通過深度學(xué)習(xí)直接抽取原始圖像序列的步態(tài)信息,通過深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)高維時(shí)空信息來匹配行人的步態(tài),這種方法不需要大量精細(xì)的特征構(gòu)建,是一種端到端的識(shí)別方法。

雖然基于步態(tài)模板的方法取得了一定的準(zhǔn)確率,但是這種特征構(gòu)造方法復(fù)雜,而且受角度、環(huán)境、穿著變化影響較大,同時(shí)這種特征缺失了時(shí)空信息的抽取,在精度上具有一定的限制性。深度學(xué)習(xí)方法是一種端到端的學(xué)習(xí)方法,魯棒性強(qiáng),易于操作,但是由于模型參數(shù)巨大,如何保證準(zhǔn)確性與實(shí)時(shí)性成了關(guān)鍵。

本文基于深度學(xué)習(xí)的方法,改良了三維卷積網(wǎng)絡(luò)(C3D)的網(wǎng)絡(luò)結(jié)構(gòu),提出頻域注意力卷積操作,主要通過劃分頻域空間,引進(jìn)頻域卷積。同時(shí)另一個(gè)創(chuàng)新主要是注意力機(jī)制的引入,這使得網(wǎng)絡(luò)更加關(guān)注不同步態(tài)之間的不同,調(diào)整步態(tài)分布的重要性,提升網(wǎng)絡(luò)學(xué)習(xí)效果。經(jīng)由中科大數(shù)據(jù)集CASIA dataset B檢測,本文方法在跨視角實(shí)驗(yàn)和方法對(duì)比實(shí)驗(yàn)中具有提升。



本文詳細(xì)內(nèi)容請(qǐng)下載:http://www.viuna.cn/resource/share/2000003146

作者信息

趙國順1,2,方建安1,2,瞿斌杰1,2,Samah A.F.Manssor1,2,孫韶媛1,2

(1.東華大學(xué) 信息科學(xué)與技術(shù)學(xué)院,上海201620;

2.數(shù)字化紡織服裝技術(shù)教育部工程研究中心,上海201620)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 亚洲无线一二三四手机 | 日韩精品www | 欧美综合自拍亚洲综合 | 伦理片中文字幕完整视频 | 成年片人免费www | 日韩三级影院 | 国产免费看网站v片不遮挡 国产免费黄视频 | 久久久久久久网 | 久久亚洲成人 | 丁香婷婷激情 | 97国产免费全部免费观看 | 新婚第一次一级毛片 | 三级专区 | 高清色黄毛片一级毛片 | 一级欧美一级日韩 | 91精品一区二区三区久久久久 | 午夜一级毛片免费视频 | 国产黄色大片网站 | 在线观看中文字幕亚洲 | 香蕉视频好色先生 | 国产欧美亚洲精品第二区首页 | 特黄aaaaaa久久片 | 日韩高清欧美精品亚洲 | 欧美日韩性视频 | 高清成人爽a毛片免费网站 高清国产精品久久久久 | 国产欧美日韩精品第二区 | 伊人网久久网 | 日韩免费精品视频 | 一个人的视频日本免费 | 全色黄大色大片免费久久老太 | 69av导航| 日韩欧美国产中文 | 糟蹋小少妇17p | 国产精品合集一区二区三区 | 伦理剧在线 | 成人精品一区二区www | 我想看一级黄色大片 | 亚洲视屏在线观看 | 三级伦理剧 | 免费视频网站在线观看黄 | 中国一级特黄毛片 |