《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 設(shè)計(jì)應(yīng)用 > 基于Anchor-free架構(gòu)的行人檢測方法
基于Anchor-free架構(gòu)的行人檢測方法
2020年信息技術(shù)與網(wǎng)絡(luò)安全第4期
張慶伍,關(guān)勝曉
(中國科學(xué)技術(shù)大學(xué) 微電子學(xué)院,安徽 合肥 230026)
摘要: 使用無預(yù)選框(Anchor-free)的檢測框架,設(shè)計(jì)了一種行人檢測算法。將深度殘差網(wǎng)絡(luò)(ResNet)作為特征提取網(wǎng)絡(luò),與特征金字塔網(wǎng)絡(luò)(FPN)結(jié)構(gòu)相結(jié)合,使用了多尺度預(yù)測的方式進(jìn)行預(yù)測。把目標(biāo)中心點(diǎn)和尺寸作為一種高級的語義特征,將含有更多細(xì)節(jié)信息的淺層特征圖和含有更多語義信息的深層特征圖進(jìn)行融合。在Citypersons數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)驗(yàn)證,相較現(xiàn)有行人檢測算法,提出的算法在輕微遮擋、一般遮擋和嚴(yán)重遮擋情況下漏檢率分別提升了1.11%~3.01%,0.15%~6.55%和0.59%~6.39%,檢測效果更好。
中圖分類號:TP183
文獻(xiàn)標(biāo)識碼:A
DOI: 10.19358/j.issn.2096-5133.2020.04.008
引用格式:張慶伍,關(guān)勝曉.基于Anchor-free架構(gòu)的行人檢測方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(4):43-47,52.
Pedestrian detection algorithms based on Anchor-free architecture
Zhang Qingwu,Guan Shengxiao
(School of Microelectronics,University of Science and Technology of China,Hefei 230026,China)
Abstract: This paper designed a pedestrian detection algorithm based on the Anchor-free detection framework.The deep residual network (ResNet) was used as a feature extraction network,combined with the feature pyramid structure (FPN),and finally multiscale prediction was used for prediction.This paper also regarded the target center point and size as an advanced semantic feature,and combined the shallow feature map with more detailed information and the deep feature map with more semantic information.The experiments were verified on the Citypersons dataset.Compared with the existing pedestrian detection algorithms, the detection results were respectively improved by 1.11%~3.01%, 0.15%~6.55% and 0.59%~6.39% in the case of slight occlusion, general occlusion and severe occlusion, and the detection effect is better.
Key words : Anchor-free;pedestrian detection;feature fusion;multi-scale detection

0    引言

行人檢測是智能安防和車輛輔助駕駛等實(shí)際應(yīng)用的關(guān)鍵技術(shù)。隨著計(jì)算機(jī)視覺技術(shù)的快速發(fā)展,目標(biāo)檢測算法的性能也不斷提升。目前基于深度學(xué)習(xí)的目標(biāo)檢測方法按照是否提出預(yù)選框可以分為兩大類:一類是基于預(yù)選框的檢測算法,該類算法首先預(yù)先設(shè)置預(yù)選框,然后通過預(yù)選框和真實(shí)目標(biāo)進(jìn)行匹配,最終選出合適的預(yù)選框進(jìn)行訓(xùn)練,這類算法以FasterRCNN和SSD為代表;另一類是不使用預(yù)選框的檢測算法,該類算法首先對預(yù)測目標(biāo)的關(guān)鍵點(diǎn)進(jìn)行標(biāo)注,然后將深度神經(jīng)網(wǎng)絡(luò)的輸出設(shè)置成相同的格式,直接進(jìn)行訓(xùn)練,這類算法以YOLO和DenseBox為代表。其中,Anchorfree的算法框架結(jié)構(gòu)簡潔,更加適用于計(jì)算資源較少的實(shí)際應(yīng)用場景。本文在Anchor-free算法的基礎(chǔ)上,首先使用不同的基礎(chǔ)網(wǎng)絡(luò)構(gòu)建檢測算法,然后選出性能穩(wěn)定的基礎(chǔ)網(wǎng)絡(luò),利用特征金字塔結(jié)構(gòu)對不同卷積層上的特征圖進(jìn)行融合,提升檢測效果,最后使用多尺度預(yù)測的方法,通過不同尺度的預(yù)測圖生成了更多的檢測結(jié)果,再次提升了檢測效果。本文算法在Citypersons數(shù)據(jù)集上進(jìn)行了驗(yàn)證,其檢測精度相較其他行人檢測算法有一定提升。






本文詳細(xì)內(nèi)容請下載:http://www.viuna.cn/resource/share/2000003204





作者信息:

張慶伍,關(guān)勝曉

(中國科學(xué)技術(shù)大學(xué) 微電子學(xué)院,安徽 合肥 230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 一个人免费观看日本www视频 | 97国产蝌蚪视频在线观看 | 男女日日| 国产亚洲一区二区精品张柏芝 | 欧美日韩国产综合在线小说 | 国产凹凸在线观看一区二区 | 91在线老王精品免费播放 | 日本天天射 | 国产亚洲欧美一区二区 | 黄色片一级片 | 美女网站在线观看视频18 | 九九热视频免费 | 国产视频福利在线 | 久久精品不卡 | 高清中国一级毛片免费 | 欧美成人精品一区二区 | 国产一级淫片免费播放 | 亚洲成人18 | 在线观看中文字幕 | 日批视频免费在线观看 | 五月激情小说网 | 黄色一级片黄色一级片 | 噜噜噜色 | 动漫成年美女黄漫网站小视频 | 欧美精品人爱c欧美精品 | 亚洲国产中文在线 | 欧美成人免费看片一区 | 国产在线观看成人免费视频 | 欧美亚洲欧美 | 欧美日韩大片在线观看 | 狠狠插视频 | 青青成人福利国产在线视频 | 中文字幕在亚洲第一在线 | 国产精品久久久久999 | 亚洲国产m3u8在线观看 | 午夜黄色小视频 | 五月天婷婷视频 | 成人免费视频在线观看 | 在线观看国产精品一区 | 免费大黄| 精品一区二区三区亚洲 |