《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 設計應用 > 基于計算機視覺的人流量雙向統計
基于計算機視覺的人流量雙向統計
來源:電子技術應用2012年第9期
王 瑞, 種蘭祥
西北大學 信息科學與技術學院, 陜西 西安 710127
摘要: 提出了一種采用視頻監控系統對人行通道口進行雙向人流量計數的方法。首先建立發色模型與頭部形狀模型,采用形態學運算提取人的頭部目標,然后跟蹤目標建立人頭目標移動鏈,依據目標鏈位置信息判別行人的進出方向,最后設置感興趣的檢測區域,并對通過該檢測區域的行人計數。實驗結果表明,該方法能實時有效地統計通道口處雙向人流量。
中圖分類號: TP391.41
文獻標識碼: A
文章編號: 0258-7998(2012)09-0141-03
A vision-based algorithm for automatic bidirectional pedestrian counting
Wang Rui, Zhong Lanxiang
College of Information Science and Technology, Northwest University, Xi’an 710127, China
Abstract: A new method for counting bidirectional moving pedestrian flow was proposed in this paper based on intelligent video monitoring system. Pedestrian’s head region is detected firstly using hair-color module, head shape module and mathematical morphology operation. Secondly, a head chain is established to recognize pedestrian’s moving direction by determine the relationship between target chain and the virtual loop. Record the number of people which crossing a region of interest preset finally. Experimental results show the algorithm was effective in statistics of the bidirectional moving pedestrian flow.
Key words : hair-color module; head shape module; head chain; bidirectional counter

    智能視頻監控是信息產業未來最有發展前景的技術之一,其中通道口處人流量統計是該系統中具有實用價值的一項技術。在經濟社會,對商場、超市、交易場所進行人流量統計,能夠幫助商家分析市場和制定營銷策略。在公共安全方面,可以輔助檢測可疑人物的出入,這對于重要公共場所的安全防范有著重要意義。

    目前有很多學者在進行這方面的研究。Min Zhao[1]等人依據發色信息檢測人頭目標,該方法在人的著裝顏色與發色接近時會導致較高的誤檢率。Stan Birchfield[2]結合灰度梯度和彩色直方圖來估計人頭目標,但不適合復雜背景下的人頭檢測。于海濱[3]等人采用改進的Hough變換檢測人頭類圓形目標,并結合模糊置信度的感知聚類方法去除虛假頭部輪廓,但該方法的計算復雜、實時性較差。而且已有研究大都是對通道入口或出口進行單方向計數,要求必須對入口和出口作出明確規定,即入口不能用作出口,反之亦然。本文提出的行人通道口雙向人流量計數方法能較好地克服這些缺陷。
1 目標檢測    
    行人的著裝顏色可能不同,然而頭頂部的發色相對穩定。無論胖瘦、年齡和性別,所有人的頭頂部都是一個類圓形,且其大小差別不大。依據這兩個關鍵特征,可對采集到的人頭頂部圖像的發色和形狀創建模型,提取人頭目標區域。
    實驗中,將攝像頭垂直安裝在通道上方[4]并選取最佳視角和焦距,如圖1所示。

1.1 發色模型的建立
    研究頭發的顏色,需要選擇恰當的彩色空間,使得發色在該空間中具有很好的聚類性。方法之一是歸一化RGB空間對發色聚類,建立二維高斯概率密度模型[5],但實驗發現該方法并不理想,原因是頭發顏色的色差分量與亮度分量呈非線性的關系。YCbCr空間與人眼對色彩的感知一致,亮度色度分離[6]。本文將YCbCr空間作為發色檢測空間,使發色的聚類性不依賴于亮度,檢測效果良好。
    在通常光照條件下,采集不同性別、年齡的亞洲人群發色,每張圖片大小為80×80像素,構成發色圖像庫,圖2為庫中部分圖片。從中選取100張最能代表亞洲人典型發色的圖片,將每個像素點投射到YCbCr彩色空間中,圖3(a)所示為所得發色像素點在YCbCr三維空間的分布情況。

 

 

2 目標計數    
2.1虛擬線圈的建立

    為了保證本方法的有效性,對停留在入口或出口處某個范圍的行人不進行計數。為此,本文在監視區域內設置虛擬線圈,如圖5中兩條白色標記線之間的區域,系統只對進出該區域的行人進行計數。
2.2 單向計數策略
    檢測到虛擬線圈內的人頭目標后,便對目標進行外接矩形標記,統計矩形框數目便得到當前虛擬線圈中的行人數目。將虛擬線圈內當前目標數設為輔助計數器,越過虛擬線圈的行人目標數設為主計數器。當輔助計數器的值發生變化時,主計數器作出相應變化,具體計數原理為:當輔助計數器的值由n變為m時,主計數器增加(m-n),統計一定時間內主計數器的值,即統計出了該段時間的單向人流量。
2.3人頭目標鏈的建立
    為了進行雙向人流量統計,本文提出人頭目標鏈的概念,即將滿足某些運動特性的目標以鏈表的形式連接成一個目標序列。目標鏈通常包含灰度、形狀、位置等運動參數。運用這些運動信息能在當前幀中檢測到的多個目標中準確找到與前一幀某目標相匹配的同一個目標,為相似目標之間的區分提供依據。目標鏈既能提供目標的歷史運動信息,也能預測下一幀該目標的位置。目標鏈的建立與更新通過鏈表操作實現。本文綜合考慮連續三幀中同一運動目標質心的速度和方向信息。利用運動速度的均勻性和運動方向的直線性做為度量來定義代價函數Si,k。

式中,i為目標鏈編號,k為目標編號(k∈n, n為當前幀目標數目),t為當前幀編號,?琢為方向影響因子,?茁為速度影響因子。Di是方向光滑性函數,反映了目標運動方向的變化情況,Di越大目標運動方向越接近直線。Vi是速度光滑性函數,通過向量的幾何平均值與平均幅度之比來度量,反映了目標運動速度變化情況,Vi越大目標越接近勻速行走。對目標鏈i,連續3幀的目標構成目標序列Si=(pi,t-2, pi,t-1, pi,t)。定義序列中兩點的差分向量為Fi,t=pi,t-pi,t-1,表示目標從前一幀到當前幀的行走位移向量。
    對每幀圖像,計算各目標鏈i和當前幀所有目標的代價函數Si,k,將同目標鏈i中前兩幀目標的代價函數最大的目標加入目標鏈i。這樣就可將當前幀目標和前兩幀目標相關聯,每條目標鏈按時間順序記錄了同一目標所有歷史位置信息,即該目標的運動軌跡。當前目標在其下一幀中搜索到匹配目標時更新目標鏈,直至目標在ROI中消失,根據2.2節中單向計數策略判斷監控區域內人頭數目,對比目標鏈中存儲的目標歷史位置信息和虛擬線圈位置判定目標的行進方向,進而為相應方向計數器計數,刪除該鏈表。當有新的目標進入ROI時,為其重新分配一條目標鏈,依次循環來記錄目標的運動軌跡,從而統計出監控區域的雙向人流量。
3 實驗結果
    在學院樓門口采集視頻,幀大小為320×240,幀速為15 F/s,程序用Matlab 2010編寫。考慮到攝像機與人之間的距離和行人身高的差異都會影響人頭頂面積大小,設置面積閾值Amin=100,Anax=1 000,在此之外都視為噪聲濾除。設r1=0.6,r2=3,α=0.5,β=0.5。本文規定圖中行人下行為A方向,上行為B方向;A方向計數器用于行人從上至下行走時計數,B方向計數器用于行人上行時計數。圖5(a)~圖5(c)為單向統計人流量實驗結果圖,圖中Num of ROI 表示當前虛擬線圈內的行人數目,Num of Pedestrian表示經過該區域的行人數目,圖5(d)~圖5(f)為雙向統計人流量實驗結果圖,Num of ROI為當前虛擬線圈內行人數目,Num of direction A為A方向經過該區域的行人數目,Num of direction B為B方向經過該區域的行人數目。
    將測量值與實際人流量之間的相對誤差作為誤檢率進而計算正確率。經過多次實驗,行人單向行走和雙向行走的統計結果如表1、表2所示。可以看出,利用本文算法單向統計人流量的平均正確率為98.73%,雙向統計的平均正確率為97.3%, 高于傳統的基于紅外線和壓力傳感器的統計方法,高于參考文獻[3]中給出的89.6%的平均正確率,也高于參考文獻[7]中實驗所得91.0%的正確率。可見該方法在滿足實時性要求的同時具有較高的正確率。應用本文算法檢測人頭耗時0.028 5 s,用霍夫變換進行人頭檢測需要0.977 4 s,可見應用本文方法檢測人頭比霍夫變換快30多倍,滿足實時性要求。

    本文應用計算機視覺的理論和方法,設計實現了人流量雙向統計算法和系統,實驗結果證明了該系統的實時性和有效性,較之前的方法和系統有明顯提高。該方法并不局限于人流量統計,它對交通領域中的車流量統計也具有指導性意義。但該方法不適合于統計行人戴帽時的人流量,對于行人戴帽和特別擁擠等更為復雜情況下的人流量統計還需進一步研究。
參考文獻
[1] Zhao Min, Sun Dihua, He Hengpan. Hair-color modeling and head detection[C].Proceedings of the 7th World Congress on Intelligent Control and Automation, Chongqing,2008:7773-7776.
[2] BIRCHFIELD S, Elliptical head tracking using intensity gradients and color histograms[C]. IEEE Conference on Computer Vision and Pattern Recognition,California, 1998:232-237.
[3] 于海濱,劉濟林. 應用于公交客流統計的機器視覺方法[J]. 中國圖象圖形學報,2008,13(4):716-722.
[4] ROSSI M, BOZZOLI A. Tracking and counting moving people[C]. Proceedings of IEEE International Conference on Image Processing. Austin, Texas, USA: IEEE Computer Society, 1994: 212-216
[5] CHONG L,TATSEBG C,TECKKHIM N. Face tracking in video with hybrid of Lucas-Kanade and condensation[C]. Proceedings of 2003 International Conference on Multimedia and Expo, Maryland, 2003.
[6] 王長軍, 朱善安. 基于顏色和變形模板的實時人體檢測[J].中國圖象圖形學報,2006,11(6):861-866.
[7] 靳晶,萬衛兵,方濤.使用單目攝像頭的實時行人計數算法[J].計算機工程,2009,35(23):204-206.

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 欧美怀孕色xxxxx | 美女一级毛片无遮挡内谢 | 欧美性受xxxx | 亚洲xxxx动漫 | 视频xxx | 色天天综合久久久久综合片 | 久草免费资源视频 | 一级床上爽高清播放 | 国产自产| free性video另类 | 欧美黄色一级片视频 | 欧美一区二区三区高清视频 | 亚洲乱码尤物193yw在线播放 | 精品一区二区三区免费视频 | 天天插综合网 | 天天摸天天做天天爽水多 | 日本在线观看一区二区三区 | www日韩免费高清视频 | 午夜性刺激免费视频观看不卡专区 | 秋霞午夜鲁丝片午夜精品久 | 最近2019中文字幕mv免费看 | 午夜影放免费观看 | 免费看片亚洲 | 好男人www社区资源免费观看 | 国产韩国精品一区二区三区久久 | 天堂网成人 | 性生交大片免费一级 | 国产成人综合久久亚洲精品 | 青青青青青青草 | 精品卡1卡2卡三卡免费网站 | 狠狠狠狠狠狠狠狠 | 福利网在线观看 | 亚洲日本欧美 | a级在线观看免费 | 一级欧美一级日韩片 | 黄色一级在线观看 | 色天使久久综合给合久久97色 | 国产黄色一级大片 | 男女性网站| 国产最新精品2020好看的 | a级毛片免费观看在线播放 a级毛片免费完整视频 |