- 无标题文档
查看论文信息

中文题名:

 基于压缩感知的实时目标跟踪算法研究    

姓名:

 姜超    

学号:

 1049721202886    

保密级别:

 公开    

论文语种:

 chi    

学科代码:

 0809    

学科名称:

 电子科学与技术(可授工学、理学学位)    

学生类型:

 硕士    

学位:

 工学硕士    

学校:

 武汉理工大学    

院系:

 信息工程学院    

专业:

 电子科学与技术    

研究方向:

 计算机视觉    

第一导师姓名:

 王原丽    

第一导师院系:

 武汉理工大学    

完成日期:

 2015-04-09    

答辩日期:

 2015-05-10    

中文关键词:

 压缩跟踪 ; 卡尔曼预测 ; 子区域 ; 最优特征 ; 样本搜索    

中文摘要:

随着计算机视觉领域相关技术的迅速发展,目标跟踪技术已成为其中一个主要的研究和应用热点,但是复杂场景下对任意目标进行稳定、准确地跟踪仍然存在诸多理论和技术问题亟需解决,因此研究一种鲁棒性强的在线跟踪算法仍然是非常具有挑战的课题。

基于压缩感知原理实现的目标跟踪算法不仅在一定程度上缓解了跟踪漂移现象,且其实时性远超过其它在线跟踪算法。本文的研究工作以压缩跟踪算法为基础,就如何增强目标表观模型鲁棒性和选取分类效果更好的特征,以及制定计算量更少的搜索策略展开研究,主要工作如下:

1.对现有的压缩跟踪算法进行研究,分析其实现机制,在多个测试集上将其与其它在线跟踪算法进行实验对比,证明其跟踪效果的稳定性和较好的实时性,并总结压缩跟踪算法优缺点,指出本文下一步工作目标。

2.在复杂场景下,由于剧烈光照、严重遮挡等因素的干扰,目标表观模型可能会发生剧烈的变化,为了使目标模型能较好地处理这些变化,分析现有的基于稀疏表示的跟踪算法对干扰无判断的缺点,提出一种结合卡尔曼预测与子区域自适应更新的压缩跟踪算法。当子区域前后帧输出最优值变化程度满足更新阈值条件时允许该子区域进行分类参数更新,同时该算法利用输出最优值变化程度最小的子区域跟踪结果反推算出整体目标区域位置,而当这个变化程度最小值超过干扰阈值时,使用卡尔曼预测值作为当前帧的目标跟踪结果中心点。

3.将一种基于特征概率分布距离的最优特征选择方法和改进的样本搜索分段跟踪策略结合,两种方法都能改善跟踪的准确性和算法的鲁棒性,并且后者计算量明显降低的优点弥补了前者离线特征选择计算增加的计算量。在最优特征选择方面,基于原压缩跟踪算法的特征分布满足高斯分布的特征,采取一种简单的基于正负样本概率分布距离的特征选择方法。而在候选样本搜索方面,利用简单高效的跟踪器在每一帧中进行两次定位,采用由粗到细的搜索策略分段跟踪。

4.针对kalman分区自适应更新以及改进特征和搜索策略的方案分别进行实验,比较本文算法和原算法的跟踪效果,实验结果证明改进的压缩跟踪算法有更好的鲁棒性。

关键词:压缩跟踪,卡尔曼预测,子区域,最优特征,样本搜索

 

参考文献:

[1] Donoho D. Compressed sensing[J]. IEEE Transactions on Information Theory, 2006, 52(4):1289 -1306.

[2] Fukunaga K, Hostetler L.The estimation of the gradient of a density function,with applications in pattern recognition[J]. IEEE Transactions on Information Theory, 1975, 21(1):32-40.

[3] Cheng Y. Mean shift mode seeking and clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1995,17(8):790-799.

[4] Bucy R S. Linear and Nonlinear Filtering[J].Proceedings of IEEE,1970,58(6):854-864.

[5] Gordon N J,Salmond D J,Smith A F M. Novel approach to nonlinear/non-Gaussian Bayesian state estimation[J].IEEE Proceedings:Radar and Signal Processing,1993,140(2):107-113.

[6] Kwon J, Lee K.Visual tracking decomposition[J]. IEEE Conf.Comput.Vis.Pattern Recog, 2010: 1269-1276.

[7] Jepson A, Fleet D, El-Maraghi T. Robust online appearance models for visual tracking, IEEE Trans. Pattern Anal. Mach. Intell, 2003, 25(10): 1296-1311.

[8] Lee K, Ho J, Yang M H. Visual tracking using learned linear subspaces. IEEE Conf. Comput. Vis. Pattern Recog, 2004, 1:2-782.

[9] Ross D, Lim J, Lin R. Incremental learning for robust visual tracking. International Journal of Computer Vision . 2008,77(1): 125-141,.

[10]Avidan S. Support Vector Tracking. Computer Vision and Pattern Recognition.2001, 1(1):184-191.

[11] Collins R, Liu Y, and Leordeanu M. Online selection of discriminative tracking features[J]. IEEE Trans. Pattern Anal. Mach. Intell. 2005, 27(10):1631-1643.

[12] Grabner H, Grabner M, Bischof H. Real-time tracking via on-line boosting[J]. British Mach. Vis. Conf., 2006: 47-56.

[13] Kalal Z, Mikolajczyk K, Matas J. Tracking-Learning-Detection[J]. Pattern Analysis and Machine Intelligence,2011.

[14] Kalal Z, Mikolajczyk K, Matas J. Tracking-Learning-Detection[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2012, 34(7):1409 - 1422.

[15] Candes E, Tao T. Near optimal signal recovery from random projections and universal encoding strategies[J]. IEEE TransInform Theory. 2006,52:5406-5425.

[16] Achlioptas D. Database-friendly random projections:Johnson-Lindenstrauss with binary coins[J]. Comput. Syst. Sci, 2003, 6(6):671-687.

[17]Ng A, Jordan M. On discriminative vs. generative classifier: a comparison of logistic regression and naive bayes[J]. NIPS, 2002: 841-848.

[18] Wu Y, Shen B, Ling H. Visual Tracking via Online Nonnegative Matrix Factorization[J]. Circuits & Systems for Video Technology IEEE Transactions on, 2014, 24(3):374 - 383.

[19] Sevilla-lara L, Learned-miller E. Distribution Fields for Tracking[J]. IEEE Conference on Computer Vision and Pattern Recognition, 2012, 157(10):1910 - 1917.

[20] Hare S, Saffari A, Torr P H S. Struck: Structured output tracking with kernels[J]. Ranaon on Arn Analy & Mahn Nllgn, 2011, 23(5):263-270.

[21] Babenko B, Yang M, Belongie S. Robust Object Tracking with Online Multiple Instance Learning[J]. Pattern Analysis & Machine Intelligence IEEE Transactions on, 2011, 33(8):1619 - 1632.

[22] 颜佳.遮挡环境下采用在线Boosting的目标跟踪[J].光学精密工程,2012,20(2):439-446.

[23] Zhang K, Song H. Real-time visual tracking via online weighted multiple instance learning[J]. Pattern Recognition, 2013, 46(1):397–411.

[24]石武祯,宁纪锋,颜永丰等.压缩感知跟踪中的特征选择与目标模型更新[J].中国图象图形学报,2014,19(6):932-939.

[25]罗会兰,钟宝康,孔繁胜等.结合目标预测位置的压缩跟踪[J].中国图象图形学报,2014,19(6):875-885.

[26] Zhu J, Ma Y, Qin Q, et al. Adaptive weighted real-time compressive tracking[J]. Iet Computer Vision, 2014, 8(6):740 - 752.

[27]朱秋平,颜佳,张虎,范赐恩,邓德祥.基于压缩感知的多特征实时跟踪[J].光学精密工程,2013, 2:437-444.

[28] 才盛.多目标监控场景下的检测和跟踪技术研究[D].厦门大学,2014.

[29] Zhang K, Zhang L, Yang M. Fast Compressive Tracking[J]. Pattern Analysis & Machine Intelligence IEEE Transactions on, 2014, 36(10):1-1.

[30] 赵龙,肖军波,一种改进的运动目标抗遮挡跟踪算法[J]. 北京航空航天大学学报,2013: 517-520.

[31] Liu L , Fieguth P. Texture classification from random features[J]. PAMI 34, 2012:574-586 .

[32] Mei X, Ling H. Robust visual tracking and vehicle classification via sparse representation[J]. PAMI , 2011,2259-2272.

[33] Liu Y, Collins R T. On-line selection of discriminative tracking features[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2005, 27(10):1631 - 1643.

[35] Candes R, Wakin M. An introduction to compressive sampling[J]. Signal Processing Magazine, IEEE, 2008. 25(2): 21-30.

[36] 刘海天. 基于压缩感知的逆合成孔径雷达成像[D].哈尔滨工程大学,2013.

[37] Mei X, Ling H. Robust visual tracking and vehicle classification via sparse representation.[J]. Pattern Analysis & Machine Intelligence IEEE Transactions on, 2011, 33(11):2259 - 2272.

[38] Liu L, Fieguth P W. Texture classification from random features.[J]. Pattern Analysis & Machine Intelligence IEEE Transactions on, 2011, 34(3):574 - 586.

[39] Zhang K, Song H. Real-time visual tracking via online weighted multiple instance learning[J]. Pattern Recognit, 2013,46(1):397-411.

[40] Lu H, Jia X, Yang M. Visual tracking via adaptive structural local sparse appearance model[C]. //IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2012:1822 - 1829.

[41] Parag T, Porikli F, Elgammal A. Boosting adaptive linear weak classifiers for online learning and tracking[J]. cvpr, 2008:1-8.

[42]颜佳,吴敏渊,陈淑珍等.应用 Mean Shift和分块的抗遮挡跟踪[J].光学精密工程,2010, 18(6): 1413-1419.

[43]李晶.基于压缩感知的双(多)基地SAR成像技术研究[D].电子科技大学,2013.

[44]王松林,项欣光.基于压缩感知的多特征加权目标跟踪算法[J].计算机应用研究,2014,03:929-932.

[45]章学静,陈禾,杨静.结合卡尔曼滤波和MeanShift的抗遮挡跟踪算法[J]. 北京理工大学学报, 2013, 33(10):1056-1061.

中图分类号:

 TP391.41    

馆藏号:

 TP391.41/2886/2015    

备注:

 403-西院分馆博硕论文库;203-余家头分馆博硕论文库    

无标题文档

   建议浏览器: 谷歌 火狐 360请用极速模式,双核浏览器请用极速模式