基于联合模型的相关滤波目标跟踪算法.pdf
![基于联合模型的相关滤波目标跟踪算法.pdf_第1页](https://img.zhuanlichaxun.net/fileroot4/2021-6/3/4c0053de-d4c9-4424-b24f-95ae78b926b5/4c0053de-d4c9-4424-b24f-95ae78b926b51.gif)
![基于联合模型的相关滤波目标跟踪算法.pdf_第2页](https://img.zhuanlichaxun.net/fileroot4/2021-6/3/4c0053de-d4c9-4424-b24f-95ae78b926b5/4c0053de-d4c9-4424-b24f-95ae78b926b52.gif)
![基于联合模型的相关滤波目标跟踪算法.pdf_第3页](https://img.zhuanlichaxun.net/fileroot4/2021-6/3/4c0053de-d4c9-4424-b24f-95ae78b926b5/4c0053de-d4c9-4424-b24f-95ae78b926b53.gif)
《基于联合模型的相关滤波目标跟踪算法.pdf》由会员分享,可在线阅读,更多相关《基于联合模型的相关滤波目标跟踪算法.pdf(15页完成版)》请在专利查询网上搜索。
1、(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 202010097370.7 (22)申请日 2020.02.17 (71)申请人 江南大学 地址 214122 江苏省无锡市蠡湖大道1800 号 (72)发明人 孔军丁毅涛蒋敏 (74)专利代理机构 大连理工大学专利中心 21200 代理人 刘秋彤温福雪 (51)Int.Cl. G06T 7/246(2017.01) G06T 7/90(2017.01) G06K 9/46(2006.01) G06K 9/62(2006.01) (54)发明名称 一种基于联合模型的相关滤波目标。
2、跟踪算 法 (57)摘要 本发明公开了一种基于联合模型的相关滤 波目标跟踪算法, 属于机器视觉领域。 与传统的 相关滤波算法不同, 本发明采用置信度权重来将 KCF模型和CN模型融合, 发挥各自模型的特点进 行目标跟踪。 为了应对跟踪过程中尺度变化的问 题, 本发明引入了一个单独的尺度滤波器对尺度 进行估计。 为了应对遮挡, 本发明对图像进行分 块并计算图像块之间的相似性, 以相似性作为判 断遮挡的依据。 同时采用了分类器池的方法, 进 一步提高了算法的鲁棒性。 权利要求书2页 说明书7页 附图5页 CN 111340842 A 2020.06.26 CN 111340842 A 1.一种基于。
3、联合模型的相关滤波目标跟踪算法, 其特征在于, 步骤如下: 步骤一、 读入图像, 确定跟踪目标: 读入第一帧图像Image1, 设定跟踪目标, 并将跟踪目 标所在区域作为第一帧的候选区域; 步骤二、 基于KCF和CN模型构建训练样本集合, 训练位置滤波器: 针对位置滤波器, 在相 关滤波的框架下, 围绕第一帧跟踪目标的中心点位置, 基于核化相关滤波器KCF跟踪模型得 到位置滤波器训练样本集合X1p; 针对颜色模型, 围绕第一帧跟踪目标的中心点位置, 基于自 适应的颜色特征CN模型得到颜色模型训练样本集合X1c; 步骤三、 基于DSST模型训练初始尺度相关滤波器Fscale: 针对尺度相关滤波器。
4、, 在相关滤 波框架下, 围绕第一帧的候选区域, 基于尺度空间判别跟踪DSST模型中的尺度相关滤波器 计算尺度模型训练样本集合X1s, 训练初始尺度相关滤波器Fscale; 步骤四、 创建初始的分类器池: 分类器池中包含CN、 KCF、 DSST和KCF-CN四个分类器模 型, 将每一个分类器与第一帧图像Image1中带有跟踪目标的候选区域分别组合放入分类器 池, 完成初始分类器池构建, 并计算第一帧的遮挡阈值Th1; 步骤五、 读入下一帧图像: 读入下一帧图像Imaget, t1, 以第t-1帧确定的最优候选区域 为第t帧候选区域; 步骤六、 根据t-1帧确定的分类器, 计算第t帧最优的目标。
5、中心位置FP: 步骤6-1、 当t-1帧确定的分类器为CN分类器模型时, 则使用CN分类器计算第t帧图像的 最优的目标中心位置FP; 步骤6-2、 当t-1帧确定的分类器为KCF分类器模型时, 则使用KCF分类器计算第t帧图像 的最优的目标中心位置FP; 步骤6-3、 当t-1帧确定的分类器为DSST分类器模型时, 则使用DSST分类器计算第t帧图 像的最优的目标中心位置FP; 步骤6-4、 当t-1帧确定的分类器为KCF-CN分类器模型时, 则使用KCF-CN分类器计算第t 帧图像的最优的目标中心位置FP: 围绕步骤五确定的候选区域的中心点位置, 基于KCF和CN 模型分别计算位置滤波器候选。
6、样本集合Xtp和颜色模型候选样本集合Xtc; 计算KCF模型和CN 模型的响应图R(KCF)和R(CN), 通过峰值旁瓣比加权融合得到候选样本置信度Rcv, 选择置信 度峰值最大的候选样本, 该样本的中心位置即为目标的中心位置FP; 步骤七、 基于尺度相关滤波器Fscale估计第t帧最优的尺度: 以步骤六预测的中心位置FP 为候选区域中心位置, 依据第t-1帧最优矩形尺度确定候选区域, 依据不同矩形尺度采样得 到若干尺度样本并提取HOG特征, 并对样本大小归一化; 在傅里叶域, 将每个尺度样本的特 征与上一帧得到的尺度相关滤波器Fscale做点乘运算得到若干响应图, 选择峰值最大的响应 图所对。
7、应的尺度为当前帧目标的最优尺度值; 步骤八、 判断目标是否被遮挡, 更新遮挡阈值Th及分类器池: 以步骤七预测得到的最优 候选样本作为当前第t帧的目标图像块, 以第t帧目标图像块的中心点位置和尺度作为基础 按比例放大获得搜索框; 将经过搜索框获得的图像分割成9个局部分块, 计算中心块与其他 周围块之间的最小相似性距离计算第t帧的目标图像块与分类器池内当前使用分 类器对应的所有目标图像块之间最小相似性距离当时, 其中 是调整参 数, 则判断当前帧图像被遮挡, 否则默认为不遮挡; 当判断为遮挡时, 根据评价标准Q从分类 权利要求书 1/2 页 2 CN 111340842 A 2 器池中选择新的分。
8、类器重新预测第t帧时的目标位置; 最后更新遮挡阈值Th及分类器池; 步骤九、 判断视频序列是否结束, 未结束, 则转入步骤五。 2.根据权利要求1所述的一种基于联合模型的相关滤波目标跟踪算法, 其特征在于, 所 述步骤四中, 第一帧的遮挡阈值Th1具体计算方法为: 其中v是调整值,表示第1帧利用搜索框获得的图像中心块与其他周围8个块之 间的最小的相似性距离l。 3.根据权利要求1所述的一种基于联合模型的相关滤波目标跟踪算法, 其特征在于, 所 述步骤6-4中提出峰值旁瓣比的融合方式, 具体为: 其中PSRCN和PSRKCF的计算方法为: 其中, x表示CN或者KCF,R(CN)表示CN算法的候。
9、选样本响应图, R(KCF)表示KCF算法的测 试样本响应图, 是代表均值, 是代表标准差, Rcv为加权融合得到候选样本置信度。 4.根据权利要求1所述的一种基于联合模型的相关滤波目标跟踪算法, 其特征在于, 所 述步骤八中, 搜索框的构建方法为: 以第t帧目标图像块的位置和尺度作为基础按比例放大 而获得的, 选取的放大比例推荐为第t帧目标图像块尺度的2.5倍; 目标图像块的中心位置 即是搜索框的中心位置; 如果目标图像块靠近原始图像的边界导致搜索框的部分范围超出 了原始图像, 那么就将原始图像边界处的像素值赋予搜索框超出的部分。 5.根据权利要求1所述的一种基于联合模型的相关滤波目标跟踪算。
10、法, 其特征在于, 所 述上述技术方案中步骤八中, 判断遮挡的阈值Th的更新方法如下: 权利要求书 2/2 页 3 CN 111340842 A 3 一种基于联合模型的相关滤波目标跟踪算法 技术领域 0001 本发明属于机器视觉领域, 特别涉及一种基于联合模型的相关滤波目标跟踪方 法。 背景技术 0002 机器视觉是人工智能正在快速发展的一个分支, 是一个非常具有潜力的研究方 向。 目标跟踪在机器视觉中是一个非常重要的研究课题。 目标跟踪的目的是对视频序列中 的特定目标状态进行持续的推断, 并确定目标在连续视频序列中的位置以及在任何时刻都 能提供完整的目标区域。 另外还可以根据要求获取跟踪目标。
11、的速度, 运动轨迹等, 从而可以 为更高一级的任务要求提供必要的信息。 近些年来, 国内外众多学者提出了许多新颖的算 法, 在该领域取得了十分明显的进展。 但令人遗憾的是, 目标跟踪的实现一直面临着诸多干 扰。 这些干扰主要在于视觉信息的各种内在变化和外在变化, 通常包含尺度变化、 部分遮 挡、 背景杂乱、 光照变化、 运动模糊等。 除此之外, 目标跟踪技术在准确率和处理速度上的矛 盾也对其提出了极大挑战。 0003 正是由于目标跟踪的广泛应用以及诸多挑战, 目标跟踪技术吸引了众多国内外学 者及研究机构对其进行不断的研究。 基于判别式跟踪模型的相关滤波算法因其优秀的计算 速度和定位性能, 成为。
12、了近年来视觉跟踪领域的热门。 但在光照变化、 背景杂乱、 目标形变 等复杂情况下, 传统的基于相关滤波的跟踪算法常常在跟踪过程中因为环境因素导致非目 标像素的逐渐累积, 最终跟踪结果发生漂移而失败。 0004 因而, 本发明针对实际的复杂场景下, 在构建相关滤波模型的同时, 引入分块和局 部加权距离的方法来抑制遮挡问题, 同时, 为了应对光照变化和尺度变化引入了颜色模型 和尺度计算方法。 发明内容 0005 本发明的主要目的是提出一种基于联合模型的相关滤波目标跟踪算法, 在目标形 变, 光照变换, 目标遮挡等干扰影响下, 准确定位目标区域。 0006 为了实现上述目的, 本发明提供如下技术方案。
13、: 0007 步骤一、 读入图像, 确定跟踪目标: 读入第一帧图像Image1, 设定跟踪目标, 并将跟 踪目标所在区域作为第一帧的候选区域; 0008 步骤二、 基于KCF和CN模型构建训练样本集合, 训练位置滤波器: 针对位置滤波器, 在相关滤波的框架下, 围绕第一帧跟踪目标的中心点位置, 基于核化相关滤波器 (Kernelized Correlation Filters, KCF)跟踪模型得到位置滤波器训练样本集合X1p; 针对 颜色模型, 围绕第一帧跟踪目标的中心点位置, 基于自适应的颜色特征(Adaptive color attributes, CN)模型得到颜色模型训练样本集合X1。
14、c; 0009 步骤三、 基于DSST模型训练初始尺度相关滤波器Fscale: 针对尺度相关滤波器, 在相 关滤波框架下, 围绕第一帧的候选区域, 基于尺度空间判别跟踪 说明书 1/7 页 4 CN 111340842 A 4 (DiscriminativeScaleSpaceTracker, DSST)模型中的尺度相关滤波器计算尺度模型训练 样本集合X1s, 训练初始尺度相关滤波器Fscale; 0010 步骤四、 创建初始的分类器池: 分类器池中包含CN, KCF, DSST和KCF-CN四个分类器 模型, 将每一个分类器与第一帧图像Image1中带有跟踪目标的候选区域分别组合放入分类 器。
15、池, 完成初始分类器池构建, 并计算第一帧的遮挡阈值Th1。 0011 步骤五、 读入下一帧图像: 读入下一帧图像Imaget(t1), 以第t-1帧确定的最优 候选区域为第t帧候选区域。 0012 步骤六、 根据t-1帧确定的分类器, 计算第t帧最优的目标中心位置FP: 0013 步骤6-1、 如果t-1帧确定的分类器为CN分类器模型, 则使用CN分类器计算第t帧图 像的最优的目标中心位置FP; 0014 步骤6-2、 如果t-1帧确定的分类器为KCF分类器模型, 则使用KCF分类器计算第t帧 图像的最优的目标中心位置FP; 0015 步骤6-3、 如果t-1帧确定的分类器为DSST分类器模。
16、型, 则使用DSST分类器计算第t 帧图像的最优的目标中心位置FP; 0016 步骤6-4、 如果t-1帧确定的分类器为KCF-CN分类器模型, 则使用KCF-CN分类器计 算第t帧图像的最优的目标中心位置FP: 围绕步骤五确定的候选区域的中心点位置, 基于 KCF和CN模型分别计算位置滤波器候选样本集合Xtp和颜色模型候选样本集合Xtc; 计算KCF 模型和CN模型的响应图R(KCF)和R(CN), 通过峰值旁瓣比加权融合得到候选样本置信度Rcv, 选择置信度峰值最大的候选样本, 该样本的中心位置即为目标的中心位置FP。 0017 步骤七、 基于尺度相关滤波器Fscale估计第t帧最优的尺度。
17、: 以步骤六预测的中心位 置FP为候选区域中心位置, 依据第t-1帧最优矩形尺度确定候选区域, 依据不同矩形尺度采 样得到若干尺度样本并提取HOG特征, 并对样本大小归一化; 在傅里叶域, 将每个尺度样本 的特征与上一帧得到的尺度相关滤波器Fscale做点乘运算得到若干响应图, 选择峰值最大的 响应图所对应的尺度为当前帧目标的最优尺度值。 0018 步骤八、 判断目标是否被遮挡, 更新遮挡阈值Th及分类器池: 以步骤七预测得到的 最优候选样本作为当前第t帧的目标图像块, 以第t帧目标图像块的中心点位置和尺度作为 基础按比例放大获得搜索框; 将经过搜索框获得的图像分割成9个局部分块, 计算中心块。
18、与 其他周围块之间的最小相似性距离计算第t帧的目标图像块与分类器池内当前使 用分类器对应的所有目标图像块之间最小相似性距离如果其中 是调 整参数, 则判断当前帧图像被遮挡, 否则默认为不遮挡; 若遮挡, 根据评价标准Q从分类器池 中选择新的分类器重新预测第t帧时的目标位置; 最后更新遮挡阈值Th及分类器池。 0019 步骤九、 若视频序列未结束, 则转入步骤五。 0020 与现有的技术相比, 本发明具有以下有益效果: 0021 1、 通过融合KCF和CN模型, 充分发挥了两个模型的各自优势, 融合模型一方面充分 利用了KCF模型的快速检测功能, 多通道特征和较强的判别目标的能力, 另一方面利用。
19、了CN 模型对于形变和遮挡的较强抗干扰能力。 0022 2、 本发明通过建立分类器池及遮挡判断策略, 在一定程度上缓解了跟踪中因遮挡 引起的累积误差问题。 说明书 2/7 页 5 CN 111340842 A 5 附图说明 0023 图1为本发明的算法流程图; 0024 图2为算法模型结构图; 0025 图3为KCF-CN跟踪模型结构图; 0026 图4为Basketball视频序列算法效果展示图; 其中, (a)为第31帧时跟踪得到的目 标, (b)为第107帧时跟踪得到的目标, (c)为第229帧时跟踪得到的目标位, (d)为第650帧时 跟踪得到的目标, (e)为第662帧时跟踪得到的目。
20、标, (f)为第685帧跟踪得到的目标; 0027 图5为Jogging2视频序列算法效果展示图; 其中, (a)为第10帧时跟踪得到的目标, (b)为第15帧时跟踪得到的目标, (c)为第45帧时跟踪得到的目标, (d)为第54帧时跟踪得到 的目标, (e)为第61帧时跟踪得到的目标, (f)为第67帧时跟踪得到的目标; 0028 图6为Dragonbaby视频序列算法效果展示图; 其中, (a)为第10帧时跟踪得到的目 标, (b)为第21帧时跟踪得到的目标, (c)为第27帧时跟踪得到的目标, (d)为第77帧时跟踪 得到的目标, (e)为第78帧时跟踪得到的目标, (f)为第98帧时跟。
21、踪得到的目标; 0029 图7为Coke视频序列算法效果展示图; 其中, (a)为第12帧时跟踪得到的目标, (b) 为第36帧时跟踪得到的目标, (c)为第39帧时跟踪得到的目标, (d)为第48帧时跟踪得到的 目标, (e)为第59帧时跟踪得到的目标, (f)为第172帧时跟踪得到的目标; 0030 图8为CarScale视频序列算法效果展示图; 其中, (a)为第12帧时跟踪得到的目标, (b)为第85帧时跟踪得到的目标, (c)为第156帧时跟踪得到的目标, (d)为第168帧时跟踪得 到的目标, (e)为第176帧时跟踪得到的目标, (f)为第217帧时跟踪得到的目标。 具体实施方式。
22、 0031 为了对本发明进行更好的说明, 下面以公开的视频数据集OTB2015为例进行阐述。 图1为本发明的算法流程图, 图2为本发明的算法模型结构图。 0032 上述技术方案中步骤二中采用KCF模型获得位置滤波器训练样本集合X1p的具体方 法为: 0033 围绕第一帧目标的中心点位置, 基于核化相关滤波器(Kernelized Correlation Filters, KCF)跟踪模型依据初始矩形尺度在候选区域内循环采样得到候选样本并对每一 个候选样本提取方向梯度直方图(Histogram of Oriented Gradient, HOG)特征, 得到训练 样本集合X1pxm, n|(m,。
23、 n)0M-10N-1, M和N表示初始矩形尺度大小, X1p中每 个训练样本d为特征维度; 0034 上述技术方案中步骤二中采用CN方法获得颜色模型训练样本集合X1c的具体方法 为: 0035 围绕第一帧目标的中心点位置, 在自适应的颜色特征(Adaptive color attributes, CN)模型中依据初始矩形尺度在候选区域内循环采样得到若干候选样本并对 每一个候选样本提取颜色特征, 得到训练样本集合X1cxm, n|(m, n)0M-10N- 1, M和N表示初始矩形尺度大小, X1c中每个训练样本d为特征维度。 0036 上述技术方案中步骤三中采用DSST方法训练初始尺度相关滤。
24、波器的具体方法为: 0037 在 相关 滤 波框 架下 , 围 绕 第一帧的 候 选区 域 , 基 于 尺 度空间 判别跟踪 (DiscriminativeScaleSpaceTracker, DSST)模型中的尺度相关滤波器, 依据不同矩形尺度 说明书 3/7 页 6 CN 111340842 A 6 采样得到候选样本并对每一个候选样本提取HOG特征, 统一样本大小, 得到训练样本集合X1s xm|m0M-1, M表示在给定的上一帧目标位置处获取的大小不同的目标子块数量, X1s中每个训练样本基于训练样本训练得到初始的尺度相关滤波器。 0038 上述技术方案中步骤四中KCF模型使用岭回归的方。
25、法进行训练。 为了解决训练样 本少的问题, KCF模型使用了循环矩阵这一方法。 同时, 为了解决非线性问题, KCF模型使用 了核函数这一方法。 KCF模型的具体细节请参考文献Henriques, J .F ., R .Caseiro, P.Martins, et al., High-Speed Tracking with Kernelized Correlation Filters.IEEE Transactions on Pattern Analysis&Machine Intelligence, 2015.37(3): p.583-596.。 0039 上述技术方案中步骤四中CN模型使用。
26、循环矩阵的方法来解决训练样本少的问题。 同时, CN模型使用了颜色特征来提升模型的效果。 CN模型的具体细节请参考文献 Danelljan,M.,F.S.Khan,M.Felsberg,et al.Adaptive Color Attributes for Real- Time Visual Tracking .in IEEE Conference on Computer Vision&Pattern Recognition.2014.。 0040 上述技术方案中步骤四中DSST模型使用位置和尺度两个相关滤波器完成对目标 的定位和尺度的判别。 DSST模型的具体细节请参考文献Danelljan。
27、 ,M .,F .S.Khan , M.Felsberg,et al.Adaptive Color Attributes for Real-Time Visual Tracking.in IEEE Conference on Computer Vision&Pattern Recognition.2014.。 0041 上述技术方案中步骤四中KCF-CN模型的具体细节详见步骤6-4。 0042 上述技术方案中步骤四中第一帧的遮挡阈值Th1具体计算方法为: 0043 0044其中v是调整值, 本实例中取值为0.015,表示第1帧利用搜索框获得的图像 中心块与其他周围8个块之间的最小的相似性距离l。
28、。 0045 上述技术方案中步骤四中, 两个图像块的相似性距离l的计算方法如下: 0046 0047 其中V1、 V2表示两个图像块的矩阵, Gtrace表示的是矩阵的计算, 具体为: 对V1-V2后 获得的矩阵进行各元素的点乘计算并对每列进行求和, 取均值。 0048 上述技术方案中步骤五中以第t-1帧确定的最优候选区域为第t帧候选区域, 针对 第1帧, 其最优候选区域即步骤一设定的候选区域。 0049 上述技术方案中步骤6-1中CN方法为使用训练得到的颜色相关滤波器去计算候选 样本的响应图, 响应图中值最大的即是最优的目标中心位置。 CN方法的具体细节请参考文 献Danelljan,M.,。
29、F.S.Khan,M.Felsberg,et al.Adaptive Color Attributes for Real- Time Visual Tracking .in IEEE Conference on Computer Vision&Pattern Recognition.2014.。 0050 上述技术方案中步骤6-2中KCF方法为使用训练得到的位置相关滤波器去计算候 选样本的响应图, 响应图中值最大的即是最优的目标中心位置。 KCF方法的具体细节请参考 文献Henriques,J.F.,R.Caseiro,P.Martins,et al.,High-Speed Tracking 。
30、with Kernelized Correlation Filters.IEEE Transactions on Pattern Analysis&Machine 说明书 4/7 页 7 CN 111340842 A 7 Intelligence,2015.37(3):p.583-596.。 0051 上述技术方案中步骤6-3中DSST方法为使用训练得到的尺度相关滤波器去计算候 选样本的响应图, 响应图中值最大的即是最优的目标中心位置。 DSST方法的具体细节请参 考文献Danelljan, M., F.S.Khan, M.Felsberg, et al.Adaptive Color Attr。
31、ibutes for Real-Time Visual Tracking.in IEEE Conference on Computer Vision&Pattern Recognition.2014.。 0052 上述技术方案中步骤6-4的算法模型结构图如图3所示。 0053 上述技术方案中步骤6-4中基于KCF模型计算位置滤波器候选样本集合Xtp的具体 方法与步骤二采用KCF模型计算位置滤波器训练样本集合X1p的具体方法相同, Xtpxm, n| (m, n)0Mt-1-10Nt-1-1, 这里的Mt-1和Nt-1表示是第t-1帧最优矩形尺度大小, Xtp 中每个候选样本d为特征维度。 00。
32、54 上述技术方案中步骤6-4中基于CN模型计算颜色模型候选样本集合Xtc的具体方法 与步骤二采用CN模型计算颜色模型训练样本集合X1c的具体方法相同, Xtcxm, n|(m, n) 0Mt-1-10Nt-1-1, 这里的Mt-1和Nt-1表示是第t-1帧最优矩形尺度小大, Xtc中每个 候选样本d为特征维度。 0055 上述技术方案中步骤6-4中提出的融合模型方法采用峰值旁瓣比的融合方式, 具 体为: 0056 0057 其中PSRCN和PSRKCF的计算方法为: 0058 0059 其中x表示CN或者KCF, R(CN)表示CN算法的候选样本响应图, R(KCF)表示KCF算法 的测试样。
33、本响应图, 是代表均值, 是代表标准差, Rcv为加权融合得到候选样本置信度。 0060 R(KCF)(Kz)Tz, 其中K表示核矩阵, z表示候选样本, T表示矩阵的转置, Kz表示候 选样本z在核空间的核矩阵。 0061其中F和F-1表示傅里叶变换与傅里叶反 变换, a表示参数矩阵, z表示候选样本, 表示训练样本特征, 表示映射, 符号表示乘积 运算。 0062 具体R(CN)和R(KCF)的计算方法可参考文献Henriques, J.F., R.Caseiro, P.Martins, et al., High-Speed Tracking with Kernelized Correla。
34、tion Filters.IEEE Transactions on Pattern Analysis&Machine Intelligence, 2015.37(3): p.583-596. 和Danelljan, M., F.S.Khan, M.Felsberg, et al.Adaptive Color Attributes for Real- Time Visual Tracking .in IEEE Conference on Computer Vision&Pattern Recognition.2014.。 0063 上述技术方案中步骤八中, 搜索框的构建方法为: 以第t帧目标图像。
35、块的位置和尺 度作为基础按比例放大而获得的, 选取的放大比例推荐为第t帧目标图像块尺度的2.5倍; 说明书 5/7 页 8 CN 111340842 A 8 目标图像块的中心位置即是搜索框的中心位置; 如果目标图像块靠近原始图像的边界导致 搜索框的部分范围超出了原始图像, 那么就将原始图像边界处的像素值赋予搜索框超出的 部分。 0064上述技术方案中步骤八中, 中心块与其他周围块之间的最小相似性距离及 第t帧的目标图像块与分类器池内当前使用分类器对应的所有目标图像块之间最小相似性 距离的计算中两个图像块的相似性距离的计算方法与步骤四中相似性距离l的求解方法相 同。 0065 上述技术方案中步骤。
36、八中, 评价标准Q使用最大似然估计和熵正则化项挑选出新 的分类器。 其具体细节参见文献Xingping Dong,J.S.,Occlusion-Aware Real-Time Object Tracking.IEEE Transactions on Multimedia,2017.19(4):p.763-771.。 0066 上述技术方案中步骤八中, 判断遮挡的阈值Th的更新方法如下: 0067 0068其中表示在第t帧利用搜索框获得的图像中心块与其他周围8个块之间的 最小的相似性距离。表示当前使用的分类器第t帧前保存的10帧中的预测的目标位置 与第t帧预测的目标位置之间的最小相似性距离。 如。
37、果那么判断为严重遮 挡, 否则默认为不遮挡, v和 都是调整参数, 本实例中取值分别为0.015和0.5。 0069 上述技术方案中步骤八中, 分类器池的具体更新方法如下: 0070 分类器池中保存每个分类器对应的数量为10帧的目标图像块; 在分类器池内某个 分类器对应的图像块数量小于等于10时且第t帧无遮挡情况下, 则直接将当前第t帧分类器 对应的目标图像块添加进分类器池; 在分类池内某个分类器对应的图像块数量大于10时且 第t帧无遮挡情况下, 则删除分类器池内该分类器对应的最远时间帧目标图像块, 并将该分 类器第t帧的目标图像块加入分类器池; 在第t帧判断为遮挡的情况下, 则不更新分类器池。
38、。 0071 为了验证本发明的准确性和鲁棒性, 本发明在著名的OTB2105视频数据集上进行 了实验。 该数据集在2015年被扩充到了100个, 为了直观的体现出本发明的跟踪效果, 我们 从OTB2015库中选取了五个具有各种干扰因素的视频序列进行算法效果的展示, 这五个视 频序列包含的干扰因素如表1所示。 OTB2015中的评价标准是中心位置偏差, 即跟踪算法计 算得到的目标位置中心与目标的真实值的中心位置之间的欧式距离, 当中心位置小于某一 阈值时就认定为该帧跟踪成功, 在本实例中阈值设为20。 0072 表1:视频序列说明 0073 视频序列干扰因素 Basketball光照变化、 遮挡。
39、、 形变、 旋转、 背景混杂 Jogging2遮挡、 形变、 旋转 Dragonbaby快速运动、 遮挡 Coke光照变化、 遮挡、 快速运动、 旋转、 背景混杂 CarScale尺度变化、 遮挡、 快速运动、 旋转 0074 上面结合附图对本发明的具体实施方式做了详细说明, 但是本发明并不限于上述 说明书 6/7 页 9 CN 111340842 A 9 实施方式, 在本领域普通技术人员所具备的知识范围内, 还可以在不脱离本发明宗旨的前 提下做出各种变化。 说明书 7/7 页 10 CN 111340842 A 10 图1 说明书附图 1/5 页 11 CN 111340842 A 11 图2 图3 说明书附图 2/5 页 12 CN 111340842 A 12 图4 图5 说明书附图 3/5 页 13 CN 111340842 A 13 图6 图7 说明书附图 4/5 页 14 CN 111340842 A 14 图8 说明书附图 5/5 页 15 CN 111340842 A 15 。
- 内容关键字: 基于 联合 模型 相关 滤波 目标 跟踪 算法
馈纸式文档扫描仪.pdf
植物补光灯控制电路和植物补光灯.pdf
冷却装置.pdf
储能模组、储能装置及用电设备.pdf
交直流高压电容器放电电路.pdf
带有中位锁止和提升回位功能的液压多路阀.pdf
输液杆外设供电线缆的收纳结构.pdf
车用尿素溶液生产的投料装置.pdf
复合外墙保温板和方便拼接的复合外墙.pdf
高硬度石材表面抛光装置.pdf
文胸模杯打孔装置.pdf
电磁干粉除铁器用布料装置.pdf
立体式离心筛.pdf
车底.pdf
用于树状空间节点试验的反力架装置.pdf
建筑节能外墙保温装饰板结构.pdf
便于温度调整的微生物离心设备.pdf
应用于钻柱内孔的泥浆过滤设备.pdf
铝合金门窗尺寸检测装置.pdf
肥料快速发酵装置.pdf
侧斜防撞型充电桩.pdf
柑橘栽种装置.pdf
用于高压传感器连接器的激光焊接工装.pdf
大豆种植根瘤菌剂接种装置.pdf
铝塑废料中铝箔分离设备以及方法.pdf
视频转码调度方法、装置、可读存储介质、电子设备.pdf
有机液体存储罐脱氢反应器.pdf
地坪研磨机齿轮箱多驱系统.pdf
溜槽防堵及检测装置.pdf
用于换热器铜管扩口机构.pdf
衣柜板材自动上下料装置及其方法.pdf
乳清蛋白的制备方法和乳清蛋白饮料.pdf
相关文档
更多![KR法脱硫炼钢搅拌桨自动甩渣方法.pdf](/Images/s.gif)
![低温等离子体再循环空气净化系统和净化方法.pdf](/Images/s.gif)
![耳鼻喉科手术用颈脖辅助撑开装置.pdf](/Images/s.gif)
![镧改性悬铃木生物炭的制备方法及其应用.pdf](/Images/s.gif)
![基于稀疏对称阵列的信号波达方向估计方法及装置.pdf](/Images/s.gif)
![适用于16-48寸管道现场施工的焊缝内补口全自动机器人设备.pdf](/Images/s.gif)
![电子烟实名认证系统和实名认证方法.pdf](/Images/s.gif)
![山茶油茶籽粕抗菌多肽医用敷料及其制备方法与应用.pdf](/Images/s.gif)
![基于java开发的集群证书认证方法.pdf](/Images/s.gif)
![保健型热敷中药包的制作方法.pdf](/Images/s.gif)
![直播客户端音视频延时调节播放系统及方法.pdf](/Images/s.gif)
![基于少量数据的复杂装备功能故障定位灰色建模分析方法.pdf](/Images/s.gif)
![柔光分散固态紫外光的装置.pdf](/Images/s.gif)
![浮点数转换方法及装置.pdf](/Images/s.gif)
![内存检查方法、装置、电子设备及存储介质.pdf](/Images/s.gif)
![Fe-Ti-Ni-Co-Mn高熵氧化物陶瓷材料的制备方法.pdf](/Images/s.gif)
![固定二氧化碳的方法.pdf](/Images/s.gif)
![叠拼叉指全背接触钙钛矿太阳电池及其制备方法.pdf](/Images/s.gif)
![便携夹持的玉米茎秆弯曲角度和强度测定装置.pdf](/Images/s.gif)
![氧化铝陶瓷及其制备方法和陶瓷轴承.pdf](/Images/s.gif)