《一种机载遥感视频特定人造区域自动识别跟踪方法.pdf》由会员分享,可在线阅读,更多相关《一种机载遥感视频特定人造区域自动识别跟踪方法.pdf(9页完整版)》请在专利查询网上搜索。
1、(10)申请公布号 CN 103761523 A (43)申请公布日 2014.04.30 CN 103761523 A (21)申请号 201410001565.1 (22)申请日 2014.01.02 G06K 9/46(2006.01) G06T 7/00(2006.01) (71)申请人 北京理工大学 地址 100081 北京市海淀区中关村南大街 5 号 (72)发明人 毕福昆 章菲菲 陈禾 谢宜壮 陈亮 龙腾 (74)专利代理机构 北京理工大学专利中心 11120 代理人 仇蕾安 (54) 发明名称 一种机载遥感视频特定人造区域自动识别跟 踪方法 (57) 摘要 本发明提供了一种机载。
2、遥感视频数据特定人 造区域自动识别跟踪方法, 包括离线状态下跟踪 和在线状态下跟踪, 其中离线状态下跟踪包括尺 度空间的极值检测、 关键点定位、 关键点方向分 配、 关键点描述 ; 在线状态下跟踪包括 SIFT 特征 提取、 关键点精确匹配、 待跟踪目标区域范围确 定、 通过轨迹预测自适应的确定待跟踪目标的局 部区域范围。 (51)Int.Cl. 权利要求书 2 页 说明书 5 页 附图 1 页 (19)中华人民共和国国家知识产权局 (12)发明专利申请 权利要求书2页 说明书5页 附图1页 (10)申请公布号 CN 103761523 A CN 103761523 A 1/2 页 2 1. 。
3、一种机载遥感视频数据特定人造区域自动识别跟踪方法, 为离线状态下跟踪, 其特 征在于, 具体包括以下步骤 : (1) 尺度空间的极值检测 : 对于给定的一幅二维图像, 连续进行高斯卷积和 2 倍下采 样及相减操作, 构成该图像的尺度空间, 产生高斯金字塔和高斯差分 (DOG) 金字塔, 在差分 金字塔中, 除了第一层和最后一层图像外, 进行极值检测, 得到尺度空间的极值点的位置坐 标 ; (2) 关键点定位 : 对尺度空间 DOG 函数进行三维二次曲线拟合, 确定阈值, 剔除那些对 比度低的不稳定的极值点, 再利用二阶的 Hessian 矩阵去除边缘响应强烈的极值点, 得到 精确位置的关键点的。
4、坐标 ; (3) 关键点方向分配 : 计算关键点邻域像素的梯度幅度和角度信息, 并按梯度的角度 进行幅度大小的直方图统计, 进行直方图的二次曲线拟合, 确定关键点的主方向和辅方 向 ; (4) 关键点描述 : 对所有的关键点的邻域按照上述计算得到的关键点的主方向进行旋 转, 再通过对关键点周围图像区域分块, 计算块内梯度直方图, 生成具有独特性的 128 维向 量, 对该向量进行梯度幅度限制和向量归一化, 得到最后的表征该关键点的区域图像信息 的描述子。 2. 如权利要求 1 所述的一种机载遥感视频数据特定人造区域自动识别跟踪方法, 其特 征在于, 所述的离线状态下的步骤(1)极值检测中, 通。
5、过待检测的位置点和它同尺度的8个 相邻点和上下相邻尺度对应的 92 个点共 26 个点进行比较, 得到尺度空间的极值点的位 置坐标。 3. 一种机载遥感视频数据特定人造区域自动识别跟踪方法, 为在线状态下跟踪, 其特 征在于, 具体包括以下步骤 : (1)SIFT 特征提取 : 对原始的高斯差分金字塔的每组第一层图像进行自适应阈值的图 像二值化, 提取边缘区域, 再进行固定半径的膨胀, 然后只在此确定区域内进行极值点检 测, 最后生成描述子 ; (2) 关键点精确匹配, 具体包括 : a、 初步匹配 : 对模板和实时图中的关键点的 128 维的描述子进行相似性的度量, 即求 欧式距离 ; b、。
6、 去除多对一的匹配点 : 将匹配对的坐标按照实时图中的匹配结果排序, 剔除多余的 匹配点, 得到一对一的匹配结果 ; c、 剔除错误匹配对 ; (3) 待跟踪目标区域范围确定 : 得到正确的匹配对之后, 随机选取 3 对, 模板关键点为 : (x1, y1), (x2, y2), (x3, y3), 实时图中对应的匹配点为 : (x1 , y1 ), (x2 , y2 ), (x3 , y3 ), 代 入下述仿射变换模型 : 权 利 要 求 书 CN 103761523 A 2 2/2 页 3 将上式简化写成 Ax=b, 则 : x=ATA-1ATb ; 得到仿射变换矩阵 x, 即 m1, m。
7、2,m3,m4,tx, tyT, 对给定的模板图像的边界值带入变换模型, 得到目标在实时图中的位置的边界值, 即跟踪 局部的范围大小, 再加上像素的边界冗余量, 就可以在下一幅图像中确定待跟踪目标的范 围大小 ; 同样, 将模板中的匹配点的质心坐标代入变换模型, 就可以得到实时图中的模板质 心坐标 ; (4) 通过轨迹预测自适应的确定待跟踪目标的局部区域范围 : 采用抛物线外推的方式 进行轨迹预测, 根据得到的局部跟踪范围区域的信息, 在下一帧 的实时图中截出含有目标 的局部跟踪范围, 截取得到一个小图, 同样, 对其进行 SIFT 特征提取, 求得尺度空间精确定 位的极值点, 为其找到主方向。
8、, 产生局部描述子, 再经过和模板图像的关键点的精确匹配, 确认目标是否在选定的局部区域内, 如果确认了目标跟踪, 则继续局部区域的跟踪, 反之, 重新对实时图进行特征提取和匹配。 4. 如权利要求 3 所述的一种机载遥感视频数据特定人造区域自动识别跟踪方法, 其特 征在于, 所述的关键点精确匹配采用采用穷举匹配方法 : 模板中的关键点的描述子表示为 : Ri=(ri1, ri2, , ri128), 实时图中的关键点描述子表示为 : Si=(si1,si2, , si128), 则任意两描述子的欧式距离 : 与模板中的关键点描述子 Ri匹配的实时图中的关键点描述子 Sj应满足 : 其中 : 。
9、d(Ri, Sj)是与Ri的所有欧式距离的最小值, d(Ri, Sk)是次小值, thr取值为0.8。 5. 如权利要求 3 或 4 所述的一种机载遥感视频数据特定人造区域自动识别跟踪方法, 其特征在于, 所述的剔除错误匹配对采用以下方法进行剔除 : 模板中的关键点的坐标为 : ri=(xi, yi), 质心坐标为 c1, 关键点与质心的距离定义为欧 式距离, 同样, 实时图的关键点的坐标为 : sj=(xj, yj), 质心坐标为 c2, 关键点与质心的距离 定义为欧式距离, 对于一个匹配对 ri, sj来说定义比值 : 将所有匹配对的比值进行排序, 剔除比值较大的突兀点, 得到的匹配对即大。
10、部分集中 在一定的范围内, 即完成第一次剔除。 6. 如权利要求 5 所述的一种机载遥感视频数据特定人造区域自动识别跟踪方法, 其特 征在于, 所述的剔除错误匹配对在完成第一次剔除后采用以下方法进行第二次剔除 : 重新 确定一个质心坐标, 替换原有质心, 再次剔除。 权 利 要 求 书 CN 103761523 A 3 1/5 页 4 一种机载遥感视频特定人造区域自动识别跟踪方法 技术领域 0001 本发明属于遥感图像处理领域, 具体涉及一种机载遥感视频特定人造区域自动识 别跟踪方法。 背景技术 0002 对机载遥感视频序列中动目标的跟踪算法大部分都是根据前后帧的帧差来初步 确定目标的位置, 。
11、后经过一系列的虚警剔除算法和预测算法, 达到跟踪的目的, 但是实际的 视频序列往往受到噪声、 拍摄方式等方面的影响, 图像质量会大大下降, 再加上图像背景可 能相对复杂, 这种方法难以提取出理想的目标, 最终导致跟踪结果存在偏差甚至失败。再 者, 这种方法无法实现对视频序列中相对静止目标的识别和跟踪, 存在技术上的缺陷。 0003 针对以上问题, 有人提出了融合 SIFT 算子和其他算法的改进技术, 实现对静止目 标的跟踪。 SIFT是一种基于尺度空间的、 对图像缩放、 旋转甚至仿射变换保持不变性的图像 局部特征描述算子, 但是这种算法计算过程复杂, 运算量庞大, 通常情况下很难满足实时性 的。
12、要求。 即使可以实现对静止目标的跟踪, 但是大部分的改进算法, 在程序的初始一般需要 人为干预, 圈定待跟踪的目标, 不能实现真正的自动识别和跟踪。 发明内容 0004 为了解决上述技术问题, 本发明提供了一种机载遥感视频数据特定人造区域自动 识别跟踪方法。 0005 一种机载遥感视频数据特定人造区域自动识别跟踪方法, 为离线状态下跟踪, 具 体包括以下步骤 : 0006 (1) 尺度空间的极值检测 : 对于给定的一幅二维图像, 连续进行高斯卷积和 2 倍下 采样及相减操作, 构成该图像的尺度空间, 产生高斯金字塔和高斯差分 (DOG) 金字塔, 在差 分金字塔中, 除了第一层和最后一层图像外。
13、, 进行极值检测, 得到尺度空间的极值点的位置 坐标 ; 0007 (2) 关键点定位 : 对尺度空间 DOG 函数进行三维二次曲线拟合, 确定阈值, 剔除那 些对比度低的不稳定的极值点, 再利用二阶的 Hessian 矩阵去除边缘响应强烈的极值点, 得到精确位置的关键点的坐标 ; 0008 (3) 关键点方向分配 : 计算关键点邻域像素的梯度幅度和角度信息, 并按梯度的 角度进行幅度大小的直方图统计, 进行直方图的二次曲线拟合, 确定关键点的主方向和辅 方向 ; 0009 (4) 关键点描述 : 对所有的关键点的邻域按照上述计算得到的关键点的主方向进 行旋转, 再通过对关键点周围图像区域分块。
14、, 计算块内梯度直方图, 生成具有独特性的 128 维向量, 对该向量进行梯度幅度限制和向量归一化, 得到最后的表征该关键点的区域图像 信息的描述子。 0010 所述的离线状态下的步骤 (1) 极值检测中, 通过待检测的位置点和它同尺度的 8 说 明 书 CN 103761523 A 4 2/5 页 5 个相邻点和上下相邻尺度对应的 92 个点共 26 个点进行比较, 得到尺度空间的极值点的 位置坐标。 0011 一种机载遥感视频数据特定人造区域自动识别跟踪方法, 为在线状态下跟踪, 具 体包括以下步骤 : 0012 (1)SIFT 特征提取 : 对原始的高斯差分金字塔的每组第一层图像进行自适。
15、应阈值 的图像二值化, 提取边缘区域, 再进行固定半径的膨胀, 然后只在此确定区域内进行极值点 检测, 最后生成描述子 ; 0013 (2) 关键点精确匹配, 具体包括 : 0014 a、 初步匹配 : 对模板和实时图中的关键点的 128 维的描述子进行相似性的度量, 即求欧式距离 ; 0015 b、 去除多对一的匹配点 : 将匹配对的坐标按照实时图中的匹配结果排序, 剔除多 余的匹配点, 得到一对一的匹配结果 ; 0016 c、 剔除错误匹配对 ; 0017 (3) 待跟踪目标区域范围确定 : 得到正确的匹配对之后, 随机选取 3 对, 模板关键 点为 : (xi, yi), (x2, y2。
16、), (x3, y3), 实时图中对应的匹配点为 : (x1 , y1 ), (x2 , y2 ), (x3 , y3 ), 代入下述仿射变换模型 : 0018 0019 将上式简化写成 Ax=b, 则 : x=ATA-1ATb ; 得到仿射变换矩阵 x, 即 m1, m2,m3,m4,tx, tyT, 对给定的模板图像的边界值带入变换模型, 得到目标在实时图中的位置的边界值, 即 跟踪局部的范围大小, 再加上像素的边界冗余量, 就可以在下一幅图像中确定待跟踪目标 的范围大小 ; 同样, 将模板中的匹配点的质心坐标代入变换模型, 就可以得到实时图中的模 板质心坐标 ; 0020 (4) 通过轨。
17、迹预测自适应的确定待跟踪目标的局部区域范围 : 采用抛物线外推的 方式进行轨迹预测, 根据得到的局部跟踪范围区域的信息, 在下一帧的实时图中截出含有 目标的局部跟踪范围, 截取得到一个小图, 同样, 对其进行 SIFT 特征提取, 求得尺度空间精 确定位的极值点, 为其找到主方向, 产生局部描述子, 再经过和模板图像的关键点的精确匹 配, 确认目标是否在选定的局部区域内, 如果确认了目标跟踪, 则继续局部区域的跟踪, 反 之, 重新对实时图进行特征提取和匹配。 0021 所述的关键点精确匹配采用采用穷举匹配方法 : 0022 模板中的关键点的描述子表示为 : Ri=(ri1, ri2, , r。
18、i128), 0023 实时图中的关键点描述子表示为 : Si=(si1, si2, , si128), 0024 则任意两描述子的欧式距离 : 0025 0026 与模板中的关键点描述子 Ri匹配的实时图中的关键点描述子 Sj应满足 : 说 明 书 CN 103761523 A 5 3/5 页 6 0027 0028 其中 : d(Ri, Sj) 是与 Ri的所有欧式距离的最小值, d(Ri, Sk) 是次小值, thr 取值为 0.8。 0029 所述的剔除错误匹配对采用以下方法进行剔除 : 0030 模板中的关键点的坐标为 : ri=(xi, yi), 质心坐标为 c1, 关键点与质心的。
19、距离定义 为欧式距离, 同样, 实时图的关键点的坐标为 : sj=(xj, yj), 质心坐标为 c2, 关键点与质心的 距离定义为欧式距离, 对于一个匹配对 ri, si来说定义比值 : 0031 0032 将所有匹配对的比值进行排序, 剔除比值较大的突兀点, 得到的匹配对即大部分 集中在一定的范围内, 即完成第一次剔除。 0033 所述的剔除错误匹配对在完成第一次剔除后采用以下方法进行第二次剔除 : 重新 确定一个质心坐标, 替换原有质心, 再次剔除。 0034 本发明的有益效果 : 0035 (1) 对边缘特征明显的待跟踪特定人造建筑区域提取边缘区域, 进行固定半径的 膨胀, 只对处理后。
20、的区域进行特征点检测, 这样, 既可以满足实时性的要求, 也可以提取足 够多的特征点, 实现后续的匹配运算。 0036 (2) 采用初步匹配、 去除多对一和去除错误匹配点层次化的匹配方式, 防止误匹 配。 0037 (3) 通过计算和预测技术确定目标的位置, 并经过自适应的开窗操作, 截取含有目 标的小范围区域进行目标的跟踪和识别, 提高了跟踪速度。 附图说明 0038 图 1 为本发明对机载遥感视频数据特定人造区域自动识别跟踪方法流程图。 具体实施方式 0039 下面结合附图并举实施例, 对本发明进行详细描述。 0040 如图 1 所示 : 离线状态下, 首先对确定的遥感数据模板图像, 提取。
21、 SIFT 特征。主要 步骤如下 : 0041 (1) 尺度空间的极值检测 : 对于给定的一幅二维图像, 连续进行高斯卷积和 2 倍下 采样及相减操作, 构成该图像的尺度空间, 产生高斯金字塔和高斯差分 (DOG) 金字塔。在差 分金字塔中, 除了第一层和最后一层图像外, 进行极值检测。 待检测的位置点和它同尺度的 8个相邻点和上下相邻尺度对应的92个点共26个点进行比较, 得到尺度空间的极值点的 位置坐标 ; 0042 (2) 关键点定位 : 对尺度空间 DOG 函数进行三维二次曲线拟合, 确定阈值, 剔除那 些对比度低的不稳定的极值点。再利用二阶的 Hes sian 矩阵去除边缘响应强烈的。
22、极值点, 得到精确位置的关键点的坐标 ; 0043 (3) 关键点方向分配 : 计算关键点邻域像素的梯度幅度和角度信息, 并按梯度的 角度进行幅度大小的直方图统计, 进行直方图的二次曲线拟合, 确定关键点的主方向和辅 说 明 书 CN 103761523 A 6 4/5 页 7 方向 ; 0044 (4) 关键点描述 : 对所有的关键点的邻域按照上述计算得到的关键点的主方向进 行旋转, 再通过对关键点周围图像区域分块, 计算块内梯度直方图, 生成具有独特性的 128 维向量, 对该向量进行梯度幅度限制和向量归一化, 得到最后的表征该关键点的区域图像 信息的描述子。 0045 在线状态下, 对边。
23、缘显著的场景进行快速特征匹配 : 0046 (1)SIFT 特征提取 : 对原始的高斯差分金字塔的每组第一层图像进行自适应阈值 的图像二值化, 提取边缘区域, 再进行固定半径的膨胀。 然后只在此确定区域内进行极值点 检测, 最后生成描述子 ; 0047 (2)关键点精确匹配 : 初步匹配 : 对模板和实时图中的关键点的128维的描述子 进行相似性的度量, 即求欧式距离。关键点匹配采用穷举匹配 : 0048 模板中的关键点的描述子表示为 : Ri=(ri1,ri2, , ri128), 0049 实时图中的关键点描述子表示为 : Si=(si1,si2,, si128), 0050 则任意两描述。
24、子的欧式距离 : 0051 0052 与模板中的关键点描述子 Ri匹配的实时图中的关键点描述子 Sj应满足 : 0053 0054 其中 : d(Ri, Sj)是与Ri的所有欧式距离的最小值, d(Ri, Sk)是次小值, Low建议thr 取值为 0.8。 0055 去除多对一的匹配点 : 将匹配对的坐标按照实时图中的匹配结果排序, 剔除多 余的匹配点, 得到一对一的匹配结果。 0056 剔除错误匹配对 : 剔除算法确定如下 : 模板中的关键点的坐标为 : ri=(ri, yi), 质心坐标为 : c1, 关键点与质心的距离定义为欧式距离, 同样, 实时图的关键点的坐标为 : sj=(xj,。
25、 yj), 质心坐标为 : c2, 关键点与质心的距离定义为欧式距离。对于一个匹配对 ri, si 来说, 定义比值 : 0057 0058 将所有匹配对的比值进行排序, 剔除比值较大的突兀点, 这样, 得到的匹配对大部 分集中在一定的范围内。 0059 为了去除孤立点的影响, 采用二次剔除 : 第一次剔除的匹配对尽量多一点, 使其可 以剔除孤立点, 重新确定一个质心坐标, 替换原有质心, 按上述算法, 再次剔除, 这样就使剩 下的匹配对是正确的了。 0060 (3) 待跟踪目标区域范围确定 : 得到正确的匹配对之后, 随机选取 3 对, 模板关键 点为 : (x1, y1), (x2, y2。
26、), (x3, y3), 实时图中对应的匹配点为 : (x1 , y1 ), (x2 , y2 ), (x3 , y3 ), 代入下边仿射变换的模型 : 说 明 书 CN 103761523 A 7 5/5 页 8 0061 0062 为了方便表示, 将上式写成 : Ax=b, 则可以得 : 0063 x=ATA-1ATb 0064 通过上式就可以得到仿射变换矩阵 x, 对给定的模板图像的边界值带入变换模型, 就可以得到目标在实时图中的位置的边界值, 即跟踪局部的范围大小, 再加上一些像素的 边界冗余量, 就可以在下一幅图像中确定待跟踪目标的范围大小。 0065 同样, 将模板中的匹配点的质心。
27、坐标代入变换模型, 就可以得到实时图中的模板 质心坐标。 0066 接着, 通过轨迹预测自适应的确定待跟踪目标的局部区域范围 : 轨迹预测采用抛 物线外推的方式 ( 线性的外推会存在较大的误差 ), 在第 “4” 时刻的质心坐标, 可由前 3 个 坐标计算得到 : 0067 0068 局部跟踪范围区域范围的确定可同样经过仿射变换的模型得到。 根据得到的局部 跟踪范围区域的信息, 在下一帧的实时图中截出含有目标的局部跟踪范围, 截取得到一个 小图, 同样, 对其进行 SIFT 特征提取 : 求得尺度空间精确定位的极值点, 为其找到主方向, 产生局部描述子。再经过和模板图像的关键点的精确匹配, 确认目标是否在选定的局部区 域内。如果确认了目标跟踪, 则继续局部区域的跟踪, 反之, 重新对实时图进行特征提取和 匹配。 0069 综上所述, 以上仅为本发明的较佳实施例而已, 并非用于限定本发明的保护范围。 凡在本发明的精神和原则之内, 所作的任何修改、 等同替换、 改进等, 均应包含在本发明的 保护范围之内。 说 明 书 CN 103761523 A 8 1/1 页 9 图 1 说 明 书 附 图 CN 103761523 A 9 。