书签 分享 收藏 举报 版权申诉 / 10

一种改进的视频数据特征映射方法.pdf

  • 上传人:柴****2
  • 文档编号:4903386
  • 上传时间:2018-11-26
  • 格式:PDF
  • 页数:10
  • 大小:4.35MB
  • 摘要
    申请专利号:

    CN201310332609.4

    申请日:

    2013.08.01

    公开号:

    CN103412907A

    公开日:

    2013.11.27

    当前法律状态:

    授权

    有效性:

    有权

    法律详情:

    登录超时

    IPC分类号:

    G06F17/30

    主分类号:

    G06F17/30

    申请人:

    西北工业大学

    发明人:

    韩军伟; 吉祥; 郭雷; 胡新韬

    地址:

    710072 陕西省西安市友谊西路127号

    优先权:

    专利代理机构:

    西北工业大学专利中心 61204

    代理人:

    王鲜凯

    PDF完整版下载: PDF下载
    内容摘要

    本发明涉及一种改进的视频数据特征映射方法,在第一次将测试视频数据的第一种特征映射到第二种特征后,从测试的视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征重新映射到第二种特征上,得到测试视频数据的第二种特征。本发明提出的方法,能够利用测试视频数据的特征信息建立两种特征之间更完备的映射关系,将测试视频数据的第一种特征更准确地映射到第二种特征上,与传统的视频数据特征映射方法相比,可以提高测试视频数据第二种特征的分类准确率。

    权利要求书

    权利要求书
    1.  一种改进的视频数据特征映射方法,其特征在于步骤如下:
    步骤1:将训练集R1中的N个视频数据特征Y1,Y2,...,YN写成矩阵形式:
    Z=Y1Y2···YN=y1,1,y1,2,···,y1,ny2,1,y2,2,···,y2,n···yN,1,yN,2,···,yN,n;]]>
    其中,R1表示N个视频数据特征Y1,Y2,...,YN和特征X1,X2,...,XN构成的集合;Y1,Y2,...,YN和X1,X2,...,XN表示N个视频数据的两种特征;y1,1,y1,2,...,y1,n表示Y1中的n个元素;y2,1,y2,2,...,y2,n表示Y2中的n个元素;yN,1,yN,2,...,yN,n表示YN中的n个元素;N表示训练集中视频数据个数,N>0;
    步骤2:利用y1,h=WTφ(X1)y2,h=WTφ(X2)···yN,h=WTφ(XN)]]>
    计算矩阵Z的第h列元素y1,h,y2,h,...,yN,h的映射矩阵W和基函数φ(X1),φ(X2),…,φ(XN)中参数μj和sj;其中,h=1,2,...,n;y1,y2,...,yN表示矩阵Z中的一列元素;
    所述W表示利用y1,h=WTφ(X1)y2,h=WTφ(X2)···yN,h=WTφ(XN)]]>计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,M表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,M表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(XN)=[φj(xN,j)];j=1,2,...,M表示XN中第j个元素的标号,xN,j表示XN中的第j个元素;M表示X1,X2,…,XN中元素的个数;
    步骤3:利用yN+1,h=WTφ(XN+1)yN+2,h=WTφ(XN+2)···yN+P,h=WTφ(XN+P)]]>计算P个测试视频数据的特征YN+1,YN+2,...,YN+P的第h列元素yN+1,h,yN+2,h,...,yN+P,h;
    其中,XN+1,XN+2,...,XN+P为P个测试视频数据的第一种特征;P表示测试视频数据的个数,P>0;
    步骤4:利用下式计算X1,X2,...,XN和XN+1,XN+2,...,XN+P中每两个特征的相关性系数r(Xi,Xk),
    r(Xi,Xk)=Σt=1M[(xi,t-X‾i)]·[(xk,t-X‾k)]Σt=1M(xi,t-X‾i)2Σt=1M(xk,t-X‾k)2;]]>
    利用下式计算Y1,Y2,...,YN和YN+1,YN+2,...,YN+P中每两个特征的相关性系数r(Yi,Yk),
    r(Yi,Yk)=Σq=1n[(yi,q-Y‾i)]·[(yk,q-Y‾k)]Σq=1n(yi,q-Y‾i)2Σq=1n(yk,q-Y‾k)2]]>
    若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入R1;
    其中,r(Xi,Xk)表示视频数据特征Xi和Xk的相关性系数;t=1,2,...,M;i=1,2,...,N;k=N+1,N+2,...,N+P;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1,T2∈[-1,1]表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,n;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
    步骤5:将R1中视频数据的特征Y1,Y2,...,YN,Yk和X1,X2,...,XN,Xk按照步骤1、步骤2和步骤3重新计算得到P个测试视频数据的特征Y′N+1,Y′N+2,...,Y′N+P。

    说明书

    说明书一种改进的视频数据特征映射方法
    技术领域
    本发明涉及一种改进的视频数据特征映射方法,可以应用于视频数据特征映射问题的解决当中。
    背景技术
    在现实生活中,视频数据某种特征全部可以得到,但是另外一种特征却只能得到一部分,我们将全部都可以得到的特征称为视频数据的第一种特征,将只能得到一部分的特征称为视频数据的第二种特征。我们期望通过特征映射得到视频数据缺失的第二种特征。特征映射是指利用视频数据训练集中的两种特征,建立两种特征之间的映射关系,将用于测试的视频数据的第一种特征映射到第二种特征,从而得到测试视频数据缺失的第二种特征。传统的视频数据特征映射方法在建立映射关系时只利用了训练集中的两种特征,忽视了测试视频数据中所包含的第一种特征,在训练集包含的特征个数较少时难以达到满意的映射效果,所以我们提出了一种改进的视频数据特征映射方法,该方法在第一次将测试视频数据第一种特征映射到第二种特征后,从测试视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试的视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征映射到第二种特征上。
    实验结果显示,利用改进的视频数据特征映射方法得到的第二种特征的分类准确率高于传统的视频数据特征映射方法得到的第二种特征的分类准确率。
    发明内容
    要解决的技术问题
    为了避免现有技术的不足之处,本发明提出一种改进的视频数据特征映射方法, 利用测试视频数据的特征信息,建立两种特征之间更完备的映射关系,提高视频数据特征映射方法得到的特征的分类准确率。
    技术方案
    一种改进的视频数据特征映射方法,其特征在于步骤如下:
    步骤1:将训练集R1中的N个视频数据特征Y1,Y2,...,YN写成矩阵形式:
    Z=Y1Y2···YN=y1,1,y1,2,···,y1,ny2,1,y2,2,···,y2,n···yN,1,yN,2,···,yN,n;]]>
    其中,R1表示N个视频数据特征Y1,Y2,...,YN和特征X1,X2,...,XN构成的集合;Y1,Y2,...,YN和X1,X2,...,XN表示N个视频数据的两种特征;y1,1,y1,2,...,y1,n表示Y1中的n个元素;y2,1,y2,2,...,y2,n表示Y2中的n个元素;yN,1,yN,2,...,yN,n表示YN中的n个元素;N表示训练集中视频数据个数,N>0;
    步骤2:利用y1,h=WTφ(X1)y2,h=WTφ(X2)···yN,h=WTφ(XN)]]>
    计算矩阵Z的第h列元素y1,h,y2,h,...,yN,h的映射矩阵W和基函数φ(X1),φ(X2),…,φ(XN)中参数μj和sj;其中,h=1,2,...,n;y1,y2,...,yN表示矩阵Z中的一列元素;
    所述W表示利用y1,h=WTφ(X1)y2,h=WTφ(X2)···yN,h=WTφ(XN)]]>计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,M表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,M表示X2中第j个元素的标 号,x2,j表示X2中的第j个元素;φ(XN)=[φj(xN,j)];j=1,2,...,M表示XN中第j个元素的标号,xN,j表示XN中的第j个元素;M表示X1,X2,…,XN中元素的个数;
    步骤3:利用yN+1,h=WTφ(XN+1)yN+2,h=WTφ(XN+2)···yN+P,h=WTφ(XN+P)]]>计算P个测试视频数据的特征YN+1,YN+2,...,YN+P的第h列元素yN+1,h,yN+2,h,...,yN+P,h;
    其中,XN+1,XN+2,...,XN+P为P个测试视频数据的第一种特征;P表示测试视频数据的个数,P>0;
    步骤4:利用下式计算X1,X2,...,XN和XN+1,XN+2,...,XN+P中每两个特征的相关性系数r(Xi,Xk),
    r(Xi,Xk)=Σt=1M[(xi,t-X‾i)]·[(xk,t-X‾k)]Σt=1M(xi,t-X‾i)2Σt=1M(xk,t-X‾k)2;]]>
    利用下式计算Y1,Y2,...,YN和YN+1,YN+2,...,YN+P中每两个特征的相关性系数r(Yi,Yk),
    r(Yi,Yk)=Σq=1n[(yi,q-Y‾i)]·[(yk,q-Y‾k)]Σq=1n(yi,q-Y‾i)2Σq=1n(yk,q-Y‾k)2]]>
    若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入R1;
    其中,r(Xi,Xk)表示视频数据特征Xi和Xk的相关性系数;t=1,2,...,M;i=1,2,...,N;k=N+1,N+2,...,N+P;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1,T2∈[-1,1]表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,n;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
    步骤5:将R1中视频数据的特征Y1,Y2,...,YN,Yk和X1,X2,...,XN,Xk按照步骤1、步骤2和步骤3重新计算得到P个测试视频数据的特征Y′N+1,Y′N+2,...,Y′N+P。
    有益效果
    本发明提出的一种改进的视频数据特征映射方法,在第一次将测试视频数据的第一种特征映射到第二种特征后,从测试的视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征重新映射到第二种特征上,得到测试视频数据的第二种特征。
    本发明提出的方法,能够利用测试视频数据的特征信息建立两种特征之间更完备的映射关系,将测试视频数据的第一种特征更准确地映射到第二种特征上,与传统的视频数据特征映射方法相比,可以提高测试视频数据第二种特征的分类准确率。
    附图说明
    图1:本发明方法的基本流程图
    图2:本发明方法映射得到的测试视频数据第二种特征的分类准确率
    具体实施方式
    现结合实施例、附图对本发明作进一步描述:
    用于实施的硬件环境是:AMD Athlon 64×2 5000+计算机、2GB内存、256M显卡,运行的软件环境是:Matlab2009a和Windows XP。我们用Matlab软件实现了本发明提出的方法。
    本发明具体实施如下:
    1、本发明流程图如附图1所示。实验中采用51个视频数据的BoW特征X1,X2,...,X51和BIS特征Y1,Y2,...,Y51作为训练集R1中的第一种特征和第二种特征,将1256个测试视频数据的BoW特征X52,X53,...,X1307作为测试视频数据的第一种特征;将
    Y1,Y2,...,Y51写成矩阵形式Z=Y1Y2···Y51=y1,1,y1,2,···,y1,65y2,1,y2,2,···,y2,65···y51,1,y51,2,···,y51,65;]]>
    其中,R1表示51个视频数据特征Y1,Y2,...,Y51和特征X1,X2,...,X51构成的集合;y1,1,y1,2,...,y1,65表示Y1中的第1、2和第65个元素;y2,1,y2,2,...,y2,65表示Y2中的第1、2和第65个元素;y51,1,y51,2,...,y51,65表示Y51中的第1、2和第65个元素;
    2、利用y1,h=WTφ(X1)y2,h=WTφ(X2)···y51,h=WTφ(X51)]]>计算矩阵Z的第h列元素y1,h,y2,h,...,y51,h的映射矩阵W和基函数φ(X1)φ(X2),…,φ(XN)中的参数μj和sj;
    其中,y1,y2,...,y51表示矩阵Z中的一列元素;W表示利用y1,h=WTφ(X1)y2,h=WTφ(X2)···y51,h=WTφ(X5)]]>计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,65表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,65表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(X51)=[φj(x51,j)];j=1,2,...,65表示X51中第j个元素的标号,x51,j表示X51中的第j个元素;65表示X1,X2,…,X51中元素的个数;
    3、利用y52,h=WTφ(X52)y53,h=WTφ(X53)···y1307,h=WTφ(X1307)]]>计算1256个测试视频数据的特征Y52,Y53,...,Y1307的第h列元素y52,h,y53,h,...,y1307,h;
    其中,X52,X53,...,X1307为1256个测试视频数据的第一种特征;
    4、利用r(Xi,Xk)=Σt=165[(xi,t-X‾i)]·[(xk,t-X‾k)]Σt=165(xi,t-X‾i)2Σt=165(xk,t-X‾k)2]]>计算X1,X2,...,X51和X52,X53,...,X1307之间每两个特征的相关性系数,利用r(Yi,Yk)=Σq=165[(yi,q-Y‾i)]·[(yk,q-Y‾k)]Σq=165(yi,q-Y‾i)2Σq=165(yk,q-Y‾k)2]]>计算Y1,Y2,...,Y51和Y52,Y53,...,Y1307之间每两个特征的相关性系数,若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入集合R1;
    其中,r(Xi,Xk)表示Xi和Xk的相关性系数;t=1,2,...,65;i=1,2,...,51;k=52,53,...,1307;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1=T2=0.5表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,65;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
    5、将R1中视频数据的特征Y1,Y2,...,Y51,Yk和X1,X2,...,X51,Xk按照步骤1、步骤2和步骤3重新计算得到1256个测试视频数据的第二种特征Y′52,Y′53,...,Y′1307。
    实验用1256个BIS特征Y′52,Y′53,...,Y′1307进行视频数据分类,计算分类准确率,分类算法采用KNN算法,KNN算法中K取值为1到10。作为对比,计算传统的视频数据特征映射方法得到的BIS特征Y52,Y53,...,Y1307的分类准确率。结果如图2所示,从图中可以看出,改进的视频数据特征映射方法得到的Y′52,Y′53,...,Y′1307的分类准确率为63.5%,传统的视频数据特征映射方法的得到的Y52,Y53,...,Y1307的分类准确率为56.5%,改进的视频数据特征映射方法的得到的Y′52,Y′53,...,Y′1307分类准确率比传统的视频数据特征映射方法得到的Y52,Y53,...,Y1307的分类准确率高7%。

    关 键  词:
    一种 改进 视频 数据 特征 映射 方法
      专利查询网所有文档均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    0条评论

    还可以输入200字符

    暂无评论,赶快抢占沙发吧。

    关于本文
    本文标题:一种改进的视频数据特征映射方法.pdf
    链接地址:https://www.zhuanlichaxun.net/p-4903386.html
    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2017-2018 zhuanlichaxun.net网站版权所有
    经营许可证编号:粤ICP备2021068784号-1