基于生成对抗网络的二维图片检索三维模型的方法.pdf
《基于生成对抗网络的二维图片检索三维模型的方法.pdf》由会员分享,可在线阅读,更多相关《基于生成对抗网络的二维图片检索三维模型的方法.pdf(14页完成版)》请在专利查询网上搜索。
1、(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 201910240153.6 (22)申请日 2019.03.28 (71)申请人 天津大学 地址 300072 天津市南开区卫津路92号 (72)发明人 聂为之王炜杰 (74)专利代理机构 天津市北洋有限责任专利代 理事务所 12201 代理人 李林娟 (51)Int.Cl. G06F 16/583(2019.01) G06F 16/56(2019.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种基于生成对抗网络的二维图。
2、片检索三 维模型的方法 (57)摘要 本发明公开了一种基于生成对抗网络的二 维图片检索三维模型的方法, 所述方法包括:将 输入的三维模型通过主成分分析进行矫正, 将矫 正之后的三维模型转化为12张三维模型视角图; 利用soft-attention机制从三维模型视角图中 选取特征视图, 将选取的特征视图通过对抗网络 来转换其模态到真实图片对应的模态, 使得模型 的特征视图和真实图片具有相同的特征空间; 选 定欧几里得距离度量方式, 进行三维模型相似性 度量及检索。 本发明将在不同特征空间中的三维 模型的特征视图和真实图片转移到同一特征空 间下, 使得在相似性度量时更加准确和科学。 权利要求书1页。
3、 说明书9页 附图3页 CN 110069656 A 2019.07.30 CN 110069656 A 1.一种基于生成对抗网络的二维图片检索三维模型的方法, 其特征在于, 所述方法包 括: 将输入的三维模型通过主成分分析进行矫正, 将矫正之后的三维模型转化为12张三维 模型视角图; 利用soft-attention机制从三维模型视角图中选取特征视图, 将选取的特征视图通过 对抗网络来转换其模态到真实图片对应的模态, 使得模型的特征视图和真实图片具有相同 的特征空间; 选定欧几里得距离度量方式, 进行三维模型相似性度量及检索。 2.根据权利要求1所述的一种基于生成对抗网络的二维图片检索三维模。
4、型的方法, 其 特征在于, 所述利用soft-attention机制从三维模型视角图中选取特征视图具体为: 利用OpenGL开发的可视化工具, 在每个3D模型的Z轴上以30度为标准提取12张表示视 觉和结构信息的视图; 将12张视图通过注意力模型计算不同视图代表的权重, 最后根据权重值大小得到特征 视图。 3.根据权利要求2所述的一种基于生成对抗网络的二维图片检索三维模型的方法, 其 特征在于, 所述注意力模型具体为: 其中, w为可训练的超参数; Wa为可训练的超参数; Ua为可训练的超参数; ba为可训练的 超参数; xi为第i张图片提取的特征; T为转置;为各视图经过soft-atten。
5、tion得到的不 同权重; ht-1为LSTM网络的参数, tanh为神经网络的激活函数。 4.根据权利要求1所述的一种基于生成对抗网络的二维图片检索三维模型的方法, 其 特征在于, 所述对抗网络具体为: 其中,表示隐藏层(z)的判别性损失, 表述如下: 为GAN损失, i是训练对象标签的索引, z是隐藏层的激活, w是模型的参数,Ex,y,z为期望, G(x,z)为经过生成器生成 的图片, x为输入的视图, y为真实图片, z为随机噪声向量, 为可训练的超参数。 权利要求书 1/1 页 2 CN 110069656 A 2 一种基于生成对抗网络的二维图片检索三维模型的方法 技术领域 0001。
6、 本发明涉及相似性度量和立体模型检索领域, 尤其涉及一种基于生成对抗网络的 二维图片检索三维模型的方法。 背景技术 0002 在计算机视觉和模式识别中, 三维模型检索是一个热门的课题。 随着计算机视觉 技术以及采集设备的发展, 三维模型在日常生活中得到了广泛的应用。 当今有关三维模型 的科学技术越来越成熟并且应用的范围也越来越广, 例如: 计算机辅助设计1, 计算机图形 学2, 计算机视觉3, 生物信息学4, 医学5和娱乐产业6。 三维模型可以携带比文本和图 像更多的信息, 展示形式也更为丰富真实, 促使其越来越广泛地应用于社会生产生活的各 个领域7。 三维模型之所以得到如此广泛的推广和使用,。
7、 其原因包括如下4点: (l)三维模型 其本身能够包含更丰富的信息, 而且表示形式更为贴近真实; (2)三维采集技术和三维建模 软件的发展促进了三维模型的快速发展, 人们现在已经能够越来越快捷和方便的获取三维 模型结构信息和建立三维模型; (3)中央处理器CPU及有关三维模型处理的硬件速度越来越 快, 价格越来越便宜, 这样使得三维模型不再只限于大型图形工作站上处理, 能够在个人微 机上实现快速处理; (4)互联网的快速普及和发展能够使人们更加容易地得到想要的三维 模型, 与此同时也加快了三维建模的迅猛发展8。 目前三维模型已经成为了继声音、 图像、 视频之后的第四种多媒体数据类型9, 与此同。
8、时造成了数据的海量增长, 如何对这些数据 的有效管理是如今人们亟待解决的问题, 其中三维模型检索是实现对三维模型海量数据有 效管理的关键技术。 0003 基于对前人工作的调研, 三维模型检索算法大体可分为两类: 一类是基于文本的 检索10, 到目前为止基于文本的三维模型检索技术已经发展的相当成熟, 该方法的主要特 点是三维模型的相关特征事先由人工进行标注, 再根据用户输入的文本查询条件进行语义 检索。 但随着三维模型数量的增加, 这类检索方法需要研究人员人工添加大量的文本描述 标注, 而且这些文本描述存在内容不准确, 不全面, 有歧义, 有主观性等缺点, 这就导致了在 针对同样的模型时出现检索。
9、结果准确度偏低、 查全率偏低等问题, 因此检索体验较差; 另一 类三维模型检索技术是基于内容的检索11, 基于内容的三维模型检索的最主要思想是根 据三维模型的几何形状、 拓扑结构等形状内容或者颜色、 纹理等外观内容来得到三维模型 的相关形状、 外观特征, 形成一组特征向量, 并利用这些特征向量作为三维模型的描述并建 立相应索引, 在三维数据库检索时进行比较和计算12。 该类检索方法不需要人工添加文本 描述信息, 而是直接从三维模型本身的内容出发进行自动的检索, 避免了由人工主观性造 成模型描述信息的差异。 此外由二维图像的检索延伸到三维模型检索发展日趋成熟, 极大 地扩大了基于内容的检索方法的。
10、应用范围。 0004 与二维图片相比较, 三维模型携带了更多的描述信息, 并且三维模型携带的形状 和外观信息超越了一般基于内容的二维检索的范畴。 因此三维模型的格式具有两种形式: 立体三维模型和二维图片的组合, 根据这两种模型格式, 基于内容的检索分为两类: 基于模 说明书 1/9 页 3 CN 110069656 A 3 型的检索和基于视图的检索。 0005 相似性度量目前面临的主要挑战为: 0006 1)由于立体模型包含的信息量较大, 如何将数据库中的模型进行描述, 提取出区 分度较高的特征, 并将特征进行匹配, 相似度的计算直接影响到检索的结果; 0007 2)在保证检索准确度的同时还要。
11、考虑计算量和计算复杂度的问题, 使检索时间控 制在人们可以接受的范围。 发明内容 0008 本发明提供了一种基于生成对抗网络的二维图片检索三维模型的方法, 本发明将 在不同特征空间中的三维模型的特征视图和真实图片转移到同一特征空间下, 使得在相似 性度量时更加准确和科学, 详见下文描述: 0009 一种基于生成对抗网络的二维图片检索三维模型的方法, 所述方法包括: 0010 将输入的三维模型通过主成分分析进行矫正, 将矫正之后的三维模型转化为12张 三维模型视角图; 0011 利用soft-attention机制从三维模型视角图中选取特征视图, 将选取的特征视图 通过对抗网络来转换其模态到真实。
12、图片对应的模态, 使得模型的特征视图和真实图片具有 相同的特征空间; 0012 选定欧几里得距离度量方式, 进行三维模型相似性度量及检索。 0013 所述利用soft-attention机制从三维模型视角图中选取特征视图具体为: 0014 利用OpenGL开发的可视化工具, 在每个3D模型的Z轴上以30度为标准提取12张表 示视觉和结构信息的视图; 0015 将12张视图通过注意力模型计算不同视图代表的权重, 最后根据权重值大小得到 特征视图。 0016 所述注意力模型具体为: 0017 0018 0019 其中, w为可训练的超参数; Wa为可训练的超参数; Ua为可训练的超参数; ba为可。
13、训 练的超参数; xi为第i张图片提取的特征; T为转置;为各视图经过soft-attention得到 的不同权重; ht-1为LSTM网络的参数, tanh为神经网络的激活函数。 0020 所述对抗网络具体为: 0021 0022其中,表示隐藏层(z)的判别性损失, 表述如下: 0023为GAN损失, i是训练对象标签的索引, z是隐藏层的 说明书 2/9 页 4 CN 110069656 A 4 激活, w是模型的参数,Ex,y,z为期望, G(x,z)为经过生成器 生成的图片, x为输入的视图, y为真实图片, z为随机噪声向量, 为可训练的超参数。 0024 本发明提供的技术方案的有益。
14、效果是: 0025 1、 本发明通过提取给定三维模型的特征视图信息, 并通过将检索图片和模型视角 图转换到同一特征空间下, 使得在相似度的量化方面更加准确和科学; 0026 2、 本发明在转换特征空间时, 使用基于对抗网络的生成模型, 从而确保了得到的 特征视图能够在图片表征上与真实图片更加接近; 0027 3、 本发明通过选择具有代表性的视图信息表示立体模型, 从而减少了计算量, 使 得相似性度量具有高效性; 0028 4、 本发明避免了仅采用基于立体模型或基于视图的方法导致的立体模型信息提 取不完整, 能够保证计算立体模型相似度的科学性和准确性。 附图说明 0029 图1为一种基于生成对抗。
15、网络的二维图片检索三维模型的方法的流程图; 0030 图2为立体模型ModelNet40数据库内容的示例图; 0031 图3为真实图片对应数据库ModelNet40各类别内容的示例图; 0032 图4为对抗网络的网络框架示意图; 0033 图5为检索示例图; 0034 图6为三维模型的矫正结果图。 具体实施方式 0035 为使本发明的目的、 技术方案和优点更加清楚, 下面对本发明实施方式作进一步 地详细描述。 0036 现阶段, 大多数方法仅采用基于模型或者基于视图的方法, 这可能导致对立体模 型信息表示的不完整。 本发明实施例提出通过转换特征视图的特征空间来表征立体三维模 型的方法。 在给定。
16、的三维模型时, 先将其进行校正之后选取12张投影视图, 并通过soft- attention机制选取特征视图; 并将选取之后的特征视图通过对抗网络训练好的生成器得 到逼真的三维模型视角图, 最后通过三维模型图片来计算和转换后特征视图的距离。 0037 实施1 0038 本发明实施例设计的基于生成对抗网络的二维图片检索三维模型的方法, 本方法 提取三维模型后的特征视图, 即通过选取三维模型不同视图并将这些视图经过soft- attention机制处理之后得到融合了模型信息的特征视图。 0039 101: 给定三维模型, 将其通过NPCA(主成分分析)方法进行矫正, 将矫正之后的三 维模型转化为1。
17、2张三维模型视角图; 0040 其中: 0041 上述步骤101中使用NPCA(主成分分析)13方法矫正三维模型。 NPCA(主成分分析) 是模型处理中常用的一种方法, 因为它能够有效地提取出模型的主要成分和结构, 一定程 度上去除噪音和干扰, 因此成为了对3D模型施加其它后续操作的基本变换。 对三维模型的 说明书 3/9 页 5 CN 110069656 A 5 矫正结果如图6所示。 0042 其中, 该步骤为本领域技术人员所公知, 本发明实施例对此不做赘述。 0043 102: 利用soft-attention机制从三维模型视角图中选取特征视图, 此特征视图包 含了三维模型的模型信息; 0。
18、044 103: 将选取的特征视图通过对抗网络来转换其模态到真实图片对应的模态, 使得 模型的特征视图和真实图片在进行相似度度量时具有相同的特征空间; 0045 104: 选定欧几里得距离度量方式, 进行三维模型相似性度量及检索。 0046 上述步骤102中的利用soft-attention机制从三维模型视角图中选取特征视图的 步骤操作步骤如下: 0047 首先, 利用OpenGL开发的可视化工具从每个3D模型中提取一组视图, 这些视图环 绕3D模型并在Z轴上以30度提取; 因此可以提取12(360/30)张视图来表示3D模型的视觉和 结构信息, 这些视图也可以看作是一个序列图像。 0048 。
19、针对提取的模型特征视图, 本发明实施例使用了soft-attention机制, 将12张视 图通过soft-attention(注意力模型)计算不同视图代表的权重, 最后根据权重值大小得到 特征视图。 0049 本发明实施例提出的方法就是联合学习立体模型的视图和立体模型本身的关联 性来进行检索的方法, 具体实施步骤如下: 0050 根据视图的序列结构, 提出了一种纯粹基于神经网络的通用方法来提取每个3D模 型的特征视图。 这种方法基于编码器-解码器框架14, 该框架已成功用于机器翻译以及图 像和视频字幕生成。 编码器-解码器框架由两个神经网络组成: 编码器和解码器。 0051 本发明实施例利用。
20、VGG-NET16(视觉几何组网络)15模型作为编码器来提取每个 视图的特征向量x。 然后, 根据视图类型, 将LSTM(长短期记忆网络)模型用作解码器。 这里, 在LSTM模型中使用soft-attention模型, 其可以通过学习来定义每个虚拟视图的权重。 这 些权重用于提取每个3D模型的特征视图, 接下来将详细介绍这两个神经网络和注意力模 型。 0052 编码网络: 本发明实施例采用流行的CNN模型(VGG-NET16)用于提取每个虚拟图像 的特征向量。 为了保证特征向量的鲁棒性, 特征向量的最终维度选择为4096。 0053 解码网络: 本发明实施例采用递归神经网络(LSTM)可以有效。
21、地处理数据序列。 通 过环绕3D模型来记录虚拟图像, 其可以被视为序列图像。 因此, LSTM模型适用于本方法中的 解码器。 0054 在本发明实施例中, 使用介绍的LSTM单元的变体作为解码器, 具体地, 为了提取特 征视图, 本发明实施例采用soft-attention机制, 其允许解码器对每个时间特征向量X x1, ., xn进行加权, 成功地利用了该种方法来获取图像背后的空间结构。 这里, 每个时 间特征向量的权重有助于选择特征视图。 在soft-attention模型中, 采用时间特征向量的 动态加权和, 而不是简单的平均策略, 即: 0055 0056 其中, 说明书 4/9 页 。
22、6 CN 110069656 A 6 0057和 i(t)用来计算LSTM内部解码器每t时刻的值。 将 i(t)看作是注意 力机制在t时刻的权重。 0058 Soft-attention权重 i(t)反映了输入图像中第i个时刻特征的相关性。 在这里, 相 关性得分ei(t)计算如下: 0059 0060 其中, w,Wa,Ua和ba是与编码器和解码器网络的所有其他参数一起估计的参数, ht-1 为LSTM网络的参数, tanh为神经网络的激活函数。 0061 相关性得分ei(t)计算出所有帧i1, ., n, 将它们标准化以获得 i(t): 0062 0063 将soft-attention机。
23、制称为计算非标准化相关性得分, 并将其归一化以获得 soft-attention权重的整个过程。 0064 即, 通过上述公式(1)-(3)形成了步骤102中的注意力模型。 0065 其中, Soft-attention机制允许解码器通过增加相应时间特征的soft-attention 权重来选择性地仅关注图像的子集。 该结构可以帮助解码器定义重要虚拟视图的高权重。 在本方法中, 选择虚拟视图的最高权重作为特征视图。 0066 综上所述, 本发明实施例通过上述步骤101-步骤104将在不同特征空间中的三维 模型的特征视图和真实图片转移到同一特征空间下, 使得在相似性度量时更加准确和科 学。 00。
24、67 实施例2 0068 下面结合具体的实例, 对实施例1中的步骤进行进一步地介绍, 详见下文描述: 0069 本发明实施例需要将特征视图转换为实际图像, 以使特征视图和真实图像具有相 同的特征空间用于相似性度量。 GAN(对抗网络)非常适合这个目标, 将实施例1中得到的特 征视图通过对抗网络模型的生成器得到逼近真实图片的视图。 0070 传统的生成模型, 学习从矢量z到输出图像y, G: zy的映射。 0071 在这里, 需要学习从特征视图x和矢量z到真实图像y的映射, G: x, zy。 训练发 生器G以产生不能通过训练的鉴别器D与 “真实” 图像区分的输出, 鉴别器D被训练为检测图 片来。
25、自于真实图片还是生成器。 本方法的目标是处理基于2D图像的3D对象检索问题。 不仅 考虑了生成模型的稳健性, 还考虑了类内变异。 传统的生成模型忽略了这个问题。 为了解决 这个问题, 本方法提出了一种新颖的HGAN。 0072 在生成模型的体系结构中, 在矢量z中添加了一个判别性损失来改善类内变化, 以 使HGAN模型适用于整体数据。 HGAN模型的目标可以表达为: 0073 0074其中, 表示隐藏层(z)的判别性损失, 可以表述如下: 0075 说明书 5/9 页 7 CN 110069656 A 7 0076 这是softmax的损失。 i是训练对象标签的索引, z是隐藏层的激活, w是。
26、模型的参 数, 用于将隐藏状态z转换为向量和计算最终损失分数。 表示经典的GAN损失, 可表示如 下: 0077 0078 其中, 生成器G试图最小化这个目标, 鉴别器D试图最大化这个目标, 以此达到对抗 的目的。 0079 根据之前的方法, 发现将GAN目标与更传统的损失(例如L2距离)混合是有益的。 因 此, 利用L2来减少模糊。 0080 0081 最终的目标函数: 0082 0083在隐藏层(z)和HGAN的输出层都施加了总损失旨在最大化两个不同3D模型 之间的类间距离。 旨在提高生成模型的鲁棒性。 鼓励隐藏层中的z具有辨别力, 这也改善 了对G(x,z)的区分。 通过考虑训练过程中类。
27、别的相关性, HGAN的生成器适用于整体数据集。 0084 实施例3 0085 下面结合具体的实例, 对实施例1和2中的方案进行可行性验证, 详见下文描述: 0086 本发明实施例中的数据库是基于ModelNet40数据库, 0087 为了演示本方法的性能, 本发明实施例基于Princeton ModelNet项目构建了一个 新的跨域数据集, 该项目包括40个类别和12311个模型。 通过在线搜索引擎收集对应于3D视 图的真实图像。 对于每个类别的3D模型, 收集了大约1000张真实图片。 0088 为了保证下一个实验, 将所有图像调整为224224。 然后, 选择80的真实图片和 3D模型作。
28、为训练数据集。 另一个数据集用作测试数据集。 实际图片和3D模型的一些样本分 别如图2和图3所示。 0089 本发明实施例提出的一种基于生成对抗网络的二维图片检索三维模性的方法, 检 索示例如图5所示, NN: 属于查询的最接近匹配模型的百分比。 F-measure: 考虑每个查询的 前20个返回结果, ANMRR: 通过考虑排名顺序来评估排名表现。 ST: 召回首批2K相关比赛样 本, 其中K为基数。 DCG: 一种统计指标, 为相关结果分配较高权重, 占据排名靠前的位置16。 0090 算法的衡量结果如Precision-Recall曲线图所示, 其中HGAN为本发明实施例中的 方法, 在。
29、ModelNet40数据集上, 表1到表3显示了在检索性能上各项指标的数据结果, HGAN的 ANMRR值低于TJM17JGSA18JDA19CycleGAN20WGAN21CGAN22; 剩余指标均高于这几种方 法, 从而凸显出本方法的优越性。 0091 表1为本发明与其他跨域方法在ModelNet40数据库模型检索方法的对比 说明书 6/9 页 8 CN 110069656 A 8 0092 0093 0094 表2为本发明与其他GAN模型在ModelNet40数据库模型检索方法对比 0095 NNFTSTF_measureDCGANMRR HGAN0.56250.39400.51830.。
30、42250.45590.5588 WGAN0.45000.32390.45060.34960.37660.6347 CycleGAN0.45000.30030.42040.32510.35140.6584 CGAN0.52000.33690.47300.36530.39600.6171 0096 表3为本发明与SHREC 2018方法在ModelNet40数据库模型检索方法对比 0097 NNFTSTF_measureDCGANMRR HGAN0.56250.39400.51830.42250.45590.5588 RNIRAP-30.50000.31400.43740.34140.37630。
31、.6388 TCL-30.48000.32300.43430.35080.38030.6309 MMD-VGG0.44750.29840.40600.32230.35190.6622 0098 其中, Precision是查准率, Recall是查全率, 查全查准曲线与横纵坐标所围的面 积越大, 代表检索性能越好。 HGAN方法的PR曲线在其它五种方法PR曲线的上方, 与横纵坐标 轴围城的面积最大, 验证了本方法的可行性, 满足了实际应用中的多种需要。 0099 参考文献 0100 1Pu J,Lou K,Ramani K.A 2D Sketch-Based User Interface fo。
32、r 3D CAD Model RetrievalJ.Computer-Aided Design and Applications,2005,2(6):717-725. 0101 2Bao H,Dong W.The calculation and the drawing of equivalent sections ofmodel-based 3D graphicsC/International Congress on Image and Signal Processing.IEEE,2015. 0102 3Watanabe T,Saito Y.Camera modeling technique。
33、 of3D sensing based on tile coding for computer visionC/International Conference on Body Area Networks.2013. 0103 4Kider J T.Simulation of 3D model,shape,and appearance aging by 说明书 7/9 页 9 CN 110069656 A 9 physical,chemical,biological,environmental,and weathering effectsJ .Dissertations&Theses-Grad。
34、works,2012. 0104 5Guetat G,Maitre M,Joly L,et al.Automatic 3-D grayscale volume matching and shape analysisJ.Information Technology in Biomedicine IEEE Transactions on,2006,10(2):362-376. 0105 6Wong H S,Ma B,Yu Z,et al.3-D Head Model Retrieval Using a Single Face View QueryJ.Multimedia IEEE Transact。
35、ions on,2007,9(5):1026-1036. 0106 7张飞.三维模型特征提取和相关反馈算法研究与实现D.西北大学,2010. 0107 8杨萌.基于多特征和相关反馈的三维模型检索系统研究与实现D.西北大学, 2009. 0108 9Kumar M.Strategy for Design and Building Multimedia Data TypeJ .International Journal of Computer Applications,2013,73(4):50-52. 0109 10Renu R S,Mocko G.Computing similarity of。
36、 text-based assembly processes for knowledge retrieval and reuseJ.Journal of Manufacturing Systems,2016,39:101-110. 0110 11Chen Y,Medasani S,Jiang Q,et al.Video content-based retrievalJ .2016. 0111 12俞晓妮.基于特征提取的三维模型检索技术研究J.科技传播,2014,(2). 0112 13Panagiotis Papadakis,Ioannis Pratikakis,Stavros Peranto。
37、nis,and Theoharis Theoharis.2007.Efficient 3D shape matching and retrieval using a concrete radialized spherical projection representation.Pattern Recognition 40,9(2007),24372452. 0113 14Kyunghyun Cho,Bart Van Merrienboer,Caglar Gulcehre,Dzmitry Bahdanau,Fethi Bougares,Holger Schwenk,and Yoshua Beng。
38、io.2014.Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation.Computer Science(2014). 0114 15Karen Simonyan and Andrew Zisserman.2014.Very Deep Convolutional Networks for Large-Scale Image Recognition.Computer Science(2014). 0115 16An An Liu,Wei Zhi Nie,and Yu。
39、 Ting Su.n.d.3D Object Retrieval Based on Multi-View Latent Variable Model.IEEE Transactions on Circuits and Systems for Video Technology PP,99(n.d.),11 0116 17Mingsheng Long,Jianmin Wang,Guiguang Ding,Jiaguang Sun,and Philip S.Yu.2014.Transfer Joint Matching for Unsupervised Domain Adaptation.In Co。
40、mputer Vision and Pattern Recognition.14101417. 0117 18Jing Zhang,Wanqing Li,and Philip Ogunbona.2017.Joint Geometrical and Statistical Alignment for Visual Domain Adaptation.(2017),51505158. 0118 19Mingsheng Long,Jianmin Wang,Guiguang Ding,Jiaguang Sun,and Philip S.Yu.2014.Transfer Feature Learning。
41、 with Joint Distribution Adaptation.In IEEE International Conference on Computer Vision.22002207. 说明书 8/9 页 10 CN 110069656 A 10 0119 20Jun Yan Zhu ,Taesung Park ,Phillip Isola ,and Alexei A.Efros.2017.Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks .In IEEE Internati。
42、onal Conference on Computer Vision.22422251. 012021Martin Arjovsky,Soumith Chintala,andBottou.2017.Wasserstein GAN.(2017). 0121 22Mehdi Mirza and Simon Osindero.2014.Conditional Generative Adversarial Nets.Computer Science(2014),26722680. 0122 本领域技术人员可以理解附图只是一个优选实施例的示意图, 上述本发明实施例 序号仅仅为了描述, 不代表实施例的优劣。 0123 以上所述仅为本发明的较佳实施例, 并不用以限制本发明, 凡在本发明的精神和 原则之内, 所作的任何修改、 等同替换、 改进等, 均应包含在本发明的保护范围之内。 说明书 9/9 页 11 CN 110069656 A 11 图1 图2 说明书附图 1/3 页 12 CN 110069656 A 12 图3 图4 说明书附图 2/3 页 13 CN 110069656 A 13 图5 图6 说明书附图 3/3 页 14 CN 110069656 A 14 。
- 内容关键字: 基于 生成 对抗 网络 二维 图片 检索 三维 模型 方法
茶叶加工用脱水除湿装置.pdf
防脱插座.pdf
轨道交通的线缆分线箱.pdf
钢结构加工用激光切割装置.pdf
粉末烧结滤芯.pdf
茶叶加工用的风选除尘装置.pdf
动物饲料搅拌机.pdf
注塑机配料结构.pdf
大气环境污染监测用的空气采样装置.pdf
无人机自动归中装置.pdf
筛分机新型缓冲器.pdf
蜂窝沸石高效低耗再生装置.pdf
陶瓷茶具生产用胚体上釉设备.pdf
干蛋糕的切片装置.pdf
煤矿地质堵水用注浆装置.pdf
混凝土抗压检测装置.pdf
建筑围护结构.pdf
具有加快流速功能的薄膜冷却水槽.pdf
3D打印线材生产用废料回收装置.pdf
老年患者围术期无线血氧监测方法.pdf
厨卫设施的灯板及淋浴龙头.pdf
电网电压监测装置.pdf
跟网型与构网型变流器有功协调优化控制方法及系统.pdf
褐煤粉煤高效气化系统.pdf
煤矸石脱碳烧结用温控布料系统.pdf
erp管理系统及方法.pdf
自动化有限元预紧力数据批量传递与仿真计算控制方法.pdf
列车运行控制系统的数据通信系统及方法.pdf
基于链表的雷达信号分选方法.pdf
基于数字孪生的运动控制实训方法及系统.pdf
针对低速无人机的区域拒止方法和系统.pdf
基于智慧杆的路侧停车监测方法、装置、设备及介质.pdf
一种补铁组合物及其制备方法.pdf
一种含有吡螨胺的水分散粒剂及应用.pdf
一种富硒水稻的栽培方法.pdf
丁香收获机.pdf
一种天然肠衣辐照保鲜方法.pdf
一种宠物食品的破碎装置.pdf
一种含有阴井的盐碱地水土改良系统.pdf
水田埋茬耕整机埋茬结构.pdf
鸭的养殖饲料.pdf
一种盐碱地水土改良系统.pdf
一种芹菜粉硝及其工业化制备方法.pdf
一种吊烧乳鸽及其制作方法.pdf
速溶氨基酸固体饮料及其制备方法.pdf
一种采棉摘锭.pdf
旱地穴盘移栽装置末端执行器.pdf
一种绿色环保装饰组件.pdf
一种虾松增松剂及其制备方法、应用.pdf
多种农作物的联合收割机.pdf
一种水稻机插苗期虫害防治方法.pdf