基于深度学习的信息隐藏方法.pdf
《基于深度学习的信息隐藏方法.pdf》由会员分享,可在线阅读,更多相关《基于深度学习的信息隐藏方法.pdf(14页完成版)》请在专利查询网上搜索。
1、(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 202010545261.7 (22)申请日 2020.06.15 (71)申请人 南京工程学院 地址 211167 江苏省南京市江宁区弘景大 道1号 (72)发明人 曹寅潘子宇赵扶坤陈静 (74)专利代理机构 南京睿之博知识产权代理有 限公司 32296 代理人 杨雷 (51)Int.Cl. H04N 19/467(2014.01) G06N 3/08(2006.01) G06N 3/04(2006.01) (54)发明名称 基于深度学习的信息隐藏方法 (57)摘要 基于深度学。
2、习的信息隐藏方法, 涉及通讯安 全技术的技术领域。 包括如下步骤: 训练一个评 估网络; 利用评估网络来训练编码器和解码器 D; 利用自然图像的概率分布中采样得到RGB 通道载体图像C, 编码器隐写图像S, 代表被隐 藏在载体图像中的二进制信息。 训练开始后, 将 待将待隐写的秘密信息分为n组秘密信息片, 并 对每片秘密信息片编码得到若干组秘密信息位 向量, 使用深度神经网络模型, 以载体图片与秘 密信息作为驱动, 输入到神经网络的编码器模块 生成隐写图像; 判别网络将隐写图像与载体图像 联合进行分析, 比较相似度, 判断是否为隐写图 像。 本发明能够达到普适性、 高安全性和高可靠 性, 为下。
3、一代保密通信提供技术支持和有效保 障。 权利要求书2页 说明书8页 附图3页 CN 111711821 A 2020.09.25 CN 111711821 A 1.基于深度学习的信息隐藏方法, 其特征在于包括如下步骤: 步骤S1: 训练一个评估网络; 步骤S2: 利用评估网络来训练编码器 和解码器D; 步骤S3: 利用自然图像的概率分布中采样得到RGB通道载体图像C, 编码器 隐写图像 S, 代表被隐藏在载体图像中的二进制信息。 2.根据权利要求1所述的基于深度学习的信息隐藏方法, 其特征在于上述步骤S1训练 一个评估网络, 具体包括如下步骤: S11: 训练开始后, 将待将待隐写的秘密信息分。
4、为n组秘密信息片, 并对每片秘密信息片 编码得到若干组秘密信息位向量, 作为宽度和高度填充矩阵; S12: 取训练序号i0, RGB通道载体图像Ci预编码为数据向量, 使用深度神经网络模 型, 以载体图片与秘密信息作为驱动, 输入到神经网络的编码器模块生成隐写图像Si; S13: 判别网络将隐写图像与载体图像联合进行分析, 比较相似度, 判断是否为隐写图 像, 若为否, 执行下一步, 若为是, 则取ii+1, 重新执行步骤S12; S14: 判断是否达到训练次数, 若为是, 执行下一步, 若为否, 取ii+1, 重新执行步骤 S12。 3.根据权利要求1所述的基于深度学习的信息隐藏方法, 其特。
5、征在于上述步骤S2中的 的评估网络为: 为实现解码错误率p和自然图像与隐写图像间分布间的距离最小化, 训练 一个评估网络C()来估计令参数以及是两个宽度 和高 度 相同 的 感 知 器 , 但 深 度 可 能 是 D 和 D 两 个 不 相同 值 , 然 后 是沿深度轴方向的两个张量的级联; 令 是将输入张量X映射到宽度和高度、 深度可能不同的特征图的卷积块; 这个卷积 块包含了一个内核大小为3, 步幅为1, 填充为 “相同” 的卷积层, 其后是一个leaky ReLU激活 函数以及批标准化; 如果卷积块是网络中的最后一个块, 则激活函数和批标准化操作可省 略。 4.根据权利要求3所述的基于深。
6、度学习的信息隐藏方法, 其特征在于上述步骤S2中的 训练编码器, 具体包括如下步骤: S21: 编码器网络含有一张载体图像和秘密信息M0, 1DWH, M是一个形状为DWH 的二进制数据张量, 其中D是我们试图隐藏在载体图片每个像素中的比特数; S22: 使用卷积块处理载体图像C以获得张量a; aConv332(C) (4.1) 将秘密信息M连接到张量a, 然后用卷积块处理结果以获得新的张量b; bConv32+D32(Cat(a, M) (4.2); S23: 若编码器体系结构的变体模型为基础模型: 我们依次将两个卷积块应用于新的张 量b并生成隐写图像, 表示为如下形式: b(C, M)Co。
7、nv32+D21(Cat(a, M) (4.3) 隐写图像只是最后一个卷积块的输出; 权利要求书 1/2 页 2 CN 111711821 A 2 S24: 若编码器体系结构的变体模型为残差模型: 通过将载体图像C添加到其输出中来 修改基本模型的编码器, 以使编码器学习生成残差图像, 表示为如下形式: r(C, M)C+ b(C, M) (4.4); S25: 若编码器体系结构的变体模型为密集模型: 使用密集连接将提高嵌入率, 表示为 如下形式: S26: 基础模型、 残差模型、 密集模型的输出是一个与载体图像C分辨率、 和深度相同的 隐写图像S b, r, d(C, M)。 5.根据权利要求。
8、3所述的基于深度学习的信息隐藏方法, 其特征在于上述步骤S2中的 解码器接收由编码器产生的隐写图像S, 表示为如下形式: 解码器生成试图恢复数据张量M。 6.根据权利要求4或5所述的基于深度学习的信息隐藏方法, 其特征在于上述步骤S2中 的训练过程为: 为了优化编-解码器网络, 我们联合优化三个损失: 使用交叉熵损失的解码精度: 均方误差下隐写图像与载体图像的相似度: 判别网络隐写图像的真实性: 训练目标是使下式最小化 为训练判别网络, 我们要使Wasserstein损失最小化 在每次迭代中, 我们将每一个载体图像C与由伯努利分布MBer(0.5)采样随机生成D WH比特序列的数据张量M; 在。
9、预处理流程中, 对于载体图像C, 应用了包括水平翻转和随 机裁剪在内的标准数据增强程序; 使用学习率为1e-4的Adam优化器, 剪裁梯度均方为0.25, 剪裁判别系数为-0.1, 0.1, 训练32轮。 权利要求书 2/2 页 3 CN 111711821 A 3 基于深度学习的信息隐藏方法 技术领域 0001 本发明涉及通讯安全技术的技术领域, 尤其涉及基于深度学习的信息隐藏方法的 技术领域。 背景技术 0002 随着数字通信技术在全球范围内快速发展, 数字信息已成为一种重要的信息传输 方式。 借助计算机网络, 人与人之间通信变得方便、 快捷。 在计算机网络的大环境下, 数字信 息传输在世。
10、界各个网络中, 随即, 这种便捷所带来风险也应运而生。 互联网具有互联性、 开 放性以及连接形式多样性, 使得通过互联网传输的数据信息很容易受到攻击或窃取, 破坏 了信息传输的安全性。 与此同时, 信息安全也成为人们日益关注的问题。 0003 信息隐藏技术应运而生, 它是在公开传输的信息中嵌入真正需要传递的信息, 以 公开信息为载体将隐藏信息传输出去。 其原理就是利用人的感觉器官的局限性, 以数字媒 体作为载体, 通过某种隐藏算法将秘密信息嵌入到载体中, 并且不易被察觉, 从而达到对传 输信息保护的目的, 增加了信息传输的安全性。 因此有必要对信息隐藏技术进行进一步研 究。 0004 图像隐写。
11、的标准算法是HUGO(高度不可检测的steGO), 这是一种基于成本函数的 算法, 使用手工特征以衡量通过修改图像中特定位置的像素值而引入的失真。 给定一组要 嵌入的N比特, HUGO使用失真功能来识别可以修改的前N个像素, 同时保证整个图像的总失 真降至最低。 0005 另一种方法是JSteg算法, 该算法专门为JPEG图像隐写设计。 JPEG压缩的工作原理 是使用离散余弦变换将图像变换到频域并去除高频分量, 从而减小图像文件的大小。 JSteg 使用相同的方法使之变换到频域, 但是修改了频率系数的最低有效位。 0006 现有图像隐写方案仅能做到最高承载每个像素0.4比特的有效载荷, 且产生。
12、容易 被检测到的噪声阴影; 需要基于图像统计特征变化来判断是否存在隐藏信息; 相对于信息 隐藏技术的广泛应用, 滞后的信息隐藏理论研究使得信息隐藏技术无法进一步发展, 无法 提供强有力的理论支撑。 发明内容 0007 发明目的: 0008 本发明提供了一种基于深度学习的信息隐藏方法, 达到普适性、 高安全性和高可 靠性, 为下一代保密通信提供技术支持和有效保障。 0009 技术方案: 基于深度学习的信息隐藏方法, 包括如下步骤: 0010 步骤S1: 训练一个评估网络; 0011 步骤S2: 利用评估网络来训练编码器 和解码器D; 0012步骤S3: 利用自然图像的概率分布中采样得到RGB通道。
13、载体图像C, 编码器 隐写 图像S, 代表被隐藏在载体图像中的二进制信息。 说明书 1/8 页 4 CN 111711821 A 4 0013 优选的是, 本发明步骤S1训练一个评估网络, 具体包括如下步骤: 0014 S11: 训练开始后, 将待将待隐写的秘密信息分为n组秘密信息片, 并对每片秘密信 息片编码得到若干组秘密信息位向量, 作为宽度和高度填充矩阵; 0015 S12: 取训练序号i0, RGB通道载体图像Ci预编码为数据向量, 使用深度神经网络 模型, 以载体图片与秘密信息作为驱动, 输入到神经网络的编码器模块生成隐写图像Si; 0016 S13: 判别网络将隐写图像与载体图像联。
14、合进行分析, 比较相似度, 判断是否为隐 写图像, 若为否, 执行下一步, 若为是, 则取ii+1, 重新执行步骤S12; 0017 S14: 判断是否达到训练次数, 若为是, 执行下一步, 若为否, 取ii+1, 重新执行步 骤S12。 0018 优选的是, 本发明步骤S2中的评估网络为: 0019为实现解码错误率p和自然图像与隐写图像间分布间的距离最小化, 训练一个评估网络C()来估计令参数以及是两个 宽度和高度相同的感知器, 但深度可能是D和D 两个不相同值 , 然后 是沿深度轴方向的两个张量的级联; 令 是将输入张量X映射到宽度和高度、 深度可能不同的特征图的卷积块; 这个卷积 块包含。
15、了一个内核大小为3, 步幅为1, 填充为 “相同” 的卷积层, 其后是一个leaky ReLU激活 函数以及批标准化; 如果卷积块是网络中的最后一个块, 则激活函数和批标准化操作可省 略。 0020 优选的是, 本发明步骤S2中的训练编码器, 具体包括如下步骤: 0021 S21: 编码器网络含有一张载体图像和秘密信息M0, 1DWH, M是一个形状为D WH的二进制数据张量, 其中D是我们试图隐藏在载体图片每个像素中的比特数; 0022 S22: 使用卷积块处理载体图像C以获得张量a; 0023 aConv332(C) (4.1) 0024 将秘密信息M连接到张量a, 然后用卷积块处理结果以。
16、获得新的张量b; 0025 bConv32+D32(Cat(a, M) (4.2); 0026 S23: 若编码器体系结构的变体模型为基础模型: 我们依次将两个卷积块应用于新 的张量b并生成隐写图像, 表示为如下形式: 0027 b(C, M)Conv32+D21(Cat(a, M) (4.3) 0028 隐写图像只是最后一个卷积块的输出; 0029 S24: 若编码器体系结构的变体模型为残差模型: 通过将载体图像C添加到其输出 中来修改基本模型的编码器, 以使编码器学习生成残差图像, 表示为如下形式: 0030 r(C, M)C+ b(C, M) (4.4); 0031 S25: 若编码器体。
17、系结构的变体模型为密集模型: 使用密集连接将提高嵌入率, 表 示为如下形式: 0032 0033 S26: 基础模型、 残差模型、 密集模型的输出是一个与载体图像C分辨率、 和深度相 同的隐写图像S b, r, d(C, M)。 说明书 2/8 页 5 CN 111711821 A 5 0034 优选的是, 本发明步骤S2中的解码器接收由编码器产生的隐写图像S, 表示为如下 形式: 0035 0036解码器生成试图恢复数据张量M。 0037 优选的是, 本发明步骤S2中的训练过程为: 0038 为了优化编-解码器网络, 我们联合优化三个损失: 0039 使用交叉熵损失的解码精度: 0040 0。
18、041 均方误差下隐写图像与载体图像的相似度: 0042 0043 判别网络隐写图像的真实性: 0044 0045 训练目标是使下式最小化 0046 0047 为训练判别网络, 我们要使Wasserstein损失最小化 0048 0049 在每次迭代中, 我们将每一个载体图像C与由伯努利分布MBer(0.5)采样随机生 成DWH比特序列的数据张量M; 在预处理流程中, 对于载体图像C, 应用了包括水平翻转 和随机裁剪在内的标准数据增强程序; 使用学习率为1e-4的Adam优化器, 剪裁梯度均方为 0.25, 剪裁判别系数为-0.1, 0.1, 训练32轮。 0050 有益效果: 本发明提出一种。
19、对抗训练方法以解决隐写任务, 并能够承载每个像素4 比特的有效载荷, 比其他具有相同峰值信噪比的基于深度学习的隐写方案高10倍。 采用了 几种定量指标用以评估基于深度学习的隐写算法的能力, 从而可以传统方案进行比较。 通 过使用传统用于检测图像是否存在隐写的隐写分析工具来评估本方案隐写性能。 即使以大 于每像素4比特的嵌入率将秘密信息嵌入载体图像时, 仍然能得到传统隐写分析工具检测 auROC低于0.6的结果。 我们亦使用基于深度学习的隐写检测工具对方案进行评估。 根据Ye 最新提出的理论, 我们使用方案模型生成的样本训练了一个自动化隐写分析模型。 当我们 要求模型生成检测率最高0.8auRO。
20、C时, 我们发现模型仍然可以隐藏最高每像素2比特秘密 信息。 提出了一套完整的基于深度学习的隐写方案, 同时还有数据集以及用于基于深度学 习的隐写技术的预训练模型。 附图说明 0051 图1是本发明评估网络的流程图。 0052 图2是本发明神经网络的结构图。 0053 图3是本发明密集模型的接收器工作特性曲线图。 0054 图4是本发明所使用的探测器在各种相对载荷和不同训练集大小下的性能数据示 说明书 3/8 页 6 CN 111711821 A 6 意图。 具体实施方式 0055 基于深度学习的信息隐藏方法, 包括如下步骤: 0056 步骤S1: 训练一个评估网络; 0057 步骤S2: 利。
21、用评估网络来训练编码器 和解码器D; 0058步骤S3: 利用自然图像的概率分布中采样得到RGB通道载体图像C, 编码器 隐写 图像S, 代表被隐藏在载体图像中的二进制信息。 0059 如图1所示, 本发明步骤需要训练的评估网络, 具体包括如下步骤: 0060 S11: 训练开始后, 将待将待隐写的秘密信息分为n组秘密信息片, 并对每片秘密信 息片编码得到若干组秘密信息位向量, 作为宽度和高度填充矩阵; 0061 S12: 取训练序号i0, RGB通道载体图像Ci预编码为数据向量, 使用深度神经网络 模型, 以载体图片与秘密信息作为驱动, 输入到神经网络的编码器模块生成隐写图像Si; 0062。
22、 S13: 判别网络将隐写图像与载体图像联合进行分析, 比较相似度, 判断是否为隐 写图像, 若为否, 执行下一步, 若为是, 则取ii+1, 重新执行步骤S12; 0063 S14: 判断是否达到训练次数, 若为是, 执行下一步, 若为否, 取ii+1, 重新执行步 骤S12。 0064 简要来说, 隐写技术仅需要两项操作: 编码和解码。 编码操作获取载体图像和二进 制消息, 并生成隐写图像。 解码操作获取隐写图像并恢复二进制消息。 下面具体介绍本发明 所采用的网络模型, 展示模型架构并描述训练过程。 0065 一、 变体模型设计 0066 1、 模型参数和符号 0067 本发明用C和S分别。
23、表示宽度和高度相同的RGB通道载体图像和隐写图像, 代表被 隐藏在载体图像中的二进制信息。 D代表相对载荷的上限, 实际相对载荷是能可靠解码的比 特数(1-2p)D, 其中p0, 1是错误率。 0068载体图像C是从所有自然图像的概率分布中采样得到的。 隐写图像S是由一个完 成学习的编码器 (C, M)生成的, 秘密信息是由一个完成学习的解码器D(S)提取得到的。 优化的任务是通过一个给定的混合信息分布, 来训练编码器 和解码器D以使解码错误率p 和自然图像与隐写图像间分布间的距离最小化。 因此, 为了优化编码器和解码 器, 我们也需要训练一个评估网络C()来估计令参数以及 是两个宽度和高度相。
24、同的感知器, 但深度可能是D和D 两个不相同值, 然后 是沿深度轴方向的两个张量的级联。 令 是将输入张量X映射到宽度和高度、 深度可能不同 的特征图的卷积块。 这个卷积块包含了一个内核大小为3, 步幅为1, 填充为 “相同” 的卷积 层, 其后是一个leaky ReLU激活函数以及批标准化。 如果卷积块是网络中的最后一个块, 则 激活函数和批标准化操作可省略。 0069令代表表示自适应平均空间池化操作, 该操作计算张量 X的每个特征图中的WH的平均值。 说明书 4/8 页 7 CN 111711821 A 7 0070 2、 模型体系结构 0071 本发明展示了一种生成对抗网络HCSGAN用。
25、以在载体图像中隐藏任意位向量。 我们 预期的神经网络结构如图2所示, 包括三个模块: 0072 一个编码器, 用于获取载体图像和数据张量或信息并生成隐写图像; 0073 一个解码器, 用以获取隐写图像并尝试恢复数据张量; 0074 一个判别网络, 用以评估载体图像和隐写图像的质量。 0075 2.1编码器 0076 编码器网络含有一张载体图像和秘密信息M0, 1DWH。 因此, M是一个形状为D WH的二进制数据张量, 其中D是我们试图隐藏在载体图片每个像素中的比特数。 0077 我们尝试了三种具有不同连接模式的编码器体系结构的变体模型。 三种变体模型 都采用如下操作开始: 0078 (1)使。
26、用卷积块处理载体图像C以获得张量a; 0079 aConv332(C) (4.1) 0080 (2)将秘密信息M连接到张量a, 然后用卷积块处理结果以获得新的张量b; 0081 bConv32+D32(Cat(a, M) (4.2) 0082 基础模型: 我们依次将两个卷积块应用于新的张量b并生成隐写图像, 如图2b所 示, 其可以表示为如下形式: 0083 b(C, M)Conv32+D21(Cat(a, M) (4.3) 0084 隐写图像只是最后一个卷积块的输出。 0085 残差模型: 残差连接的使用已被证明可以改善模型的稳定性和收敛性, 因此我们 假定使用残差连接可以提高隐写图像的质量。
27、。 为此, 我们通过将载体图像C添加到其输出中 来修改基本模型的编码器, 以使编码器学习生成如图2c所示的残差图像, 其可以表示为如 下形式: 0086 r(C, M)C+ b(C, M) (4.4) 0087 密集模型: 在密集模型变体中, 我们尝试在卷积块之间引入了其他连接, 以便将较 早的块生成的特征图连接到由较后的块生成的特征图, 如图2d所示。 这种连通模式受到 DenseNet结构的启发, 该结构已被证明可以优化功能复用和缓解消失的梯度问题。 因此, 我 们假定使用密集连接将提高嵌入率。 它可以表示为如下形式: 0088 0089 最后, 各种变体模型的输出是一个与载体图像C分辨率。
28、、 和深度相同的隐写图像S b, r, d(C, M)。 0090 2.2解码器 0091 解码器接收由编码器产生的隐写图像S。 它可以表示为如下形式: 0092 0093解码器生成换而言之它试图恢复数据张量M。 说明书 5/8 页 8 CN 111711821 A 8 0094 2.3判别网络 0095 为了提供有关编码器性能的反馈并生成更逼真的图像, 我们引入了对抗性判别网 络。 判别网络由三个卷积块组成, 后接一个具有一个输出通道的卷积层。 为了生成标量分 数, 我们将自适应均值池应用于卷积层的输出。 它可以表示为如下形式: 0096 0097 二、 训练过程 0098 我们迭代优化编-。
29、解码器网络和判别网络。 为了优化编-解码器网络, 我们联合优 化三个损失: 0099 使用交叉熵损失的解码精度: 0100 0101 均方误差下隐写图像与载体图像的相似度: 0102 0103 判别网络隐写图像的真实性: 0104 0105 训练目标是使下式最小化 0106 0107 为训练判别网络, 我们要使Wasserstein损失最小化 0108 0109 在每次迭代中, 我们将每一个载体图像C与由伯努利分布MBer(0.5)采样随机生 成DWH比特序列的数据张量M。 除此以外, 在预处理流程中, 对于载体图像C, 应用了包括 水平翻转和随机裁剪在内的标准数据增强程序。 本文使用了学习率。
30、为1e-4的Adam优化器, 剪 裁梯度均方为0.25, 剪裁判别系数为-0.1, 0.1, 训练32轮。 0110 三、 性能评估及分析 0111 3.1数据集测试 0112 本发明使用Div2k和COCO数据集对模型进行训练和测试。 实验对象为第3节所述的 三种模型变体, 对其以六种不同深度D进行训练。 数据深度D代表每像素的目标比特数, 则随 机生成的数据张量尺寸为DWH。 0113 实验中, 使用了Div2K和COCO数据集的创建者提议的默认训练/测试拆分方法, 并 且在表1中展示了该测试集的平均RS-BPP, PSNR和SSIM。 我们的模型在GeForceGTX 1080的 GPU。
31、上进行了培训。 对于Div2K, 每轮训练时间约为10分钟; 对于COCO, 则为2小时。 0114 训练结束模型后, 在保留的测试集上计算期望的准确率, 并使用前文讨论的Reed- Solomon编码方案对其进行调整, 以产生上文所述的每像素位指标, 如表4.1所示。 0115 表4.1各性能指标测试结果 说明书 6/8 页 9 CN 111711821 A 9 0116 0117 实验结果如表4.1所示, 每个指标都是根据训练过程中未对模型显示的保留图像 测试集计算得出的。 需要注意的是, 相对载荷和图像质量之间不可避免地存在权衡取舍; 假 设我们已经在Pareto边界上, 那么相对载荷的。
32、增加将导致相似度下降。 可以观察到, 模型的 所有变体在COCO数据集上的表现都优于Div2K数据集。 此现象可以归因于两个数据集内容 类型的差异。 Div2K数据集中的图像倾向于开阔的风景, 而COCO数据集中的图像倾向于更加 杂乱且包含多个对象, 这种特性为本文所述的模型提供了更多的表面和纹理, 从而可以成 功地嵌入数据。 0118 此外, 还可以发现, 密集变体在相对载荷和图像质量上均表现出最佳性能, 残差变 体排在第二位, 其显示出可较好的图像质量, 但相对载荷较低。 基本版本在所有指标上的表 现都最差, 相对负载和图像质量得分比密集版本低15-25。 0119 最后, 本文指出, 尽。
33、管相对载荷增加了, 但根据密集模型产生的载体图像和隐写图 像之间的平均峰值信噪比所测得的图像相似性与Zhu中的相当33。 0120 3.2隐写图像检测 0121 隐写技术通常还通过其抵御避隐写分析工具检测的能力对其进行评估。 在本节 中, 我们将尝试使用两种开源的隐写分析算法, 并评估模型生成不可检测的隐写图像的能 力。 0122 3.2.1基于统计的隐写分析 说明书 7/8 页 10 CN 111711821 A 10 0123 为了评估我们的方法对于这些技术进行抵御检测的有效性, 我们从测试集中随机 选择了1000个载体图像, 使用数据深度为6的密集模型结构生成了相应的隐写图像, 并使用 。
34、stegExpose进行测试检查。 密集模型的接收器工作特性曲线如图3所示。 可以观察到 StegExpose工具在ROC曲线值为0.59以下区域仅比随机猜测略微有效, 即有效载荷最高为 每像素4比特。 这表明本文的模型可以成功抵御标准隐写分析工具, 满足了成为可用隐写算 法的最低要求。 0124 3.2.2基于神经网络的隐写分析 0125 在典型情况下, 尝试检测隐写图像的一方可以知晓用于创建隐写图像的算法。 而 在我们的示例中, 则是HCSGAN的实例, 该实例由预训练的模型权重而非精确模型进行参数 化。 使用3.2.1节中的密集结构和COCO数据集, 我们尝试通过以下实验设置来复制此方案。
35、: 0126 1、 我们用不同的随机数种子训练了N个HCSGAN架构实例; 0127 2、 对于每一个完成训练的模型中, 都会生成一组1000个隐写图像; 0128 3、 拿出第N个模型生成的图像作为测试集, 我们在增加剩余图像的子集上训练了 隐写分析模型1, 1, 2, 1, 2, 3, ., 1, 2, 3, ., N-1; 0129 4、 将每个实验重复3次, 并展示接收器工作曲线下的平均面积。 0130 以上步骤模拟了一个现实的设置, 创建自动检测模型的一方将无法接触到使用中 的特定HCSGAN模型, 但可能会使用到用于训练模型的软件。 图4显示了本文所使用的探测器 在各种相对载荷和不。
36、同训练集大小下的性能数据。 0131 首先可以注意到, 检测器性能即接收器工作特性曲线下面积(auROC)会随着我们 增加图像中编码的每个像素的比特数而增加。 此外, 还需要强调的是, 当我们增加用于训练 HCSGAN模型的数量, ROC曲线下的面积没有明显的变化趋势。 这表明外部人员将很难建立一 个可以在不知道确切模型参数的情况下就能够检测HCSGAN所生成隐写图像的模型。 0132 最后, 我们将HCSGAN生成的图像的检测误差与三种最先进的隐写算法(WOW, S- UNIWARD和HILL)所生成的图像的检测误差进行比较。 考虑到这些技术是在不同的数据集上 评估的, 因此结果仅是在特定数据集上可获得的实际相对载荷的近似估计。 对于20的固 定检测错误率, 我们发现WOW能够编码至多0.3bpp, S-UNIWARD能够编码至多0.4bpp, HILL能 够编码至多0.5bpp, 而HCSGAN能够编码高达2.0bpp。 说明书 8/8 页 11 CN 111711821 A 11 图1 说明书附图 1/3 页 12 CN 111711821 A 12 图2 图3 说明书附图 2/3 页 13 CN 111711821 A 13 图4 说明书附图 3/3 页 14 CN 111711821 A 14 。
- 内容关键字: 基于 深度 学习 信息 隐藏 方法
防水接线结构.pdf
在线测量散状物料真密度的装置.pdf
适用于室内装修的工作架.pdf
套管施工辅助装置.pdf
防水开关.pdf
水循环增氧轮虫培养池.pdf
新型的包装袋.pdf
建筑涂料搅拌设备.pdf
薄膜生产用加热定型装置.pdf
电机转子线圈绕线机.pdf
激光器保护电路、激光器驱动电源和电子设备.pdf
养殖场通风管道生产用法兰冲孔机.pdf
分子筛吸附分离能力检测系统.pdf
寄存器、寄存器配置方法及芯片.pdf
信号质量检测方法及信号质量检测电路.pdf
基于自适应卷积核和级联检测头的土地覆盖变化检测方法.pdf
运梁炮车自动化调姿系统和方法.pdf
RPA流程操作异常检测方法、设备及存储设备.pdf
适用于PEEK材料的高温3D打印机高温舱结构.pdf
户用电池储能系统.pdf
空气质量预报评估方法、装置、存储介质及电子设备.pdf
基于环境嵌入的分布式光纤入侵预警方法及系统.pdf
显示模组拆解装置和显示模组拆解方法.pdf
安全检测方法、装置、终端设备及计算机可读存储介质.pdf
自清洁式铝合金门窗及清洁方法.pdf
基于pipeline流程的业务管理方法及装置.pdf
警力资源调度方法、装置、电子设备和计算机可读介质.pdf
离子氮化炉罩自动升降行走机构.pdf
蓝牙耳机及其存储收纳充电装置.pdf
X射线管.pdf
用于飞机蒙皮精密激光焊接工艺的快速冷却装置.pdf
生物资产监控方法、装置、设备及存储介质.pdf