游戏动画表情生成方法、装置及电子设备.pdf
《游戏动画表情生成方法、装置及电子设备.pdf》由会员分享,可在线阅读,更多相关《游戏动画表情生成方法、装置及电子设备.pdf(12页完成版)》请在专利查询网上搜索。
1、(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 201911315756.4 (22)申请日 2019.12.18 (71)申请人 北京像素软件科技股份有限公司 地址 102200 北京市昌平区科技园区白浮 泉路10号2号楼1104A (72)发明人 韩壮壮 (74)专利代理机构 北京超凡宏宇专利代理事务 所(特殊普通合伙) 11463 代理人 刘亚飞 (51)Int.Cl. G06T 13/40(2011.01) G06K 9/00(2006.01) A63F 13/60(2014.01) (54)发明名称 游戏动画表情生成。
2、方法、 装置及电子设备 (57)摘要 本发明提供了一种游戏动画表情生成方法、 装置及电子设备, 首先获取面部动作视频数据; 然后根据该面部动作视频数据及预设的特征提 取模型, 提取面部动作视频数据对应的表情特 征; 基于预设的骨骼蒙皮模型及表情特征, 生成 动画表情, 进而将动画表情按照预设的格式保存 为游戏动画表情。 本发明中, 采用了预先建立的 特征提取模型, 可以较为高效便捷地获得表情特 征, 并将基于该表情特征生成的动画表情直接按 照预设的格式保存为游戏动画表情, 降低了生成 游戏动画表情的成本。 权利要求书2页 说明书7页 附图2页 CN 111028322 A 2020.04.17。
3、 CN 111028322 A 1.一种游戏动画表情生成方法, 其特征在于, 包括: 获取面部动作视频数据; 根据所述面部动作视频数据及预设的特征提取模型, 提取所述面部动作视频数据对应 的表情特征; 基于预设的骨骼蒙皮模型及所述表情特征, 生成动画表情; 将所述动画表情按照预设的格式保存为游戏动画表情。 2.根据权利要求1所述的方法, 其特征在于, 所述面部动作视频数据包括按照多个设定 顺序排列的面部图像; 根据所述面部动作视频数据及预设的特征提取模型, 提取所述面部动作视频数据对应 的表情特征的步骤, 包括: 将所述面部图像依次输入至预设的特征提取模型, 通过所述特征提取模型提取各个所 述。
4、面部图像的实时面部特征; 将按照设定顺序排列的所述实时面部特征, 确定为所述面部动作视频数据对应的表情 特征。 3.根据权利要求2所述的方法, 其特征在于, 基于预设的骨骼蒙皮模型及所述表情特 征, 生成动画表情的步骤, 包括: 将所述实时面部特征依次作为参数输入至所述骨骼蒙皮模型中, 生成多个对应的表情 图像; 基于多个所述表情图像, 生成动画表情。 4.根据权利要求1所述的方法, 其特征在于, 将所述动画表情按照预设的格式保存为游 戏动画表情的步骤, 包括: 对所述动画表情进行动画烘焙, 将动画烘焙后的所述动画表情按照预设的格式保存为 游戏动画表情。 5.一种游戏动画表情生成装置, 其特征。
5、在于, 包括: 数据获取模块, 用于获取面部动作视频数据; 特征提取模块, 用于根据所述面部动作视频数据及预设的特征提取模型, 提取所述面 部动作视频数据对应的表情特征; 动画表情生成模块, 用于基于预设的骨骼蒙皮模型及所述表情特征, 生成动画表情; 游戏动画表情保存模块, 用于将所述动画表情按照预设的格式保存为游戏动画表情。 6.根据权利要求5所述的装置, 其特征在于, 所述面部动作视频数据包括按照多个设定 顺序排列的面部图像; 所述特征提取模块还用于: 将所述面部图像依次输入至预设的特征提取模型, 通过所述特征提取模型提取各个所 述面部图像的实时面部特征; 将按照设定顺序排列的所述实时面部。
6、特征, 确定为所述面部动作视频数据对应的表情 特征。 7.根据权利要求6所述的装置, 其特征在于, 所述动画表情生成模块还用于: 将所述实时面部特征依次作为参数输入至所述骨骼蒙皮模型中, 生成多个对应的表情 图像; 权利要求书 1/2 页 2 CN 111028322 A 2 基于多个所述表情图像, 生成动画表情。 8.根据权利要求5所述的装置, 其特征在于, 所述游戏动画表情保存模块还用于: 对所述动画表情进行动画烘焙, 将动画烘焙后的所述动画表情按照预设的格式保存为 游戏动画表情。 9.一种电子设备, 其特征在于, 包括处理器和存储器, 所述存储器存储有能够被所述处 理器执行的机器可执行指。
7、令, 所述处理器执行所述机器可执行指令以实现权利要求1至4任 一项所述的方法。 10.一种机器可读存储介质, 其特征在于, 所述机器可读存储介质存储有机器可执行指 令, 所述机器可执行指令在被处理器调用和执行时, 所述机器可执行指令促使所述处理器 实现权利要求1至4任一项所述的方法。 权利要求书 2/2 页 3 CN 111028322 A 3 游戏动画表情生成方法、 装置及电子设备 技术领域 0001 本发明涉及虚拟现实技术领域, 尤其是涉及一种游戏动画表情生成方法、 装置及 电子设备。 背景技术 0002 相关技术中, 动画捕捉技术大多数使用了复杂昂贵的设备, 动作捕捉设备学习成 本比较高。
8、, 往往需要一段时间学习之后才能进行使用。 并且捕捉产生的数据格式大多数为 C3D、 FBX等网格格式, 难以和主流游戏引擎无缝对接, 需要对捕捉数据进行转换之后才能进 行使用, 导致基于动画捕捉技术的游戏动画表情的生成过程效率较低, 且成本较高。 发明内容 0003 有鉴于此, 本发明的目的在于提供一种游戏动画表情生成方法、 装置及电子设备, 以高效便捷地生成动画表情, 降低生成动画表情的成本。 0004 第一方面, 本发明实施例提供了一种游戏动画表情生成方法, 包括: 获取面部动作 视频数据; 根据面部动作视频数据及预设的特征提取模型, 提取面部动作视频数据对应的 表情特征; 基于预设的骨。
9、骼蒙皮模型及表情特征, 生成动画表情; 将动画表情按照预设的格 式保存为游戏动画表情。 0005 结合第一方面, 本发明实施例提供了第一方面的第一种可能的实施方式, 其中, 上 述面部动作视频数据包括按照多个设定顺序排列的面部图像; 根据面部动作视频数据及预 设的特征提取模型, 提取面部动作视频数据对应的表情特征的步骤, 包括: 将面部图像依次 输入至预设的特征提取模型, 通过特征提取模型提取各个面部图像的实时面部特征; 将按 照设定顺序排列的实时面部特征, 确定为面部动作视频数据对应的表情特征。 0006 结合第一方面的第一种可能的实施方式, 本发明实施例提供了第一方面的第二种 可能的实施方。
10、式, 其中, 基于预设的骨骼蒙皮模型及表情特征, 生成动画表情的步骤, 包括: 将实时面部特征依次作为参数输入至骨骼蒙皮模型中, 生成多个对应的表情图像; 基于多 个表情图像, 生成动画表情。 0007 结合第一方面, 本发明实施例提供了第一方面的第三种可能的实施方式, 其中, 将 动画表情按照预设的格式保存为游戏动画表情的步骤, 包括: 对动画表情进行动画烘焙, 将 动画烘焙后的动画表情按照预设的格式保存为游戏动画表情。 0008 第二方面, 本发明实施例还提供一种游戏动画表情生成装置, 包括: 数据获取模 块, 用于获取面部动作视频数据; 特征提取模块, 用于根据面部动作视频数据及预设的特。
11、征 提取模型, 提取面部动作视频数据对应的表情特征; 动画表情生成模块, 用于基于预设的骨 骼蒙皮模型及表情特征, 生成动画表情; 游戏动画表情保存模块, 用于将动画表情按照预设 的格式保存为游戏动画表情。 0009 结合第二方面, 本发明实施例提供了第二方面的第一种可能的实施方式, 其中, 上 述面部动作视频数据包括按照多个设定顺序排列的面部图像; 上述特征提取模块还用于: 说明书 1/7 页 4 CN 111028322 A 4 将面部图像依次输入至预设的特征提取模型, 通过特征提取模型提取各个面部图像的实时 面部特征; 将按照设定顺序排列的实时面部特征, 确定为面部动作视频数据对应的表情。
12、特 征。 0010 结合第二方面的第一种可能的实施方式, 本发明实施例提供了第二方面的第二种 可能的实施方式, 其中, 上述动画表情生成模块还用于: 将实时面部特征依次作为参数输入 至骨骼蒙皮模型中, 生成多个对应的表情图像; 基于多个表情图像, 生成动画表情。 0011 结合第二方面, 本发明实施例提供了第二方面的第三种可能的实施方式, 其中, 上 述游戏动画表情保存模块还用于: 对动画表情进行动画烘焙, 将动画烘焙后的动画表情按 照预设的格式保存为游戏动画表情。 0012 第三方面, 本发明实施例还提供一种电子设备, 包括处理器和存储器, 存储器存储 有能够被处理器执行的机器可执行指令, 。
13、处理器执行机器可执行指令以实现上述游戏动画 表情生成方法。 0013 第四方面, 本发明实施例还提供一种机器可读存储介质, 机器可读存储介质存储 有机器可执行指令, 机器可执行指令在被处理器调用和执行时, 机器可执行指令促使处理 器实现上述游戏动画表情生成方法。 0014 本发明实施例带来了以下有益效果: 0015 本发明实施例提供了一种游戏动画表情生成方法、 装置及电子设备, 首先获取面 部动作视频数据; 然后根据该面部动作视频数据及预设的特征提取模型, 提取面部动作视 频数据对应的表情特征; 基于预设的骨骼蒙皮模型及表情特征, 生成动画表情, 进而将动画 表情按照预设的格式保存为游戏动画表。
14、情。 该方式中, 采用了预先建立的特征提取模型, 可 以较为高效便捷地获得表情特征, 并将基于该表情特征生成的动画表情直接按照预设的格 式保存为游戏动画表情, 降低了生成游戏动画表情的成本。 0016 本发明的其他特征和优点将在随后的说明书中阐述, 或者, 部分特征和优点可以 从说明书推知或毫无疑义地确定, 或者通过实施本发明的上述技术即可得知。 0017 为使本发明的上述目的、 特征和优点能更明显易懂, 下文特举较佳实施方式, 并配 合所附附图, 作详细说明如下。 附图说明 0018 为了更清楚地说明本发明具体实施方式或现有技术中的技术方案, 下面将对具体 实施方式或现有技术描述中所需要使用。
15、的附图作简单地介绍, 显而易见地, 下面描述中的 附图是本发明的一些实施方式, 对于本领域普通技术人员来讲, 在不付出创造性劳动的前 提下, 还可以根据这些附图获得其他的附图。 0019 图1为本发明实施例提供的一种游戏动画表情生成方法的流程图; 0020 图2为本发明实施例提供的另一种游戏动画表情生成方法的流程图; 0021 图3为本发明实施例提供的一种游戏动画表情生成装置的结构示意图; 0022 图4为本发明实施例提供的一种电子设备的结构示意图。 具体实施方式 0023 下面将结合实施例对本发明的技术方案进行清楚、 完整地描述, 显然, 所描述的实 说明书 2/7 页 5 CN 11102。
16、8322 A 5 施例是本发明一部分实施例, 而不是全部的实施例。 基于本发明中的实施例, 本领域普通技 术人员在没有做出创造性劳动前提下所获得的所有其他实施例, 都属于本发明保护的范 围。 0024 目前, 随着MMORPG(MassiveMultiplayer Online Role-PlayingGame, 大型多人在 线角色扮演游戏)游戏制作技术的飞快迭代, 生动并且贴近真实的人物表情, 被各个游戏厂 商广泛地采用。 动作捕捉及面部表情捕捉技术应运而生。 通过捕捉演员的面部表情数据, 经 过处理后, 应用到虚拟角色上可以获得生动的动画表情。 0025 现有的动画捕捉技术大多数使用了复杂。
17、昂贵的设备, 如使用专业的动作捕捉设备 如OptiTack、 FACEGOOD等进行脸部捕捉; 并且捕捉产生的数据格式大多数为C3D、 FBX等网格 格式, 难以和主流游戏引擎无缝对接, 需要对捕捉数据进行转换之后才能进行使用。 动补设 备经过捕捉之后需要处理才是游戏引擎可用的动画文件。 游戏有时候也不需要用到电影级 的面部表情精度, 不利于游戏资源空间的节省。 0026 现有的动作捕捉设备学习成本还比较高, 往往需要一段时间学习之后才能进行使 用。 并且处理捕捉数据需要耗费时间。 0027 基于此, 本发明实施例提供了一种游戏动画表情生成方法、 装置及电子设备, 可以 应用于各种游戏中的动画。
18、表情生成场景。 0028 为便于对本实施例进行理解, 首先对本发明实施例所公开的一种游戏动画表情生 成方法进行详细介绍。 0029 本发明实施例提供了一种游戏动画表情生成方法, 如图1所示, 该方法包括以下步 骤: 0030 步骤S100, 获取面部动作视频数据; 上述面部动作视频数据可以在相关人员根据 想要获得的游戏动画表情做出的表情的过程中录制, 可以通过图像采集设备获取该视频数 据, 如手机摄像头或相机等。 面部动作视频数据通常包括多个面部表情图像。 0031 步骤S102, 根据面部动作视频数据及预设的特征提取模型, 提取面部动作视频数 据对应的表情特征。 0032 该特征提取模型可以。
19、通过ARKit平台建立。 ARKit平台是一种可以由开发人员进行 自主使用的AR(Augmented Reality, 增强现实)开发平台; ARKit计数使用一种叫做视觉惯 性测距(visual-inertial odometry)的技术。 这个过程将拍摄图像的设备运动传感器的信 息和该设备拍摄的图像通过计算机视觉分析相结合, 可以识别场景图像中的显著特征, 从 视频的每一帧中跟踪这些特征位置的差异, 并将该信息与运动感测数据进行比较。 从而得 到设备的位置和运动的高精度模型。 0033 在上述特征提取模型的建立过程中, 可以参考获取图像的设备的传感器信息, 也 可以认为获取图像的设备处于静。
20、止不动的状态, 仅将设备拍摄的图像进行计算机视觉分 析, 得到特征提取模型, 该过程为常见的ARKIt平台的应用。 在面部动作视频数据包括多个 面部表情图像时, 可以依次通过该特征提取模型, 提取每个图像的实时表情特征, 最后基于 该实时表情特征生成面部动作视频数据对应的表情特征。 上述表情特征中, 通常包括在面 部运动(做表情)过程中, 各个五官及面部骨骼的运动过程数据。 0034 步骤S104, 基于预设的骨骼蒙皮模型及表情特征, 生成动画表情。 0035 蒙皮用于3D游戏中, 是三维动画的一种制作技术。 在三维软件中创建的模型基础 说明书 3/7 页 6 CN 111028322 A 6。
21、 上, 为模型添加骨骼。 由于骨骼与模型是相互独立的, 为了让骨骼驱动模型产生合理的运 动, 把模型绑定到骨骼上的技术叫做蒙皮。 上述骨骼蒙皮模型为结合游戏中的人物模型通 过蒙皮技术建立。 该骨骼蒙皮模型可以包括五官、 面部骨骼等; 将表情特征中五官及面部骨 骼运动数据与骨骼蒙皮模型的五官、 面部骨骼相匹配, 使得骨骼蒙皮模型的五官、 面部骨骼 按照做表情时的面部运动视频中的运动轨迹运动起来, 就生成了动画表情。 0036 步骤S106, 将动画表情按照预设的格式保存为游戏动画表情; 该预设的格式可以 为游戏在开发过程中常用的文件格式, 将动画表情保存为预设的格式, 则在游戏开发时可 以直接使。
22、用该动画表情, 该动画表情可以被称为游戏动画表情。 0037 本发明实施例提供了一种游戏动画表情生成方法, 首先获取面部动作视频数据; 然后根据该面部动作视频数据及预设的特征提取模型, 提取面部动作视频数据对应的表情 特征; 基于预设的骨骼蒙皮模型及表情特征, 生成动画表情, 进而将动画表情按照预设的格 式保存为游戏动画表情。 该方式中, 采用了预先建立的特征提取模型, 可以较为高效便捷地 获得表情特征, 并将基于该表情特征生成的动画表情直接按照预设的格式保存为游戏动画 表情, 降低了生成游戏动画表情的成本。 0038 本发明实施例还提供了另一种游戏动画表情生成方法, 该方法基于上述发明实施 。
23、例所述的方法实现; 如图2所示, 该方法包括以下步骤: 0039 步骤S200, 获取面部动作视频数据; 上述面部动作视频数据包括按照多个设定顺 序排列的面部图像。 0040 步骤S202, 将面部图像依次输入至预设的特征提取模型, 通过特征提取模型提取 各个面部图像的实时面部特征。 该特征提取模型基于ARKit平台建立, 在提取面部图像的实 时面部特征时, 通常采用计算机视觉分析方法。 0041 步骤S204, 将按照设定顺序排列的实时面部特征, 确定为面部动作视频数据对应 的表情特征。 该设定顺序与实时面部特征对应的面部图像的排列顺序相同。 0042 步骤S206, 将实时面部特征依次作为。
24、参数输入至骨骼蒙皮模型中, 生成多个对应 的表情图像。 0043 步骤S208, 基于多个表情图像, 生成动画表情。 该动画表情可以为表情图像按照一 定频率播放生成。 0044 步骤S210, 对动画表情进行动画烘焙, 将动画烘焙后的动画表情按照预设的格式 保存为游戏动画表情; 上述动画烘焙过程可以根据动画效果进行, 在动画烘焙后, 该动画表 情可以更为流畅自然。 0045 上述一种游戏动画表情生成方法, 首先获取面部动作视频数据; 然后将面部图像 依次输入至预设的特征提取模型, 通过特征提取模型提取各个面部图像的实时面部特征, 将按照设定顺序排列的实时面部特征, 确定为面部动作视频数据对应的。
25、表情特征; 基于预 设的骨骼蒙皮模型及表情特征, 生成动画表情, 进而将动画表情进行动画烘焙后按照预设 的格式保存为游戏动画表情。 该方式中, 采用了预先建立的特征提取模型, 可以较为高效便 捷地获得表情特征, 降低了生成游戏动画表情的成本。 0046 在具体实现过程中, 上述游戏动画表情生成方法可以通过ARKit联合Unity实现; 通过手机捕获面部表情视频(相当于上述面部动作视频), 然后采用基于ARKit平台建立的 手机软件对该面部表情图像视频进行处理, 得到面部表情特征, 然后通过网络将该面部表 说明书 4/7 页 7 CN 111028322 A 7 情特征发送到基于Unity开发的。
26、游戏引擎。 在引擎中直接将面部表情特征处理为游戏可用 的动画资产, 即可快速地录制大量的精细度达标的动画片段, 满足游戏开发快速迭代的需 求。 0047 采用使用ARKit联合Unity生成游戏动画表情的方法包括以下步骤: 0048 步骤一: 创建适合的骨骼蒙皮模型; 该骨骼蒙皮可以为相关技术人员根据游戏的 demo(原型)建立; 该骨骼蒙皮模型的特征和手机端捕捉的特征相吻合, 如均包括五官、 面部 骨骼等。 该骨骼蒙皮模型可以是通过3DMax软件建立的, 在建立之后, 将该骨骼蒙皮模型导 入至基于Unity开发的游戏引擎中; 该游戏引擎运行在电脑上。 0049 步骤二: 打开游戏引擎录制面板。
27、, 显示电脑端IP地址。 在IphoneX及以上机型打开 基于ARKit建立的手机软件的客户端, 通过IP地址对手机与电脑端建立通信关系。 0050 步骤三: 通信关系建立成功之后, 通过手机的摄像头开始录制操作人员的面部表 情视频, 通过基于ARKit建立的手机软件的客户端生成面部表情特征, 将该面部表情特征发 送至游戏引擎; 在录制视频时, 在录制中使用帧缓存规避了网络延时。 该录制过程需要在合 适的时间停止。 录制完成之后, 基于骨骼蒙皮模型及面部表情特征, 生成动画表情; 并通过 引擎自动烘焙动画, 将动画表情保存为Unity引擎可用的格式到本地。 0051 步骤四: 进行动画回放查看。
28、和修帧修长短, 最后放入资源列表中, 作为游戏内可以 使用的动画文件。 0052 该方式中, 使用ARKit联合Unity进行面部表情捕捉, 只需要在同一个网络环境下 就可以方便的进行录制。 同时流程简单, 设备通用性强, 学习成本低。 并且录制出来的动画 表情精度完全够游戏使用。 0053 对应于上述游戏动画表情生成方法实施例, 本发明实施例还提供一种游戏动画表 情生成装置, 如图3所示, 该装置包括: 0054 数据获取模块300, 用于获取面部动作视频数据。 0055 特征提取模块302, 用于根据面部动作视频数据及预设的特征提取模型, 提取面部 动作视频数据对应的表情特征。 0056 。
29、动画表情生成模块304, 用于基于预设的骨骼蒙皮模型及表情特征, 生成动画表 情。 0057 游戏动画表情保存模块306, 用于将动画表情按照预设的格式保存为游戏动画表 情。 0058 本发明实施例提供了一种游戏动画表情生成装置, 首先获取面部动作视频数据; 然后根据该面部动作视频数据及预设的特征提取模型, 提取面部动作视频数据对应的表情 特征; 基于预设的骨骼蒙皮模型及表情特征, 生成动画表情, 进而将动画表情按照预设的格 式保存为游戏动画表情。 该方式中, 采用了预先建立的特征提取模型, 可以较为高效便捷地 获得表情特征, 并将基于该表情特征生成的动画表情直接按照预设的格式保存为游戏动画 。
30、表情, 降低了生成游戏动画表情的成本。 0059 在实际实现过程中, 上述面部动作视频数据通常包括按照多个设定顺序排列的面 部图像; 进一步地, 上述特征提取模块还用于: 将面部图像依次输入至预设的特征提取模 型, 通过特征提取模型提取各个面部图像的实时面部特征; 将按照设定顺序排列的实时面 部特征, 确定为面部动作视频数据对应的表情特征。 说明书 5/7 页 8 CN 111028322 A 8 0060 进一步地, 上述动画表情生成模块还用于: 将实时面部特征依次作为参数输入至 骨骼蒙皮模型中, 生成多个对应的表情图像; 基于多个表情图像, 生成动画表情。 0061 进一步地, 上述游戏动。
31、画表情保存模块还用于: 对动画表情进行动画烘焙, 将动画 烘焙后的动画表情按照预设的格式保存为游戏动画表情。 0062 本发明实施例提供的游戏动画表情装置, 与上述实施例提供的游戏动画表情方法 具有相同的技术特征, 所以也能解决相同的技术问题, 达到相同的技术效果。 0063 本发明实施例还提供一种电子设备, 参见图4所示, 包括处理器和存储器, 存储器 存储有能够被处理器执行的机器可执行指令, 处理器执行机器可执行指令以实现上述游戏 动画表情方法。 0064 进一步地, 图4所示的电子设备还包括总线132和通信接口133, 处理器130、 通信接 口133和存储器131通过总线132连接。 。
32、0065 其中, 存储器131可能包含高速随机存取存储器(RAM, Random Access Memory), 也 可能还包括非不稳定的存储器(non-volatile memory), 例如至少一个磁盘存储器。 通过至 少一个通信接口133(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通 信连接, 可以使用互联网, 广域网, 本地网, 城域网等。 总线132可以是ISA总线、 PCI总线或 EISA总线等。 所述总线可以分为地址总线、 数据总线、 控制总线等。 为便于表示, 图4中仅用 一个双向箭头表示, 但并不表示仅有一根总线或一种类型的总线。 0066 处理器130可能是。
33、一种集成电路芯片, 具有信号的处理能力。 在实现过程中, 上述 方法的各步骤可以通过处理器130中的硬件的集成逻辑电路或者软件形式的指令完成。 上 述的处理器130可以是通用处理器, 包括中央处理器(Central Processing Unit, 简称 CPU)、 网络处理器(Network Processor, 简称NP)等; 还可以是数字信号处理器(Digital Signal Processing, 简称DSP)、 专用集成电路(Application Specific Integrated Circuit, 简称ASIC)、 现成可编程门阵列(Field-Programmable G。
34、ate Array, 简称FPGA)或 者其他可编程逻辑器件、 分立门或者晶体管逻辑器件、 分立硬件组件。 可以实现或者执行本 发明实施例中的公开的各方法、 步骤及逻辑框图。 通用处理器可以是微处理器或者该处理 器也可以是任何常规的处理器等。 结合本发明实施例所公开的方法的步骤可以直接体现为 硬件译码处理器执行完成, 或者用译码处理器中的硬件及软件模块组合执行完成。 软件模 块可以位于随机存储器, 闪存、 只读存储器, 可编程只读存储器或者电可擦写可编程存储 器、 寄存器等本领域成熟的存储介质中。 该存储介质位于存储器131, 处理器130读取存储器 131中的信息, 结合其硬件完成前述实施例。
35、的方法的步骤。 0067 本发明实施例还提供了一种机器可读存储介质, 该机器可读存储介质存储有机器 可执行指令, 该机器可执行指令在被处理器调用和执行时, 该机器可执行指令促使处理器 实现上述游戏动画表情方法, 具体实现可参见方法实施例, 在此不再赘述。 0068 本发明实施例所提供的游戏动画表情方法及装置和网关电子设备的计算机程序 产品, 包括存储了程序代码的计算机可读存储介质, 所述程序代码包括的指令可用于执行 前面方法实施例中所述的方法, 具体实现可参见方法实施例, 在此不再赘述。 0069 所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时, 可以 存储在一个计算机可读取。
36、存储介质中。 基于这样的理解, 本发明的技术方案本质上或者说 对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来, 该计 说明书 6/7 页 9 CN 111028322 A 9 算机软件产品存储在一个存储介质中, 包括若干指令用以使得一台计算机设备(可以是个 人计算机, 电子设备, 或者网络设备等)执行本发明各个实施例所述方法的全部或部分步 骤。 而前述的存储介质包括: U盘、 移动硬盘、 只读存储器(ROM, Read-Only Memory)、 随机存 取存储器(RAM, Random Access Memory)、 磁碟或者光盘等各种可以存储程序代码的介质。 00。
37、70 最后应说明的是: 以上所述实施例, 仅为本发明的具体实施方式, 用以说明本发明 的技术方案, 而非对其限制, 本发明的保护范围并不局限于此, 尽管参照前述实施例对本发 明进行了详细的说明, 本领域的普通技术人员应当理解: 任何熟悉本技术领域的技术人员 在本发明揭露的技术范围内, 其依然可以对前述实施例所记载的技术方案进行修改或可轻 易想到变化, 或者对其中部分技术特征进行等同替换; 而这些修改、 变化或者替换, 并不使 相应技术方案的本质脱离本发明实施例技术方案的精神和范围, 都应涵盖在本发明的保护 范围之内。 因此, 本发明的保护范围应所述以权利要求的保护范围为准。 说明书 7/7 页 10 CN 111028322 A 10 图1 图2 说明书附图 1/2 页 11 CN 111028322 A 11 图3 图4 说明书附图 2/2 页 12 CN 111028322 A 12 。
- 内容关键字: 游戏 动画 表情 生成 方法 装置 电子设备
农机动力飞轮喷涂用漆雾废气处理装置.pdf
旁路引流线绝缘防护夹持支架结构.pdf
建筑施工围挡.pdf
推进剂气体浓度监测传感器.pdf
防刺伤采血针.pdf
铸造件快速冷却装置.pdf
工业硅粉制备用研磨装置.pdf
电池盖帽包边用防偏移模具.pdf
拉杆式储能电源箱.pdf
多穴五轴自动光学检测装置.pdf
活塞钻铣床.pdf
混凝土结构表面裂缝检测装置.pdf
羊粪粉碎机的清扫装置.pdf
铁碳微电解填料球.pdf
电感电流过零检测方法及电路.pdf
陶瓷加工的练泥机.pdf
建筑工程用支护装置.pdf
压滤机拉板装置及压滤机.pdf
含油污泥处理水洗装置.pdf
半导体结构及其制备方法.pdf
双环高密度标测消融导管.pdf
洁净手术室用的排风系统.pdf
用于预测转动设备的故障概率的方法、设备和存储介质.pdf
视觉辅助的三极管封装质量检测方法.pdf
可调式肢体活动康复训练装置.pdf
基于分布式光纤声波传感的异常事件识别方法及相关装置.pdf
服装布料用卷绕装置.pdf
鸽子脂肪前体细胞的分离并体外培养方法及培养物和应用.pdf
配置肘式黏滞阻尼器的自复位摇摆结构.pdf
采硐充填方法.pdf
积分球数字仿体系统及成像测评方法.pdf
氯代碳酸乙烯酯的制备方法.pdf