图像处理方法及电子设备与流程

专利2022-06-29  86


本发明实施例涉及通信技术领域,尤其涉及一种图像处理方法及电子设备。



背景技术:

日常生活中,在某些场合某些地点,经常会出现多人合影的需求。很多时候,多人合影会用一些整齐的姿势来拍,比如一起跳跃腾空、列队比心等等。

但是,由于每个人的动作不统一,多人之间可能没有办法在同一时刻达到一致的动作、表情等,导致很难拍摄出用户想要的完美的画面。目前,想要获得更好的画面,只能通过多次拍摄,直至拍摄出满足需求的合影照片,拍摄效率低,用户体验差。



技术实现要素:

本发明实施例提供一种图像处理方法、电子设备,能够解决拍摄出满足合影人员需求的合影照片效率低下的问题。

为了解决上述技术问题,本发明实施例是这样实现的:

第一方面,本发明实施例提供一种图像处理方法,应用于电子设备,该方法包括:

获取目标视频,目标视频包括多个对象;

对于目标视频中多帧图像中的每帧图像进行人脸识别和人体识别,得到每个对象的面部表情集合和人体姿势特征信息集合;

基于预设表情筛选条件从每个对象的面部表情集合中筛选出目标面部表情,以及基于预设姿势筛选条件从每个对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息;

根据每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像;

对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。

第二方面,本发明实施例提供一种电子设备,该电子设备包括:

视频获取模块,用于获取目标视频,目标视频包括多个对象;

识别模块,用于对于目标视频中多帧图像中的每帧图像进行人脸识别和人体识别,得到每个对象的面部表情集合和人体姿势特征信息集合;

筛选模块,用于基于预设表情筛选条件从每个对象的面部表情集合中筛选出目标面部表情,以及基于预设姿势筛选条件从每个对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息;

待合成图像确定模块,用于根据每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像;

第一处理模块,用于对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。

第三方面,本发明实施例提供一种电子设备,设备包括:处理器以及存储有计算机程序指令的存储器;

处理器执行计算机程序指令时实现如上述第一方面提供的图像处理方法。

第四方面,本发明实施例提供一种计算机存储介质,计算机存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现如上述第一方面提供的图像处理方法。

在本发明的实施例中,通过利用人脸识别技术和人体识别技术,从拍摄的包括多个对象的目标视频中得到每个对象的面部表情集合和人体姿势特征信息集合;然后利用预设表情筛选条件和预设姿势筛选条件,筛选出符合每个对象需求的目标面部表情和目标人体姿势特征信息。接着,按照每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像,再对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。通过对每个对象的待合成图像进行自动处理,即可得到满足每个合影对象需求的合影图像,只需录制一次多个对象的视频,不需要对多个对象进行多次拍摄,减少了用户的操作时间,提高了拍摄效率。

附图说明

从下面结合附图对本发明的具体实施方式的描述中可以更好地理解本发明其中,相同或相似的附图标记表示相同或相似的特征。

图1为本发明实施例提供的图像处理方法的流程示意图;

图2为本发明实施例提供的背景图像的示意图;

图3为本发明实施例提供的电子设备的结构示意图之一;

图4为本发明实施例提供的电子设备的结构示意图之二。

具体实施方式

下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

基于上述技术问题,本发明实施例提供一种图像处理方法,提高对满足合影人员需求的合影照片的拍摄效率。下面结合具体的附图和实施例进行详细介绍。

图1示出本发明实施例提供的图像处理方法的流程示意图。如图1所示,本发明实施例提供的图像处理方法,应用于电子设备,包括步骤110~步骤150。

步骤110,电子设备获取目标视频,目标视频包括多个对象。

步骤120,电子设备对于目标视频中多帧图像中的每帧图像进行人脸识别和人体识别,得到每个对象的面部表情集合和人体姿势特征信息集合。

步骤130,电子设备基于预设表情筛选条件从每个对象的面部表情集合中筛选出目标面部表情,以及基于预设姿势筛选条件从每个对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息。

步骤140,电子设备根据每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像。

步骤150,电子设备对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。

在本发明的实施例中,通过利用人脸识别技术和人体识别技术,从拍摄的包括多个对象的目标视频中得到每个对象的面部表情集合和人体姿势特征信息集合;然后利用预设表情筛选条件和预设姿势筛选条件,筛选出符合每个对象需求的目标面部表情和目标人体姿势特征信息。接着,按照每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像,再对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。通过对每个对象的待合成图像进行自动处理,即可得到满足每个合影对象需求的合影图像,只需录制一次多个对象的视频,不需要对多个对象进行多次拍摄,减少了用户的操作时间,提高了拍摄效率。

下面详细介绍步骤110~步骤150中每个步骤的具体实现方式。

首先介绍步骤110的具体实现方式。在一些实施例中,对象可以为人。多个对象即为需要合影的多个人,即需要拍摄合影图像的多个人。

当拍摄者打开电子设备的摄像采集组件,对准需要拍摄合影图像的多个对象,以确定多个对象在取景范围内。

电子设备接收用户的录制视频请求,响应于该请求,电子设备的摄像采集组件开始对多个对象进行视频录制。例如,录制视频请求可以为对拍摄按钮的点击输入。

在视频录制过程中,被拍摄的对象摆出想要拍摄的姿势和表情(例如一起跳起来腾空、排成一排比心等姿势),等待被拍摄者动作完成,拍摄者点击结束拍摄按钮,则电子设备可以获取目标视频,该目标视频包括多个被拍摄的对象。

下面介绍步骤120的具体实现方式。在一些实施例中,首先获取目标视频中的多帧图像。例如,可以按照预设时间间隔选取目标视频中的多帧图像,例如每隔100ms选取一帧图像。再例如,也可以随机选取多帧图像。

对于选取的多帧图像中的每帧图像,对该图像进行人脸识别和人体识别,得到该图像中每个对象的面部表情和人体姿势特征。对于每个对象,将该对象在每帧图像中的面部表情集合在一起,即可得到该对象的面部表情集合。对于每个对象,将该对象在每帧图像中的人体姿势特征信息集合在一起,可以得到该对象的人体姿势特征信息集合。

作为一个示例,可以利用预先训练好的人脸识别模型对输入的图像进行处理,得到该图像中每个对象的面部表情。可以利用预先训练好的人体识别模型对输入的图像进行处理,得到该图像中每个对象的人体姿势特征信息。

作为一个示例,人体姿势特征信息为用于体现人体姿势的一些特征信息。例如,人体姿势特征信息可以包括人的四肢、躯干以及头部的像素位置信息以及这些部位之间的相对位置信息。

需要说明的是,对于每个对象,在存储该对象的面部表情信息时,将多帧图像中与该面部特征信息对应的那帧图像关联存储,以用于后续的图像合成。对于每个对象,在存储该对象的人体姿势特征信息时,将多帧图像中与该人体姿势特征信息对应的那帧图像关联存储,以用于后续的图像合成。

下面介绍步骤130的具体实现方式。在一些实施例中,步骤130包括:若面部表情集合对应的表情变化不满足预设变化条件,则电子设备将第一目标图像中对象的面部表情作为目标面部表情;若面部表情集合对应的表情变化满足预设变化条件,则电子设备将面部表情集合中与预设面部表情具有最高匹配度的面部表情作为目标面部表情。

其中,第一目标图像为多帧图像中对象的面部图像满足第一预设清晰度条件的一帧图像。

在一些实施例中,面部表情集合对应的表情变化可以用面部表情集合中面部表情的种类个数来表征。作为一个示例,预设变化条件为面部表情集合中面部表情的种类个数超过预设阈值。例如,预设阈值为2。

对于单个对象来说,若该对象的面部表情集合对应的表情变化不满足预设条件,例如,面部表情集合中面部表情的种类个数小于或等于2,则代表该对象在目标视频中的表情变化不大。

因此,可以选取多帧图像中该对象的面部图像满足第一预设清晰度条件的一帧图像(即第一目标图像)中该对象的面部表情作为目标面部表情。

作为一个示例,若满足第一预设清晰度条件的图像为多帧,则选取任意一帧,或者选取清晰度最高的一帧,作为第一目标图像。

通过将第一目标图像中对象的面部表情作为该对象的目标面部表情,提高了合影图像的清晰度。

对于单个对象来说,若该对象的面部表情集合对应的表情变化满足预设变化条件,则代表该对象在目标视频中的表情变化较大,那么可以将面部表情集合中与预设面部表情具有最高匹配度的面部表情作为目标面部表情。例如,预设面部表情可以为大笑或微笑。

在本发明的实施例中,预设面部表情可以是被拍摄用户自定义的,以满足被拍摄用户的拍摄需求。

在一些实施例中,步骤130包括:电子设备基于对象的人体姿势特征信息集合中的每个人体姿势特征信息,确定对象的人体姿势变化趋势;电子设备基于人体姿势变化趋势,确定具有最大姿势变化幅度的第一人体姿势特征信息;电子设备将第一人体姿势特征信息作为对象的目标人体姿势特征信息。

在一些实施例中,对于每个对象,该对象的人体姿势变化趋势为随着多帧图像的时间先后该对象的姿势变化趋势。

作为一个示例,人体姿势变化趋势可以包括头部的位置变化趋势、头部相对于躯干的位置变化趋势以及四肢相对于躯干的位置变化趋势等。

对于每个对象,根据该对象的每个人体姿势特征信息,可以获取该对象的头部在每帧图像中的像素位置。根据该对象的头部在每帧图像中的像素位置,可以确定该对象的头部的位置变化趋势。

首先,根据每个对象的头部的位置变化趋势,判断该对象的头部的高度位置是否发生了变化。若头部的高度位置发生了变化,则代表该对象经历了类似跳跃腾空的姿势变化,则选取该对象具有最大姿势变化幅度的人体姿势特征信息作为目标人体姿势特征信息。例如,最大姿势变化幅度的第一人体姿势特征信息即该对象的头部的变化趋势中最高的头部位置对应的人体姿势特征信息。

对于每个对象,若该对象的头部的位置变化趋势比较平缓,则根据头部相对于躯干的位置变化趋势,以及四肢相对于躯干位置的位置变化趋势确定第一人体姿势特征信息。

作为一个示例,对于每个人物,该人物的人体姿势特征信息中包括该人物的头部中预设器官的像素位置信息以及躯干中预设关节点(胸前)的像素位置信息。基于头部中预设器官的像素位置信息以及躯干中预设关节点的像素位置信息,可以计算两者之间的距离。通过头部中预设器官与躯干中预设关节点之间的距离变化趋势,可以得出头部相对于躯干的位置变化趋势。相类似地,根据四肢上重要关节点(例如手指、肘部、肩膀)与躯干中预设关节点之间的距离,可以得出四肢相对于躯干的位置变化趋势。

由于人体姿势关节变化趋势相似,因此,具有最大姿势变化幅度的第一人体姿势特征信息,即是该对象的头部中预设器官与躯干中预设关节点之间的距离是最值,且该对象的四肢上重要关节点(例如手指、肘部、肩膀)与躯干中预设关节点之间的距离也是最值所对应的人体姿势特征信息。

若人体姿势变化比较平稳,则代表该人物整个拍摄过程中身体位置没有大的改变,那么可以判断用户的姿势是静止站立的。因此可以将多帧图像中该对象的姿势图像满足预设清晰度条件的一帧图像中该人物的人体姿势特征信息作为目标人体姿势特征信息。

通过利用预设表情筛选条件和预设姿势筛选条件筛选出符合每个人物的拍摄需求的面部表情信息和人体姿势特征信息,不用多次拍摄,以寻找符合每个人物的拍摄需求的合影照片,提高了拍摄效率。

下面介绍步骤140的具体实现方式。在一些实施例中,步骤140包括:电子设备获取第二目标图像中对象的人体图像;电子设备基于对象的目标人体姿势特征信息和目标面部表情对人体图像进行更新,得到对象的待合成图像。

其中,第二目标图像为多帧图像中对象的目标人体姿势特征信息对应的图像,或,为多帧图像中对象的姿势图像满足预设清晰度条件的一帧图像

在一些实施例中,为了提高处理效率,第二目标图像可以是多帧图像中目标人体姿势特征信息对应的图像。对于每个对象,若第二目标图像为目标人体姿势特征信息对应的图像,则将该图像中该人物的人体图像中的表情更新为该人物的目标面部表情,即得到该对象的待合成图像。

在一些实施例中,为了提高目标图像的清晰度,第二目标图像为多帧图像中对象的姿势图像满足预设清晰度条件的一帧图像。在此基础上,可以将第二目标图像中该人物的人体图像中的人体姿势特征信息更新为对象的目标人体姿势特征信息,并将该人体图像中该人物的面部表情更新为该对象的目标面部表情,得到该对象的待合成图像。

下面介绍步骤150的具体实现方式。在步骤150中,电子设备可以按照每个对象的排列顺序将相邻两个对象的待合成图像进行图像拼接,得到包括每个对象的合影图像,即目标图像。

在一些实施例中,还可以将每个对象的位置进行调整,使得所有的人物排列整齐。最终得到人物姿势整齐优美,表情清晰且整体动作整齐和谐的合影照片。

在一些实施例中,本发明实施例提高的图像处理方法还包括:电子设备获取多帧图像的背景重叠区域。在此基础上,步骤150包括电子设备对每个对象的待合成图像以及背景重叠区域进行融合处理,得到目标图像。

图2示出目标视频中的一帧图像,该图像中包括3个对象。通过对图2中的图像的对象进行抠除处理,即可以得到该图像对应的背景图像。通过对目标视频中的每帧图像进行对象抠除处理,均可以得到该图像对应的背景图像。然后,对每帧图像的背景图像进行特征提取,可以得到多帧图像对应的共同的背景重叠区域。

然后,将每个对象的待合成图像嵌入上述背景重叠区域,即可以得到包括多个对象的合影图像。

在一些实施例中,为了进一步满足多个对象中每个对象的合影需求,本发明实施例提供的图像处理方法还包括步骤160和步骤170。步骤160,电子设备接收第一输入。步骤170,电子设备响应于第一输入对目标图像进行处理,得到处理后的目标图像。

在本发明的一些实施例中,第一输入可以是点击输入、长按输入、滑动输入或预设手势操作等输入。其中,第一输入是对目标图像进行处理的输入。

在本发明的实施例中,通过响应于用户的第一输入对目标图像行处理,得到处理后的目标图像,可以让用户根据自己的需求对目标图像进行调整,提高了便捷性。

在一些实施例中,第一输入与多个对象中目标对象的属性的处理参数关联,其中,步骤170包括:电子设备基于处理参数,对目标对象的属性进行处理,得到处理后的目标图像。

其中,目标对象的属性包括目标对象在合成图像中的位置、目标对象的面部表情或目标对象的姿势。

作为一个示例,目标对象的属性为目标对象在目标图像中的位置。例如,第一输入包括对目标位置模板的选择输入。例如,可以预先提供多个位置模板,每个位置模板用于表征多个对象中每个对象在目标图像中的位置。例如,位置模板可以为一字排列或弧形排列等等。再例如,第一输入也可以与目标对象的位置变更参数关联。基于目标对象的位置变更参数,对目标对象的位置进行更改,得到更改目标对象的位置后的目标图像。也就是说,用户可以一键对每个对象的位置进行调整,也可以分别对每一个人物进行位置调整。

在另一些实施例中,目标对象的属性为目标对象的面部表情。第一输入包括对目标对象的选择输入和对目标面部表情的选择输入。例如当用户点击选中目标图像中的一个对象,即目标对象,则显示该对象的面部表情集合中的每个表情以供用户选择。其中,用户点击选择的表情即为目标面部表情。然后响应于第一输入,将用户选中的目标面部表情替代目标图像中目标人物的原有面部表情。

在另一些实施例中,目标对象的属性为目标对象的姿势。例如,第一输入包括对目标对象的选择输入和对目标对象的目标肢体动作的选择输入。例如当用户点击选中目标图像中的一个对象,即目标对象,则显示该对象在拍摄过程中的每个肢体动作以供用户选择。其中,用户点击选择的肢体动作即为目标肢体动作。然后响应于第一输入,将用户选中的目标肢体动作替代目标图像中目标人物的原有目标肢体动作。

相类似地,用户还可以按照上述方法对目标对象的躯干和头部进行调整。

在一些实施例中,用户可以适当的调整人物的身材,调整头部、躯干、四肢的长度或宽度,不同的身体部位图片会经过适当的拉伸并进行拼接,以得到用户满意的身材,获得最佳的合影效果。

在一些实施例中,用户也可以对目标图像中的每个对象或背景图片进行美颜处理,以得到符合用户需求的合影图像。

本发明实施案例可以帮助用户对人物姿势、表情、身材、人物排列进行私人定制,充分满足用户所有的需求,不但可以进一步优化合影的效果,而且使得用户的合影操作带来十足的乐趣。

图3示出本发明实施例提供的电子设备300的结构示意图。如图3所示,本发明实施例提供的电子设备300包括:

视频获取模块310,用于获取目标视频,目标视频包括多个对象。

识别模块320,用于对于目标视频中多帧图像中的每帧图像进行人脸识别和人体识别,得到每个对象的面部表情集合和人体姿势特征信息集合。

筛选模块330,用于基于预设表情筛选条件从每个对象的面部表情集合中筛选出目标面部表情,以及基于预设姿势筛选条件从每个对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息。

待合成图像确定模块340,用于根据每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像。

第一处理模块350,用于对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。

在本发明的实施例中,通过利用人脸识别技术和人体识别技术,从拍摄的包括多个对象的目标视频中得到每个对象的面部表情集合和人体姿势特征信息集合;然后利用预设表情筛选条件和预设姿势筛选条件,筛选出符合每个对象需求的目标面部表情和目标人体姿势特征信息。接着,按照每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像,再对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。通过对每个对象的待合成图像进行自动处理,即可得到满足每个合影对象需求的合影图像,只需录制一次多个对象的视频,不需要对多个对象进行多次拍摄,减少了用户的操作时间,提高了拍摄效率。

在本发明的一些实施例中,筛选模块330用于:

若面部表情集合对应的表情变化不满足预设变化条件,则将第一目标图像中对象的面部表情作为目标面部表情;第一目标图像为多帧图像中对象的面部图像满足第一预设清晰度条件的一帧图像;

若面部表情集合对应的表情变化满足预设变化条件,则将面部表情集合中与预设面部表情具有最高匹配度的面部表情作为目标面部表情。

在本发明的一些实施例中,筛选模块330用于:

基于对象的人体姿势特征信息集合中的每个人体姿势特征信息,确定对象的人体姿势变化趋势;

基于人体姿势变化趋势,确定具有最大姿势变化幅度的第一人体姿势特征信息;

将第一人体姿势特征信息作为对象的目标人体姿势特征信息。

在本发明的一些实施例中,待合成图像确定模块340:

获取第二目标图像中对象的人体图像;第二目标图像为多帧图像中对象的目标人体姿势特征信息对应的一帧图像,或,为多帧图像中对象的姿势图像满足预设清晰度条件的一帧图像;

基于对象的目标人体姿势特征信息和目标面部表情对人体图像进行更新,得到对象的待合成图像。

在本发明的一些实施例中,电子设备300还包括:

获取模块,用于获取多帧图像的背景重叠区域;

其中,第一处理模块350,用于:

对每个对象的待合成图像以及背景重叠区域进行融合处理,得到目标图像。

本发明实施例提供的电子设备300能够实现本发明实施例提供的图像处理方法实施例中的各个过程,为避免重复,这里不再赘述。

图4为实现本发明各个实施例的一种电子设备的硬件结构示意图,该电子设备400包括但不限于:射频单元401、网络模块402、音频输出单元403、输入单元404、传感器405、显示单元406、用户输入单元407、接口单元408、存储器409、处理器410、以及电源411等部件。本领域技术人员可以理解,图4中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。

其中,处理器410,用于获取目标视频,目标视频包括多个对象;对于目标视频中多帧图像中的每帧图像进行人脸识别和人体识别,得到每个对象的面部表情集合和人体姿势特征信息集合;基于预设表情筛选条件从每个对象的面部表情集合中筛选出目标面部表情,以及基于预设姿势筛选条件从每个对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息;根据每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像;对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。。

在本发明的实施例中,通过利用人脸识别技术和人体识别技术,从拍摄的包括多个对象的目标视频中得到每个对象的面部表情集合和人体姿势特征信息集合;然后利用预设表情筛选条件和预设姿势筛选条件,筛选出符合每个对象需求的目标面部表情和目标人体姿势特征信息。接着,按照每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像,再对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。通过对每个对象的待合成图像进行自动处理,即可得到满足每个合影对象需求的合影图像,只需录制一次多个对象的视频,不需要对多个对象进行多次拍摄,减少了用户的操作时间,提高了拍摄效率。

应理解的是,本发明实施例中,射频单元401可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器410处理;另外,将上行的数据发送给基站。通常,射频单元401包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元401还可以通过无线通信系统与网络和其他设备通信。

电子设备通过网络模块402为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。

音频输出单元403可以将射频单元401或网络模块402接收的或者在存储器409中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元403还可以提供与电子设备400执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元403包括扬声器、蜂鸣器以及受话器等。

输入单元404用于接收音频或视频信号。输入单元404可以包括图形处理器(graphicsprocessingunit,gpu)4041和麦克风4042,图形处理器4041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像组件)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元406上。经图形处理器4041处理后的图像帧可以存储在存储器409(或其它存储介质)中或者经由射频单元401或网络模块402进行发送。麦克风4042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元401发送到移动通信基站的格式输出。

电子设备400还包括至少一种传感器405,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板4061的亮度,接近传感器可在电子设备400移动到耳边时,关闭显示面板4061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器405还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。

显示单元406用于显示由用户输入的信息或提供给用户的信息。显示单元406可包括显示面板4061,可以采用液晶显示器(liquidcrystaldisplay,lcd)、有机发光二极管(organiclight-emittingdiode,oled)等形式来配置显示面板4061。

用户输入单元407可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元407包括触控面板4071以及其他输入设备4072。触控面板4071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板4071上或在触控面板4071附近的操作)。触控面板4071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器410,接收处理器410发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板4071。除了触控面板4071,用户输入单元407还可以包括其他输入设备4072。具体地,其他输入设备4072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。

进一步的,触控面板4071可覆盖在显示面板4061上,当触控面板4071检测到在其上或附近的触摸操作后,传送给处理器410以确定触摸事件的类型,随后处理器410根据触摸事件的类型在显示面板4061上提供相应的视觉输出。虽然在图4中,触控面板4071与显示面板4061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板4071与显示面板4061集成而实现电子设备的输入和输出功能,具体此处不做限定。

接口单元408为外部装置与电子设备400连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(i/o)端口、视频i/o端口、耳机端口等等。接口单元408可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备400内的一个或多个元件或者可以用于在电子设备400和外部装置之间传输数据。

存储器409可用于存储软件程序以及各种数据。存储器409可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器409可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。

处理器410是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器409内的软件程序和/或模块,以及调用存储在存储器409内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器410可包括一个或多个处理单元;优选的,处理器410可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器410中。

电子设备400还可以包括给各个部件供电的电源411(比如电池),优选的,电源411可以通过电源管理系统与处理器410逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。

另外,电子设备400包括一些未示出的功能模块,在此不再赘述。

优选的,本发明实施例还提供一种电子设备,还包括处理器,存储器,存储在存储器上并可在处理器上运行的计算机程序,该计算机程序被处理器执行时实现上述图像处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。

本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现图像处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(read-onlymemory,简称rom)、随机存取存储器(randomaccessmemory,简称ram)、磁碟或者光盘等。

需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。

上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。


技术特征:

1.一种图像处理方法,应用于电子设备,其特征在于,所述方法包括:

获取目标视频,所述目标视频包括多个对象;

对于所述目标视频中多帧图像中的每帧图像进行人脸识别和人体识别,得到每个对象的面部表情集合和人体姿势特征信息集合;

基于预设表情筛选条件从每个所述对象的面部表情集合中筛选出目标面部表情,以及基于预设姿势筛选条件从每个所述对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息;

根据每个所述对象的目标面部表情和目标人体姿势特征信息,确定每个所述对象的待合成图像;

对每个所述对象的待合成图像进行处理,得到包括所述多个对象的目标图像。

2.根据权利要求1所述的方法,其特征在于,所述基于预设表情筛选条件从每个所述对象的面部表情集合中筛选出目标面部表情,包括:

若所述面部表情集合对应的表情变化不满足预设变化条件,则将第一目标图像中所述对象的面部表情作为所述目标面部表情;所述第一目标图像为所述多帧图像中所述对象的面部图像满足第一预设清晰度条件的一帧图像;

若所述面部表情集合对应的表情变化满足所述预设变化条件,则将所述面部表情集合中与预设面部表情具有最高匹配度的面部表情作为所述目标面部表情。

3.根据权利要求1所述的方法,其特征在于,所述基于预设姿势筛选条件从每个所述对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息,包括:

基于所述对象的人体姿势特征信息集合中的每个人体姿势特征信息,确定所述对象的人体姿势变化趋势;

基于所述人体姿势变化趋势,确定具有最大姿势变化幅度的第一人体姿势特征信息;

将所述第一人体姿势特征信息作为所述对象的目标人体姿势特征信息。

4.根据权利要求1所述的方法,其特征在于,所述根据每个所述对象的目标面部表情和目标人体姿势特征信息,确定每个所述对象的待合成图像,包括:

获取第二目标图像中所述对象的人体图像;所述第二目标图像为所述多帧图像中所述对象的目标人体姿势特征信息对应的一帧图像,或,为所述多帧图像中所述对象的姿势图像满足预设清晰度条件的一帧图像;

基于所述对象的目标人体姿势特征信息和所述目标面部表情对所述人体图像进行更新,得到所述对象的待合成图像。

5.根据权利要求1所述的方法,其特征在于,所述方法还包括:

获取所述多帧图像的背景重叠区域;

其中,所述对每个所述对象的待合成图像进行处理,得到包括所述多个对象的目标图像,包括:

对每个所述对象的待合成图像以及所述背景重叠区域进行融合处理,得到所述目标图像。

6.一种电子设备,其特征在于,所述电子设备包括:

视频获取模块,用于获取目标视频,所述目标视频包括多个对象;

识别模块,用于对于所述目标视频中多帧图像中的每帧图像进行人脸识别和人体识别,得到每个对象的面部表情集合和人体姿势特征信息集合;

筛选模块,用于基于预设表情筛选条件从每个所述对象的面部表情集合中筛选出目标面部表情,以及基于预设姿势筛选条件从每个所述对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息;

待合成图像确定模块,用于根据每个所述对象的目标面部表情和目标人体姿势特征信息,确定每个所述对象的待合成图像;

第一处理模块,用于对每个所述对象的待合成图像进行处理,得到包括所述多个对象的目标图像。

7.根据权利要求6所述的电子设备,其特征在于,所述筛选模块用于:

若所述面部表情集合对应的表情变化不满足预设变化条件,则将第一目标图像中所述对象的面部表情作为所述目标面部表情;所述第一目标图像为所述多帧图像中所述对象的面部图像满足第一预设清晰度条件的一帧图像;

若所述面部表情集合对应的表情变化满足所述预设变化条件,则将所述面部表情集合中与预设面部表情具有最高匹配度的面部表情作为所述目标面部表情。

8.根据权利要求6所述的电子设备,其特征在于,所述筛选模块用于:

基于所述对象的人体姿势特征信息集合中的每个人体姿势特征信息,确定所述对象的人体姿势变化趋势;

基于所述人体姿势变化趋势,确定具有最大姿势变化幅度的第一人体姿势特征信息;

将所述第一人体姿势特征信息作为所述对象的目标人体姿势特征信息。

9.根据权利要求6所述的电子设备,其特征在于,所述待合成图像确定模块用于:

获取第二目标图像中所述对象的人体图像;所述第二目标图像为所述多帧图像中所述对象的目标人体姿势特征信息对应的一帧图像,或,为所述多帧图像中所述对象的姿势图像满足预设清晰度条件的一帧图像;

基于所述对象的目标人体姿势特征信息和所述目标面部表情对所述人体图像进行更新,得到所述对象的待合成图像。

10.根据权利要求6所述的电子设备,其特征在于,所述设备还包括:

获取模块,用于获取所述多帧图像的背景重叠区域;

其中,所述,第一处理模块用于:

对每个所述对象的待合成图像以及所述背景重叠区域进行融合处理,得到所述目标图像。

技术总结
本发明实施例公开了图像处理方法及电子设备。该方法包括:获取目标视频,目标视频包括多个对象;对于目标视频中多帧图像中的每帧图像进行人脸识别和人体识别,得到每个对象的面部表情集合和人体姿势特征信息集合;基于预设表情筛选条件从每个对象的面部表情集合中筛选出目标面部表情,以及基于预设姿势筛选条件从每个对象的人体姿势特征信息集合中筛选出目标人体姿势特征信息;根据每个对象的目标面部表情和目标人体姿势特征信息,确定每个对象的待合成图像;对每个对象的待合成图像进行处理,得到包括多个对象的目标图像。本发明实施例可提高了合影照片的拍摄效率。

技术研发人员:徐有健
受保护的技术使用者:维沃移动通信有限公司
技术研发日:2020.02.27
技术公布日:2020.06.09

转载请注明原文地址: https://bbs.8miu.com/read-17190.html

最新回复(0)