本申请涉及图像处理技术领域,具体而言,涉及一种图像处理方法和装置、电子设备及计算机可读存储介质。
背景技术:
人脸识别主要分为人脸检测、特征提取和人脸识别三个过程。人脸识别又可以分为两个大类:一类是确认,这是人脸图像与数据库中已存的该人脸对应的图像比对的过程;另一类是辨认,这是人脸图像与数据库中已存的所有图像匹配的过程。人脸面部抓拍采集子系统负责完成人脸面部信息的采集,包括人脸面部小照片、过人场景照片、视频流等。人脸识别系统成功的关键在于是否拥有尖端的核心算法,并使识别结果具有实用化的识别率和识别速度。“人脸识别系统”集成了人工智能、机器识别、机器学习等多种专业技术,同时需结合中间值处理的理论与实现,是生物特征识别的最新应用,其核心技术的实现,展现了弱人工智能向强人工智能的转化。
但是,经发明人研究发现,在现有技术中,直接将面部特征图像与面部特征模板进行匹配,从而存在着人脸识别的准确度不高的问题。
技术实现要素:
有鉴于此,本申请的目的在于提供一种图像处理方法和装置、电子设备及计算机可读存储介质,以改善现有技术中存在的问题。
为实现上述目的,本申请实施例采用如下技术方案:
一种图像处理方法,包括:
将待处理的人脸图像对应的面部特征图像与预设的面部特征模板进行匹配处理,得到第一匹配结果;
将待处理的人脸图像对应的面部特征图像进行时间规整匹配处理,得到第二匹配结果;
根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果。
在本申请实施例较佳的选择中,所述根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果的步骤,包括:
获取所述第一匹配结果对应的第一权重系数和所述第二匹配结果对应的第二权重系数;
根据所述第一匹配结果、第一权重系数、第二匹配结果和第二权重系数,计算得到面部识别结果。
在本申请实施例较佳的选择中,所述第一权重系数为50%,所述第二权重系数为50%,所述根据所述第一匹配结果、第一权重系数、第二匹配结果和第二权重系数,计算得到面部识别结果的步骤,包括:
将所述第一匹配结果与50%相乘,得到第一计算结果;
将所述第二匹配结果与50%相乘,得到第二计算结果;
将所述第一计算结果和第二计算结果相加,得到面部识别结果。
在本申请实施例较佳的选择中,所述待处理的人脸图像对应的面部特征图像通过以下步骤得到:
对待处理的人脸图像进行处理,得到对应的面部特征图像。
在本申请实施例较佳的选择中,所述对待处理的人脸图像进行处理,得到对应的面部特征图像的步骤,包括:
对待处理的人脸图像进行预处理,得到对应的预处理图像;
对所述预处理图像进行特征提取处理,得到对应的面部特征图像。
在本申请实施例较佳的选择中,所述对待处理的人脸图像进行预处理,得到对应的预处理图像的步骤,包括;
对所述人脸图像进行灰度化处理,得到对应的灰度图;
对所述灰度图进行校正处理,得到对应的预处理图像。
在本申请实施例较佳的选择中,所述对所述预处理图像进行特征提取处理,得到对应的面部特征图像的步骤,包括:
根据所述预处理图像和预设的特征提取模型,计算得到对应的面部特征图像。
本申请实施例还提供了一种图像处理装置,包括:
第一匹配结果获取模块,用于将待处理的人脸图像对应的面部特征图像与预设的面部特征模板进行匹配处理,得到第一匹配结果;
第二匹配结果获取模块,用于将待处理的人脸图像对应的面部特征图像进行时间规整匹配处理,得到第二匹配结果;
面部识别结果获取模块,用于根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果。
本申请实施例还提供了一种电子设备,包括存储器和处理器,所述处理器用于执行所述存储器中存储的可执行的计算机程序,以实现上述的图像处理方法。
本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被执行时实现上述图像处理方法的步骤。
本申请实施例提供的图像处理方法和装置、电子设备及计算机可读存储介质,通过将面部特征图像与面部特征模板进行匹配得到的第一匹配结果和将面部特征图像进行时间归整匹配处理得到的第二匹配结果进行加权处理,得到面部识别结果,避免了现有技术中直接将面部特征图像与面部特征模板进行匹配,所导致的人脸识别的准确度不高的问题。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的电子设备的结构框图。
图2为本申请实施例提供的图像处理方法的流程示意图。
图3为本申请实施例提供的图像处理方法的另一流程示意图。
图4为本申请实施例提供的图像处理装置的结构框图。
图标:10-电子设备;12-存储器;14-处理器;100-图像处理装置;110-第一匹配结果获取模块;120-第二匹配结果获取模块;130-面部识别结果获取模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
如图1所示,本申请实施例提供了一种电子设备10。其中,所述电子设备10可以包括存储器12、处理器14和图像处理装置100。
详细地,所述存储器12和处理器14之间直接或间接地电性连接,以实现数据的传输或交互。例如,相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述图像处理装置100包括至少一个可以软件或固件(firmware)的形式存储于所述存储器12中的软件功能模块。所述处理器14用于执行所述存储器12中存储的可执行的计算机程序,例如,所述图像处理装置100所包括的软件功能模块及计算机程序等,以实现图像处理方法。
其中,所述存储器12可以是,但不限于,随机存取存储器(randomaccessmemory,ram),只读存储器(readonlymemory,rom),可编程只读存储器(programmableread-onlymemory,prom),可擦除只读存储器(erasableprogrammableread-onlymemory,eprom),电可擦除只读存储器(electricerasableprogrammableread-onlymemory,eeprom)等。
所述处理器14可能是一种集成电路芯片,具有信号的处理能力。上述的处理器14可以是通用处理器,包括中央处理器(centralprocessingunit,cpu)、网络处理器(networkprocessor,np)、片上系统(systemonchip,soc)等。
可以理解,图1所示的结构仅为示意,所述电子设备10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
结合图2,本申请实施例还提供一种可应用于上述电子设备10的图像处理方法。其中,所述图像处理方法有关的流程所定义的方法步骤可以由所述电子设备10实现,下面将对图2所示的具体流程进行详细阐述。
步骤s110,将待处理的人脸图像对应的面部特征图像与预设的面部特征模板进行匹配处理,得到第一匹配结果。
在本申请实施例中,在得到所述待处理的人脸图像对应的面部特征图像之后,可以将将所述面部特征图像与预设的面部特征模板进行匹配处理,得到第一匹配结果。
步骤s120,将待处理的人脸图像对应的面部特征图像进行时间规整匹配处理,得到第二匹配结果。
在本申请实施例中,在得到所述待处理的人脸图像对应的面部特征图像之后,可以将所述面部特征图像进行时间规整匹配处理,得到第二匹配结果。
步骤s130,根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果。
在本申请实施例中,通过步骤s110得到第一匹配结果,通过步骤s120得到第二匹配结果之后,可以根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果。
通过上述方法,通过将面部特征图像与面部特征模板进行匹配得到的第一匹配结果和将面部特征图像进行时间归整匹配处理得到的第二匹配结果进行加权处理,得到面部识别结果,避免了现有技术中直接将面部特征图像与面部特征模板进行匹配,所导致的人脸识别的准确度不高的问题。
在步骤s110之前,所述待处理的人脸图像对应的面部特征图像可以通过以下步骤得到:
对待处理的人脸图像进行处理,得到对应的面部特征图像。
可选地,所述对待处理的人脸图像进行处理,得到对应的面部特征图像的具体方式不受限制,可以根据实际应用需求进行设置。
例如,在一种可以替代的示例中,所述对待处理的人脸图像进行处理,得到对应的面部特征图像的步骤,可以包括以下子步骤:
首先,对待处理的人脸图像进行预处理,得到对应的预处理图像。其次,对所述预处理图像进行特征提取处理,得到对应的面部特征图像。
其中,所述对待处理的人脸图像进行预处理,得到对应的预处理图像的具体方式不受限制,可以根据实际应用需求进行设置。
例如,在一种可以替代的示例中,所述对待处理的人脸图像进行预处理,得到对应的预处理图像的步骤,可以包括以下子步骤:
首先,对所述人脸图像进行灰度化处理,得到对应的灰度图。其次,对所述灰度图进行校正处理,得到对应的预处理图像。
详细地,可以通过aadboost算法进行人脸检测,aadboost算法系统具有较高的检测速率,且不易出现过适应现象。但是该算法在实现过程中为取得更高的检测精度则需要较大的训练样本集,在每次迭代过程中,训练一个弱分类器则对应该样本集中的每一个样本,每个样本具有很多特征,因此从庞大的特征中训练得到最优弱分类器的计算量增大。典型的adaboost算法采用的搜索机制是回溯法,虽然在训练弱分类器时每一次都是由贪心算法来获得局部最佳弱分类器,但是却不能确保选择出来加权后的是整体最佳。在选择具有最小误差的弱分类器之后,对每个样本的权值进行更新,增大错误分类的样本对应的权值,相对地减小被正确分类的样本权重。且执行效果依赖于弱分类器的选择,搜索时间随之增加,故训练过程使得整个系统的所用时间非常大,也因此限制了该算法的广泛应用。另一方面,在算法实现过程中,从检测率和对正样本的误识率两个方面向预期值逐渐逼近来构造级联分类器,迭代训练生成大量的弱分类器后才能实现这一构造过程。由此推出循环逼近的训练分类器需要消耗更多的时间。
通过aadboost算法进行人脸检测之后,可以对人脸图像进行灰度校正处理、噪声过滤处理、光线补偿处理、灰度变换处理、直方图均衡化处理、归一化处理、几何校正处理、滤波以及锐化处理,得到对应的灰度图。
详细地,将收集到的图像进行灰度化处理,训练集的大小初始化样本权值,使其满足均匀分布,在后续操作中通过公式来改变和规范化算法迭代后样本的权值。由于光照、摄像、传感器灵敏度以及光学系统等的不均匀性而引起图像某些部分较暗或较亮,对面部图像使用灰度级修正。图像在获取或传输的过程中受到随机信号的干扰,在图像上出现的一些随机的、离散的、孤立的像素点,这些点会干扰人眼对图像信息的分析。图像可能会存在光线不平衡的情况而造成色彩偏差,为了抵消这种整个图像中存在的色彩偏差,将整个图像中的所有像素的亮度从高到低进行排列,取前5%的像素,然后线性放大,使这些像素的平均亮度达到255,实际上就是调整图片像素的rgb值。根据某种目标条件按一定变换关系逐点改变源图像中每一个像素灰度值,改善画质,使图像的显示效果更加清晰用形态学进行膨胀和腐蚀处理,把物体接触的所有的点与背景结合拼在一起,处理断裂,粗糙,边界,不平整的面部特征图像。可以进行高斯滤波处理消除高斯噪声,平滑曲线。
通过上述方法,用灰度处理图像,图像的信息量间少,文件也会变小。记录值域对应的方差,能够找到区分前景与背景的最优值。将图像二值化,能使数据大大的缩减,凸显出面部特征的轮廓。规整视频图像序列,能准确地匹配到时间轴。利用形态学处理图像更高效,快速处理大量图像,对硬件要求简单。
需要说明的是,一种加色模型,将红(red)、绿(green)、蓝(blue)三原色的色光以不同的比例相加,以产生多种多样的色光,且三原色的红绿蓝不可能用其他单色光合成。rgb色彩模式使用rgb模型为图像中每个像素的rgb分量分配一个0~255范围内的强度值。rgb图像仅仅使用三种颜色,r(red)、g(green)、b(blue),就能够使它们依照不同的比例混合,在屏幕上呈现16777216(256*256*256)种颜色。在rgb模型中,如果r=g=b时,则彩色表示一种灰度颜色,其中r=g=b的值叫灰度值,因此,灰度图像每个像素只需一个字节存放灰度值(又称强度值、亮度值),灰度范围为0-255。0%的灰度rgb数值是255,255,255;1%灰度的rgb数值是253,253,253;2%灰度rgb值为250,250,250。灰度图像与黑白图像不同,在计算机图像领域中黑白图像只有黑白两种颜色,灰度图像在黑色与白色之间还有许多级的颜色深度。灰度化的方法可以包括分量法、最大值法、平均值法和加权平均法。
二值化(thresholding)是图像分割的一种最简单的方法。二值化可以把灰度图像转换成二值图像。把大于某个临界灰度值的像素灰度设为灰度极大值,把小于这个值的像素灰度设为灰度极小值,从而实现二值化。根据阈值选取的不同,二值化的算法分为固定阈值和自适应阈值。比较常用的二值化方法则有:双峰法、p参数法、迭代法和otsu法等。
图像的膨胀(dilation)和腐蚀(erosion)是两种基本的形态学运算,主要用来寻找图像中的极大区域和极小区域。其中膨胀类似于“领域扩张”,将图像的高亮区域或白色部分进行扩张,其运行结果图比原图的高亮区域更大。腐蚀类似“领域被蚕食”,将图像中的高亮区域或白色部分进行缩减细化,其运行结果图比原图的高亮区域更小。
进一步地,所述对所述预处理图像进行特征提取处理,得到对应的面部特征图像的具体方式不受限制,可以根据实际应用需求进行设置。
例如,在一种可以替代的示例中,所述对所述预处理图像进行特征提取处理,得到对应的面部特征图像的步骤,可以包括以下子步骤:
根据所述预处理图像和预设的特征提取模型,计算得到对应的面部特征图像。
详细地,预设的特征提取模型可以把人脸图像利用视觉特征到曲率和角度进行提取,提取出面部的信息。
对于步骤s110,需要说明的是,预设的面部特征模板可以通过多种方式获得。
例如,所述电子设备10可以根据用户进行图像处理时输入的图像处理所需的信息创建面部特征模板并将该面部特征模板进行存储,得到预存的面部特征模板。其中,用户可以通过服务请求方终端输入图像处理所需的信息,并由服务请求方终端将用户输入的图像处理所需的信息发送至所述电子设备10。
又例如,所述电子设备10可以通过大数据收集,对各图像处理厂商提供的图像处理方式进行分析,汇总得出与各图像处理厂商提供的图像处理方式对应的一个或者多个面部特征模板,并将汇总得出的所有面部特征模板进行存储,得到预存的面部特征模板。
又例如,所述电子设备10可以将已经存储的面部特征模板(可以包括所述电子设备10通过大数据收集,汇总得出的一个或者多个面部特征模板,也可以包括所述电子设备10根据用户进行图像处理时输入的图像处理所需的信息所创建面部特征模板)进行展示。具体地,所述电子设备10可以将已经存储的面部特征模板发送至用户的服务请求方终端进行展示,以供用户通过服务请求方终端对存储的面部特征模板进行自定义修改,并由服务请求方终端将修改信息发送至所述电子设备10。所述电子设备10从而将修改之后的面部特征模板进行存储,得到预存的面部特征模板。
又例如,用户可以自定义创建面部特征模板,所述电子设备10将用户自定义创建的面部特征模板进行存储,得到预存的面部特征模板。
所述电子设备10根据用户进行图像处理时输入的图像处理所需的信息创建面部特征模板并将该面部特征模板进行存储的方式可以灵活设置。
作为其中一种可选的实现方式,为了尽可能增加预存的面部特征模板的全面性,所述电子设备10可以根据用户输入的图像处理所需的信息直接创建面部特征模板并将该面部特征模板进行存储,作为预存的面部特征模板。
类似地,在存在对已经存储的面部特征模板进行修改的用户操作时,所述电子设备10可以根据对面部特征模板进行修改的用户操作,将修改之后的面部特征模板直接进行存储,作为预存的面部特征模板。例如,所述电子设备10将已经存储的面部特征模板发送至用户的服务请求方终端进行展示后,若面部特征模板中的信息不能完全满足图像处理需求,用户可以在服务请求方终端上对存储的面部特征模板进行修改,修改可以包括对原有的信息进行修改、新增、删除等。完成修改之后,服务请求方终端将对面部特征模板进行修改的用户操作发送至所述电子设备10,所述电子设备10从而根据对面部特征模板进行修改的用户操作,将修改之后的面部特征模板直接进行存储,作为预存的面部特征模板。
其中,在所述电子设备10根据用户输入的图像处理所需的信息直接创建面部特征模板的情况下,所述电子设备10可以判断是否已经存储过相同的面部特征模板,如果判断得出已经存储过相同的面部特征模板,那么,所述电子设备10不再将该面部特征模板进行重复存储。从而避免因相同面部特征模板的重复存储所造成的资源浪费,确保存储空间的有效利用率。
在所述电子设备10根据用户输入的图像处理所需的信息直接创建面部特征模板,而所述电子设备10判断得出已经存储过相同的面部特征模板的情况下,所述电子设备10还可以发送指示面部特征模板已经存储的提示信息。例如,将指示面部特征模板已经存储的提示信息发送至用户的服务请求方终端。基于该提示信息可以指示用户所述电子设备10将不再对同一面部特征模板进行重复存储,以及可以指示用户能够对面部特征模板进行修改操作。
在所述电子设备10根据用户输入的图像处理所需的信息直接创建面部特征模板的情况下,如果所述电子设备10判断得出未存储过与根据用户输入的图像处理所需的信息创建的面部特征模板相同的面部特征模板,那么,所述电子设备10可以直接根据用户输入的图像处理所需的信息创建面部特征模板并进行存储。
在所述电子设备10直接根据用户输入的图像处理所需的信息创建面部特征模板时,还可以发送提醒用户将进行面部特征模板自动创建及保存,以方便下次进行图像处理的提示信息。通过该提示信息还可以指示用户可以选择拒绝创建及保存面部特征模板,在用户选择拒绝创建及保存面部特征模板的情况下,所述电子设备10本次不创建面部特征模板,在用户未选择拒绝创建及保存面部特征模板的情况下,所述电子设备10默认创建及保存面部特征模板。
类似地,所述电子设备10在检测到对已经存储的面部特征模板进行修改的用户操作时,所述电子设备10亦可以判断是否存储过修改后的面部特征模板,如果在所述电子设备10中已经存储过与修改后的面部特征模板相同的面部特征模板,那么,所述电子设备10不再将该面部特征模板进行重复存储。在所述电子设备10中已经存储过与修改后的面部特征模板相同的面部特征模板的情况下,所述电子设备10亦可以发送面部特征模板已存储的提示信息。如果判断得出在所述电子设备10中未存储与修改后的面部特征模板相同的面部特征模板,那么,所述电子设备10可以直接将该面部特征模板进行存储。由于相应过程与上述根据用户输入的图像处理所需的信息直接创建面部特征模板的过程类似,因而在此不作赘述。
其中,将待处理的人脸图像对应的面部特征图像与预设的面部特征模板进行匹配处理,可以得到所述面部特征图像和预设的面部特征模板之间的相似度。在所述相似度大于相似度阈值时,可以认为该面部特征图像与所述面部特征模板相似。
可选地,所述相似度阈值的具体大小不受限制,可以根据实际应用需求进行设置。
例如,在一种可以替代的示例中,所述相似度阈值可以为70%。也就是说,在所述面部特征图像和预设的面部特征模板之间的相似度大于70%时,可以认为该面部特征图像与所述面部特征模板相似,得到第一匹配结果。
对于步骤s120,需要说明的是,可以利用时间轴对面部特征图像和自动生成的模板进行匹配。也就是说,在dtw算法中用时间轴规整序列,把两个时间范围不等的图像序列,其中一个作为模板,另一个作为匹配序列。
详细地,两个时间序列q/c长度分别是n和m(面部特征匹配运用中,一个序列为参考模板,一个序列为测试模板,序列中的每个点的值为面部特征序列中每一帧的特征值)。如果m=n,直接计算两个序列的距离,如果m、n不相等则进行线性缩放,把短的序列线性放大到和长的序列一样长再进行比较或者把长的序列线性缩短到和短的序列一样长再进行比较。对齐两个序列需要构造n、x、m的矩阵网络,矩阵元素表示两个点的距离。
需要说明的是,动态时间归整算法(dynamictimewarping,dtw)是一种衡量两个长度不同的时间序列的相似度的方法。应用也比较广,主要是在模板匹配中,比如说用在孤立词语音识别(识别两段语音是否表示同一个单词),手势识别,数据挖掘和信息检索等中。dtw算法由于没有一个有效地用统计方法进行训练的框架,也不容易将低层和顶层的各种知识用到算法中,因此在解决大词汇量、连续语音、非特定人语音识别问题时较之hmm算法相形见绌。hmm是一种用参数表示的,用于描述随机过程统计特性的概率模型。而对于孤立词识别,hmm算法和dtw算法在相同条件下,识别效果相差不大,又由于dtw算法本身既简单又有效,但hmm算法要复杂得多。它需要在训练阶段提供大量的语音数据,通过反复计算才能得到参数模型,而dtw算法的训练中几乎不需要额外的计算。
对于步骤s130,需要说明的是,所述根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果的具体方式不受限制,可以根据实际应用需求进行设置。
例如,在一种可以替代的示例中,结合图3,步骤s130可以包括步骤s131和步骤s132。
步骤s131,获取所述第一匹配结果对应的第一权重系数和所述第二匹配结果对应的第二权重系数。
步骤s132,根据所述第一匹配结果、第一权重系数、第二匹配结果和第二权重系数,计算得到面部识别结果。
可选地,所述第一权重系数和第二权重系数的具体数值不受限制,可以根据实际应用需求进行设置。
例如,在一种可以替代的示例中,所述第一权重系数为50%,所述第二权重系数为50%,步骤s132可以具体为:
首先,将所述第一匹配结果与50%相乘,得到第一计算结果。其次,将所述第二匹配结果与50%相乘,得到第二计算结果。然后,将所述第一计算结果和第二计算结果相加,得到面部识别结果。
结合图4,本申请实施例还提供了一种图像处理装置100,可以应用于上述的电子设备10。其中,该图像处理装置100可以包括第一匹配结果获取模块110、第二匹配结果获取模块120和面部识别结果获取模块130。
所述第一匹配结果获取模块110,用于将待处理的人脸图像对应的面部特征图像与预设的面部特征模板进行匹配处理,得到第一匹配结果。在本实施例中,所述第一匹配结果获取模块110可以用于执行图2所示的步骤s110,关于所述第一匹配结果获取模块110的相关内容可以参照前文对步骤s110的具体描述。
所述第二匹配结果获取模块120,用于将待处理的人脸图像对应的面部特征图像进行时间规整匹配处理,得到第二匹配结果。在本实施例中,所述第二匹配结果获取模块120可以用于执行图2所示的步骤s120,关于所述第二匹配结果获取模块120的相关内容可以参照前文对步骤s120的具体描述。
所述面部识别结果获取模块130,用于根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果。在本实施例中,所述面部识别结果获取模块130可以用于执行图2所示的步骤s130,关于所述面部识别结果获取模块130的相关内容可以参照前文对步骤s130的具体描述。
在本申请实施例中,对应于上述的图像处理方法,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,该计算机程序运行时执行上述图像处理方法的各个步骤。
其中,前述计算机程序运行时执行的各步骤,在此不再一一赘述,可参考前文对所述图像处理方法的解释说明。
本申请实施例提供的图像处理方法和装置、电子设备及计算机可读存储介质,通过将面部特征图像与面部特征模板进行匹配得到的第一匹配结果和将面部特征图像进行时间归整匹配处理得到的第二匹配结果进行加权处理,得到面部识别结果,避免了现有技术中直接将面部特征图像与面部特征模板进行匹配,所导致的人脸识别的准确度不高的问题。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
1.一种图像处理方法,其特征在于,包括:
将待处理的人脸图像对应的面部特征图像与预设的面部特征模板进行匹配处理,得到第一匹配结果;
将待处理的人脸图像对应的面部特征图像进行时间规整匹配处理,得到第二匹配结果;
根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果。
2.如权利要求1所述的图像处理方法,其特征在于,所述根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果的步骤,包括:
获取所述第一匹配结果对应的第一权重系数和所述第二匹配结果对应的第二权重系数;
根据所述第一匹配结果、第一权重系数、第二匹配结果和第二权重系数,计算得到面部识别结果。
3.如权利要求2所述的图像处理方法,其特征在于,所述第一权重系数为50%,所述第二权重系数为50%,所述根据所述第一匹配结果、第一权重系数、第二匹配结果和第二权重系数,计算得到面部识别结果的步骤,包括:
将所述第一匹配结果与50%相乘,得到第一计算结果;
将所述第二匹配结果与50%相乘,得到第二计算结果;
将所述第一计算结果和第二计算结果相加,得到面部识别结果。
4.如权利要求1-3任意一项所述的图像处理方法,其特征在于,所述待处理的人脸图像对应的面部特征图像通过以下步骤得到:
对待处理的人脸图像进行处理,得到对应的面部特征图像。
5.如权利要求4所述的图像处理方法,其特征在于,所述对待处理的人脸图像进行处理,得到对应的面部特征图像的步骤,包括:
对待处理的人脸图像进行预处理,得到对应的预处理图像;
对所述预处理图像进行特征提取处理,得到对应的面部特征图像。
6.如权利要求5所述的图像处理方法,其特征在于,所述对待处理的人脸图像进行预处理,得到对应的预处理图像的步骤,包括;
对所述人脸图像进行灰度化处理,得到对应的灰度图;
对所述灰度图进行校正处理,得到对应的预处理图像。
7.如权利要求5所述的图像处理方法,其特征在于,所述对所述预处理图像进行特征提取处理,得到对应的面部特征图像的步骤,包括:
根据所述预处理图像和预设的特征提取模型,计算得到对应的面部特征图像。
8.一种图像处理装置,其特征在于,包括:
第一匹配结果获取模块,用于将待处理的人脸图像对应的面部特征图像与预设的面部特征模板进行匹配处理,得到第一匹配结果;
第二匹配结果获取模块,用于将待处理的人脸图像对应的面部特征图像进行时间规整匹配处理,得到第二匹配结果;
面部识别结果获取模块,用于根据所述第一匹配结果和所述第二匹配结果,进行加权处理得到面部识别结果。
9.一种电子设备,其特征在于,包括存储器和处理器,所述处理器用于执行所述存储器中存储的可执行的计算机程序,以实现权利要求1-7任意一项所述的图像处理方法。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,该程序被执行时实现权利要求1-7任意一项所述图像处理方法的步骤。
技术总结