一种EfficientNet的结构参数的搜索方法、系统、设备以及介质与流程

专利2022-06-29  158


本发明涉及神经网络领域,具体涉及一种efficientnet的结构参数的搜索方法、系统、设备以及存储介质。



背景技术:

efficientnets是2019年5月在icml19上提出的网络,它的大体思路与上面提到的cnn开发思路相似,同样是缩放模型,efficientnet提出了一个更系统的方法:第一,采用复合的模型缩放方法。不再独立调整深度、宽度和图像分辨率,而是增加了上述三个参数之间的依赖关系,平衡三者之间的配置,从而在当前的计算资源下最大限度地提升网络精度。通过调整这三个参数形成了从efficientnet-b0到b7一系列不同精度的网络。在mobilenet和resnet上验证了该方法的可行性。第二,用automlmnas框架搜索了efficientnet的基础结构,架构类似于mobilenetv2,但精度更高。最终efficientnets系列达到了比现有cnn更高精度的同时,减少了计算量和对参数的使用,可能是现在发表的效率最高的网络之一。

在现有的方法中,缩放efficientnet所需的三个结构相关参数(深度、宽度、图像分辨率)是用网格搜索确定的,模型缩放不会改变模型的基础结构,而是根据计算资源决定将基础结构改变多少。

在缩放网络时,efficientnet调整的参数主要包括网络深度(d),宽度(w)和训练图片的分辨率(r),整个问题可以被定义如下。

对于cnn的第i层可以被定义为yi=fi(xi),其中yi为输出张量,xi为输入张量hi和wi是空间维度,ci是通道数。cnn网络通常可以分几个阶段,每个阶段的结构基本相同,所以可以表示为其中代表fi在第i阶段重复了li次。一般来说cnn的设计是去寻找某些层的最优结构fi,但efficientnet的侧重点不同,fi的基本结构不变,通过缩放寻找网络最佳的深度(d)、宽度(w)和分辨率(r),从而获得在当前资源配置下最高精度的模型。主要思路如下:

maxd,w,raccuracy(n(d,w,r)),在以下条件内使网络的精度最高

调整网络结构

memory(n)≤target_memory,在对显(内)存的消耗小于目标值

flops(n)≤tartget_flops,对计算量的消耗小于目标值

其中d,w和r是决定模型缩放规模和图像分辨率,在efficientnet的工作中,这三个参数是相关的,并以一个复合系数φ统一缩放,如下

深度(depth):

宽度(width):

分辨率(resolution):

s.tα·β2·γ2≈2,α≥1,β≥1,γ≥1

efficientnet中的φ是根据计算资源指定的参数,由用户人为确定。而α,β,γ是通过网格搜索(gridsearch)确定的参数,控制现有的一定量的计算资源如何分配给网络的宽度、深度和分辨率,从而使网络的精度达到最高。

efficientnet搜索参数α,β,γ的方法主要有两个缺点:一是用网格搜索的方式采样,二是每次改变参数都需要把新的网络训练至收敛,这两个特点让参数搜索比较低效。

网格搜索是比较传统的参数搜索方法,且现在仍然是应用最多的方法之一。简单说来就是穷举搜索,由用户事先确定所有参数可能的取值,并用有可能的结构参数组合训练网络,最后在验证集中评估模型性能,性能最优的模型使用的结构参数组合就是我们需要的。网格搜索的优点是执行起来比较简单,当参数量和采样量都比较小时,用网格搜索也是可行的。但当参数量比较大时,很难确定被搜索的组合中包含最优解,且很容易遇到维度灾难。对于efficientnet来说,需要处理的参数并不是太多,只有3个,所以使用网格搜索是可行的,却不是最优的,原因有两个。其一,需要确认每一个参数的分布和采样间,在这个任务里基本认为三个参数都是在1到2之间均匀分布,且采样是等距的,步长为0.1。在调整超参之前,我们已经需要知道每个参数可能的取值了,而且最终搜索出的结果一定在此之中。但其实真正的“最优”不一定在事先决定的这个采样空间里,因为这个步长并不是很小。然而如果将采样步长设置得太小有会很消耗计算资源。其二,网格搜索对于每一组采样都是同样重视的,也就是说参数在搜索空间中必须是均匀分布,当采样值比较可能接近“最佳”时,步长也不会变得更小。

对于参数的评价标准是这样的:对于每一组参数都会产生新的网络,将每一个网络训练至收敛,比较各个网络的top-1精度,精度最高网络使用的参数就是我们想要的结果。这样做的优点是一定能保证选出来的网络是精度最高的,但缺点是每一个网络都要训练至精度不再上升,很消耗计算资源。在很多情况下,训练若干epoch之后已经能看出精度不会达到要求了。efficientnet系列最初是由google团队开发,可能当初计算资源确实比较充足,但对于大多数需要调超参的普通用户来说,节约计算资源可能意味着节省时间或节省租赁节点的费用。



技术实现要素:

有鉴于此,为了克服上述问题的至少一个方面,本发明实施例提出一种efficientnet的结构参数的搜索方法,包括以下步骤:

在预设范围的搜索空间中随机初始化结构参数;

利用随机初始化的所述结构参数生成efficientnet;

预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度;

响应于所述预测的最终精度小于阈值,再次预测经过第二预设数量的epoch训练后的所述efficientnet的最终精度,其中,所述第二预设数量大于所述第一预设数量;

响应于所述预测或者再次预测的最终精度不小于阈值,停止训练,保留并记录对应的结构参数,并返回随机初始化结构参数的步骤。

在一些实施例中,还包括:

响应于所述再次预测的最终精度小于阈值,停止训练,并返回随机初始化结构参数的步骤。

在一些实施例中,返回随机初始化结构参数的步骤,进一步包括:

判断随机初始化所述结构参数的次数是否达到预设次数或搜索时间是否达到预设时间;

响应于随机初始化所述结构参数的次数未达到预设次数且搜索时间未达到预设时间,返回随机初始化结构参数的步骤;

响应于随机初始化所述结构参数的次数达到预设次数或搜索时间达到预设时间,停止搜索。

在一些实施例中,预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度,进一步包括:

对若干组随机初始化的结构参数生成的若干个efficientnet进行完整的训练;

根据最大似然法利用所述若干个efficientnet完整的训练结果生成拟合曲线;

利用所述拟合曲线预测所述最终精度。

在一些实施例中,根据最大似然法利用所述若干个efficientnet完整的训练结果生成拟合曲线,进一步包括:

利用所述若干个efficientnet完整的训练结果确定所述拟合曲线中的每一个子函数的权重。

在一些实施例中,利用所述拟合曲线预测所述最终精度,进一步包括:

根据利用第一预设数量的epoch进行训练得到的训练结果确定所述每一个子函数的参数;

利用所述每一个子函数的参数和所述每一个子函数的权重预测所述最终精度。

基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种efficientnet的结构参数的搜索系统,包括:

搜索模块,所述搜索模块配置为在预设范围的搜索空间中随机初始化结构参数;

生成模块,所述生成模块配置为利用随机初始化的所述结构参数生成efficientnet;

第一预测模块,所述第一预测模块配置为预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度;

第二预设模块,所述第二预设模块配置为响应于所述预测的最终精度小于阈值,再次预测经过第二预设数量的epoch训练后的所述efficientnet的最终精度,其中,所述第二预设数量大于所述第一预设数量;

处理模块,所述处理模块配置为响应于所述预测或者再次预测的最终精度不小于阈值,停止训练,保留并记录对应的结构参数,并返回随机初始化结构参数的步骤。

在一些实施例中,所述处理模块还配置为:

响应于所述再次预测的最终精度小于阈值,停止训练,并返回随机初始化结构参数的步骤。

基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机设备,包括:

至少一个处理器;以及

存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如上所述的任一种efficientnet的结构参数的搜索方法的步骤。

基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种efficientnet的结构参数的搜索方法的步骤。

本发明具有以下有益技术效果之一:本发明提出的方案用随机搜索替代原本的网格搜索方法,确定efficientnet中结构参数α,β,γ的取值,使得超参搜索更加高效和准确,并降低了对用户先验知识的要求。此外通过提前预测最终精度的方法,无需将所有的结构参数组合确定的神经网络训练至收敛,从而大大减少对计算资源的消耗。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。

图1为本发明的实施例提供的efficientnet的结构参数的搜索方法的流程示意图;

图2为本发明的实施例提供的用于efficientnet的结构参数的搜索系统的结构示意图;

图3为本发明的实施例提供的计算机设备的结构示意图;

图4为本发明的实施例提供的计算机可读存储介质的结构示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。

需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。

根据本发明的一个方面,本发明的实施例提出一种efficientnet的结构参数的搜索方法,如图1所示,其可以包括步骤:s1,在预设范围的搜索空间中随机初始化结构参数;s2,利用随机初始化的所述结构参数生成efficientnet;s3,预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度;s4,响应于所述预测的最终精度小于阈值,再次预测经过第二预设数量的epoch训练后的所述efficientnet的最终精度,其中,所述第二预设数量大于所述第一预设数量;s5,响应于该预测或者再次预测的最终精度不小于阈值,停止训练,保留并记录对应的结构参数,并返回随机初始化结构参数的步骤。

本发明提出的方案用随机搜索替代原本的网格搜索方法,确定efficientnet中结构参数α,β,γ的取值,使得超参搜索更加高效和准确,并降低了对用户先验知识的要求。此外通过提前预测最终精度的方法,无需将所有的结构参数组合确定的神经网络训练至收敛,从而大大减少对计算资源的消耗。和单纯使用网格搜索相比,用随机搜索和提前预测相结合的方法可以在几乎不降低训练精度的前提下,极大程度地减少结构参数的训练时间。尤其是在当需要处理的结构参数量增加或者网格设定得更细时,节约计算资源的效果会更明显。

在一些实施例中,方法还包括:

响应于所述再次预测的最终精度小于阈值,停止训练,并返回随机初始化结构参数的步骤。

具体的,如果预测结果没有达到阈值,可以再次利用若干个epoch再次预测判断最终结果是否会达到阈值,如果仍不能达到阈值,则停止训练。如果能够达到阈值,则保留并记录结果。

在一些实施例中,返回随机初始化结构参数的步骤,进一步包括:

判断随机初始化所述结构参数的次数是否达到预设次数或搜索时间是否达到预设时间;

响应于随机初始化所述结构参数的次数未达到预设次数且搜索时间未达到预设时间,返回随机初始化结构参数的步骤;

响应于随机初始化所述结构参数的次数达到预设次数或搜索时间达到预设时间,停止搜索。

具体的,可以在搜索空间[1,2]之间随机初始化α,β,γ,并设定1.91≤α·β·γ≤2.09,并且可以将搜索任务时间限定为200小时,最大采样次数为100次,这样当两个条件有一个被满足时停止搜索,也即响应于随机初始化所述结构参数的次数达到预设次数或搜索时间达到预设时间,停止搜索,若两个条件均没有满足,则继续随机初始化结构参数。

在进行随机初始化结构参数时,可以在给定的搜索空间中取一个新的点(φ_(i 1),β_(i 1),γ_(i 1)),围绕当前位置(φ_i,β_i,γ_i),如果f(φ_(i 1),β_(i 1),γ_(i 1))>f(φ_i,β_i,γ_i),则使(φ_(i 1),β_(i 1),γ_(i 1))=(φ_i,β_i,γ_i),然后选择下一个采样位置。

在一些实施例中,预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度,进一步包括:

对若干组随机初始化的结构参数生成的若干个efficientnet进行完整的训练;

根据最大似然法利用所述若干个efficientnet完整的训练结果生成拟合曲线;

利用所述拟合曲线预测所述最终精度。

在一些实施例中,根据最大似然法利用所述若干个efficientnet完整的训练结果生成拟合曲线,进一步包括:

利用所述若干个efficientnet完整的训练结果确定所述拟合曲线中的每一个子函数的权重。

在一些实施例中,利用所述拟合曲线预测所述最终精度,进一步包括:

根据利用第一预设数量的epoch进行训练得到的训练结果确定所述每一个子函数的参数;

利用所述每一个子函数的参数和所述每一个子函数的权重预测所述最终精度。

具体的,结构参数的评价标准是efficientnet可以达到的训练精度,模型精度越高就认为这套结构参数越好。但是完整地训练一遍神经网络至进度不再上升时需要比较长的时间的,所以希望能提前决定是否需要继续训练下去。此处的提前停止(earlystop)策略类似于神经网络训练中的,但目的有些不同:神经网络中的提前停止是为了防止网络中的过拟合(overfitting);而结构参数训练中的提前停止是为了节省计算资源,即不用早停也不会影响最终结果的精度,而且会让整个训练过程更快一些。

在本发明的实施例中,在efficientnet的结构参数任务中,根据模拟人为提前停止训练的原理,用统计模型根据前若干次训练结果拟合出一条曲线,之后的神经网络模型无需全部训练至收敛,而是可以选择训练若干epoch后用该曲线预测之后训练的精度,并决定是否提前停止该次训练。基本思路是,当某一套结构参数对应的神经网络x的训练进行到第s步(也即进行预设数量的epoch)的时候,用现有的结果(精度)的变化趋势拟合出最终结果,如果这个结果劣于已完成训练中的最差结果(或者设定的阈值),那么就停止该组结构参数的训练。此处的“拟合”用到的曲线可以是由11种单调递增且饱和的函数fk(x)进行线性加权混合而得到的,该曲线可以表达为:

加上一个高斯分布的噪声

新的参数空间ξ=(w1,…,wk,θ1,…,θk,σ2),其中w是每个函数的权重,θ是每个函数中的参数,σ2是噪声。权重w的初始值是1/k;参数θ是用最大似然估计确定的,采样使用了马科夫链蒙特卡洛推断(mcmc:markovchainmontecarloinference)方法;此处对噪声σ使用了最大似然估计。

需要说明的是,用于拟合曲线的11个函数的权重可以由最初的若干组结构参数的训练结果确定,即权重在拟合曲线时已确定,每一个函数的参数(例如,a、b、c)则是根据每一组的结构参数的训练结果确定。

在一些实施例中,用于拟合曲线的11个函数fk(x)如下:

f2(x)=c-ax

f3(x)=log(alog(x) b)

f8(x)=c-(ax b)

该算法在判断是否执行提前终止时主要有以下两个步骤:

学习,具体的,可以首先通过完整地将最初几个神经网络训练至精度不再上升,然后根据训练产生的结果结合mcmc采样确定每一个函数的权重值,在进行mcmc采样时,可以随机采样不同的epoch对应的精度,然后根据最大似然法确定每一个函数的权重。

预测,当获得完整的拟合曲线之后,就可以用它预测特定的epoch上的精度,如果预测精度没有达到阈值,可以再过几个epoch再次判断是否达到阈值,如果还未达到阈值,则停止训练。如果达到阈值,则会保留并记录结果。

需要说明的是,在进行曲线拟合前时,需要用户提前决定的参数至少有:用多少个完整的训练来确定拟合曲线;决定是否earlystop的阈值;两次评估之间的间隔次数等。其余和计算资源相关的参数也可以由用户决定。

本发明提出的方案和单纯使用网格搜索相比,用随机搜索和提前停止相结合的方法可以在几乎不降低训练精度的前提下,极大程度地减少结构参数的训练时间。在本发明的实施例中是只有3个结构参数需要搜索,当需要处理的结构参数量增加或者网格设定得更细时,节约计算资源的效果会更明显。

基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种efficientnet的结构参数的搜索系统400,如图2所示,包括:

搜索模块401,所述搜索模块401配置为在预设范围的搜索空间中随机初始化结构参数;

生成模块402,所述生成模块402配置为利用随机初始化的所述结构参数生成efficientnet;

第一预测模块403,所述第一预测模块403.配置为预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度;

第二预设模块404,所述第二预设模块404配置为响应于所述预测的最终精度小于阈值,再次预测经过第二预设数量的epoch训练后的所述efficientnet的最终精度,其中,所述第二预设数量大于所述第一预设数量;

处理模块405,所述处理模块405配置为响应于该预测或者再次预测的最终精度不小于阈值,停止训练,保留并记录对应的结构参数,并返回随机初始化结构参数的步骤。

在一些实施例中,所述处理模块405还配置为:

响应于所述再次预测的最终精度小于阈值,停止训练,并返回随机初始化结构参数的步骤。

基于同一发明构思,根据本发明的另一个方面,如图3所示,本发明的实施例还提供了一种计算机设备501,包括:

至少一个处理器520;以及

存储器510,存储器510存储有可在处理器上运行的计算机程序511,处理器520执行程序时执行如上的任一种efficientnet的结构参数的搜索方法的步骤。

基于同一发明构思,根据本发明的另一个方面,如图4所示,本发明的实施例还提供了一种计算机可读存储介质601,计算机可读存储介质601存储有计算机程序指令610,计算机程序指令610被处理器执行时执行如上的任一种efficientnet的结构参数的搜索方法的步骤。

最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(rom)或随机存储记忆体(ram)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。

此外,典型地,本发明实施例公开的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(pda)、平板电脑(pad)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。

此外,根据本发明实施例公开的方法还可以被实现为由cpu执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被cpu执行时,执行本发明实施例公开的方法中限定的上述功能。

此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。

此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦写可编程rom(eeprom)或快闪存储器。易失性存储器可以包括随机存取存储器(ram),该ram可以充当外部高速缓存存储器。作为例子而非限制性的,ram可以以多种形式获得,比如同步ram(dram)、动态ram(dram)、同步dram(sdram)、双数据速率sdram(ddrsdram)、增强sdram(esdram)、同步链路dram(sldram)、以及直接rambusram(drram)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。

本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。

结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(dsp)、专用集成电路(asic)、现场可编程门阵列(fpga)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,dsp和微处理器的组合、多个微处理器、一个或多个微处理器结合dsp和/或任何其它这种配置。

结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在ram存储器、快闪存储器、rom存储器、eprom存储器、eeprom存储器、寄存器、硬盘、可移动盘、cd-rom、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在asic中。asic可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。

在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括ram、rom、eeprom、cd-rom或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(dsl)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、dsl或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(cd)、激光盘、光盘、数字多功能盘(dvd)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。

以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。

应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。

上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。

本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。

所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。


技术特征:

1.一种efficientnet的结构参数的搜索方法,其特征在于,包括以下步骤:

在预设范围的搜索空间中随机初始化结构参数;

利用随机初始化的所述结构参数生成efficientnet;

预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度;

响应于所述预测的最终精度小于阈值,再次预测经过第二预设数量后的epoch训练的所述efficientnet的最终精度,其中,所述第二预设数量大于所述第一预设数量;

响应于所述预测或者再次预测的最终精度不小于阈值,停止训练,保留并记录对应的结构参数,并返回随机初始化结构参数的步骤。

2.如权利要求1所述的方法,其特征在于,还包括:

响应于所述再次预测的最终精度小于阈值,停止训练,并返回随机初始化结构参数的步骤。

3.如权利要求1或2所述的方法,其特征在于,返回随机初始化结构参数的步骤,进一步包括:

判断随机初始化所述结构参数的次数是否达到预设次数或搜索时间是否达到预设时间;

响应于随机初始化所述结构参数的次数未达到预设次数且搜索时间未达到预设时间,返回随机初始化结构参数的步骤;

响应于随机初始化所述结构参数的次数达到预设次数或搜索时间达到预设时间,停止搜索。

4.如权利要求1所述的方法,其特征在于,预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度,进一步包括:

对若干组随机初始化的结构参数生成的若干个efficientnet进行完整的训练;

根据最大似然法利用所述若干个efficientnet完整的训练结果生成拟合曲线;

利用所述拟合曲线预测所述最终精度。

5.如权利要求4所述的方法,其特征在于,根据最大似然法利用所述若干个efficientnet完整的训练结果生成拟合曲线,进一步包括:

利用所述若干个efficientnet完整的训练结果确定所述拟合曲线中的每一个子函数的权重。

6.如权利要求5所述的方法,其特征在于,利用所述拟合曲线预测所述最终精度,进一步包括:

根据利用第一预设数量的epoch进行训练得到的训练结果确定所述每一个子函数的参数;

利用所述每一个子函数的参数和所述每一个子函数的权重预测所述最终精度。

7.一种efficientnet的结构参数的搜索系统,其特征在于,包括:

搜索模块,所述搜索模块配置为在预设范围的搜索空间中随机初始化结构参数;

生成模块,所述生成模块配置为利用随机初始化的所述结构参数生成efficientnet;

第一预测模块,所述第一预测模块配置为预测经过第一预设数量的epoch训练后的所述efficientnet的最终精度;

第二预设模块,所述第二预设模块配置为响应于所述预测的最终精度小于阈值,再次预测经过第二预设数量的epoch训练后的所述efficientnet的最终精度,其中,所述第二预设数量大于所述第一预设数量;

处理模块,所述处理模块配置为响应于所述预测或者再次预测的最终精度不小于阈值,停止训练,保留并记录对应的结构参数,并返回随机初始化结构参数的步骤。

8.如权利要求7所述的系统,其特征在于,所述处理模块还配置为:

响应于所述再次预测的最终精度小于阈值,停止训练,并返回随机初始化结构参数的步骤。

9.一种计算机设备,包括:

至少一个处理器;以及

存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-6任意一项所述的方法的步骤。

10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行如权利要求1-6任意一项所述的方法的步骤。

技术总结
本发明公开了一种EfficientNet的结构参数的搜索方法,包括以下步骤:在预设范围的搜索空间中随机初始化结构参数;利用随机初始化的结构参数生成EfficientNet;预测经过第一预设数量的epoch训练后的EfficientNet的最终精度;响应于预测的最终精度小于阈值,再次预测经过第二预设数量的epoch训练后的EfficientNet的最终精度,其中,第二预设数量大于第一预设数量;响应于该预测或者再次预测的最终精度小于阈值,停止训练,保留并记录对应的结构参数,并返回随机初始化结构参数的步骤。本发明还公开了一种系统、计算机设备以及可读存储介质。本发明用随机搜索替代原本的网格搜索方法,并通过提前预测最终精度的方法,无需将所有的结构参数组合确定的神经网络训练至收敛,大大减少对计算资源的消耗。

技术研发人员:于彤
受保护的技术使用者:苏州浪潮智能科技有限公司
技术研发日:2020.01.19
技术公布日:2020.06.09

转载请注明原文地址: https://bbs.8miu.com/read-15948.html

最新回复(0)