本发明涉及人工智能计算机视觉的神经网络技术领域,特别涉及一种用于病变图像分割的多尺度并行深度神经网络模型构建方法。
技术背景
语义分割是医学图像分析的基本任务之一,也是图像的三维重建和病变识别等任务的先决步骤。卷积神经网络(cnn)由于其强大的特征表示能力而在计算机视觉领域取得了重大突破,然而其需要庞大的注释数据,而对生物医学成像进行注释不仅费时费力,而且需要专家的先验知识,因此在生物医学领域内缺少包含大量注释的数据集。因此,卷积神经网络的性能不能达到令人满意的程序,复杂的模型总会过拟合,而浅层简单的模型又容易拟合不足。
近年来,编码器-解码器体系结构的模型在生物医学图像领域占据了主导地位。该结构的关键在于它的跳连结构,跳连的主要目的是融合多层,同时获得深层丰富的语义信息和浅层准确的位置关系,因此,该结构也被证实能够在网络中获得有效的性能。u-net网络模型是一个用在生物医学领域的含有跳连结构的模型之一,可以在比较少的数据集上训练并能得到比较令人满意的语义分割效果,避免了过拟合,并且在复杂背景下也能生成精确的目标蒙版,在一些医学图像上得到了很好的实现效果。
但是在更深的层中包含更丰富的语义信息,仅通过简单的跳连使得编码器和解码器之间存在巨大的语义鸿沟,并且在输出阶段,解码器中的不同比例尺的特征图并没有得到很好的利用。
技术实现要素:
为了解决
背景技术:
中的问题,本发明提出一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,这是一种端到端的网络,由基于vgg11的unet、编码器特征融合模块和解码器特征融合模块构成,该网络在编码器-解码器体系结构中丰富了编码器到解码器的语义和多尺度上下文信息。
本发明解决其技术问题所采用的技术方案是:
一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,所述的方法包括以下步骤:
步骤1:数据集的选择与采集;
步骤2:对采集到的图片进行数据增强预处理,增强网络的泛化能力;
步骤3:对采集到的图片划分为训练集和验证集;
步骤4:将vgg11网络的卷积部分作为unet网络的特征提取部分,将训练集输入到特征提取部分;
步骤5:在特征提取过程中,每一层的输出结果一方面向更下层卷积,另一方面通过编码器特征融合模块获得更多语义信息;
步骤6:特征提取向下卷积结束,与编码器特征融合中通道数相同的尺度相同的对应输出拼接融合,再输入到解码器特征融合模块;
步骤7:每个解码器特征融合模块输出的结果通过卷积得到每个像素是否为目标像素的概率;
步骤8:把步骤7中的各个尺度的概率进行融合相加,得到最终输出概率;
步骤9,训练神经网络,采用对应数据集中的图像多次训练所述的并行神经网络架构。
本发明的有益效果表现:在病变分割任务中可以利用充分利用语义信息和局部信息,从而提升深度神经网络的性能。
附图说明
图1是目标分割的网络结构示意图。
图2是注意机制的结构图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种用于病变分割的多尺度并行深度神经网络模型构建方法,所述的方法包括以下步骤:
步骤1:采集与选择含有不同病灶的眼底图像数据集。所采集的数据集是idrid数据集,该数据集是位于印度马哈拉施特拉邦的一家眼科诊所的视网膜专家拍摄的眼底图像集,其提供了糖尿病性视网膜病的黄斑水肿的信息。
步骤2:对数据集中的图像进行数据增强预处理。具体采用的数据增强方法包括正则化图片大小、图片的随机裁减、水平翻转、灰度变化、伽马变换、弹性变换、旋转变换、透视变换以及添加高斯噪声。
步骤3:将数据集划分为训练集和测试集。
步骤4:特征提取部分具体为:c1卷积层,p1第一次下采样,c2卷积层,p2第二次下采样,c3s、c3两层卷积层,p3第三次下采样,c4s、c4两层卷积层,p4第四次下采样,c5s、c5两层卷积层,p5第五次下采样。
步骤5:编码器特征融合模块是在inception模块的基础上进行的改进。inception模块的网络结构如图2所示,可以实现增加网络深度和宽度的同时减少参数,但是提取的语义信息过于粗粒化。本发明所提出的编码器特征融合模块采用inception模块通过不同卷积核提取不同感受野特征的思想。具体为:分别在c1、c2、c3、c4、c5后分别连接attention1、attention2、attention3、attention4、attention5模块,其中每个attention模块中包括四组不同核的卷积层和imagepool模块,如图2所示:卷积层中的卷积核分别为1*1,3*3,5*5,7*7,来捕获不同感受野的语义信息,减少信息损失;imagepool模块包括自适应池化层和两组卷积层,其中每组卷积层包括批量标准化层、卷积运算和relu激活函数。
步骤6:特征提取向下卷积结束,与编码器特征融合中通道数相同的尺度相同的对应输出拼接融合,再输入到解码器特征融合模块。
步骤7:解码器特征融合模块具体为:对c5连接反卷积模块,得到unet的center部分,center与attention5合并进行连接反卷积模块,得到dec5,dec5与attention4合并连接反卷积模块得到dec4,dec4与attention3合并连接反卷积模块得到dec3,dec3与attention2合并连接反卷积模块得到dec2,dec2与attention1合并连接反卷积模块得到dec1。最后将dec1、dec2、dec3、dec4、dec5分别进行1*1卷积将通道数降维至1,得到out1、out2、out3、out4、out5,并将五个结果相加得到最终值。
步骤8:把步骤7中的各个尺度的概率进行融合相加,得到最终输出概率。
步骤9,训练神经网络。采用对应数据集中的图像多次训练所述的并行神经网络架构。其中采用lovasz-softmax损失函数和交叉熵损失函数结合进行反向传播训练。其中lovasz-softmax损失函数是基于iou的损失函数,在分割任务中的效果优于交叉熵损失函数,iou是两个区域重叠的部分除以两个区域的集合部分得出的结果。具体计算公式如下:
loss=bceloss 0.5*lovasz_hinge_loss;
其中,bceloss是二分类交叉熵损失函数,lovasz_hinge_loss是结合lovaszhinge的jaccardloss,lovasz_hingeloss是两者的加权求和,即本发明所提出的损失函数;
bceloss:
其中,p是一张图片的像素数量,yi*是像素i在标签图中的类别,fi(yi*)是像素i的标签图概率的网络概率估计,f是fi(c)的所有输出的向量;
lovasz_hinge_loss:
其中,f是预测值(-1到1之间),m(f)==max(1-t·y*,0),y*是目标值(1或-1),δj1指的是二分类中的前景类,
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所做的的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
1.一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,其特征在于,所述的方法包括以下步骤:
步骤1:数据集的选择与采集;
步骤2:对采集到的图片进行数据增强预处理,增强网络的泛化能力;
步骤3:对采集到的图片划分为训练集和验证集;
步骤4:将vgg11网络的卷积部分作为unet网络的特征提取部分,将训练集输入到特征提取部分;
步骤5:在特征提取过程中,每一层的输出结果一方面向更下层卷积,另一方面通过编码器特征融合模块获得更多语义信息;
步骤6:特征提取向下卷积结束,与编码器特征融合中通道数相同的尺度相同的对应输出拼接融合,再输入到解码器特征融合模块;
步骤7:每个解码器特征融合模块输出的结果通过卷积得到每个像素是否为目标像素的概率;
步骤8:把步骤7中的各个尺度的概率进行融合相加,得到最终输出概率;
步骤9,训练神经网络,采用对应数据集中的图像多次训练所述的并行神经网络架构。
2.如权利要求1所述的一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,其特征在于,所述步骤1中,采集与选择含有不同病灶的图像数据集。
3.如权利要求1或2所述的一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,其特征在于,所述步骤2中,数据增强方法包括正则化图片大小、图片的随机裁减、水平翻转、灰度变化、伽马变换、弹性变换、旋转变换、透视变换以及添加高斯噪声。
4.如权利要求1或2所述的一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,其特征在于,所述步骤4:特征提取部分为:c1卷积层,p1第一次下采样,c2卷积层,p2第二次下采样,c3s、c3两层卷积层,p3第三次下采样,c4s、c4两层卷积层,p4第四次下采样,c5s、c5两层卷积层,p5第五次下采样。
5.如权利要求1或2所述的一种病变图像分割的多尺度并行深度神经网络模型构建方法,其特征在于,所述步骤5中,编码器特征融合模块是在inception模块的基础上进行的改进,所述编码器特征融合模块采用inception模块通过不同卷积核提取不同感受野特征的思想,分别在c1、c2、c3、c4、c5后分别连接attention1、attention2、attention3、attention4、attention5模块,其中每个attention模块中包括四组不同核的卷积层和imagepool模块,卷积层中的卷积核分别为1*1,3*3,5*5,7*7,来捕获不同感受野的语义信息,减少信息损失;imagepool模块包括自适应池化层和两组卷积层,其中每组卷积层包括批量标准化层、卷积运算和relu激活函数。
6.如权利要求1或2所述的一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,其特征在于,所述步骤6中,特征提取向下卷积结束,与编码器特征融合中通道数相同的尺度相同的对应输出拼接融合,再输入到解码器特征融合模块。
7.如权利要求1或2所述的一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,其特征在于,所述步骤7中,所述解码器特征融合模块对c5连接反卷积模块,得到unet的center部分,center与attention5合并进行连接反卷积模块,得到dec5,dec5与attention4合并连接反卷积模块得到dec4,dec4与attention3合并连接反卷积模块得到dec3,dec3与attention2合并连接反卷积模块得到dec2,dec2与attention1合并连接反卷积模块得到dec1;最后将dec1、dec2、dec3、dec4、dec5分别进行1*1卷积将通道数降维至1,得到out1、out2、out3、out4、out5,并将五个结果相加得到最终值。
8.如权利要求1或2所述的一种用于病变图像分割的多尺度并行深度神经网络模型构建方法,其特征在于,所述步骤9中,采用lovasz-hinge损失函数和交叉熵损失函数结合进行反向传播训练,lovasz-hinge损失函数是基于iou的损失函数,在分割任务中的效果优于交叉熵损失函数,iou是两个区域重叠的部分除以两个区域的集合部分得出的结果,计算公式如下:
loss=bceloss 0.5*lovasz_hinge_loss;
其中,bceloss是交叉熵损失函数,lovasz_hinge_loss是结合lovaszhinge的jaccardloss,lovasz_hingeloss是两者的加权求和,即所提出的损失函数;
bceloss:
其中,p是一张图片的像素数量,yi*是像素i在标签图中的类别,fi(yi*)是像素i的标签图概率的网络概率估计,f是fi(c)的所有输出的向量;
lovasz_hinge_loss:
其中,f是预测值(-1到1之间),m(f)==max(1-t·y*,0),y*是目标值(1或-1),δj1指的是二分类中的前景类,