1.本发明属于图像区域定位和性状识别技术领域,具体应用于医院超声诊断识别技术,特别涉及基于特征融合和迁移学习的甲状腺结节超声图像分类方法。
背景技术:
2.甲状腺癌的发病率虽只占甲状腺结节的5%、全身肿瘤的1%,却是内分泌系统最常见的恶性肿瘤。近些年来,中国甲状腺癌发病率一直呈攀升趋势,且在年龄小于30岁的年轻女性人群中,甲状腺癌发病率也位居恶性肿瘤的第1位。在过去的20余年中,随着医疗影像学技术的发展,大量的甲状腺结节可以在超声图像中正确地检测出来。因为大部分结节为良性或惰性的,对于结节的良恶性准确判断可以极大地降低病人的医疗风险以及大量的由细针穿刺活检带来的昂贵医疗费用,并且有利于减小病人在就医检查时的心理压力。目前对于甲状腺结节性状的检查主要依靠对超声波图像分析完成,医生总结了甲状腺结节的一系列超声图像特性作为癌变征兆,包括低回声、边缘粗糙不规则、微钙化点、硬度高、结节实性和纵横比等。基于这些性质,超声诊断医师提出了一种专业的甲状腺图像报告及数据系统(ti-rads)来分类甲状腺结节并评估结节癌变的风险。在所有肿瘤的良恶性判断中,医生对于甲状腺肿瘤的诊断、治疗和效果争论最多,单凭ti-rads系统对甲状腺结节进行评估耗费时间多且鲁棒性差。由于当前的超声图像学中的癌变结节判别依据尚不完善,成像后甲状腺良性结节与恶性结节的特征往往会相互交叉出现,这极大地限制医生的判别能力。因此,利用计算机对超声图像进行处理辅助医生做出诊断,有助于更加准确快速地判别出患者的甲状腺结节性状。
3.过去由于人工智能技术还未在医疗影像领域普及,为保障医学诊断的严谨,大都是依靠专业人员在大批量超声图像中对甲状腺结节进行区域标记和性状识别,但这不仅耗费人力成本和时间成本,而且误诊与漏诊的概率也会偏高。
4.随着现代计算机技术的飞速发展,传统的超声诊断技术和前沿的人工智能技术相结合,辅助医生进行甲状腺结节良恶性诊断已成大势所趋,这也对甲状腺癌疾病的预防和治疗具有重要意义。当前,人工智能与甲状腺结节超声诊断结合的研究目标大都集中于两个方向,一个是专注于提升甲状腺结节良恶性的分类精确率,一个是专注于提升甲状腺结节病灶的定位分割能力。但归根结底,对病灶的分割提取,也是为了辅助医生更好地对结节定性诊断,因为对甲状腺结节良恶性状的精准高效预判,才是医生和患者最需要的东西。
5.此前的研究工作大部分集中于从甲状腺超声图像中提取不同的低层特征信息,然后通过经典的机器学习分类器进行有监督分类。例如chen等人提出了将纹理特征结合传统病理学特征并借助遗传支持向量机对甲状腺结节进行分类,katsigiannis等人采用基于图像轮廓小波变换的特征对甲状腺超声纹理进行分类,acharya等人采用复小波变换滤波器对甲状腺三维超声图像提取特征以进行分类甲状腺肿瘤。这些工作都是使用纹理特征结合支持向量机(svm)分类器用来完成对结节性质的检测和分类。但传统的医学特征提取需要人工设计复杂的特征提取方法,提取到的特征维度较高,工作量大且效率较低。
6.随着机器学习的发展,近年来深度学习成为机器学习研究领域的一大热点。通过深度卷积神经网络(dcnns)提取的图像特征被证明可以有效地应用于图像分类、分割或目标检测等应用中。与传统的特征提取算法相比,dcnns在图像扭曲的情况下特征提取更加鲁棒,且具有计算量相对较低、以及面对不同输入图像,网络卷积层参数更加稳定等诸多优势。
7.也正因为其在非医疗图像上的优势,dcnns开始被逐渐应用于医疗影像分类和检测问题中。例如,spanhol等人提出了使用dcnns来分类乳腺癌病理图像,li等人提出了基于dcnns的肺结节分类系统,以上dcnns应用于医疗影像上的成功经验令研究者们尝试应用dcnns对甲状腺超声图像进行分类。然而,当前用以训练dcnns模型的图像可能存在以下缺陷:
8.(1)超声图像往往受超声仪器精度不同,图像采集角度差异等难以避免的干扰,有效特征信息表现较弱,噪声较多;
9.(2)数据集图像成像质量分布不均,且超声诊断医师在图像中所做的人工标记势必会影响学习识别效果;
10.(3)训练图像的数据量仍然较少,并不足以独立训练出完善且泛化性能较强的卷积神经网络。
11.(4)超声成像后重要的边缘信息模糊,关键分类特征易交叉显示。
技术实现要素:
12.针对现有技术中的不足与难题,本发明旨在提供一种基于特征融合和迁移学习的甲状腺结节超声图像分类方法。
13.本发明通过以下技术方案予以实现:
14.基于特征融合和迁移学习的甲状腺结节超声图像分类方法,包括如下步骤:
15.1、数据集预处理
16.对采集到的数据集甲状腺超声波影像,进行数据预处理,主要包括以下几个步骤。
17.1.1甲状腺结节病灶区域提取
18.原始数据集包含许多不利于结节识别的无效边缘信息,如超声影像仪器采集的影像四周、黑色背景及其以文字、图标形式标注的仪器测试参数。因此,良恶性结节病灶作为感兴趣区域(roi)需要提前分离出来。
19.具体步骤如下:
20.1)根据影像师给定的甲状腺结节标记框位置得出标记框的最左上角坐标值和最右下角坐标值(xi,yi)、(xj,yj);
21.2)计算出标记框中心点坐标,记为(xc,yc),其中xc为xi和xj的平均值,yc为yi和yj的平均值;
22.3)计算出结节区域的长和宽,取最大值,即
23.max(x
j-xi,y
i-yj),记为w;
24.4)基于左上角(xc–
w/2,yc+w/2),右上角(xc+w/2,yc+w/2),左下角(xc–
w/2,yc–
w/2),右下角(xc+w/2,yc–
w/2)确定坐标区域截取结节子图。如果截取框超出原成像区域,则以邻近像素值填充。
25.本发明提取出的结节子图能确保按比例缩放时不改变结节本身的形状轮廓且包含正常的甲状腺组织,使得卷积神经网络能更好地从结节本身和正常组织之间的差异中学习甲状腺结节的特征。
26.1.2人工标记去除及降噪
27.超声图像中的人工标记主要指超声图像中由影像师所做的对病灶区域的亮白色标记,人工标记会遮挡图像中的纹理部分,影响待分析区域图像的完整性,因此需要将图像中的人工标记去除并复原被遮挡的部分。
28.首先计算出图像中所有非零区域并对其进行标签化,即:
[0029][0030]
式中,f为输入图像,g为通过迭代选择连通域峰值t后进行标签二值化输出的人工标记区域图像。
[0031]
在通过区域分割效果确定最佳阈值后,这样就可以找到对应g中面积最大的区域从f中去除,得到疑似标记区域,
[0032][0033]
上式中,l
max
为具有最大面积的连通域,m为输出包含疑似标记区域的图像,然后从图像中去除掉满足条件的像素点即得到去除标记的超声图像。
[0034]
接下来,对m中的空白区域采用经典的图像修复算法tv模型进行处理,得到对于图像空白区域的估算像素值并填充修复。估算像素值的数学表达式如下:
[0035][0036]
式中,fo代表当前像素,f
p
代表其4个邻域像素,系数h定义为
[0037][0038]
式中,λ为平滑系数,而w
p
的定义为
[0039][0040]
式中,为散度,以右侧领域为例定义为
[0041][0042]
式中,fe,f
ne
,f
se
分别代表当前像素的右邻接、右上邻接和右下邻接像素,再通过迭代可以实现空白区域的像素估计修复,最后以均值滤波平滑修复区域,超声科医师所添加的标记被很好地移除并最大限度地复原为与周围的组织相似的纹理。
[0043]
1.3对超声图像进行加权自适应伽马校正
[0044]
甲状腺超声成像极易受光照条件等非人为因素干扰,导致结节同正常组织边缘间的像素对比度极低,结节内部回声细节模糊不清。而提高超声图像的全局对比度是有效提
取结节良恶性特征的关键步骤。考虑到超声影像拍摄仪器的光电转换特性都是非线性的,相较于应用更普遍的直方均衡化图像增强方法,伽马校正更能有效地还原和保留原始像素细节。
[0045]
2、基于resnet的迁移学习
[0046]
本发明方法采取迁移学习策略,在训练resnet18网络时先导入开源的在imagenet自然图像数据集上预训练好的模型,获取初始权重参数后基于现有的甲状腺结节超声图像拓展样本进行迁移学习微调。实施步骤有以下几步:
[0047]
2.1数据增强
[0048]
对现有的图像进行数据增强获得足够的拓展样本,用于预训练resnet模型以得到对甲状腺结节性状特征敏感的深度网络。根据ti-rads评价标准,甲状腺结节组织的纵横比是判别结节良恶性的重要特征之一。为防止破坏这一细节信息,本发明只采取垂直翻转、水平翻转、顺时针旋转180
°
这三种数据增强方式,额外得到三倍的拓展样本数据。
[0049]
2.2迁移学习与微调
[0050]
在得到数量足够的高质量训练图像样本后,可以对resnet18进行参数微调以得到可以准确高效提取甲状腺超声图像特征的深度网络。
[0051]
实验基于keras深度学习框架进行卷积层参数微调,步骤如下:
[0052]
1)将经过预处理和数据增强后的甲状腺结节超声图像作为训练集输入;
[0053]
2)自定义resnet18中最后一层全连接softmax层的输出神经元个数,由1000修改为2,对应网络只学习良恶性两种类别输出;
[0054]
3)将网络的输出层重新命名,这样导入预训练权重时就会因为名字不匹配重新随机生成参数并训练。
[0055]
4)设置自衰减学习率初始值为0.004,微调所有网络卷积层。经过迁移学习后的resnet18网络,其卷积层将能自动提取出甲状腺结节图像的代表性特征。
[0056]
3、融合多尺度特征的甲状腺结节分类
[0057]
深度神经网络可以直接对图像进行分类,但在卷积和下采样过程中会损失许多细节信息和全局特征,并未利用到图像的低层次特征。考虑到医疗图像中具有大量的纹理等低层次细节特征,本发明利用自适应阈值ltp算子提取出的关键纹理特征与通过多层卷积提取出的深层特征级联,从而融合成多尺度联合特征共同对神经网络进行二次微调训练。
[0058]
主要包括以下两个步骤:
[0059]
3.1基于自适应阈值的ltp特征提取
[0060]
局部三值模式(local ternary pattern,ltp)由tan等人在lbp基础上提出,ltp局部三值化算子是一种灰度范围内描述图像纹理特征的算子,它在lbp算子的基础上进行扩展,采用三值编码,对光照变化和噪声更加鲁棒,增强了局部纹理特征的分类性能。
[0061]
该算子对各像素点的(p,r)邻域采样,p表示邻域内像素总数,r表示邻域半径,采样后以中心像素值ic为阈值对邻域内各像素值i
p
做三值化处理。相较于lbp算子,ltp算子量化阶段,增加了-1值模式及用户自定义阈值t,将映射在[-t,+t]区间内的像素差值量化为0值,大于该区间的差值量化为1,小于该区间的差值量化为-1,s(x)变换为三值编码形式,具体定义如下:
[0062][0063]
利用ltp进行编码,t为用户自定义的阈值,权值的编码方式同lbp算子,计算公式如下:
[0064][0065]
本发明方法针对甲状腺提取特征的效果进行了改进,将原用于计算对比度的中心像素gc,替换为邻域及中心像素之和的平均值ga,并在最后一步向上取整,使得梯度变化信息更明显,结节轮廓更突出。
[0066]
具体新的阈值计算步骤如下:
[0067]
(1)先计算邻域像素及中心像素gc的平均值ga:
[0068][0069]
(2)计算邻域像素gi和上式中得到的ga的差值作为邻域对比度δga:
[0070]
δga=g
i-gaꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(16)
[0071]
(3)对8个邻域像素与ga得到的差值δga求平均:
[0072][0073]
(4)计算并向上取整获得邻域离散度α:
[0074][0075]
p表示像素邻域个数(一般为8),gi表示邻域像素的灰度值。和传统ltp算法相比,改进后的自适应阈值ltp算法(atltp)能提取出更多的纹理细节;相较于ε-ltp算法又选取邻域像素及中心像素的平均值,保留了中心像素与邻域的相对关系,也降低了对中心像素的依赖。同时,阈值的大小也将随着局部像素的改变而改变,实现了阈值的自适应性,极大限度地保留了图像中的纹理细节。
[0076]
在得到局部阈值后,为简化计算,从图像提取ltp特征时可以分解为正、负模式两层,再在各层分别使用lbp编码方式,得到两层呈现不同纹理的特征结节。
[0077]
3.2采用多尺度特征融合与二次微调
[0078]
卷积神经网络通过逐层抽象的方式来提取目标的特征,其中一个重要的概念就是感受野。如果感受野太小,则只能观察到局部的特征,如果感受野太大,则获取了过多的无效信息。因此,设计多尺度特征输入对卷积网络性能的提升有极大的帮助。
[0079]
以一张待分类甲状腺结节超声图像为例,输入至微调好的resnet18中,以conv2_4层的输出即为图像的深度特征,该特征映射维数为56
×
56
×
64。图像的浅层纹理特征采用改进的atltp算子进行提取,三值化正负模式特征层均可转化为二维图像显示,初始维度为224
×
224
×
2,然后通过resize将特征图放缩维度至56
×
56
×
2,获得多尺度信息。然后将
atltp浅层纹理特征映射通过批归一化(bn)层,与深度特征拼接形成维度56
×
56
×
66的多尺度联合特征并输入下一个神经网络层。
[0080]
对网络进行二次微调训练时,将专门用于提取深度特征的网络层,即conv2_4及之前的网络层训练属性设为false,冻结蓝色虚线框内的卷积层参数,仅对特征融合输入后的网络层参数训练。实际实验时在输出层之前的平均池化层加入dropout正则化预防过拟合现象,rate值设置为0.8。
[0081]
与现有技术相比,本发明有益效果包括:
[0082]
(1)本发明提出在预处理时提升超声图像的质量,并通过数据增强得到更多拓展样本用于迁移学习,这样既能解决训练样本数量不足的问题,也降低了模型的过拟合风险。
[0083]
(2)本发明提出的深度学习模型具有多尺度信息输入结构,能够有效地将不同尺度的纹理特征和深层特征融合为联合特征参与网络训练,从而提升深层神经网络对甲状腺结节图像的分类效果。
附图说明
[0084]
图1为本发明甲状腺结节良恶性分类算法流程图。
[0085]
图2为本发明中甲状腺超声影像及其结病灶提取示意图。
[0086]
图3为本发明中超声图像中的人工标记去除后的图像。
[0087]
图4为各方法对比度增强效果对比示意图。
[0088]
图5为传统ltp算法(阈值设为1和5)、ε-ltp算法特征提取效果对比图。
[0089]
图6为本发明中ltp分解为lbp的编码过程演示图。
[0090]
图7为本发明中图像特征叠加融合的示意图。
具体实施方式
[0091]
下面结合附图,对本发明作进一步地说明。
[0092]
基于特征融合和迁移学习的甲状腺结节超声图像分类方法流程如图1所示,首先从原始图像数据提取出感兴趣区域并进行人工标记去除和降噪,并利用加权自适应伽马校正以实现在抑制噪声产生的同时提高全局信息对比度;然后对图像增强后的样本数据集进行样本拓展,并利用拓展样本对预训练过的resnet18卷积神经网络进行迁移学习微调;最后将自适应阈值ltp算子提取出的丰富纹理特征作为辅助输入,与超声图像通过多层卷积自动提取出的深层特征进行多尺度特征融合,共同对神经网络进行二次微调训练。
[0093]
(一)数据预处理
[0094]
1、甲状腺结节病灶区域提取
[0095]
具体步骤如下:
[0096]
1)根据影像师给定的甲状腺结节标记框位置得出标记框的最左上角坐标值和最右下角坐标值(xi,yi)、(xj,yj);
[0097]
2)计算出标记框中心点坐标,记为(xc,yc),其中xc为xi和xj的平均值,yc为yi和yj的平均值;
[0098]
3)计算出结节区域的长和宽,取最大值,即max(x
j-xi,y
i-yj),记为w;
[0099]
4)基于左上角(xc–
w/2,yc+w/2),右上角(xc+w/2,yc+w/2),左下角(xc–
w/2,yc–
w/
2),右下角(xc+w/2,yc–
w/2)确定坐标区域截取结节子图。如果截取框超出原成像区域,则以邻近像素值填充。
[0100]
如图2所示,内边框为影像师实际标记框,外边框为roi提取区域,可见本方法提取出的结节子图能确保按比例缩放时不改变结节本身的形状轮廓且包含正常的甲状腺组织,使得卷积神经网络能更好地从结节本身和正常组织之间的差异中学习甲状腺结节的特征。
[0101]
2、人工标记去除及降噪
[0102]
超声图像中的人工标记主要指超声图像中由影像师所做的对病灶区域的亮白色标记。如图3(a)所示,人工标记会遮挡图像中的纹理部分,影响待分析区域图像的完整性,因此需要将图像中的人工标记去除并复原被遮挡的部分。首先计算出图像中所有非零区域并对其进行标签化,即:
[0103][0104]
式中,f为输入图像,g为通过迭代选择连通域峰值t后进行标签二值化输出的人工标记区域图像,如图3(b)所示。在通过区域分割效果确定最佳阈值后,这样就可以找到对应g中面积最大的区域从f中去除,得到疑似标记区域,
[0105][0106]
上式中,l
max
为具有最大面积的连通域,m为输出包含疑似标记区域的图像,然后从图像中去除掉满足条件的像素点即得到去除标记的超声图像,如图3(c)所示。
[0107]
接下来,对m中的空白区域采用经典的图像修复算法tv模型进行处理,得到对于图像空白区域的估算像素值并填充修复。估算像素值的数学表达式如下:
[0108][0109]
式中,fo代表当前像素,f
p
代表其4个邻域像素,系数h定义为
[0110][0111]
式中,λ为平滑系数,而w
p
的定义为
[0112][0113]
式中,为散度,以右侧领域为例定义为
[0114][0115]
式中,fe,f
ne
,f
se
分别代表当前像素的右邻接、右上邻接和右下邻接像素,再通过迭代可以实现空白区域的像素估计修复,最后以均值滤波平滑修复区域。实验效果如图3(d),超声科医师所添加的标记被很好地移除并最大限度地复原为与周围的组织相似的纹理。
[0116]
3、加权自适应伽马校正
[0117]
伽马校正就是对图像的伽马曲线进行编辑,以对图像进行非线性色调编辑的方
法,检测出图像信号中的深色部分和浅色部分,并使两者比例增大,从而提高图像对比度效果。伽马校正的原理是基于伽马校正的变换形式(tgc),简单表达形式如下:
[0118]
t(l)=l
max
(l/l
max
)
γ
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(7)
[0119]
其中l
max
是原始图像的单通道图像像素的最大值。执行此功能函数后,便可将输入图像像素值l转换为t(l)。然而,当对比度直接通过伽马校正进行校正时,不同的图像会显示出与固定参数相同的强度变化。所以,应通过计算数字图像中每个强度级别的概率密度来解决这个问题。概率密度函数(pdf)形式表示如下:
[0120][0121]
其中n
l
表示的是像素值为l的像素个数,而mn代表的是图像中的像素总数,累积分布函数(cdf)又是基于pdf的分布函数,是概率密度函数的积分,表示如下:
[0122][0123]
自适应伽马校正(agc)公式表示如下:
[0124]
t(l)=l
max
(l/l
max
)
γ
=l
max
(l/l
max
)
1-cdf(l)
ꢀꢀꢀ
(10)
[0125]
此外,加权分布(wd)函数也可应用于统计直方图轻微修改且不造成不良损失,其公式表示如下:
[0126][0127]
这里α是可调参数,通常将α设为1,pdf
max
和pdf
min
分别代表统计灰度直方图中最大和最小的的pdf值。最后agcwd方法就是基于加权分布函数,将γ表示为:
[0128][0129]
峰值信噪比提供了一个衡量图像失真或是噪声水平的客观标准,值越大,代表失真越少。由表1和图4可知,同全局直方均衡化(he)、限制对比度的自适应直方均衡化(clahe)相比,加权自适应伽马校正方法在极大增强对比度的同时,最大程度地保留了原始图像的细节信息,有效抑制了图像增强时所放大的噪声。
[0130]
表1图像评价指标
[0131][0132]
(二)基于resnet的迁移学习
[0133]
采取迁移学习策略,在训练resnet18网络时先导入开源的在imagenet自然图像数据集上预训练好的模型,获取初始权重参数后基于现有的甲状腺结节超声图像拓展样本进行迁移学习微调。现有的甲状腺图像数据量不足以训练出完善的网络,因此利用数据增强后得到的拓展样本作为迁移学习和参数微调的训练集,从而得到对甲状腺结节特征敏感的
1值模式及用户自定义阈值t,将映射在[-t,+t]区间内的像素差值量化为0值,大于该区间的差值量化为1,小于该区间的差值量化为-1,s(x)变换为三值编码形式,具体定义如下:
[0148][0149]
利用ltp进行编码,t为用户自定义的阈值,权值的编码方式同lbp算子,计算公式如下:
[0150][0151]
本发明方法针对甲状腺提取特征的效果进行了改进,将原用于计算对比度的中心像素gc,替换为邻域及中心像素之和的平均值ga,并在最后一步向上取整,使得梯度变化信息更明显,结节轮廓更突出。具体新的阈值计算步骤如下:
[0152]
(1)先计算邻域像素及中心像素gc的平均值ga:
[0153][0154]
(2)计算邻域像素gi和上式中得到的ga的差值作为邻域对比度δga:
[0155]
δga=g
i-gaꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(16)
[0156]
(3)对8个邻域像素与ga得到的差值δga求平均:
[0157][0158]
(4)计算并向上取整获得邻域离散度α:
[0159][0160]
p表示像素邻域个数(一般为8),gi表示邻域像素的灰度值。和传统ltp算法相比,改进后的自适应阈值ltp算法(atltp)能提取出更多的纹理细节;相较于ε-ltp算法又选取邻域像素及中心像素的平均值,保留了中心像素与邻域的相对关系,也降低了对中心像素的依赖。同时,阈值的大小也将随着局部像素的改变而改变,实现了阈值的自适应性,极大限度地保留了图像中的纹理细节。这里与传统ltp算法(阈值设为1和5)、ε-ltp算法特征提取效果对比如图5。
[0161]
在得到局部阈值后,为简化计算,从图像提取ltp特征时可以分解为正、负模式两层,再在各层分别使用lbp编码方式,得到两层呈现不同纹理的特征结节,提取过程如图6所示。
[0162]
2、多尺度特征融合与二次微调
[0163]
以一张待分类甲状腺结节超声图像为例,输入至微调好的resnet18中,以conv2_4层的输出即为图像的深度特征,由网络结构表2即可知该特征映射维数为56
×
56
×
64。图像的浅层纹理特征采用改进的atltp算子进行提取,三值化正负模式特征层均可转化为二维图像显示,初始维度为224
×
224
×
2,然后通过resize将特征图放缩维度至56
×
56
×
2,获得
多尺度信息。然后将atltp浅层纹理特征映射通过批归一化(bn)层,与深度特征拼接形成维度56
×
56
×
66的多尺度联合特征并输入下一个神经网络层,过程可视化如图7。
[0164]
对网络进行二次微调训练时,将专门用于提取深度特征的网络层,即conv2_4及之前的网络层训练属性设为false,冻结蓝色虚线框内的卷积层参数,仅对特征融合输入后的网络层参数训练。实际实验时在输出层之前的平均池化层加入dropout正则化预防过拟合现象,rate值设置为0.8。
[0165]
本实施例进行数据增强后超声样本总数共扩展至5632张,将其分为包含3468张恶性样本和1864张良性样本的训练集,以及包含200张恶性样本和100张良性样本的测试集。
[0166]
针对上述数据集进行实验,步骤如下:
[0167]
1)对收集到的甲状腺结节图像数据集采用本发明提出的算法流程进行分类;
[0168]
2)对比浅层纹理特征提取方法在甲状腺结节超声图像上的表现以评价本发明的atltp算子提取办法是否鲁棒;
[0169]
3)基于本文的非开源数据集,通过程序对训练集随机分组进行10折交叉验证训练模型,在训练完成后计算测试集的各项评估指标,最后再与其他同类型算法应用于同一数据集进行比较。
[0170]
考虑二分类的情况,类别可分为1和0,结节的良恶性识别情况便可用其进行表示。在本发明实验中,如表3所示,将横轴的1和0分别作为模型识别出的正类(positive)和负类(negative),正类表示该结节为恶性,而负类表示结节为良性;而纵轴的0和1表示结节实际的标签属性,若识别正确前缀为true,识别错误前缀为false。即在实验中所有可能产生出分类的结果共有如下4种,对应结果参数具体见表3如下:
[0171]
表3分类结果指标表
[0172][0173]
在临床上,上表中各统计量代表的含义分别为:真阳性(tp)指恶性结节被正确判定的个数,假阳性(fp)是指良性结节被错误判定为恶性结节的个数。真阴性(tn)是指良性结节被正确判定的个数,假阴性(fn)是指恶性结节被错误判定为良性结节的个数。
[0174]
实验结果对分类算法的评价指标主要为在相同运行环境的前提下,在同样的测试集中其分类的准确率(acc)、灵敏度(sens)、召回率(rec)、特异度(spec)、精确率(pre),以及auc值和f1分数。具体定义如下:
[0175][0176][0177]
[0178][0179][0180]
针对上述实验结果进行分析和比较:
[0181]
(1)纹理特征提取效果比较
[0182]
实验首先对比本发明的atltp算子与其他纹理特征提取方法在svm分类器上的表现,包括lbp、ltp、ulbp等纹理特征提取算法。在图像经过预处理后的情况下提取测试集中的超声样本纹理特征,并转化为特征向量输入非线性svm进行别,得到分类准确率与误分类样本个数如表4所示:
[0183]
表4纹理特征提取方法对比
[0184][0185]
如上表所示,本发明改进后的atltp算法相较于其他算法在实验的甲状腺结节数据集上的纹理特征提取具有更优的表现,误分类样本更少,可以更好地描述出超声图像结节部位的纹理信息。
[0186]
(2)迁移学习分类效果比较
[0187]
小样本数据集使用卷积层过深的网络模型极易产生过拟合效应,迁移学习可以有效地减少过拟合,并训练出对小样本超声数据集敏感的卷积神经网络。为了验证迁移学习微调模型的效果,实验对当前经典的用于图像分类的深度学习网络模型进行对比。同样是仅对原始图像进行裁剪和图像去标记降噪的预处理情况下,训练集样本输入alexnet、vgg-16、lenet等神经网络进行迭代训练,并分别对比了使用迁移学习前后的测试集准确率,如表5所示。
[0188]
表5迁移学习效果对比
[0189]
[0190][0191]
由表5可知,本发明所使用的经过迁移学习微调后的网络模型在对比中测试集分类准确率达到84.7%,明显高于其他深度学习网络模型的准确率。
[0192]
(3)甲状腺结节分类效果比较
[0193]
本发明提出的方法分别与当前深度学习文献方法进行了评估指标对比,同时对照了预处理阶段仅截取roi时的模型分类效果。下表6给出了各处理方法下的甲状腺结节良恶分类效果对比。其中基于inception-v3、resnet50、inception-resnet-v2均为当前流行且分类性能出众的深度学习网络模型;基于中值滤波和残差网和基于googlenet则都是通过卷积神经网络充分结合了甲状腺结节超声图像的浅层特征和深层特征进行分类。
[0194]
表6各方法关键性能指标对比
[0195][0196]
综合以上实验对比结果表明,本发明的方法对甲状腺结节超声数据集的识别准确率高达95.3%,优于各对比方法。相较于之前文献提出的googlenet和代价敏感随机森林的组合分类模型,虽然特异度略低,但本发明方法涉及的训练参数更少,准确率更高,对恶性结节的识别也更为敏感,且完全基于深度神经网络进行端对端识别,无需另外设置机器学习分类器参数。本发明方法法充分展现了深度迁移学习与特征融合在甲状腺超声图像分类上的优势。
[0197]
以上所述仅表达了本发明的优选实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形、改进及替代,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
技术特征:
1.基于特征融合和迁移学习的甲状腺结节超声图像分类方法,其特征在于,所述方法包括以下步骤:(1)数据集预处理:采集甲状腺超声波影像作为原始图像数据集并进行预处理,首选从原始图像数据集提取出感兴趣区域并进行人工标记去除和降噪,并利用加权自适应伽马校正;(2)基于resnet的迁移学习:将预处理后的图像数据进行图像增强,对图像增强后的样本数据集进行样本拓展,并利用拓展样本对预训练过的resnet18卷积神经网络进行迁移学习微调;(3)融合多尺度特征的甲状腺结节分类:将自适应阈值ltp算子提取出的丰富纹理特征作为辅助输入,与超声图像通过多层卷积自动提取出的深层特征进行多尺度特征融合,共同对神经网络进行二次微调训练,再对图像进行分类。2.根据权利要求1所述的基于特征融合和迁移学习的甲状腺结节超声图像分类方法,其特征在于,所述步骤(1)中从原始图像数据集中良恶性结节病灶作为感兴趣区域(roi)分离出来,具体步骤如下:1)根据甲状腺结节标记框位置得出标记框的最左上角坐标值和最右下角坐标值(x
i
,y
i
)、(x
j
,y
j
);2)计算出标记框中心点坐标,记为(x
c
,y
c
),其中x
c
为x
i
和x
j
的平均值,y
c
为y
i
和y
j
的平均值;3)计算出结节区域的长和宽,取最大值,即max(x
j-x
i
,y
i-y
j
),记为w;4)基于左上角(x
c
–
w/2,y
c
+w/2),右上角(x
c
+w/2,y
c
+w/2),左下角(x
c
–
w/2,y
c
–
w/2),右下角(x
c
+w/2,y
c
–
w/2)确定坐标区域截取结节子图;如果截取框超出原成像区域,则以邻近像素值填充。3.根据权利要求2所述的基于特征融合和迁移学习的甲状腺结节超声图像分类方法,其特征在于,所述步骤(1)中将人工标记去除和降噪,首先将良恶性结节病灶区域进行亮白色标记;再将图像中的人工标记去除并复原被遮挡的部分,具体步骤如下:1)计算出图像中所有非零区域并对其进行标签化式中,f为输入图像,g为通过迭代选择连通域峰值t后进行标签二值化输出的人工标记区域图像;2)在通过区域分割效果确定最佳阈值后,找到对应g中面积最大的区域从f中去除,得到疑似标记区域,式中,l
max
为具有最大面积的连通域,m为输出包含疑似标记区域的图像,然后从图像中去除掉满足条件的像素点即得到去除标记的超声图像;3)对m中的空白区域采用经典的图像修复算法tv模型进行处理,得到对于图像空白区域的估算像素值并填充修复,估算像素值的数学表达式如下:
式中,f
o
代表当前像素,f
p
代表其4个邻域像素,系数h定义为:式中,λ为平滑系数,而w
p
的定义为:式中,为散度,以右侧领域为例定义为:式中,f
e
,f
ne
,f
se
分别代表当前像素的右邻接、右上邻接和右下邻接像素,再通过迭代可以实现空白区域的像素估计修复,最后以均值滤波平滑修复区域。4.根据权利要求1所述的基于特征融合和迁移学习的甲状腺结节超声图像分类方法,其特征在于,所述步骤(2)中数据增强采取垂直翻转、水平翻转、顺时针旋转180
°
这三种数据增强方式,进而额外得到三倍的拓展样本数据;所述步骤(2)中迁移学习微调的步骤如下:1)将经过预处理和数据增强后的甲状腺结节超声图像作为训练集输入;2)自定义resnet18中最后一层全连接softmax层的输出神经元个数,由1000修改为2,对应网络只学习良恶性两种类别输出;3)将网络的输出层重新命名,这样导入预训练权重时就会因为名字不匹配重新随机生成参数并训练;4)设置自衰减学习率初始值为0.004,微调所有网络卷积层,经过迁移学习后的resnet18网络,其卷积层将能自动提取出甲状腺结节图像的代表性特征。5.根据权利要求1所述的基于特征融合和迁移学习的甲状腺结节超声图像分类方法,其特征在于,所述步骤(3)中自适应阈值的ltp特征提取是甲状腺提取特征的效果进行改进,将原用于计算对比度的中心像素g
c
,替换为邻域及中心像素之和的平均值g
a
,并在最后一步向上取整,使得梯度变化信息更明显,结节轮廓更突出;在得到局部阈值后,为简化计算,从图像提取ltp特征时可以分解为正、负模式两层,再在各层分别使用lbp编码方式,得到两层呈现不同纹理的特征结节;具体新的阈值计算步骤如下:1)先计算邻域像素及中心像素g
c
的平均值g
a
:2)计算邻域像素g
i
和上式中得到的g
a
的差值作为邻域对比度δg
a
:δg
a
=g
i-g
a
3)对8个邻域像素与g
a
得到的差值δg
a
求平均:
4)计算并向上取整获得邻域离散度α:p表示像素邻域个数,g
i
表示邻域像素的灰度值。
技术总结
本发明公开了基于特征融合和迁移学习的甲状腺结节超声图像分类方法,包括:采集甲状腺超声波影像进行预处理,提取出感兴趣区域并进行人工标记去除和降噪,并利用加权自适应伽马校正;进行图像增强,对图像增强后的样本数据集进行样本拓展,并利用拓展样本对预训练过的ResNet18卷积神经网络进行迁移学习微调;将自适应阈值LTP算子提取出的丰富纹理特征作为辅助输入,与超声图像通过多层卷积自动提取出的深层特征进行多尺度特征融合,共同对神经网络进行二次微调训练。本发明解决训练样本数量不足的问题,降低了模型的过拟合风险,还有效地将不同尺度的纹理特征和深层特征融合为联合特征参与网络训练,从而提升深层神经网络对甲状腺结节图像的分类效果。甲状腺结节图像的分类效果。甲状腺结节图像的分类效果。
技术研发人员:周爱云 徐盼 邱桃荣 付豪
受保护的技术使用者:南昌大学第一附属医院
技术研发日:2021.11.11
技术公布日:2022/3/8