Page 59 - 《应用声学》2021年第1期
P. 59

第 40 卷 第 1 期              高凡等: 超声射频信号的甲状腺结节智能诊断方法                                            55


             设置了不同的色轴,在所有图片中均可以看到异常                            1.5  基于人工神经网络的图像识别
             的结节区域,对应 RF 灰度图片的低回声区,但是其                             使用神经网络模式识别工具 (Neural net pat-
             边缘轮廓和细节特征因参与图像重构的参数不同                             tern recognition tool, NPRTOOL)来搭建误差逆向
             而有一定的区别。
                                                               传播的前馈人工神经网络对样本进行良恶性分类。
             1.3 组织病理学检查                                       选择莱文伯格 -马夸特方法 (Levenberg-Marquardt
                 通过常规的石蜡切片和苏木精 -伊红染色,由                         algorithm) 作为训练方法,该算法是介于牛顿法与
             经验丰富的病理学家判断组织病理学结果。结节性                            梯度下降法之间的一种非线性优化方法,对于过参
             甲状腺肿、甲状腺腺瘤和甲状腺炎被归为良性,甲                            数化问题不敏感,能有效处理冗余参数问题,使代价
             状腺乳头状癌、滤泡状甲状腺癌等归为恶性。                              函数陷入局部极小值的机会大大减小,因此适用于
                 病理学检查的良恶性将作为金标准用于之后                           当前的问题。使用 “交叉熵” 作为网络的代价函数,
             的 ANN 监督学习和敏感性、特异性、正确率的                           其优点在于使用 sigmoid 函数在梯度下降时能避免
             统计。                                               均方误差损失函数学习速率降低的问题,因为学习

             1.4 结节的选取和特征提取                                    速率可以被输出的误差所控制。
                 首先,由有经验的超声科医师用矩形框对选定                              隐藏层中神经元的数量由以下经验公式确定:
             甲状腺结节进行定位,选取要求为包含甲状腺结节                                                √
                                                                              m =    n + l + α,           (6)
             及其完整轮廓,如图2 中红框所示,同一例样本在灰
             度图像和每个重构图像中选择相同区域。对每个框                            其中,m是隐藏层中神经元的数量;n 是输入层中输

             定的结节,使用 16 块等大的 ROI 进行覆盖,并计算                      入的数量,该问题下为 96;l 是输出层中输出的数量,
             其中的参数平均值作为样本特征 (如图 3 所示)。为                        该问题下为1;α 是1到10之间的常数。过少的神经
             分析甲状腺结节与正常组织之间的差异性,本文取                            元会导致网络的欠拟合,即无法充分利用输入的信
             得与之等大的参考区域 (Region of reference, RR),             息;而过多的神经元会增加网络的复杂度,也容易在
             选择与包含结节的方框相同大小的区域,且不包含                            训练中陷入局部极小点,使网络学习速度变慢。经
             明显异常的组织,尽量与结节相同高度,以保证是同                           过调试,神经元数量最终被确定为10。
             一层组织,能有效对比(如图2 中黄框所示)。                                神经网络的结构示意图如图4所示,其中Input
                                      40                       代表输入的特征,在本问题下包括 16 处 RF 信号

                   10                                          包络、16 个灰度值、16 个香农熵、16 个加权熵、16
                                      30
                                                               个 Nakagami-m 和 16 个峰度,共 96 个特征。隐藏
                 (mm)                 20                       层包含 10 个神经元,单个神经元的结构如图 4 中
                   20
                   30
                                      10                       所示,将输入 x 转为 wx + b 的形式,再由非线性
                   40
                                                               的 sigmoid 函数来控制输出,w 和 b 为待定系数,会
                       10  20  30
                          (mm)                                 在网络的收敛过程中不断调整直至稳定。输出层
                                                               与隐藏层类似,但是只包含一个神经元用于控制
                      图 3  多 ROI 覆盖结节和参数提取
                                                               最终的输出。Output 为 0 或 1,0 代表良性,1 代表
               Fig. 3 Use multiple ROIs to cover nodules and
               extract features                                恶性。

                                                Hidden              Output
                                 Input                                             Output
                                             w                    w
                                                 +                    +
                                             b                    b
                                   96                                                1
                                                     10                    1
                                                图 4  人工神经网络结构示意图
                                   Fig. 4 Schematic diagram of artificial neural network structure
   54   55   56   57   58   59   60   61   62   63   64