Page 139 - 《应该声学》2022年第2期
P. 139

第 41 卷 第 2 期                高子洋等: 卷积神经网络的缺陷类型识别分析                                           307


              表 5  一维卷积和二维卷积模型对识别准确率的影响                        3.2  数据增强对识别准确率的影响
              Table 5   The influence of one-dimensional            表6展示了不同网络结构在原始数据集和数据
              convolution and two-dimensional convolution      增强后总数据集下的表现差异,迭代次数为 100 次。
              models on identification accuracy
                                                               LeNet5、VGG16、ResNet 在原始数据集上一维卷积
                                                               模型识别准确率分别为 90%、93.33%、90%,二维卷
                            一维                 二维
              网络类型                                             积模型识别准确率分别为 96.67%、100%、96.67%,
                      准确率/% 训练时间/s       准确率/% 训练时间/s
               LeNet5   95.56   10.47     99.33    263.8       对比在增强后数据集上各网络的表现,可以看到
               VGG16    98.89   49.37      100     494.1       数据增强后各网络结构的识别准确率均有明显的
               ResNet   97.78   50.28      100     521.5       提升。

                                              表 6  数据增强对识别准确率的影响
                           Table 6 The influence of data augmentation on identification accuracy

                                                                                            (单位: %)
                        网络类型       LeNet5-1D  VGG16-1D   ResNet-1D   LeNet5-2D  VGG16-2D   ResNet-2D
                       原始数据集         90.00      93.33       90.00      96.67       100        96.67
                      增强后数据集         95.56      98.89       97.78      99.33       100        100


             3.3 迭代次数对识别准确率的影响                                 3.4  Dropout 和 Batch Normalization 对识别
                 每一次迭代都要对参数进行修正,迭代次数代                               准确率的影响
             表着对数据的拟合程度,迭代次数越多说明对数                                 不同的优化方法 (Dropout 和 Batch Normal-
             据拟合得越好,但是迭代次数过多又会造成过拟                             ization) 对识别准确率及训练时间的影响如表 8 所
             合。针对原始数据集,使用不同网络结构在一维卷                            示。使用 LeNet5 结构在扩充后的数据集上进行训
             积上迭代不同轮次,对比识别准确率。从表 7 可以                          练,结果表明当使用 Dropout 时准确率为 97.78%,
             看出,LeNet5 在训练 100、200、300 轮次时的准确率                 训练时间为 11.4 s,使用 Batch Normalization 时准
             分别为 90%、93.33%、96.67%,准确率一直上升,说                   确率为 100%,训练时间为 13.67 s,两者都不使用
             明网络还没有完全拟合,随着迭代次数的增加网络                            时准确率仅为 95.56%,训练时间为 10.47 s。图 7 展
             识别准确率更高。VGG16 在训练 100、200、300 轮                   示了 3 种模式在训练过程中验证集准确率和损失
             次时的准确率分别为93.33%、96.67%、90%,ResNet                 函数随着迭代次数的变化,可以看出 Batch Nor-
             在训练 100、200、300 轮次时的准确率分别为 90%、                   malization 在训练过程中验证集准确率增长速度最
             93.33%、86.67%,这两个网络在训练 300 轮次的时
                                                               快,损失值最低,说明收敛速度更快。综合来看,使
             候准确率都出现了降低,说明这个时候网络已经过
                                                               用 Dropout 或 Batch Normalization 虽然在训练时
             拟合。由此可见,在网络训练的时候迭代次数并不
                                                               间上都有了一定的增加,但是准确率也有一定的提
             是越多越好,特别是复杂网络,选择合适的迭代次数
                                                               升,Batch Normalization表现尤为突出。
             很重要。
                                                                  表 8  Dropout 和 Batch Normalization 对识
                    表 7   迭代次数对识别准确率的影响
                                                                  别准确率的影响
                Table 7 The influence of iteration number
                                                                  Table 8   The influence of Dropout and
                on identification accuracy
                                                                  Batch Normalization on identification ac-
                                                (单位: %)
                                                                  curacy
                网络类型       100 epoch  200 epoch  300 epoch
                                                                                        准确率/% 训练时间/s
                LeNet5-1D    90.00     93.33      96.67
                                                                        使用 Dropout        97.78    11.4
                VGG16-1D     93.33     96.67      90.00
                                                                   使用 Batch Normalization  100     13.67
                ResNet-1D    90.00     93.33      86.67                   都不使用            95.56    10.47
   134   135   136   137   138   139   140   141   142   143   144