Page 31 - 《应用声学》2021年第4期
P. 31

第 40 卷 第 4 期    逄岩等: 基于 Gammatone 滤波器组时频谱和卷积神经网络的海底底质分类                                     515


             3.2 实验结果与分析                                       测试准确率最终逐步稳定在 99% 左右。采用 SGD
                 为了充分验证利用构建的 CNN 模型分类底质                        优化器,初始学习率 0.01 时,训练损失和测试准确
             图像信号 GFB 时频谱所达到的底质分类效果,在                          率变化情况与 Adam 优化器时的变化情况类似;而
             实验中分别利用随机梯度下降(Stochastic gradient                 初始学习率为 0.001 时,训练损失和测试准确率收
             descent, SGD) 优化器和Adam优化器对CNN 模型                  敛速度相对较慢,但在训练过程中训练损失和测试
                                                               准确率变化平稳,两种初始学习率条件下的测试准
             进行优化,同时对分类结果进行比较分析。此外,通
                                                               确率最终也逐步稳定在 99% 左右。总体而言,本文
             过设置初始学习率为 0.01 和 0.001 验证上述优化器
                                                               提出的方法取得了较高的分类准确率,整体分类结
             在不同学习率条件下的学习和分类能力。两种优化
                                                               果如表2所示。
             器在不同初始学习率下训练损失与测试准确率变
             化过程和测试准确率随训练次数变化结果分别如
                                                                  表 2   本文方法在不同初始学习率下的分类结果
             图7和图8所示。
                                                                 Table 2 Classification results of this method
                 通过实验结果可知,采用Adam优化器,初始学                          under different initial learning rates
             习率为 0.01 时,训练损失和测试准确率虽然在训练
                                                                  优化器     初始学习率      准确率/%      平均准确率/%
             过程中发生明显起伏,但在训练样本训练 10次以后
                                                                             0.01      99.3
             达到收敛;初始学习率为 0.001 时,训练损失和测试                          Adam      0.001      99.3
                                                                                                   99.15
             准确率在全部样本训练 10次后同样达到收敛,同时                              SGD       0.01      99.3
                                                                            0.001      98.7
             二者变化相对理想平稳;两种初始学习率条件下的


                       1.4                  Ѻݽߦ˸஍ဋ0.01                               Ѻݽߦ˸஍ဋ0.01
                                            Ѻݽߦ˸஍ဋ0.001          1.0                 Ѻݽߦ˸஍ဋ0.001
                       1.2
                                                                 0.8
                       1.0
                      ᝫጷ૯ܿ  0.8                                 ᝫጷ૯ܿ  0.6
                       0.6
                                                                 0.4
                       0.4
                                                                 0.2
                       0.2
                         0                                        0
                           0     200    400    600   800             0     200   400    600    800
                                       ᤖ̽ᝫጷ൓஝                                     ᤖ̽ᝫጷ൓஝
                                   (a) Adam͖ӑ٨ᝫጷ૯ܿ                            (b) SGD͖ӑ٨ᝫጷ૯ܿ
                       100                                       100


                        80                                       80
                      ฾តನవюᆸဋ/%  60                             ฾តನవюᆸဋ/%  60



                        40
                                            Ѻݽߦ˸஍ဋ0.01           40                  Ѻݽߦ˸஍ဋ0.01
                        20                  Ѻݽߦ˸஍ဋ0.001          20                  Ѻݽߦ˸஍ဋ0.001

                         0                                        0
                           0     200    400    600   800             0     200   400    600    800
                                       ᤖ̽ᝫጷ൓஝                                     ᤖ̽ᝫጷ൓஝
                                 (c) Adam͖ӑ٨฾តನవюᆸဋ                         (d) SGD͖ӑ٨฾តನవюᆸဋ
                                    图 7  两种优化器不同初始学习率下训练损失与测试准确率对比
                  Fig. 7 Comparison of training loss and test accuracy of two optimizers with different initial learning rates
   26   27   28   29   30   31   32   33   34   35   36