Page 146 - 《应用声学》2021年第3期
P. 146

464                                                                                  2021 年 5 月


             FPR取值范围为[0, 1],值越接近0,分类性能越好。                          每次分类实验共进行 12000 次训练,每次从训
                                                               练集中按照顺序抽取 8 个样本输入网络进行训练,
             3.1.3 假阴性率
                                                               即 batch_size 设置为 8,训练集抽取完成一个批次
                 假阴性率(False negative rate, FNR)表示真实
                                                               (epoch) 后对训练集进行一次打乱。若将训练集样
             值为 1 但被预测为 0 的样本数量在所有真实值为 1
                                                               本数定义为data_size,则每个批次可以表示为
             的样本中占的比例,其公式表达为
                                                                                     data_size
                                                                            epoch =            .         (15)
                                     N FN
                          FNR =             .          (13)                          batch_size
                                 N TP + N FN
                                                                   每训练 100 次记录一次损失函数、训练准确率
             FNR取值范围为[0, 1],值越接近0,分类性能越好。
                                                               和测试准确率。训练和测试结束后分别计算验证集
             3.1.4 调和平均数                                       的准确率、假阳性率和假阴性率和调和平均数。
                 当存在极偏数据时,单独使用 FPR 和 FNR 很
                                                               3.3  实验结果与分析
             难对整体的分类性能进行客观评价,需要使用一个
                                                               3.3.1 相同输入和不同网络的实验结果分析
             两者兼顾的指标。调和平均数 (Harmonic average,
                                                                   七类不同网络的训练损失,训练和测试准确率
             HA) 是假阳性率 FPR 和假阴性率 FNR 的兼顾指
                                                               如图9 ∼ 10所示。
             标,是1 − FPR和1 − FNR的平均数。HA值的性质
             是,只有当FPR和FNR 两者都非常低的时候,它们                                1.2
                                                                                               BP17
             的 HA 值才会高,如果其中之一很低,HA 值会被拉                               1.1                      BP20
                                                                                               BP26
             得接近于那个很低的数。其公式表达为                                        1.0                      LeNet¹5
                                                                                               CNN¹5
                        2 × (1 − FPR) × (1 − FNR)                     0.9
                 HA =                                                                          CNN¹6
                         (1 − FPR) + (1 − FNR)                       ૯ܿϙ  0.8                  CNN¹7
                        2 × (1 − FPR) × (1 − FNR)
                     =                           .     (14)           0.7
                             2 − FPR − FNR
                                                                      0.6
             HA取值范围为[0, 1],值越接近1,分类性能越好。
                                                                      0.5
             3.2 实验设计                                                 0.4
                                                                         0       4000      8000     12000
                 共设计两组对比实验,即相同输入和不同网络                                               ᝫጷ൓஝/൓
             的对比实验以及相同网络和不同输入的对比实验。                                     图 9  七类不同网络结构的训练损失

             3.2.1 相同输入和不同网络                                      Fig. 9 Seven different network structure training
                                                                  costs
                 将 Welch 功率谱作为第一类对比实验的输入,
             BP 网络 (隐藏层节点数分别为 17、20、26)、一维                         通过图 9 ∼ 10 可以看出,BP17、BP20 和 BP26
             LeNet-5网络和改进CNN,得到分类识别结果。                         三个网络的训练损失值长时间保持在 0.69 ∼ 0.695
                                                               之间,收敛趋势不明显,网络训练准确率和验证准
             3.2.2 相同网络和不同输入
                                                               确率都在40% ∼ 60%内上下浮动。由于此分类为二
                 将原次声信号、Welch 功率谱、IMF 分量比和
                                                               分类,所以准确率在50%以下不具有分类识别意义。
             IMF 奇异谱熵分别作为网络输入,送入改进 CNN
                                                               由此可见,BP 网络无法对次声信号功率谱进行有
             中,得到分类识别结果。
                                                               效训练分类。
             3.2.3 实验平台和参数设置                                       相比BP网络,一维LeNet-5网络的损失数值要
                 本文使用的操作系统为 Windows10, 使用                      更低,收敛性更强,训练准确率和验证准确率可以
             CUDA10.0 和 cuDNN7.4 加速训练;使用 NVIDIA                都能达到60%左右,比BP网络提高10%以上,可见
             Quadro P4000 (8G 内存);使用网络开发框架为                    LeNet-5 网络对次声信号功率谱可以进行一定的训
             Tensorflow1.14;用 python 进行编程;使用 CPU                练分类,但分类效果还有待加强。
             为 Intel(R) Core(TM) i7-8700 CPU@3.20 GHz              在改进 CNN 网络中,网络的训练损失都可
             3.19 GHz。                                         以收敛到 0.5 ∼ 0.6 之间。 训练准确率能够达到
   141   142   143   144   145   146   147   148   149   150   151