Page 145 - 《应用声学》2021年第3期
P. 145

第 40 卷 第 3 期            谭笑枫等: 基于一维卷积神经网络的化爆和地震次声分类                                          463


             2.3 改进的CNN                                        就是让训练集的预测值 y 的分布与真实值 y_ 的分
                 由于样本本身数量有限,采用过于深层的卷积                          布尽可能保持一致,即y 的分布与真实值y_的分布
             神经网络训练容易导致过拟合的现象。本文采用浅                            之间的差值尽量的小,可将二者差值定义为损失函
             层的 CNN 作为研究对象,尽量精简网络结构,达到                         数。本文采用交叉熵损失函数,并采用 Adam 算法
             较少的样本也能实现深度学习的目的。选用网络结                            对网络模型进行基于梯度下降的优化,使得参数更
             构较为简单的 LeNet-5神经网络结构作为基础网络                        加平稳。
             进行设计改进。本文改进之后的网络结构模型如                                 此 外, 本 文 还 采 用 了 L2 规 格 化 和 50% 的
             图 8所示。                                            dropout 防止过拟合问题,使用滑动平均模型用
                                                               于控制变量的更新幅度,使网络结构更稳定。最
                 如图8(a)所示,改进CNN-5网络第一层卷积层
                                                               后使用 softmax 作为分类器,完成化爆和地震的
             输入通道数为 1、输出通道数为 128,卷积核大小为
                                                               分类。
             1×5,输入和输出数据大小都为 1 × 257;第二层池
             化层输入和输出通道数均为 256,输入数据大小为
                                                               3 实验设计与结果分析
             1 × 257,输出数据大小为 1 × 129;第三层卷积层
             输入通道数为 128,输出通道数为 256,卷积核采用                       3.1  评价指标
             1×3、1 × 5、1 × 7三路卷积,输入输出数据大小都为                        如果神经网络输出的预测值 y 与真实值 y_ 相
             1 × 129;第四层池化层池化层输入和输出通道数均                        同时,那么认为网络能够正确得识别出该类次声事
             为 256,输入数据大小为 1 × 129,输出数据大小为                     件。通过比较神经网络输出的预测值y 与真实值y_
             1 × 65;第五层为全连接层及分类器。                              可以得到 4 个统计量:Ture Positive (TP,真实值为
                 相比 “LeNet-5” 网络,本文主要做了以下三个                    1 且被网络预测为 1)、False Positive (FP,真实值为
             方面的改进:                                            0 但被网络预测为 1)、False Negative (FN,真实值
                 (1) 改变卷积核参数,其中第一层卷积层保持                        为 1 但被网络预测为 0)、Ture Negative (TN,真实
             不变,依旧采用1 × 5的大小,第三层运用分路卷积、                        值为0且被网络预测为0)。基于TP、FP、FN、TN四
             加权融合的思想,分别使用 1 × 3、1 × 5、1 × 7 的卷                 个统计量可以得到准确率、假阳性率和假阴性率和

             积核,卷积结果分别乘以系数1/3,再将结果相加得                          调和平均数 4 个评价指标。利用以上 4 个指标可以
             到第三层卷积层特征图,池化层统一使用1 × 2卷积                         根据实验结果对网络准确性和稳定性进行较为可
             核,采用最大池化方式;                                       靠的分析。
                 (2) 为提高网络学习能力,增加卷积核种类,第                       3.1.1 准确率
             一层卷积层和第二层池化层由 6 种增加为 128 种,
                                                                   准确率 (Accuracy, ACC)表示所有样本被正确
             第三层卷积层和第四层池化层由 16 种增加为 256
                                                               分类的比例,其公式表达为
             种,第五层全连接层由120种增加为512种;
                                                                                  N TP + N TN
                 (3) 卷积过程中对特征图进行边界补零,保证                             ACC =  N TP + N TN + N FP + N FN  ,  (11)
             特征图卷积前后的大小保持一致,便于进行分路卷                            其中,N TP 表示真实值为 1 的样本被正确分类的数
             积,加权融合操作。                                         目,N TN 表示真实值为 0 的样本被正确分类的数目,
                 如图8(b)和图8(c)所示,在改进CNN-5网的基                    N FP 表示真实为 0 的样本被错误分类的数目,N FN
             础上,在第二层池化层和第三层卷积层之间,分别再                           表示真实为1 的样本被错误分类的数目。ACC的取
             加入 1 至 2 层卷积层作为比较,得到改进 CNN-6 和                    值范围为[0, 1],值越接近1,分类性能越好。
             改进 CNN-7 网络。其中添加的卷积层卷积核大小
                                                               3.1.2 假阳性率
             为1 × 5,种类数量为256种。
                                                                   假阳性率 (False positive rate, FPR) 表示真实
                 将 1.2 节中每类数据集的信号作为网络的输入
                                                               值为 0 但被预测为 1 的样本数量在所有真实值为 0
             x,将化爆样本标注为 1(正类),将地震样本标注为
                                                               的样本中占的比例,其公式表达为
             0(负类),并进行 one-hot 编码,作为真实值 y_,将
                                                                                       N FP
             经过网络的输出值 y 作为预测值。网络训练的目的                                        FPR =             .         (12)
                                                                                    N TN + N FP
   140   141   142   143   144   145   146   147   148   149   150