Page 145 - 《应用声学》2021年第3期
P. 145
第 40 卷 第 3 期 谭笑枫等: 基于一维卷积神经网络的化爆和地震次声分类 463
2.3 改进的CNN 就是让训练集的预测值 y 的分布与真实值 y_ 的分
由于样本本身数量有限,采用过于深层的卷积 布尽可能保持一致,即y 的分布与真实值y_的分布
神经网络训练容易导致过拟合的现象。本文采用浅 之间的差值尽量的小,可将二者差值定义为损失函
层的 CNN 作为研究对象,尽量精简网络结构,达到 数。本文采用交叉熵损失函数,并采用 Adam 算法
较少的样本也能实现深度学习的目的。选用网络结 对网络模型进行基于梯度下降的优化,使得参数更
构较为简单的 LeNet-5神经网络结构作为基础网络 加平稳。
进行设计改进。本文改进之后的网络结构模型如 此 外, 本 文 还 采 用 了 L2 规 格 化 和 50% 的
图 8所示。 dropout 防止过拟合问题,使用滑动平均模型用
于控制变量的更新幅度,使网络结构更稳定。最
如图8(a)所示,改进CNN-5网络第一层卷积层
后使用 softmax 作为分类器,完成化爆和地震的
输入通道数为 1、输出通道数为 128,卷积核大小为
分类。
1×5,输入和输出数据大小都为 1 × 257;第二层池
化层输入和输出通道数均为 256,输入数据大小为
3 实验设计与结果分析
1 × 257,输出数据大小为 1 × 129;第三层卷积层
输入通道数为 128,输出通道数为 256,卷积核采用 3.1 评价指标
1×3、1 × 5、1 × 7三路卷积,输入输出数据大小都为 如果神经网络输出的预测值 y 与真实值 y_ 相
1 × 129;第四层池化层池化层输入和输出通道数均 同时,那么认为网络能够正确得识别出该类次声事
为 256,输入数据大小为 1 × 129,输出数据大小为 件。通过比较神经网络输出的预测值y 与真实值y_
1 × 65;第五层为全连接层及分类器。 可以得到 4 个统计量:Ture Positive (TP,真实值为
相比 “LeNet-5” 网络,本文主要做了以下三个 1 且被网络预测为 1)、False Positive (FP,真实值为
方面的改进: 0 但被网络预测为 1)、False Negative (FN,真实值
(1) 改变卷积核参数,其中第一层卷积层保持 为 1 但被网络预测为 0)、Ture Negative (TN,真实
不变,依旧采用1 × 5的大小,第三层运用分路卷积、 值为0且被网络预测为0)。基于TP、FP、FN、TN四
加权融合的思想,分别使用 1 × 3、1 × 5、1 × 7 的卷 个统计量可以得到准确率、假阳性率和假阴性率和
积核,卷积结果分别乘以系数1/3,再将结果相加得 调和平均数 4 个评价指标。利用以上 4 个指标可以
到第三层卷积层特征图,池化层统一使用1 × 2卷积 根据实验结果对网络准确性和稳定性进行较为可
核,采用最大池化方式; 靠的分析。
(2) 为提高网络学习能力,增加卷积核种类,第 3.1.1 准确率
一层卷积层和第二层池化层由 6 种增加为 128 种,
准确率 (Accuracy, ACC)表示所有样本被正确
第三层卷积层和第四层池化层由 16 种增加为 256
分类的比例,其公式表达为
种,第五层全连接层由120种增加为512种;
N TP + N TN
(3) 卷积过程中对特征图进行边界补零,保证 ACC = N TP + N TN + N FP + N FN , (11)
特征图卷积前后的大小保持一致,便于进行分路卷 其中,N TP 表示真实值为 1 的样本被正确分类的数
积,加权融合操作。 目,N TN 表示真实值为 0 的样本被正确分类的数目,
如图8(b)和图8(c)所示,在改进CNN-5网的基 N FP 表示真实为 0 的样本被错误分类的数目,N FN
础上,在第二层池化层和第三层卷积层之间,分别再 表示真实为1 的样本被错误分类的数目。ACC的取
加入 1 至 2 层卷积层作为比较,得到改进 CNN-6 和 值范围为[0, 1],值越接近1,分类性能越好。
改进 CNN-7 网络。其中添加的卷积层卷积核大小
3.1.2 假阳性率
为1 × 5,种类数量为256种。
假阳性率 (False positive rate, FPR) 表示真实
将 1.2 节中每类数据集的信号作为网络的输入
值为 0 但被预测为 1 的样本数量在所有真实值为 0
x,将化爆样本标注为 1(正类),将地震样本标注为
的样本中占的比例,其公式表达为
0(负类),并进行 one-hot 编码,作为真实值 y_,将
N FP
经过网络的输出值 y 作为预测值。网络训练的目的 FPR = . (12)
N TN + N FP