Page 157 - 《应用声学》2022年第1期
P. 157
第 41 卷 第 1 期 谢辉武等: 利用 U-Net 网络增强骨密度全波形反演 153
2
2
S(t) = (1 − 2(πft) ) exp(−(πft) ). (3) 表 2 展示了一些训练时的网络超参数,U-Net
的卷积核滤波器基础数目为 64,每一层的数目为
表 1 超声正向模拟时参数设置 depth
64×2 ,depth表示网络层在U-Net中的深度。训
Table 1 Parameter setting during ultra- −5
练时一共用了100个Epoch,学习率设为1.0×10 。
sonic forward simulation
表 2 U-Net 超参数设置
总时长 时间间隔 超声源主频
Table 2 U-Net hyperparameters
24 µs 0.04 µs 100 kHz
卷积核 池化层 反卷积层
1.2.2 网络结构
大小 3×3 2×2 2×2
本文采用的 U-Net 网络结构如图 2 所示。输入 步长 1×1 2×2 2×2
是1通道的偏移成像结果,下采样过程每个单元由2 填充 (padding) 保证操作后 无 无
张量大小不变
个卷积层和其后的 ReLU 激活层构成,如果需要也
可以在每个单元的输入前加上一个参数标准化层 1.0
(BN 层) 和在卷积层之间添加 Dropout 层。本文因
为网络任务简单,训练过程也没有出现过拟合的现 0.5
象,所以并没有使用 Dropout 层。每个单元之后经 ࣨ
过2 × 2 的最大池化层,张量尺寸减小。上采样使用 0
反卷积来完成。在反卷积的过程中,由于输入张量
-0.5
的大小会出现奇数,反卷积后的张量大小与下采样 0 0.5 1.0 1.5 2.0 2.5
过程中的大小不匹配。而进行跳跃连接需要两端大 ᫎ/(10 -5 s)
(a) ᭇБߕฉฉॎڏ
小相同,这时可以使用简单的裁剪将上采样过程中
0.200
的张量大小裁剪为与下采样过程中对应深度的张
0.167
量大小相同。经过网络后输出为3 通道的分类结果,
0.133
最后采用交叉熵作为损失函数。将之前用模拟方法 ࣨ 0.100
生成的数据集送入网络进行训练。该网络参数量为 0.067
31, 054, 275。其中有 31, 042, 499 个参数是需要训 0.033
练的。该网络的训练量并不大,甚至可以在一般的 0
0 1 2 3 4 5 6 7 8
CPU上完成训练。 ᮠဋ/kHz
该网络训练的正确率和损失变化如图 3 所示。 (b) ᭇБߕฉᮠ៨ڏ
可以看到随着训练次数增加,正确率有了很大的提 图 1 雷克子波波形与频谱图
高,可以达到99%以上。 Fig. 1 Ricker wavlet wavefomr and spectrum
1 64 64 64 64 3
61T51
Input 128128 128128
31T26
16T13 256 256 256 256
8T7 512 512 512 512
4T4 1024 1024 1024 1024
conv, conv, relu up-conv
maxpooling skip-connection
图 2 U-Net 神经网络结构
Fig. 2 Neural network structure diagram