Page 157 - 《应用声学》2022年第1期
P. 157

第 41 卷 第 1 期              谢辉武等: 利用 U-Net 网络增强骨密度全波形反演                                       153


                                     2
                                                 2
                   S(t) = (1 − 2(πft) ) exp(−(πft) ).   (3)        表 2 展示了一些训练时的网络超参数,U-Net
                                                               的卷积核滤波器基础数目为 64,每一层的数目为
                      表 1   超声正向模拟时参数设置                             depth
                                                               64×2     ,depth表示网络层在U-Net中的深度。训
                Table 1 Parameter setting during ultra-                                                   −5
                                                               练时一共用了100个Epoch,学习率设为1.0×10                  。
                sonic forward simulation
                                                                           表 2   U-Net 超参数设置
                  总时长          时间间隔          超声源主频
                                                                      Table 2 U-Net hyperparameters
                  24 µs        0.04 µs        100 kHz
                                                                                  卷积核       池化层     反卷积层
             1.2.2 网络结构
                                                                     大小            3×3       2×2      2×2
                 本文采用的 U-Net 网络结构如图 2 所示。输入                          步长            1×1       2×2      2×2
             是1通道的偏移成像结果,下采样过程每个单元由2                             填充 (padding)   保证操作后         无        无
                                                                                张量大小不变
             个卷积层和其后的 ReLU 激活层构成,如果需要也
             可以在每个单元的输入前加上一个参数标准化层                                    1.0
             (BN 层) 和在卷积层之间添加 Dropout 层。本文因
             为网络任务简单,训练过程也没有出现过拟合的现                                   0.5
             象,所以并没有使用 Dropout 层。每个单元之后经                             ૝ࣨ
             过2 × 2 的最大池化层,张量尺寸减小。上采样使用                                0
             反卷积来完成。在反卷积的过程中,由于输入张量
                                                                     -0.5
             的大小会出现奇数,反卷积后的张量大小与下采样                                     0     0.5   1.0    1.5   2.0    2.5
             过程中的大小不匹配。而进行跳跃连接需要两端大                                                 ௑ᫎ/(10 -5  s)
                                                                                  (a) ᭇБߕฉฉॎڏ
             小相同,这时可以使用简单的裁剪将上采样过程中
                                                                    0.200
             的张量大小裁剪为与下采样过程中对应深度的张
                                                                    0.167
             量大小相同。经过网络后输出为3 通道的分类结果,
                                                                    0.133
             最后采用交叉熵作为损失函数。将之前用模拟方法                                ૝ࣨ  0.100
             生成的数据集送入网络进行训练。该网络参数量为                                 0.067
             31, 054, 275。其中有 31, 042, 499 个参数是需要训                  0.033
             练的。该网络的训练量并不大,甚至可以在一般的                                    0
                                                                        0   1   2   3   4   5   6   7   8
             CPU上完成训练。                                                                ᮠဋ/kHz
                 该网络训练的正确率和损失变化如图 3 所示。                                            (b) ᭇБߕฉᮠ៨ڏ
             可以看到随着训练次数增加,正确率有了很大的提                                        图 1  雷克子波波形与频谱图
             高,可以达到99%以上。                                           Fig. 1 Ricker wavlet wavefomr and spectrum
                        1  64 64                                                               64 64 3
                        61T51


                      Input  128128                                                       128128
                           31T26

                               16T13  256 256                                        256 256


                                     8T7  512  512                            512  512
                                           4T4     1024  1024   1024   1024
                                                 conv, conv, relu  up-conv
                                                 maxpooling      skip-connection
                                                  图 2  U-Net 神经网络结构
                                            Fig. 2 Neural network structure diagram
   152   153   154   155   156   157   158   159   160   161   162