Page 131 - 应用声学2019年第4期
P. 131

第 38 卷 第 4 期               曾赛等: 水下目标多模态深度学习分类识别研究                                           591

                                        ໚ฉ٨      ྲढ़ڏ




                                                                                    Лᤌଌࡏ
                                                                                     (គѿ)

                                   ᣥКڏϸ        Ԅሥࡏ1     ʾ᧔ನࡏ1      Ԅሥࡏ2  ʾ᧔ನࡏ2
                                                 C 1       S 2       C 3     S 4
                                               图 1  典型的 CNN 网络结构示意图
                                                 Fig. 1 The structure of CNN

             1.2 LSTM深度学习模型                                    息加入到当前的细胞状态中,更新的动作分两步完
                 LSTM 本质上属于循环神经网络 (Recurrent                   成:首先使用 sigmoid 层决定哪些信息需要更新,然
             neural network, RNN),是深度学习领域较为成功                  后利用 tanh层提取备用更新内容,最后将两个步骤
             的算法。传统的循环神经网络无法在较长时间跨度                            进行融合。更新门的具体过程表示为
             上对特征进行关联存储,在参数优化过程中面临着
                                                                                           ⟨t⟩
                                                                      i gate = σ(W i · [a ⟨t−1⟩ , x ] + b i ),  (3)
             梯度消失的局限性,LSTM 网络能够有效克服传统
                                                                     C tanh = tanh(W C · [a ⟨t−1⟩ , x ] + b C ),  (4)
                                                                                               ⟨t⟩
             RNN 网络的缺点,其能够充分利用一维时域数据
             之间的相关性,形成类似于马尔科夫推理链结构。                                    C t = f gate ∗ C t−1 + i gate ∗ C tanh .  (5)
             LSTM 通过引入“门”结构实现对信息的有效存储
                                                                  “输出门”(Output gate) 用于确定细胞最终的
             和利用。典型的LSTM单元如图2所示。
                                                               输出信息。过程分为两步:首先是更新门的输出经
                 在 LSTM 结构中,“遗忘门”(Forget gate) 决定
                                                               过 sigmoid 层决定哪些信息用于输出,然后将该信
             网络从细胞 (cell) 状态中丢弃何种信息,遗忘门会
                                                               息通过 tanh 层得到最终输出。输出门的具体过程
             读取 a ⟨t−1⟩  和 x ,然后输出一个介于 0 到 1 之间的
                          ⟨t⟩
                                                               表示为
             数值给细胞状态 c       ⟨t−1⟩ ,其中 1 表示信息完全保留,
             而0表示信息完全舍去。遗忘门的输出表示为                                     O gate = σ(W O · [a ⟨t−1⟩ , x ] + b O ),  (6)
                                                                                             ⟨t⟩
                                                                                           t
                                          ⟨t⟩
                    f gate = σ(W f · [a ⟨t−1⟩ , x ] + b f ),  (2)       a  ⟨t⟩  = O gate ∗ tanh(C ),      (7)
             式(2)中,W f 为权值,a     ⟨t−1⟩  为上一个细胞输入,x      ⟨t⟩    式 (3) ∼ 式 (7) 中,W i 、W O 和 W C 为权值,b i 、b C
             为当前细胞输入,σ 表示sigmoid函数,b f 为偏置。                    和 b O 为偏置。通过 BP 算法更新参数。本文使用
                “更新门”(Update gate) 用于决定让多少新信                   LSTM方法处理一维水声时域数据。

                                                                                 y <t>

                                                                               softmax

                                  c <t֓>      *              ॷ                        c <t>
                                                                          tanh
                                                                                       a <t>
                                                              *            *
                                 a <t֓>
                                                        update           output
                                           Forget gate  gate    tanh      gate





                                         x <t>
                                                 图 2  LSTM 网络结构示意图
                                                Fig. 2 The structure of LSTM
   126   127   128   129   130   131   132   133   134   135   136