Page 64 - 《应用声学)》2023年第5期
P. 64
956 2023 年 9 月
主要思想是使用对抗网络来提高数据的质量。生成 对抗网络 (Wasserstein generative adversarial net-
模型经过训练从随机噪声向量 Z 中生成真实的合 work, WGAN)和辅助分类器生成对抗网络 (Auxil-
成数据 S generated = G(Z),并试图以假乱真判别模 iary classifier generative adversarial network, AC-
型使得 S generated 不会被识别为生成样本。判别模 GAN)。本文采用 ACGAN 用于数据扩充研究。与
型是将生成模型生成的真实训练数据和伪造样本 常规 GAN 相比,ACGAN 能够生成高质量的数据,
作为输入,然后对其训练以区分生成的样本和真实 同时提供标签信息。
数据。判别模型输出特定样本对应于可能的概率。 1.2 CNN
判别模型的损失函数L定义为
CNN是前反馈神经网络,其是人工神经网络的
[lg p(s= real|S real )] 一种特殊结构。与完全连接 (Fully connected, FC)
L = E S∼P data
神经网络不同,每层特征映射的每个神经元仅与
+ E Z∼P (Z) [lg p(s= generated |S generated )]
CNN 前一层的一小部分神经元稀疏连接。CNN 有
[lg(D(S))]
= E S∼P data
3个主要层:(1) 卷积层;(2) 池化层;(3) FC层。
+ E Z∼P (Z) [lg(1 − D(G(Z)))] , (1)
卷积层应用一定数量的滤波器来获得输入图
其中,P data 表示真实数据分布,P(Z)表示噪声向量 像的特征映射。假设卷积层数据为 X ∈ R A×B ,其
Z 上的先验分布,D(S) 表示S 来自真实数据而非生 中A和B 是输入数据的维数,卷积层输出可计算为
表示真实数据分布P data 中
成数据的概率,E S∼P data C cn = f(X ∗ W cn + b cn ), (3)
S 的期望值,E Z∼P (Z) 表示噪声采样 Z 的期望值。
其中,* 是卷积算子,C cn 是卷积层的第 cn 个特征映
对于判别器,训练的目的是最大化损失函数,这意味
射,cn为滤波器的数量,X 代表输入数据矩阵,W cn
着在正确的样本源下最大似然数。对于生成模型,
是当前层第 cn 个滤波器的权重矩阵,第 cn 个偏差
训练的目的是最小化等式 (1) 的第二项,以混淆判
为b cn ,激活函数 f 表示结果,通常是整流线性单元、
别模型。因此,GAN的目标可表示为
双曲正切或sigmoid函数。
Goal = arg min max L(G, D). (2) 池化层是降低输入特征维数的下采样层。CNN
G D
最常用的最大池化函数中,激活可计算为
基于目标函数更新模型参数可以通过随机梯
度下降训练 GAN 并实现判别模型和生成模型的正 P cn = max C cn , (4)
C cn ∈S
确配对。
其中,P cn 是池化层的输出,S 是池块的大小。池化
块的所有 S 将组合在一起作为池化层的输出,这样
ᄾࠄὝor ၷੇὝ
输出在两个空间维度上都会小S 倍。
然后,在几个交替的卷积层和池层之后,有一
ѿവی(D)
个完全连接的层,最后,按照FC层计算分类。
本文选择 keras 来实现 CNN,其中选择一个隐
S real S generated =G(Z) 藏层,然后使用softmax 回归作为最后一层,以实现
快速计算和精确结果。CNN结构如图2所示。
ၷੇവی(G)
Ѭዝᣥѣ
ŀ
٪ܦՔ᧚(Z) Ł
Ԅ ĀĀ
ሥ ӑ Л
图 1 GAN 架构 Ԅ ĀĀ ᤌ
ሥ ӑ ܳ˔ ଌ
Fig. 1 Typical architecture of GAN Ԅሥ
ˁ
ӑࡏ
当前,已基于原始 GAN 生成多种变体,如深度 Ԅሥࡏ ӑࡏ Ԅሥࡏ Ԅሥࡏ TPGUNBYࡏ
卷积生成对抗网络 (Deep convolutional generative 图 2 CNN 结构图
adversarial network, DCGAN)、Wasserstein 生成 Fig. 2 The structure diagram of CNN