网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于Wasserstein GAN数据增强的矿物浮选纯度预测  PDF

  • 吴浩生
  • 江沛
  • 王作学
  • 杨博栋
重庆大学 机械与运载工程学院,重庆 400044

中图分类号: TP391TD951

最近更新:2024-09-30

DOI:10.11835/j.issn.1000-582X.2023.107

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

在选矿行业中,准确地预测精矿品位可以帮助工程师提前调整工艺参数,提高浮选性能。但在实际选矿过程中,采集数据存在样本量少、维度高、时序相关性复杂等问题,限制了精矿品位的预测精度。针对小样本数据的预测问题,提出了一种将Wasserstein生成对抗网络(Wasserstein generative adversarial network,Wasserstein GAN)和长短期记忆网络(long short-term memory,LSTM)相结合的时间序列数据生成模型LS-WGAN,主要利用LSTM网络来获取选矿数据中的时间相关性,再通过Wasserstein GAN网络生成与原始数据分布相似的样本进行数据增强;为了更加准确地预测精矿品位,建立了浮选预测模型C-LSTM,并基于真实泡沫浮选工艺数据实验验证了所提出方法的预测准确性。

泡沫浮选是选矿工业中应用最广泛和最重要的分离方法之[

1],其原理是利用矿物表面物理和化学性质的差异,使一种或一组矿物选择性地附着在泡沫上,从而达到矿物分离的目[2]。铁矿石的泡沫浮选阶段会产生二氧化硅残留物,它会导致产品质量下降,降低钢铁产品的韧性和可焊[3]。浮选性能受许多工艺参数的影响,例如原矿品位、矿浆浓度、矿浆粒度、矿浆pH值、药剂类型、药剂量等。因此,建立这些参数与浮选性能指标之间的映射关系,对实现浮选过程的最佳控制有重要意义。

浮选过程是一个高度复杂和动态的环境,其中的物理、化学规律尚未得到很好的解释,很难根据数学机理对浮选过程进行有效建[

4]。目前研究主要集中于基于数据建模的方式,使用机器学习方法建立工艺参数和浮选性能指标之间的映射,从而无需过多地讨论浮选过程中的机理和先验知识。Aldrich[5]建立了包含决策树和反向传播神经网络的模型对泡沫表面特征进行建模,开启了机器学习在浮选建模中的应用。此后不同的机器学习模[6]被开发并成功应用于浮选过程的建模,包括多层感[7-8]、支持向量[9]、随机森[10]等。然而传统机器学习模型结构简单,未考虑时间相关性,无法处理工业强度的复杂数据。Pu[11]提出了一种分层深度学习网络FlotationNet,将生产中的工艺信息输入到网络中去预测精矿中铁和二氧化硅的含量。此外,Pu[12]考虑到浮选工程数据的大小和时间依赖性,使用堆叠的长短期记忆网络模型对泡沫浮选过程建模,实现了铁和二氧化硅含量的准确预测。相比之下,以门控循环单元网络(gate recurrent unit,GRU)、长短期记忆(long short-term memory,LSTM)网络为代表的深度学习模型因其深层、复杂和灵活的架[13]实现了比传统机器学习方法更高的精度。但是数据的稀缺性限制了深度学习模型的性能,实验表明模型的性能和有效样本的数量呈正相[11],而在实际工业生产过程中,实时数据采集是一项费时费力的工作,采集的样本数量难以满足深度学习模型的需求。

针对样本数据少的问题,研究人员提出了数据增强方[

14-15],通过减少过拟合和扩展模型的决策边界来提高其泛化能[16],改善模型训练过程中的小样[17]和不平衡数据[18-19]问题。数据增强方法主要分为有监督和无监督2种:有监督数据增强方法包括翻转、旋转、裁剪、添加噪声、SMOTE[20]、样本配[21]、混[22]等;无监督数据增强方法包括生成对抗网[23]和自动数据增[24]。实验证明,适当的数据增强对提高模型的预测、分类精度是有效[25]。迄今为止,基于生成对抗网络的数据增强主要应用于图像领[26]和故障信号生[18-19],对浮选过程的时序数据增强研究很少。

笔者采用Wasserstein生成对抗网络(Wasserstein generative adversarial network,Wasserstein GAN)和LSTM网络建立了时间序列数据生成模型LS-WGAN,主要利用LSTM网络来获取浮选数据中的时间相关性,将提取信息输入Wasserstein GAN生成真实变化的浮选数据样本,然后建立了一种浮选纯度预测模型C-LSTM,该模型基于浮选过程中的工艺数据去预测铁精矿中二氧化硅的含量,通过对比不同模型的预测结果,实验证明了LS-WGAN数据增强的有效性和预测模型C‑LSTM的准确性。

1 相关技术

1.1 生成对抗网络

生成对抗网络是一种无监督学习算[

23],包括2个对抗博弈的生成器和判别器。它通过学习真实样本的分布以生成仿真数据。在每次训练期间,一组随机噪声z~N(0,1)输入到生成器中产生伪样本,判别器判断样本的真实性并给出分数。生成器的目的是欺骗判别器判断伪样本为真,而判别器的目的是区分伪样本和真样本,通过对抗训练使生成样本的分布接近真实样本。使用GD分别表示生成器和鉴别器,生成对抗网络的损失函数用以下公式表示:

minGmaxDV(D,G)=Ex~pdata[logD(x)]+Ez~pg[log(1-D(G(z)))] (1)

式中:pdatapg分别表示真实样本x和随机噪声z的分布;G(z)表示生成的伪样本;D(x)表示真实样本被判定为真的概率;D(G(x))表示伪样本被判定为真的概率。由于原始GAN算法存在训练不稳定和梯度消失的问题,Arjovsky[

27]提出使用Wasserstein距离来衡量真实分布与生成数据分布之间的差异,从根本上解决了模式坍塌的问题。Wasserstein GAN的损失函数定义如下:

minGmaxDLEx~pdata[D(x)]-Ez~pg[D(z)] (2)

式中,L1-Lipschitz函数,为了满足1-Lipschitz条件,Wasserstein GAN中采用权重裁剪的方法对判别器中的权重加以约束。

1.2 长短期记忆网络

循环神经网络(recurrent neural network,RNN)由于其特殊的结构,主要用于长期依赖关系建[

28]。LSTM作为一种特殊的循环网络结构,解决了RNN在长序列训练过程中的梯度消失和梯度爆炸问[29]。LSTM由细胞状态、输入门、输出门和遗忘门组成,细胞状态是LSTM的记忆单元,负责记录历史数据中的有用信息;遗忘门则负责删除和遗忘部分信息,解决了RNN存在的长期依赖问题。LSTM的结构如图1所示。

图1  LSTM的结构

Fig. 1  LSTM structure

LSTM的计算过程如下:

c˜totitft=tanhσσσWxtht-1+b (3)
ct=ftct-1+itc˜t (4)
ht=ottanhct (5)

式中:t代表第t个时间间隔;itotftxtctht分别代表输入门、输出门、遗忘门、输入数据、记忆单元和隐藏单元;σ表示sigmod激活函数;Wb分别为权重矩阵和偏置向量;tanh为双曲正切函数,整个训练过程中使用反向传播算法和优化函数来对参数进行优化。

2 基于Wasserstein GAN数据增强的浮选纯度预测

2.1 基于LS-WGAN的数据增强算法

浮选过程中的实时数据采集是一项费时费力的工作,因此,提出了一个时间序列数据生成模型LS-WGAN进行数据增强,然后通过模型C-LSTM去预测铁精矿中二氧化硅的含量。整个数据增强算法的流程如图2所示,包括4个步骤:1)数据收集和预处理;2)LS-WGAN生成模型训练;3)C-LSTM预测模型训练;4)统计分析评价。

图2  数据增强算法流程图

Fig. 2  Flowchart of data augmentation algorithm

首先对样本数据集进行预处理,将预处理后的数据集按照一定比例划分为训练集和测试集;然后建立LS-WGAN生成模型,使用全部样本数据集对LS-WGAN进行训练,直到满足训练要求;接着建立C-LSTM预测模型,使用LS-WGAN生成新的样本加入训练集中形成增强数据集,用增强数据集训练C-LSTM;最后,使用测试集测试C-LSTM,得到预测结果。

2.2 LS-WGAN生成模型

LS-WGAN模型由生成器G和判别器D组成,结构如图3所示。

图3  LS-WGAN的结构

Fig. 3  LS-WGAN structure

为了获取数据中的时间依赖性,LS-WGAN的判别器和生成器主要由LSTM层和全连接层构成。生成器G由3个LSTM层组成,每层的LSTM单元个数分别为128、128和23。生成器G接收序列z=ztt=1TT是训练数据序列的长度),在每个时间点tzt从均匀随机分布[-1,1]中独立采样,然后被送入生成器。在t时刻,LSTM层的第l层中的第i个LSTM单元的输出ui,j(l,t)被传递到(l+1)层中的第j个LSTM单位,最后一层输出生成的时间序列G(z)RT。判别器由2个LSTM层和全连接层组成,每层的LSTM单元数为128个,给定输入序列xRT,判别器输出代表真实样本和生成样本之间Wasserstein距离的标量值。

在LS-WGAN训练过程中,DG进行极小极大博弈,其价值函数V(D,G)定义为

minGmaxDV(D,G)=Ex~px(x)[D(x)]-Ez~pz(z)[D(G(z))] (6)

式中:px(x)pz(z)分别代表训练数据x和随机噪声z的分布,E表示下标中指定分布的期望值。首先从分布pz中采集m个随机序列样本{z(1),z(2),...,z(m)},再从分布px中采集m个样本{x(1),x(2),...,x(m)}。为了克服损失函数在更新过程中摆动幅度过大的问题,Wasserstein GAN的优化器使用均方根传递(root mean square prop,RMSProp)算法代替原始GAN中的随机梯度下降(stochastic gradient descent,SGD)算[

27]。判别器D的权重更新如下:

ω1m[j=1mDω(x(j))-j=1mDω(Gθ(z(j)))] (7)

式中:ωθ分别代表判别器和生成器的权重参数。

从分布pz中采集m个随机序列样本{z(1),z(2),...,z(m)},更新生成器G的权重如下:

-θ1m[k=1mDω(Gθ(z(k)))] (8)

不断重复上述训练直到生成器和判别器达到纳什平衡。

2.3 C-LSTM预测模型

浮选数据集由进出料纯度参数和工艺参数两部分组成,由于两部分数据的特征维度大小不同,设计了一个双输入深度学习模型C-LSTM。本研究中浮选厂的主要目标是将铁矿石中的二氧化硅颗粒分离出来,因此,只将铁精矿中的二氧化硅含量作为目标输出。预测模型C-LSTM的结构如图4所示。

图4  C-LSTM的结构

Fig. 4  C-LSTM structure

C-LSTM主要有2个接收数据的分支,分别用来接收进出料纯度参数和工艺参数。由于卷积神经网络(convolutional neural network,CNN)强大的特征提取和降维能力,模型中使用一维卷积神经网络对输入的高维数据进行特征提取,经过激活层进行非线性化以及最大池化层进行降维,把提取的特征信息送入LSTM层中获取特征之间的时间相关性,最终将2个分支的信息合并,经过全连接层得到目标输出。卷积层中卷积核的数量分别为16和32,激活函数用Relu,3个LSTM层中单元个数都是30。将适应性矩估计(adaptive moment estimation,Adam)算法作为C-LSTM模型训练的优化器,C-LSTM的训练损失函数如下:

loss=1ni=1nyi-y^i2 (9)

式中:yi表示目标输出;y^i表示模型的预测输出;n表示每次迭代中的样本个数。

3 实验结果

3.1 数据预处理

实验数据集由一个铁矿石浮选厂收集于2017年4月2日24点至9月9日23点,采用阳离子捕收剂反浮选法从铁矿石中分离二氧化硅颗粒。数据集包括工艺参数和进出料中铁与二氧化硅的含量2部分,其中工艺参数一共有19个,采样间隔是20 s;进出料纯度参数一共有4个,采样间隔是1 h,总共691 200条数据样本,如表1所示。在浮选厂的生产过程中,不同批次铁矿石的浮选时间均为6 h,分析数据集可知,每1 080条数据(间隔6 h)中的进料纯度相同,而出料纯度按照隔1 h变化一次。因此,根据铁矿石批次的不同,将整个数据集划分为640个样本,将其中前90%的样本(576个)作为预测模型的训练集,剩下的10%(64个)作为测试集。每个样本的大小为1 080×23维,其中1 080是每个批次数据的长度,23是样本特征维度。为了避免数据中不同特征的量纲对预测结果的影响,并加快训练收敛速度,对数据进行归一化处理如下:

x'=x-xminxmax-xmin (10)

式中:x表示待归一化的数据,xminxmax分别表示x中的最小值和最大值,x'表示经过归一化处理后的值。

表1  浮选数据集介绍
Table 1  Flotation dataset
参数类型参数及单位释义采样间隔

进出料

纯度

%Iron Feed,% 原矿石铁含量(质量分数) 1 h
%Silica Feed,% 原矿石二氧化硅含量(质量分数)
%Iron concentrate,% 精矿铁含量(质量分数)
%Silica concentrate,% 精矿二氧化硅含量(质量分数)

浮选

工艺

参数

Starch Flow,m3h-1 淀粉抑制剂用量 20 s
Amina Flow,m3h-1 胺类捕收剂用量
Ore Pulp Flow,t∙h-1 矿浆流量
Ore Pulp pH[0~14] 矿浆pH值
Ore Pulp Density,kg∙cm-3 矿浆浓度
Flotation Air Flow 1-7,Nm3h-1 浮选槽1~7中的空气流量
Flotation Level 1-7,mm 浮选槽1~7中的泡沫层厚度

3.2 训练参数设置及评价指标

LS-WGAN训练的批次大小设置为64,生成器和判别器的学习率统一设置为0.000 05。C-LSTM的训练学习率设置为0.000 1,其批次大小和训练次数分别设置为64和200。实验基于Tensorflow 2.0深度学习框架,选取显卡Nvidia GTX3070于Windows 10平台进行训练。为了验证预测模型的精度,通过平均绝对误差(mean square error,MAE)和均方根误差(root mean square error,RMSE)评价模型的预测性能,MAE衡量模型预测值和真实值之间的平均绝对误差,RMSE衡量了预测值与真实值之间的均方根误差,计算公式如下。

MAE=1ni=1nyi-y^i (11)
RMSE=1ni=1nyi-y^i2 (12)

式中:y^i表示第i个真实值;yi表示第i个预测值;n表示样本的个数。

3.3 实验结果与分析

首先将原始数据集中的640个样本全部用于生成模型LS-WGAN的训练,模型的训练损失值变化如图5所示,判别器和生成器的损失值随迭代次数增加逐渐减少至收敛。在前500次训练中,生成器和判别器的训练损失值上下波动较大。在超过800次训练后,两者的损失值开始逐渐减少直到收敛。在第1 500次训练时,生成器和判别器的损失已经收敛,Wasserstein距离稳定在0左右,表明生成样本与真实样本分布之间的差异已经很小。

图5  LS-WGAN的训练损失曲线

Fig. 5  The training loss curve of LS-WGAN

使用训练集对预测模型C-LSTM进行训练,为了更加直观地评估C-LSTM的预测性能,将模型对测试集的预测值和真实值逐点比较,结果如图6所示。可以看出C-LSTM对二氧化硅含量的预测值与真实性非常接近,预测的平均绝对误差和均方根误差分别是0.42%和0.61%。在整个浮选期间,铁精矿中二氧化硅含量的变化范围为0.6%~5.365%。

图6  实际值与预测值相比较

Fig. 6  Comparison of actual and predicted values

为了证明LS-WGAN数据增强的有效性,分别用原始数据集和增强数据集训练C-LSTM。增强数据集以原始数据集为基础,数据集设置如表2所示,生成样本量以50为步长从0增大到900。本实验中对比了常用的4种深度学习模型,即LSTM、1D-CNN以及FNN和C-LSTM,其中LSTM模型由堆叠的LSTM层组成,1D-CNN模型由一维卷积神经网络层组成,FNN模型由全连接层组成。4种模型训练的损失函数、批次大小、优化器、学习率和训练次数均相同,训练策略为:将每个增强数据集划分为训练集(90%)和测试集(10%),把生成样本全部加入训练集,而测试集均为64个相同的真实样本。

表2  数据集设置
Table 2  Dataset settings
数据集真样本个数伪样本个数数据集真样本个数伪样本个数数据集真样本个数伪样本个数
A 640 0 H 640 350 O 640 700
B 640 50 I 640 400 P 640 750
C 640 100 J 640 450 Q 640 800
D 640 150 K 640 500 R 640 850
E 640 200 L 640 550 S 640 900
F 640 250 M 640 600
G 640 300 N 640 650

实验结果如表3所示,C-LSTM、LSTM、1D-CNN和FNN模型在原始数据集上的预测平均绝对误差分别是0.42%、0.46%、0.63%和0.59%,均方根误差分别是0.61%、0.62%、0.87%和0.83%。1D-CNN和FNN的预测精度低于LSTM和C-LSTM,这是因为FNN未考虑数据中的时间相关性,1D-CNN适合处理较短的时间序列数据,而C-LSTM和LSTM则具有较强的长时序数据处理能力。由于C-LSTM首层利用卷积神经网络对输入的高维工艺参数进行特征提取和降维,不仅对原始数据起到了滤波和降维的作用,而且还增大了LSTM的长时间序列处理能力。因此,C-LSTM具有比LSTM模型更好的预测性能。

表3  4种模型预测结果对比
Table 3  Comparison of prediction results of four models
数据集MAE/%RMSE/%
C-LSTMLSTM1D-CNNFNNC-LSTMLSTM1D-CNNFNN
A 0.42 0.46 0.63 0.59 0.61 0.62 0.87 0.83
B 0.38 0.45 0.53 0.49 0.54 0.62 0.78 0.75
C 0.38 0.40 0.51 0.48 0.56 0.61 0.76 0.73
D 0.32 0.37 0.47 0.45 0.48 0.53 0.71 0.69
E 0.38 0.35 0.47 0.43 0.58 0.51 0.72 0.68
F 0.34 0.34 0.44 0.40 0.55 0.54 0.70 0.66
G 0.29 0.30 0.39 0.37 0.46 0.50 0.65 0.62
H 0.28 0.27 0.4 0.37 0.48 0.47 0.63 0.62
I 0.26 0.27 0.37 0.36 0.48 0.44 0.64 0.61
J 0.28 0.28 0.37 0.36 0.48 0.46 0.65 0.60
K 0.29 0.31 0.41 0.40 0.51 0.54 0.67 0.65
L 0.33 0.36 0.38 0.39 0.55 0.63 0.67 0.65
M 0.25 0.27 0.36 0.35 0.50 0.47 0.64 0.62
N 0.27 0.26 0.35 0.32 0.47 0.50 0.65 0.62
O 0.27 0.27 0.38 0.35 0.49 0.50 0.66 0.63
P 0.23 0.25 0.32 0.29 0.49 0.50 0.63 0.59
Q 0.23 0.24 0.35 0.34 0.43 0.45 0.63 0.62
R 0.23 0.23 0.36 0.33 0.49 0.50 0.64 0.62
S 0.23 0.22 0.34 0.32 0.45 0.43 0.62 0.61

C-LSTM、LSTM、1D-CNN以及FNN的预测误差变化如图7所示,不同模型的预测误差均随着数据增强而逐渐减少。在生成样本个数达到900个时,平均绝对误差分别是0.23%、0.22%、0.34%和0.32%,均方根误差分别是0.45%、0.43%、0.62%和0.61%。实验结果证明了LS-WGAN数据增强的有效性,模型的预测性能和样本的数量呈正相关,收集更多的有效样本是提高模型性能最直接和最有效的方法。

图7  4种预测模型的平均绝对误差和均方根误差

Fig. 7  The MAE and RMSE of four prediction models

4 结束语

在实际选矿生产过程中,通过建立浮选工艺参数和浮选性能指标之间的映射可以帮助企业进行工艺参数优化,提高浮选性能。但是实时采集的数据量通常不能满足需求,数据的稀缺性限制了深度学习模型的性能。笔者提出了一种将Wasserstein生成对抗网络和长短期记忆网络相结合的时间序列数据生成模型LS‑WGAN,对浮选数据集进行数据增强。基于一个铁矿石浮选厂的工艺数据,实验证明了LS-WGAN数据增强的有效性和C-LSTM模型预测的准确性。但是随着生成样本增加,模型的预测误差没有持续下降到零,并且在减小的过程中存在波动,这可能是由LS-WGAN模型的生成样本与真实样本仍然存在差距引起的。未来的工作应该集中于改进生成模型以生成更高质量的样本。总之,提出的数据生成模型和预测模型将促进深度学习方法在浮选过程中的应用,并有助于实现浮选效率的优化和性能的提升。

参考文献

1

Shean B J, Cilliers J J. A review of froth flotation control[J]. International Journal of Mineral Processing, 2011, 100(3/4): 57-71. [百度学术] 

2

Wang G C, Nguyen A V, Mitra S, et al. A review of the mechanisms and models of bubble-particle detachment in froth flotation[J]. Separation and Purification Technology, 2016, 170: 155-172. [百度学术] 

3

Fan G X, Wang L G, Cao Y J, et al. Collecting agent–mineral interactions in the reverse flotation of iron ore: a brief review[J]. Minerals, 2020, 10(8): 681. [百度学术] 

4

Vieira S M, Sousa J M C, Durão F O. Fuzzy modelling strategies applied to a column flotation process[J]. Minerals Engineering, 2005, 18(7): 725-729. [百度学术] 

5

Aldrich C, Moolman D W, Gouws F S, et al. Machine learning strategies for control of flotation plants[J]. IFAC Proceedings Volumes, 1995, 28(17): 99-105. [百度学术] 

6

McCoy J T, Auret L. Machine learning applications in minerals processing: a review[J]. Minerals Engineering, 2019, 132: 95-109. [百度学术] 

7

Nakhaei F, Mosavi M R, Sam A, et al. Recovery and grade accurate prediction of pilot plant flotation column concentrate: neural network and statistical techniques[J]. International Journal of Mineral Processing, 2012, 110/111: 140-154. [百度学术] 

8

Chelgani S C, Shahbazi B, Rezai B. Estimation of froth flotation recovery and collision probability based on operational parameters using an artificial neural network[J]. International Journal of Minerals, Metallurgy, and Materials, 2010, 17(5): 526-534. [百度学术] 

9

Chehreh Chelgani S, Shahbazi B, Hadavandi E. Support vector regression modeling of coal flotation based on variable importance measurements by mutual information method[J]. Measurement, 2018, 114: 102-108. [百度学术] 

10

Shahbazi B, Chehreh Chelgani S, Matin S S. Prediction of froth flotation responses based on various conditioning parameters by Random Forest method[J]. Colloids and Surfaces A: Physicochemical and Engineering Aspects, 2017, 529: 936-941. [百度学术] 

11

Pu Y Y, Szmigiel A, Chen J, et al. FlotationNet: a hierarchical deep learning network for froth flotation recovery prediction[J]. Powder Technology, 2020, 375: 317-326. [百度学术] 

12

Pu Y Y, Szmigiel A, Apel D B. Purities prediction in a manufacturing froth flotation plant: the deep learning techniques[J]. Neural Computing and Applications, 2020, 32(17): 13639-13649. [百度学术] 

13

Montanares M, Guajardo S, Aguilera I, et al. Assessing machine learning-based approaches for silica concentration estimation in iron froth flotation[C]//2021 IEEE International Conference on Automation/XXIV Congress of the Chilean Association of Automatic Control (ICA-ACCA), March 22-26, 2021, Valparaíso, Chile. IEEE, 2021: 1-6. [百度学术] 

14

Wen Q S, Sun L, Yang F, et al. Time series data augmentation for deep learning: a survey[C]//Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, August 19-27, 2021, Montreal, Canada. California: International Joint Conferences on Artificial Intelligence Organization, 2021: 4653-4660. [百度学术] 

15

Shorten C, Khoshgoftaar T M, Furht B. Text data augmentation for deep learning[J]. Journal of Big Data, 2021, 8: 101. [百度学术] 

16

Shorten C, Khoshgoftaar T M. A survey on image data augmentation for deep learning[J]. Journal of Big Data, 2019, 6: 60. [百度学术] 

17

Olson M, Wyner A J, Berk R. Modern neural networks generalize on small data sets[C]//Proceedings of the 32nd International Conference on Neural Information Processing Systems. New York: ACM, 2018: 3623-3632. [百度学术] 

18

Shao S Y, Wang P, Yan R Q. Generative adversarial networks for data augmentation in machine fault diagnosis[J]. Computers in Industry, 2019, 106: 85-93. [百度学术] 

19

Zhao B X, Yuan Q. Improved generative adversarial network for vibration-based fault diagnosis with imbalanced data[J]. Measurement, 2021, 169: 108522. [百度学术] 

20

Chawla N V, Bowyer K W, Hall L O, et al. SMOTE: synthetic minority over-sampling technique[J]. Journal of Artificial Intelligence Research, 2002, 16: 321-357. [百度学术] 

21

Inoue H. Data augmentation by pairing samples for images classification[EB/OL]. 2018 [2022-10-05]. https://arxiv.org/abs/1801.02929 [百度学术] 

22

Zhang H Y, Cisse M, Dauphin Y N, et al. Mixup: beyond empirical risk minimization[EB/OL]. 2017 [2022-10-05]. https://arxiv.org/abs/1710.09412 [百度学术] 

23

Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial networks[J]. Communications of the ACM, 2020, 63(11): 139-144. [百度学术] 

24

Cubuk E D, Zoph B, Mane D, et al. AutoAugment: learning augmentation policies from data[EB/OL]. 2018 [2022-10-05]. https://arxiv.org/abs/1805.09501 [百度学术] 

25

Fekri M N, Ghosh A M, Grolinger K. Generating energy data for machine learning with recurrent generative adversarial networks[J]. Energies, 2019, 13(1): 130. [百度学术] 

26

Wang J L, Yang Z L, Zhang J, et al. AdaBalGAN: an improved generative adversarial network with imbalanced learning for wafer defective pattern recognition[J]. IEEE Transactions on Semiconductor Manufacturing, 2019, 32(3): 310-319. [百度学术] 

27

Arjovsky M, Chintala S, Bottou L. Wasserstein generative adversarial networks[C]//Proceedings of the 34th International Conference on Machine Learning: PMLR 70, August 6-11, 2017, Sydney, NSW, Australia. New York: ACM, 2017: 214-223. [百度学术] 

28

Elman J L. Finding structure in time[J]. Cognitive Science, 1990, 14(2): 179-211. [百度学术] 

29

Gers F A, Schmidhuber J, Cummins F. Learning to forget: continual prediction with LSTM[J]. Neural Computation, 2000, 12(10): 2451-2471. [百度学术]