网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于深度置信网络的道岔故障智能诊断方法  PDF

  • 司涌波
  • 张国瑞
  • 陈光武
  • 魏宗寿
1. 兰州交通大学 自动控制研究所,兰州 730070; 2. 甘肃省高原交通信息及控制重点实验室,兰州 730070

中图分类号: U284

最近更新:2023-07-30

DOI:10.11835/j.issn.1000-582X.2023.07.008

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

传统的道岔故障诊断方法往往依赖于复杂的信号处理过程以及丰富的专家经验,需要对信号进行精确的分段,过程繁琐,不利于现场使用。采用粒子群算法(PSO)优化的深度置信网络(DBN)的方法,直接对道岔功率原始数据提取特征,利用受限玻尔兹曼机(RBM)逐层拟合数据特征同时实现对数据的降维。然后采用极限学习机(ELM)对故障进行分类,提高了诊断的速度。研究结果表明:与PSO优化的支持向量机(SVM)方法相比,准确率提升了4%,达到了96%,所用时间也大大减少。

近年来,随着中国高速铁路的飞速发展,铁路信号设备的状态识别和智能故障诊断方法成为一项亟需解决的问题。S700K高速转辙机作为基础设备中最重要但故障频率最高的设备,其状态将直接影响铁路运行安全和效率。

据统计,道岔转换设备故障占信号设备故障总数的40%以[

1]。现有的故障诊断方法主要依靠工作人员观察微机监测系统所采集的道岔动作电流或功率曲线来实现故障识[2],人为因素大,效率低。

目前国内外在道岔故障的诊断方面已经有了相应的研究。王瑞峰[

3]提出了一种基于灰色神经网络的方法来对建立的故障样本库进行识别诊断。许庆阳[4]提出了一种基于隐式马尔科夫模型诊断方法,利用统计的方法提取道岔状态的时域和值域特征,然后通过与不同状态下建立的隐式马尔可夫模型进行匹配诊断。张钉[5]提出了一种基于小波分解的方法提取道岔功率信号的高频和低频特征,然后利用遗传算法优化的BP神经网络完成诊断。刘新发[6]将提取到的时域特征建立故障的模糊相似矩阵,然后进行特征聚类,达到诊断的目的。钟志旺[7]通过提取故障文档中的特征词,利用支持向量机(support vector machine,SVM)对故障文档进行故障分类。

故障诊断的关键在于特征提取,高质量的特征提取可以更好地拟合原始数据的特征。由以上研究可知,目前的道岔故障诊断普遍采用统计学、信号处理等方法来提取故障数据的特征,然后利用神经网络、SVM、聚类等方法来诊断故障。这些方法通常存在以下问题:1)特征提取的过程往往比较繁琐,要对道岔的运行周期分段提取特征,整个过程必须依赖于丰富的先验知识;2)仅仅选取一些时域和值域等一些浅层统计特征不足以从本质上反映道岔的状态,并且可能会遗漏重要的特征信息;3)提取的特征维数较高,仍然需要对提取的结果进行降维,增加了过程的复杂度;4)算法适应性差,针对不同类型或同一类型但不同应用场景的道岔设备,需要采用不同的方法有针对性的提取特征。

笔者采用了一种基于深度置信网络(deep belief networks,DBN)的故障诊断方法,将传统的人为设定特征参数的方式转变为从原始数据中自动对道岔故障特征进行深度学习的方法。利用受限玻尔兹曼机(restricted Boltzmann machine,RBM)将原始数据逐层抽取成更深层次的机器特征,最大可能地拟合原始数据的特征,同时DBN利用其特殊的网络结构实现了对原始数据的降维,实现特征提取与降维一体化。然后将自动提取的特征输入极限学习机(extreme learning machine,ELM)进行分类,得出诊断结果。与传统的神经网络分类方法相比,ELM的速度和泛化性能更好,且不易陷入局部最优解,更适合用于对现场故障的分类。利用提出的PSO-DBN-ELM的方法诊断微机监测系统上采集的真实的故障数据,取得了良好的效果。

1 S700K转辙机状态分析

转辙机的运行状态可以通过其输出的推拉力来体现,且推拉力与其工作功率直接相[

8]。因此通过分析功率曲线就可以判断其工作状态。

1.1 S700K转辙机正常状态分析

正常工作的S700K转辙机的功率曲线如图1所示。刚开始的启动解锁阶段阻力较大,在0.15 s左右达到功率峰值。随着道岔开始动作,功率快速下降并稳定在0.5~0.8 kW范围内,之后进入锁闭阶段。正常状态下,转换和锁闭阶段运行相对平稳。锁闭阶段过后,功率值会逐渐的下降,进入表示阶段,但是由于继电器的缓放作用,不会立即下降至0 kW,大约在0.2 kW左右,表示电路给出表示后,功率下降为0。

图1  S700K转辙机正常功率曲线

Fig. 1  Normal power curve of S700K switch machine

1.2 S700K道岔故障状态

从微机监测的数据以及故障日志中分析整理出S700K转辙机8种常见的故障状态,对应的功率曲线如图2所示。

图2  8种常见故障的功率曲线图

Fig. 2  Power curve of eight common faults

2 DBN网络及训练过程

2.1 DBN网络概念

DBN[

9]是一个包含多层隐含层的神经网络模型。DBN的学习过程分为2步:第1步利用无监督学习,从原始数据中逐层提取特征;第2步借助监督学习微调整个网络的参数。DBN能够通过一系列的非线性变换自动从原始数据中提取由低层到高层、具体到抽象的特[10]。相比传统的故障诊断方式,基于DBN的方法有着明显的优势,2种方法的对比如图3所示。

图3  传统故障诊断方法和基于DBN的方法

Fig. 3  Traditional fault diagnosis method and DBN method

2.2 DBN网络结构

DBN网络是由RBM堆叠形成的多层感知器神经网络。采用经典的3层RBM堆叠的DBN网络,如图4所示。

图4  DBN网络结构

Fig. 4  DBN network structure

2.3 DBN网络训练过程

DBN网络的训练过程包括各层RBM的无监督的预训练以及有监督的微调。RBM的结构如图5所示。

图5  RBM网络结构

Fig. 5  RBM network structure

图5中变量的定义:mn分别是可视层和隐含层的节点数,层间权重矩阵为WRn×m

可视层状态向量:v=v1, v2, ..., vi, ..., vmTRm×1 , (1)
可视层偏执向量:c=c1, c2, ..., ci, ..., cmTRm×1 , (2)
隐含层状态向量:h=h1, h2, ..., hj, ..., hnTRn×1 , (3)
隐含层偏执向量:b=b1, b2, ..., bj, ..., bnTRn×1 (4)

RBM是一种基于能量的模[

11],对于一组给定的道岔状态(v, h)其能量函数为

Eθv, h=-i=1ncivi-j=1mbjhj-i=1nj=1mhjwjivi , (5)

式中,θ是RBM的参数{Wcb},转化为矩阵形式

Eθv, h=-cTv-bTh-hTWv (6)

将能量函数转化为道岔状态v, h的联合概率分布

Pθv, h=1Zθe-Eθv, h , (7)

其中:

Zθ=v, he-Eθv, h , (8)

称作归一化因子,也叫做配分函数(partition function)。

对于实际的问题,我们关心的往往是输入原始数据v的边缘概率分布Pθv,也叫做似然函数(likelihood function)。

Pθv=hPθv, h=1Zθhe-Eθv, h , (9)

同理:

Pθh=vPθv, h=1Zθve-Eθv, h (10)

联合概率Pθv, h和边缘概率PθvPθh已知,根据贝叶斯公式,可求得条件概率

Pθhj=1v=ϕi=1mwjivi+bj , (11)
Pθvi=1h=ϕj=1nwjihj+ci , (12)

式中,ϕ指的是激活函数,采用sigmoid函数。

若道岔的功率原始数据组成的训练样本为:S=v1, v2, ..., vns,其中ns指的是训练样本的个数,vl=v1l, v2l, ..., vmll=1, 2, …, ns。对于S中任意样本vl,最大似然函数为

Lθ,s=Pθvl , (13)

为了方便求解,两边同时取对数

lnLθ,s=lnPθvl (14)

训练RBM的最终目的是为了得到参数θ=wji, c, b,然后利用θ去更新网络的3个参数。以wji的求解为例,利用梯度下降法求出

lnLθ,sθ=lnPvlθ (15)

进一步求得

lnLθ,swji=Phj=1vlvil-vPvPhj=1vlvi (16)

由于式(16)中第二项的计算量太大,不便直接计算,所以利用k步对比散度算[

12](contrastive divergence,CD)求其近似值。

利用(11)(12)中2个条件概率分别在第t步时进行吉布斯抽样,可求出:h(t-1)vtt=1, 2, …, k。利用k步采样得到的vk来近似估计(16)中第二项中的期望项,这样一来,就可求得

lnPvlwjiPhj=1vlvil-Phj=1vkvik (17)

然后利用式(18)wji进行更新

Δwji=Δwji+lnPvlwji (18)

同理,参数cibj的更新过程和wji的类似,不再赘述。综上,RBM的参数更新的训练过程主要包含5个步骤。

Step1   将原始数据v归一化之后输入到第1层RBM的可视层v1,训练并调整v1h1之间的权重和偏置参数并得出h1开启的概率Pvh1

Step2   网络参数初始化。确定网络层数,初始化RBM层的权重和偏置。

Step3  h1重构v2,作为第2层RBM的输入。同Step1,训练并调整v2h2之间的权重和偏置参数并得出h2开启的概率Ph2h1

Step4   重复Step1和Step2,直到前两层RBM预训练完成,至此无监督的特征学习过程完成。

Step5   将样本标签数据y加入到h2中,用(yh2)重构v3,作为第三层RBM的输入,利用BP算法对整个网络每层的权重和偏置进行反向微调,监督学习完成整个DBN网络的训练。

3 基于DBN算法的故障诊断方法

采用的故障诊断方法分为以下4个步骤:

Step1   转辙机原始功率数据归一化处理。

Step2   数据输入,利用PSO算法优化每层RBM神经元的个数,建立DBN。

Step3   利用DBN对功率数据自动提取特征。

Step4   将网络提取的特征输入ELM进行预测分类,诊断结果输出。

3.1 PSO优化算法

由于隐含层的神经元个数对特征提取的质量和速度影响较大,采用利用粒子群优化算法(particle swarm optimization,PSO[

13],在指定的范围[Hmin, Hmax]内对每层RBM神经元的个数进行优化。通过改变范围,发现每层的隐含节点在[1, 15]内寻优时,已经能达到较好准确率,如果继续扩大搜寻范围,准确率并没有明显的提升,但是消耗的时间会明显增加。在[1, 25]内虽然测试集准确率达到100%,但是相比[1, 15]时间增加了近50%,考虑到实际的数据样本较大以及实时性的问题,最终选取在区间[1, 15]的优化结果。隐含层神经元个数优化结果如表1所示。其中H1H2H3代表PSO优化的3层RBM的隐含层的最优节点数,t代表PSO算法所用时间,trainAcc和testAcc分别代表训练集和测试集的准确率。

表1  隐含层神经元个数与准确率的关系
Table 1  The relationship between the number of neurons in the hidden layer and the accuracy
优化区间H1H2H3ttrainAcc/%testAcc/%
1~5 5 3 5 5.63s 57.5 62
1~10 8 4 10 5.81s 76.5 74
1~15 10 6 14 8.31s 98.0 96
1~20 15 15 17 8.54s 98.5 96
1~25 22 23 21 12.4s 99.0 100

3.2 基于DBN的特征提取方法

数据集来自微机监测采集的真实数据,共250条,其中正常状态50条,8种故障状态各25条,每类各自取20%作为测试集,剩下的做训练集。S700K型转辙机动作一次大约需要6.5 s时间,而微机监测系统的以40 ms为采样频率进行采样,因此原始功率数据为162维。数据组成如表2所示。

表2  数据集组成
Table 2  Composition of data set
数据数据大小
原始数据 250×162
训练集 200×162
测试集 50×162

经过3层RBM的特征抽取以及BP算法的反向微调之后,道岔功率原始数据经过DBN特征提取之后得到的14维特征,从原始数据的每类状态中选取一个作为代表,特征提取结果如表3所示。ID是各个状态的编号。

表3  DBN网络特征提取结果
Table 3  Feature extraction results of DBN network
ID特征1特征2特征3特征4特征5特征6特征7特征14
1 0.602 929 0.570 384 0.619 140 0.554 068 0.526 342 0.530 688 0.589 821 0.565 637
2 0.594 544 0.556 673 0.603 014 0.538 962 0.524 628 0.519 579 0.583 409 0.554 929
3 0.553 400 0.509 959 0.537 609 0.491 562 0.514 099 0.484 331 0.548 390 0.514 437
4 0.601 131 0.565 632 0.614 530 0.548 556 0.526 070 0.526 847 0.588 407 0.562 459
5 0.587 817 0.540 709 0.584 230 0.517 950 0.523 726 0.504 030 0.577 866 0.542 230
6 0.586 026 0.537 923 0.580 529 0.514 465 0.523 365 0.501 547 0.576 291 0.539 890
7 0.595 655 0.554 530 0.601 728 0.535 074 0.525 144 0.516 961 0.584 093 0.553 897
8 0.583 090 0.529 033 0.570 751 0.503 417 0.523 032 0.492 806 0.574 328 0.533 364
9 0.602 111 0.571 302 0.618 996 0.555 321 0.526 038 0.531 526 0.589 072 0.565 876

3.3 特征提取结果可视化

尽管通过DBN提取的特征已经降低至较低的维度,但是如果要将特征提取的效果进行可视化分析,还需要将特征进行二次降维,便于直观的展示DBN特征提取的效果。

LLE[

14]局部线性嵌入(locally linear embedding,LLE)是一种无监督的降维方法,可以在保持数据领域关系的情况下实现对数据的降维。针对数据的特点,选取了此方法对特征进行降维。利用LLE将特征降至二维和三维的空间内,并对降维后的数据进行归一化处理,可视化的结果如图7所示,原始数据的分布情况如图6所示,其中F0F8分别代表正常和8种故障状态。

图6  原始数据三维分布

Fig. 6  Three dimensional distribution of original data

图7  三维特征可视化

Fig. 7  3D feature visualization

图6中可以看出,原始数据中虽然几类也大体分布在一起,但是不同状态之间重合的点很多,不便于直接分类。从图7中可以看出,经过DBN自动提取的道岔的9种状态特征除了故障4和故障5有个别重合外,其他的状态被很清晰的区分开,证明了DBN网络很好的特征提取能力。

3.4 基于极限学习机的分类方法

ELM是一种单隐含层前馈神经网络算法,相对于传统神经网络的训练方法,训练速度特别[

15⁃16]。与传统的SVM和反向传播神经网络(back propagation,BP)分类方法相比,ELM具有参数调整简单、不易陷入局部最小值、学习速度快等优势。并且ELM作为分类器可以很好地弥补DBN的特征提取消耗时间相对较长的特点。

将提取的特征输入到ELM中进行分类。假设有N个学习样本NXi, ti,其中:

输入样本:Xi=x,i1 x,i2 ...., xinTRn ; (19)
样本标签:ti=t,i1 t,i2 ...., timTRm (20)

则对于一个有L层隐含层的ELM网络,网络的诊断结果可以表示为

i=1LβigWiXj+bi=Oj,j=1, ..., N (21)

其中,g(x)是激活函数;

Wi=w,i1 w,i2 ...., winT (22)

是输入的权重矩阵,βi输出的权重,bi是第i个隐含层神经元的偏置。网络的学习目标是使得输出的误差最小,即

i=1NOj-tj=0 (23)

训练ELM的过程就是寻找βiWibi使得输出的结果尽可能的接近样本的分类标签tj,即

i=1LβigWiXj+bi=tj,j=1, ..., N (24)

将其表示成矩阵:Hβ=T,其中矩阵H由激活函数的结果组成,矩阵T是训练集样本标签组成的期望输出矩阵。在ELM算法中,Wibi被随机确定,隐含层的输出矩阵H就可以被确定,进一步求得隐含层网络的输出权值:β^=HT

ELM将网络的未知参数求解转变成矩阵求逆的问题,加快了模型的训练速度。之后只需要确定隐含层的神经元个数L之后,网络就可以开始训练。由于L对ELM的训练时间和分类准确率都有较大影响,为了确定最佳的L,对L和测试集的准确率之间的关系进行分析,如图8所示。

图8  L对测试集准确率的影响

Fig. 8  Effect of L on the accuracy of test set

图8可以看出,当L=13时,测试集的准确率第1次到达100%,随着L的继续增大,准确率基本稳定在95%~100%之间,但是考虑到L对ELM速度的影响,最终选取13作为ELM中隐含层神经元的个数。

4 实验仿真

4.1 诊断结果仿真

分别对训练集和测试集的分类准确率进行仿真分析,训练集的分类结果如图9所示,测试集的分类结果如图10所示。其中横坐标代表样本数,纵坐标代表了正常和8种故障类别。

图9  训练集分类结果

Fig. 9  Classification results of training set

图10  测试集分类结果

Fig. 10  Classification results of test set

图10可以看出,故障4和故障5之间有部分点分类错误,错误诊断为他类的概率分别为0.2,其他故障的诊断准确率均为100%,分类结果和3.3中的DBN提取的特征可视化结果相符。

4.2 PSO-统计特征-SVM诊断方法对比

首先对PSO-DBN-ELM、PSO-统计特征-SVM这2种方法的模型训练时间和分类器所用时间做了对比,如表4所示。方法一采用DBN提取原始数据的特征建立特征矩阵。方法二采用文献[

4]中的方法,将道岔功率数据按照动作过程分成4段,每段提取均值、方差、偏度等10种统计特征建立特征矩阵,然后使用PSO-SVM方法进行分类,在迭代次数maxgen=100,学习因子c1=1.5,c2=1.7,v=3,pop=20的初始条件下,PSO参数优化结果:惩罚因子cbest=7.563,核函数参数gbest=0.286。

表4  两种模型所用时间对比
Table 4  Time used by the two models
道岔故障诊断方法模型训练所用时间t/s分类器所用时间t/s
PSO-DBN-ELM 10.31 0.29
PSO-SVM 30.33 0.80

表4可以看出,DBN-ELM方法的训练时间相对其他2种方法,模型训练的速度大大提升,相比采用统计方法提取的时域特征,利用DBN网络在特征提取的同时对特征进行了降维,因此速度大大提升。并且ELM作为分类器,在数据集不是很大的情况下仍然比SVM分类器快了0.61 s,证明了ELM分类器的快速性。

然后又对2种方法的测试集准确率做对比,对比结果如表5所示。

表5  两种模型的测试集准确率比较
Table 5  Test set accuracy of the two models
道岔故障诊断方法测试集准确率/%
PSO-DBN-ELM 96
PSO-SVM 92

表5可以看出,基于DBN方法的准确率相比PSO-SVM方法准确率提升了4%,进一步证明了DBN的特征提取能力。

综上可知,PSO-DBN-ELM模型优于PSO-统计特征-SVM模型,重要的原因在于特征提取的效果,前者采用的是DBN提取的深度抽象特征,后者采用的是人工选取的时域特征,特征提取效果差异导致2个模型的分类效果的差异。

5 结 论

1)DBN特征提取方法提高了特征提取的质量。对提取到的深层次特征进行可视化可知,除了故障4和故障5有少量重叠外,各个故障状态被清晰的区分开,说明了DBN提取的特征准确的拟合了原始数据的特征。

2)基于DBN的故障诊断方法实现了特征提取与降维的一体化。DBN利用RBM组成的特殊结构,在对原始数据进行降维的同时实现了对数据特征的降维,进一步简化了特征提取的复杂度。

3)ELM故障分类提高了诊断的速度。与传统的神经网络分类方法相比,ELM学习速度更快,泛化性能好,且不易陷入局部最小值,更适合用于故障的分类。

4)算法的普适性强。基于DBN的故障诊断方法直接输入转辙机功率原始数据,减少了对专家经验的依赖,对不同类型或不同工况下的转辙机都可以通过采集的原始数据进行诊断。

参考文献

1

钟志旺, 陈建译, 唐涛, . 基于SVDD的道岔故障检测和健康评估方法[J]. 西南交通大学学报, 2018, 53(4): 842-849. [百度学术] 

Zhong Z W, Chen J Y, Tang T, et al. SVDD-based research on railway-turnout fault detection and health assessment[J]. Journal of Southwest Jiaotong University, 2018, 53(4): 842-849.(in Chinese) [百度学术] 

2

张凯, 杜凯, 巨永锋. 基于BP神经网络的提速道岔故障诊断算法[J]. 武汉理工大学学报, 2014, 36(11): 77-81. [百度学术] 

Zhang K, Du K, Ju Y F. Algorithm of speed-up turnout fault diagnosis based on BP neural network[J]. Journal of Wuhan University of Technology, 2014, 36(11): 77-81.(in Chinese) [百度学术] 

3

王瑞峰, 陈旺斌. 基于灰色神经网络的S700K转辙机故障诊断方法研究[J]. 铁道学报, 2016, 38(6): 68-72. [百度学术] 

Wang R F, Chen W B. Research on fault diagnosis method for S700K switch machine based on grey neural network[J]. Journal of the China Railway Society, 2016, 38(6): 68-72.(in Chinese) [百度学术] 

4

许庆阳, 刘中田, 赵会兵. 基于隐马尔科夫模型的道岔故障诊断方法[J]. 铁道学报, 2018, 40(8): 98-106. [百度学术] 

Xu Q Y, Liu Z T, Zhao H B. Method of turnout fault diagnosis based on hidden Markov model[J]. Journal of the China Railway Society, 2018, 40(8): 98-106.(in Chinese) [百度学术] 

5

张钉, 李国宁. 基于改进WNN分析功率曲线的S700K转辙机故障诊断[J]. 铁道科学与工程学报, 2018, 15(8): 2123-2130. [百度学术] 

Zhang D, Li G N. Fault diagnosis of S700K switch machine based on improved WNN analyses power curve[J]. Journal of Railway Science and Engineering, 2018, 15(8): 2123-2130.(in Chinese) [百度学术] 

6

刘新发, 魏文军. 基于模糊聚类方法的S700K转辙机故障诊断[J]. 中南大学学报(自然科学版), 2019, 50(9): 2148-2155. [百度学术] 

Liu X F, Wei W J. Fault diagnosis of S700K switch machine based on fuzzy cluster method[J]. Journal of Central South University (Science and Technology), 2019, 50(9): 2148-2155.(in Chinese) [百度学术] 

7

钟志旺, 唐涛, 王峰. 基于PLSA和SVM的道岔故障特征提取与诊断方法研究[J]. 铁道学报, 2018, 40(7): 80-87. [百度学术] 

Zhong Z W, Tang T, Wang F. Research on fault feature extraction and diagnosis of railway switches based on PLSA and SVM[J]. Journal of the China Railway Society, 2018, 40(7): 80-87.(in Chinese) [百度学术] 

8

何攸旻. 高速铁路道岔故障诊断方法研究[D]. 北京: 北京交通大学, 2014. [百度学术] 

He Y M. Research on fault diagnosis method of high-speed railway turnout[D].Beijing: Beijing Jiaotong University, 2014. (in Chinese) [百度学术] 

9

Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527-1554. [百度学术] 

10

熊景鸣, 潘林, 朱昇, . DBN与PSO-SVM的滚动轴承故障诊断[J]. 机械科学与技术, 2019, 38(11): 1726-1731. [百度学术] 

Xiong J M, Pan L, Zhu S, et al. Bearing fault diagnosis based on deep belief networks and particle swarm optimization support vector machine[J]. Mechanical Science and Technology for Aerospace Engineering, 2019, 38(11): 1726-1731.(in Chinese) [百度学术] 

11

Hinton G E. A practical guide to training restricted boltzmann machines[M]// Neural Networks: Tricks of the Trade. Berlin, Heidelberg: Springer, 2012: 599-619. [百度学术] 

12

Hinton G E. Training products of experts by minimizing contrastive divergence[J]. Neural Computation, 2002, 14(8): 1771-1800. [百度学术] 

13

Kennedy J, Eberhart R. Particle swarm optimization[C]//Proceedings of ICNN'95 - International Conference on Neural Networks. November 27 - December 1, 1995, Perth, WA, Australia. IEEE, 2002: 1942-1948. [百度学术] 

14

Roweis S T, Saul L K. Nonlinear dimensionality reduction by locally linear embedding[J]. Science, 2000, 290(5500): 2323-2326. [百度学术] 

15

Huang G B, Zhu Q Y, Siew C K. Extreme learning machine: a new learning scheme of feedforward neural networks[C]//2004 IEEE International Joint Conference on Neural Networks (IEEE Cat. No.04CH37541). July 25-29, 2004, Budapest, Hungary. IEEE, 2005: 985-990. [百度学术] 

16

Huang G B, Zhu Q Y, Siew C K. Extreme learning machine: theory and applications[J]. Neurocomputing, 2006, 70(1/2/3): 489-501. [百度学术]