跳转到内容

极限学习机

维基百科,自由的百科全书

极限学习机英文:Extreme Learning Machines,缩写ELM),又名超限学习机,为人工智能机器学习领域中的一种人工神经网络模型,是一种求解单隐层前馈神经网路的学习算法。极限学习机是用于分类、回归、聚类、稀疏逼近、压缩和特征学习的前馈神经网络,具有单层或多层隐层节点,其中隐层节点的参数(不仅仅是将输入连接到隐层节点的权重)不需要被调整。这些隐层节点可以随机分配并且不必再更新(即它们是随机投影但具有非线性变换),或者可以从其祖先继承下来而不被更改。在大多数情况下,隐层节点的输出权重通常是一步学习的,这本质上相当于学习一个线性模型。“超限学习机”(ELM)的名称是由其主要发明者黄广斌教授及其他学者共同商议后赋予此类模型的。

据其发明者称,这些模型能够产生良好的泛化性能,并且比使用反向传播训练的网络快数千倍[1]。研究表明这些模型在分类和回归应用中一般都可以胜过Support Vector Machines (SVM, 支持向量机)。[2] [3] [4]

历史

[编辑]

2001-2010年,ELM研究主要集中在“广义”单隐层前馈神经网路(Single-Hidden-Layer Feedforward Networks, SLFNs)的统一学习框架,包括但不限于Sigmoid网路、Radial Basis Function (RBF)网路、阈值网路[5]、三角网路、模糊推理系统、傅里叶级数[6] [7]、 拉普拉斯变换、小波网路[8]等。这些年取得的主要成果之一是在理论上成功地证明了 ELM 的通用逼近和分类能力[9] [10] [11]

从 2010 年到 2015 年,ELM 研究扩展到统一的学习框架,统一了核学习(Kernel Learning)的、SVM 和一些典型的特征学习方法,如主成分分析 (Principal Component Analysis, PCA) 和非负矩阵分解 (Non-Matrix Factorization, NMF)。研究表明,与 ELM 相比,SVM 实际上提供了次优解决方案。ELM可以提供白盒(White-Box)内核映射,这是通过 ELM 随机特征映射实现的,而不是 SVM 中使用的黑盒(Black-Box)内核。 PCA 和 NMF 可以被视为ELM的隐层使用线性节点的特殊情况。[12] [13]

从 2015 年到 2017 年,越来越多的ELM研究开始聚焦于多层实现[14] [15]。此外,自 2011 年以来,ELM理论得到越来越多的生物学研究发现的验证。[16] [17] [18]

从2017年开始,为了克服训练LU分解过程中的低收敛问题,基于Hessenberg分解和QR分解的正则化方法开始受到关注[19] [20]

2017年,Google Scholar在其“经典论文:过去10年时间考验的文章”,有两篇 ELM 论文被列入“2006 年人工智能前 10 名”,分别排名第 2 和第 7 位。

特点

[编辑]

传统的前馈神经网络(如BP神经网络)需要人为设置大量的网络训练参数,此算法却只需要设定网络的结构,而不需设置其他参数,因此具有简单易用的特点。其输入层到隐藏层的权值是一次随机确定的,算法执行过程中不需要再调整,而隐藏层到输出层的权值只需解一个线性方程组来确定,因此可以提升计算速度。

开发

[编辑]

极限学习机的名称来自新加坡南洋理工大学黄广斌教授所建立的模型[1]。黄教授指出,此算法的泛化性能良好,且其学习速度比运用反向传播算法训练的速度要快上1000倍[1]

算法

[编辑]

给定一个单隐层的ELM,假设第个隐层节点的输出函数是:, 其中是第个隐层节点的参数。有个隐层节点的单隐层ELM的输出函数是:

, 其中 是第个隐层节点的输出权值。

是ELM的隐层输出映射向量。给定个训练样本,ELM的隐层输出映射矩阵是:

期望的训练数据目标矩阵是:

一般而言,ELM是一种正则化神经网络,但其具有未调整的隐层映射(由随机隐层节点、内核或其它实现形成),其目标函数为:

其中 .

在ELM中,可以使用 的不同组合,并由此产生对应于回归、分类、稀疏编码、压缩、特征学习和聚类等的不同学习算法。

作为一个特例,最简单的ELM训练算法学习模型可以简化为(对于单隐层 Sigmoid 神经网络):

其中 W1是输入层到隐层的权值(包括隐层节点的参数),是隐层节点的输出函数(或者常称为激励函数,或基函数),W2是隐层到输出层的权值(隐层的输出权值)。ELM算法可以表达为:

  1. 随机产生W1(比如高斯噪声);
  2. 基于最小二乘法估算W2

结构

[编辑]

在大多数情况下,ELM 用于单隐层前馈网络 (SLFN),包括但不限于Sigmoid网络、RBF网络、阈值网络、模糊推理网络、复杂神经网络、小波网络、傅里叶变换、拉普拉斯变换等。 由于ELM可以有对应于回归、分类、稀疏编码、压缩、特征学习和聚类的不同算法实现,多个 ELM组合可以用于形成多隐层网络、分层网络或深度学习。

和传统神经网络不一样的是ELM 中的隐节点是一个计算元素(computing element),不需要将其视为经典神经网络中的神经元。ELM 中的隐节点可以是经典的人工神经元、数学和信号系统中的基函数,也可以是一些隐节点形成的子网络。

理论

[编辑]

发表研究证明了 ELM 的通用逼近和分类能力[2][3]。特别是,黄广斌和他的团队使用了将近七年时间(2001-2008)对ELM的通用逼近能力理论的严格证明[9][10][11]

通用逼近能力

[编辑]

理论上,任何非常量分段连续函数都可以用作 ELM 隐层节点的激活函数,这样的激活函数不必是可微分的。如果调整隐层节点的参数可以使单隐层前馈网络逼近任何目标函数,那么隐层节点参数可以根据任何连续分布概率随机生成,并且有适当的输出权重 使得成立的概率为 1。[9][10][11]

通用分类能力

[编辑]

给定任何非常量分段连续函数作为 SLFNs 中的激活函数,如果调整隐层节点的参数可以使 SLFNs 逼近任何目标函数 ,那么具有随机隐层映射的 SLFNs 可以分开任意形状的任意不相交区域。[2][9][10]

神经元(基函数)

[编辑]

ELM隐层节点可以使用广泛的非常量分段连续函数做为输出函数(从数值分析上讲,基函数):

实数域

[编辑]

Sigmoid function:

Fourier function:

Hardlimit function:

Gaussian function:

Multiquadrics function:

Wavelet: ,其中是单母小波函数.

复数域

[编辑]

Circular functions:

Inverse circular functions:

Hyperbolic functions:

Inverse hyperbolic functions:

参见

[编辑]

参考资料

[编辑]
  1. ^ 1.0 1.1 1.2 Huang, Guang-Bin; Zhu, Qin-Yu; Siew, Chee-Kheong. Extreme learning machine: theory and applications. Neurocomputing. 2006, 70 (1): 489–501. doi:10.1016/j.neucom.2005.12.126. 
  2. ^ 2.0 2.1 2.2 Huang, Guang-Bin; Zhou, Hongming; Ding, Xiaojian; Zhang, Rui. Extreme Learning Machine for Regression and Multiclass Classification. IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics. 2012, 42 (2): 513–529. PMID 21984515. doi:10.1109/tsmcb.2011.2168604. 
  3. ^ 3.0 3.1 Huang, Guang-Bin. What are Extreme Learning Machines? Filling the Gap Between Frank Rosenblatt's Dream and John von Neumann's Puzzle. Cognitive Computation. 2015, 7 (3): 263–278. doi:10.1007/s12559-015-9333-0. 
  4. ^ Huang, Guang-Bin. An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels. Cognitive Computation. 2014, 6 (3): 376–390. doi:10.1007/s12559-014-9255-2. 
  5. ^ Huang, Guang-Bin; Zhu, Qin-Yu; Mao, K. Z.; Siew, Chee-Kheong; Saratchandran, P.; Sundararajan, N. Can Threshold Networks Be Trained Directly?. IEEE Transactions on Circuits and Systems-II: Express Briefs. 2006, 53 (3): 187–191. doi:10.1109/tcsii.2005.857540. 
  6. ^ Huang, Guang-Bin; Chen, Lei; Siew, Chee-Kheong. Universal Approximation Using Incremental Constructive Feedforward Networks with Random Hidden Nodes. IEEE Transactions on Neural Networks. 2006, 17 (4): 879–892. PMID 16856652. doi:10.1109/tnn.2006.875977. 
  7. ^ Rahimi, Ali; Benjamin Recht. Weighted Sums of Random Kitchen Sinks: Replacing Minimization with Randomization in Learning. Advances in Neural Information Processing Systems. 2008. 
  8. ^ Cao, Jiuwen; Lin, Zhiping; Huang, Guang-Bin. Composite Function Wavelet Neural Networks with Extreme Learning Machine. Neurocomputing. 2010, 73 (7): 1405–1416. doi:10.1016/j.neucom.2009.12.007. 
  9. ^ 9.0 9.1 9.2 9.3 Huang, Guang-Bin; Chen, Lei; Siew, Chee-Kheong. Universal Approximation Using Incremental Constructive Feedforward Networks with Random Hidden Nodes. IEEE Transactions on Neural Networks. 2006, 17 (4): 879–892. PMID 16856652. doi:10.1109/tnn.2006.875977. 
  10. ^ 10.0 10.1 10.2 10.3 Huang, Guang-Bin; Chen, Lei. Convex Incremental Extreme Learning Machine. Neurocomputing. 2007, 70 (16): 3056–3062. doi:10.1016/j.neucom.2007.02.009. 
  11. ^ 11.0 11.1 11.2 Huang, Guang-Bin; Chen, Lei. "Enhanced Random Search Based Incremental Extreme Learning Machine. Neurocomputing. 2008, 71 (16): 3460–3468. doi:10.1016/j.neucom.2007.10.008. 
  12. ^ He, Qing; Jin, Xin; Du, Changying; Zhuang, Fuzhen; Shi, Zhongzhi. "Clustering in Extreme Learning Machine Feature Space. Neurocomputing. 2014, 128: 88–95. doi:10.1016/j.neucom.2012.12.063. 
  13. ^ Kasun, Liyanaarachchi Lekamalage Chamara; Yang, Yan; Huang, Guang-Bin; Zhang, Zhengyou. Dimension Reduction With Extreme Learning Machine. IEEE Transactions on Image Processing. 2016, 25 (8): 3906–3918. PMID 27214902. doi:10.1109/tip.2016.2570569. 
  14. ^ Huang, Guang-Bin; Bai, Zuo; Kasun, Liyanaarachchi Lekamalage Chamara; Vong, Chi Man. Local Receptive Fields Based Extreme Learning Machine. IEEE Computational Intelligence Magazine. 2015, 10 (2): 18–29. doi:10.1109/mci.2015.2405316. 
  15. ^ Tang, Jiexiong; Deng, Chenwei; Huang, Guang-Bin. Extreme Learning Machine for Multilayer Perceptron. IEEE Transactions on Neural Networks and Learning Systems. 2016, 27 (4): 809–821. PMID 25966483. doi:10.1109/tnnls.2015.2424995. 
  16. ^ Barak, Omri; Rigotti, Mattia; Fusi, Stefano. The Sparseness of Mixed Selectivity Neurons Controls the Generalization-Discrimination Trade-off. Journal of Neuroscience. 2013, 33 (9): 3844–3856. PMID 6119179. doi:10.1523/jneurosci.2753-12.2013. 
  17. ^ Rigotti, Mattia; Barak, Omri; Warden, Melissa R.; Wang, Xiao-Jing; Daw, Nathaniel D.; Miller, Earl K.; Fusi, Stefano. "The Importance of Mixed Selectivity in Complex Cognitive Tasks. Nature. 2013, 497 (7451): 585–590. PMID 4412347. doi:10.1038/nature12160. 
  18. ^ Fusi, Stefano; Miller, Earl K; Rigotti, Mattia. "Why Neurons Mix: High Dimensionality for Higher Cognition. Current Opinion in Neurobiology. 2015, 37: 66–74. doi:10.1016/j.conb.2016.01.010. 
  19. ^ Kutlu, Yakup Kutlu; Yayik, Apdullah; Yıldırım, Esen; Yıldırım, Serdar. LU triangularization extreme learning machine in EEG cognitive task classification. Neural Computation and Applications. 2017, 31 (4): 1117–1126. doi:10.1007/s00521-017-3142-1. 
  20. ^ Yayık, Apdullah Yayık; Kutlu, Yakup; Altan,Gökhan. Regularized HessELM and Inclined Entropy Measurement for Congestive Heart Failure Prediction (PDF). arXiv.org. [2019]. (原始内容存档 (PDF)于2021-11-19). 

外部链接

[编辑]