一种分布式极限学习机优化集成框架方法系统及方法
成果类型:: 发明专利
发布时间: 2023-06-30 11:07:51
极限学习机(extreme learning machine) ELM是一种简单易用、有效的单隐层前 馈神经网络SLFNs学习算法。传统的神经网络学习算法(如BP算法)需要人为设置大量的网 络训练参数,并且很容易产生局部最优解。极限学习机只需要设置网络的隐层节点个数,在 算法执行过程中不需要调整网络的输入权值以及隐元的偏置,并且产生唯一的最优解,因 此具有学习速度快且泛化性能好的优点。
[0003] 极限学习机不同于传统前馈神经网络的训练学习,输入权重与隐层节点偏置无需 基于梯度下降法迭代确定,而是根据训练数据与隐层节点的规模随机确定权值,以最小化 代价函数为目标,即最小化目标输出与实际输出的误差,通过求矩阵Moore-Penrose广义逆 等算法获得最优输出权值。
本发明分布式极限学习机优化集成框架方法系统及方法,提供了一种将传统单隐 层ELM算法推广到多层,实现复杂函数逼近,表征输入数据分布式表示,同时应用MapReduce 分布式计算框架 ,既保证了 较高的精度, 又能使 ELM 算法的高效计算能力与良 好的扩 展性得到体现的算法。该分布式极限学习机优化集成框架方法系统及方法对大数据的模式 分类更为精确,学习得到的特征对样本有更本质的刻画,解决因单层ELM的节点过多造成的 过拟合问题使高维矩阵的运算分块并行进行,计算效率得到提高;对于大规模输入数据与 中间结果分布式存储在HDFS和HBase,不用提前将数据读入内存,节省了内存资源。
技术合作
本发明针对单隐层ELM网络在进行大数据计算的局限性,结合多层神经网络的设 计原理与基于Hadoop平台的Map-Reduce的计算框架,提出了多隐层ELM算法在分布式平台 的实现,以此解决大数据计算造成的时间局限与过拟合问题造成的模式分类精度局限。通 过Hadoop平台对数量级高的样本进行分布式计算。算法分为两方面:(i).从传统的单隐层 ELM算法扩展到多层,结合深度学习理论,对高维的训练数据进行学习,从而获得压缩化,特 征更加明显的样本。(ii).利用Map-Reduce框架对多层ELM进行分布式处理,对训练样本进 行划分,设计map与reduce过程对各个子集进行计算与合并,重点计算各个隐层输出矩阵H 与确定最优权值的矩阵运算HTH。
[0086] 以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精 神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。