极限学习机(Extreme Learning Machine, ELM)是一种在各个领域被广泛应用 的机器学习算法. ELM的算法策略是通过多次训练挑选参数, 在这个过程中隐藏层输出矩阵是随机选择的, 不同的输出矩阵得到不同的算法误差, 如何得到好的输出矩阵成为重要研究课题. 本文研究了ELM算法中如何通过挑选和改进隐藏层输出矩阵达到降低训练误差的问题. 研究算法误差来源, 确定存在目标矩阵的范数指标与算法误差呈线性相关, 进而根据线性相关性应用Gaussian滤波和启发式算法思想, 提出了基于隐藏层输出矩阵的ELM算法优化和基于启发式算法思想的ELM算法优化两种改进方法. 主要工作如下: 1. 确定目标矩阵的范数指标与算法误差呈线性相关, 提出了基于隐藏层输出矩阵的ELM算法优化. 首先针对ELM中隐藏层到输出层存在误差的问题, 分 析发现误差来源于隐藏层输出矩阵H求解其Moore-Penrose广义逆矩阵H†的过程. 基于目标矩阵和广义逆矩阵的定义, 确定了目标矩阵HH†和误差指标HH†的L21范数, 根据实验发现HH†的L21范数与ELM的误差呈显著线性相关, 最后通过引入Gaussian滤波对目标矩阵进行降噪处理, 有效降低了目标矩阵的L21范数, 同时降低了ELM的误差, 达到优化ELM算法误差的目的. 2. 进行理论推导和实验确定隐藏层输出矩阵的改进价值, 提出了基于启发式算法思想的ELM算法优化, 尝试直接改进输出矩阵来缩小算法误差. 首先通过实验探明ELM算法误差与隐藏层输出矩阵的相关性, 分别应用缩小广义逆误差和稀疏化隐藏层神经元两种方法, 来直接改进输出矩阵降低算法误差.发现探索方法结果不稳定, 结合启发式算法的思想, 提出“优胜劣汰”地保留有效改进步骤的方法, 来实现设定的目标阈值, 从而降低算法误差. 3. 基于两种优化算法均是在实验数据集上训练, 进行实证分析来验证, 对股票预测(回归问题)和UCI数据集(聚类问题)来测试优化算法的可行性和泛化性. 实证结果表明两种ELM优化算法在股票预测和UCI数据集上运算速度较快, 表现出较好的拟合能力和较高的准确度. 本文通过对极限学习机算法的误差来源分析, 提出了上述两种ELM优化算法, 在优化目标矩阵后, 均缩小了算法误差. 最后将优化算法应用到了 UCI 数据 集和股票数据上, 实证分析表明了两种优化算法具有较好的可行性和泛化性.