【深度学习基础模型】极限学习机(Extreme Learning Machines, ELM)详细理解并附实现代码。
【深度学习基础模型】极限学习机(Extreme Learning Machines, ELM)详细理解并附实现代码。
文章目录
- 【深度学习基础模型】极限学习机(Extreme Learning Machines, ELM)详细理解并附实现代码。
- 1. 算法提出
- 2. 概述
- 3. 发展
- 4. 应用
- 5. 优缺点
- 6. Python代码实现
- 7. 总结
参考地址:https://www.asimovinstitute.org/neural-network-zoo/
论文地址:https://www.sciencedirect.com/science/article/pii/S0925231206000385
Extreme learning machine: Theory and applications
欢迎宝子们点赞、关注、收藏!欢迎宝子们批评指正!
1. 算法提出
极限学习机(Extreme Learning Machine, ELM)由Guang-Bin Huang于2006年提出。ELM是一种针对单隐层前馈神经网络(SLFN)的快速学习算法。与传统的前馈神经网络(FFNN)不同,ELM不需要通过反向传播算法(Backpropagation)训练,而是通过随机生成的权重和偏置,并在单步计算中通过最小二乘法拟合输出层权重。
2. 概述
ELM的核心思想是使用随机初始化的输入层权重和隐藏层神经元的偏置,并通过最小二乘法直接计算出输出层的权重。由于不需要逐步调整权重(如反向传播中的梯度下降),ELM的训练速度非常快,特别适合处理大规模数据。
ELM网络结构如下:
- 输入层:与传统FFNN类似,将输入数据传递给网络。
- 隐藏层:随机初始化的权重和偏置,通常不进行调优。
- 输出层:通过最小二乘法计算得到最终权重,用于拟合目标值。
3. 发展
ELM自提出以来,因其计算效率高,逐渐引起了广泛关注。随着深度学习的崛起,ELM的研究方向也发生了变化,主要集中在以下几方面:
- 改进ELM结构:为了提高泛化能力,一些研究提出了正则化极限学习机(Regularized ELM)和在线极限学习机(Online ELM)。
- 应用扩展:ELM逐渐在分类、回归、时间序列预测等领域得到应用,并逐步结合到集成学习等现代机器学习方法中。
4. 应用
ELM因其快速训练的特性,在多种场景中具有优势,常见的应用包括:
- 图像识别:ELM可用于高维特征的快速分类。
- 回归分析:在数据拟合和预测问题中,ELM通过最小二乘法快速生成回归模型。
- 实时控制:由于训练速度快,ELM适用于需要实时响应的控制系统。
5. 优缺点
优点:
- 训练速度快:ELM不依赖梯度下降,而是通过一次性求解输出层权重,速度远超传统的前馈神经网络。
- 避免局部最优问题:ELM不通过迭代优化算法,因此避免了反向传播中常见的局部最优问题。
缺点:
- 随机性较高:ELM的输入层和隐藏层权重是随机生成的,这可能导致模型的表现不稳定。
- 表达能力有限:由于缺少反向传播和递归连接,ELM的表达能力不如深层神经网络。
6. Python代码实现
以下是一个简单的ELM分类实现示例:
import numpy as np
from sklearn.datasets import make_classification
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
# 定义极限学习机类
class ExtremeLearningMachine:
def __init__(self, input_size, hidden_size, activation='sigmoid'):
self.input_size = input_size
self.hidden_size = hidden_size
self.activation = self._get_activation_function(activation)
# 随机初始化输入层权重和偏置
self.input_weights = np.random.randn(self.input_size, self.hidden_size)
self.biases = np.random.randn(self.hidden_size)
def _get_activation_function(self, activation):
if activation == 'sigmoid':
return lambda x: 1 / (1 + np.exp(-x))
elif activation == 'tanh':
return np.tanh
else:
raise ValueError("Unsupported activation function.")
def fit(self, X, y):
# 隐藏层输入
H = self.activation(np.dot(X, self.input_weights) + self.biases)
# 输出层权重通过最小二乘法计算
self.output_weights = np.dot(np.linalg.pinv(H), y)
def predict(self, X):
H = self.activation(np.dot(X, self.input_weights) + self.biases)
return np.dot(H, self.output_weights)
# 生成模拟数据集
X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
y = y.reshape(-1, 1) # 转换为列向量
# 数据预处理
scaler = StandardScaler()
X = scaler.fit_transform(X)
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
# 初始化ELM
elm = ExtremeLearningMachine(input_size=X_train.shape[1], hidden_size=50, activation='sigmoid')
# 训练ELM
elm.fit(X_train, y_train)
# 预测并评估
y_pred = elm.predict(X_test)
y_pred = np.where(y_pred > 0.5, 1, 0) # 二分类阈值为0.5
accuracy = accuracy_score(y_test, y_pred)
print(f"ELM分类准确率: {accuracy * 100:.2f}%")
代码解释:
-
ExtremeLearningMachine
类:这是ELM的实现类,包含了输入层权重和隐藏层偏置的随机初始化。激活函数可以选择sigmoid
或tanh
。 -
fit
方法:利用最小二乘法计算输出层权重。np.linalg.pinv
用于计算伪逆矩阵,以求解输出层的最佳权重。 -
predict
方法:根据输入数据和已训练的输出层权重,计算预测值。 - 数据集生成:使用
make_classification
生成一个简单的二分类数据集,并使用StandardScaler
进行标准化。 - 训练和评估:在训练集上训练ELM模型,并在测试集上进行预测,通过
accuracy_score
评估模型准确率。
7. 总结
极限学习机(ELM)以其快速训练的特点,在大规模数据和实时系统中表现出色。虽然ELM在表达能力上不如深层神经网络,但其通过随机权重和最小二乘法求解输出层权重,大幅提升了计算速度,特别适合对速度要求高的应用场景。