这是我的第412篇原创文章。
一、引言
随机森林和LSTM的时间序列预测融合模型解决的问题是“时间序列预测”,也就是根据过去的数据来预测未来的趋势,比如预测未来一周的温度、股价、流量等。
涉及到两个强大的工具:
- 随机森林(Random Forest):擅长找出“过去某一时刻”和“预测值”之间的模式,是一种“机器学习里的集体智慧”方法。
- LSTM(长短期记忆网络):是一种深度学习方法,特别适合处理“时间有关的事情”,它能记住很久以前发生的事,同时也关注最近的变化。
我们把这两个模型结合起来,相当于:
- 先用随机森林提取一些“短期关联性”;
- 再用LSTM理解“长期的时间趋势”;
- 最后把两者的预测结果融合,得到一个更准确的预测。
二、实现过程
2.1 读取数据
代码:
def read_data(filename='data.csv'):
# 1. 数据读取部分
df = pd.DataFrame(pd.read_csv(filename))
return df
data = read_data()
print(data.head())
结果:
可视化:
plt.figure(figsize=(12, 5))
plt.plot(data['Month'], data['Passengers'], color='purple')
plt.title('Time Series Data')
plt.xlabel('Month')
plt.ylabel('Passengers')
plt.grid(True)
plt.tight_layout()
plt.show()
结果:
2.2 特征工程与随机森林建模
通过引入时间序列的滞后值(过去几天的数据)作为特征,捕捉历史对未来的影响;
df_rf = create_features(data, lags=7)
# 划分训练集与测试集
train_size = int(len(df_rf) * 0.8)
train_rf = df_rf.iloc[:train_size]
test_rf = df_rf.iloc[train_size:]
# 随机森林训练与预测
rf = RandomForestRegressor(n_estimators=100, random_state=SEED)
X_train = train_rf.drop(['Passengers', 'Month'], axis=1)
y_train = train_rf['Passengers']
X_test = test_rf.drop(['Passengers', 'Month'], axis=1)
y_test = test_rf['Passengers']
rf.fit(X_train, y_train)
y_pred_rf = rf.predict(X_test)
2.3 LSTM建模
作为一种适合处理序列数据的深度学习结构,LSTM能够学习时间序列中的长期依赖关系,对捕捉时序变化尤为有效。
# 归一化处理
scaler = MinMaxScaler()
scaled_values = scaler.fit_transform(data[['Passengers']].values).flatten()
seq_length = 14
# 分割数据
train_seq = scaled_values[:int(len(scaled_values) * 0.8)]
test_seq = scaled_values[int(len(scaled_values) * 0.8) - seq_length:]
train_dataset = TimeSeriesDataset(train_seq, seq_length)
test_dataset = TimeSeriesDataset(test_seq, seq_length)
train_loader = DataLoader(train_dataset, batch_size=16, shuffle=False)
test_loader = DataLoader(test_dataset, batch_size=1, shuffle=False)
# 训练模型
model = LSTMModel(input_size=1, hidden_size=64, num_layers=2)
criterion = nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
for epoch in range(200):
model.train()
total_loss = 0
for x_batch, y_batch in train_loader:
x_batch = x_batch.unsqueeze(-1) # (B, T) -> (B, T, 1)
optimizer.zero_grad()
output = model(x_batch)
loss = criterion(output, y_batch)
loss.backward()
optimizer.step()
total_loss += loss.item()
print(f"Epoch {epoch+1}, Loss: {total_loss/len(train_loader):.4f}")
# LSTM预测
model.eval()
pred_lstm = []
true_lstm = []
with torch.no_grad():
for x_batch, y_batch in test_loader:
x_batch = x_batch.unsqueeze(-1)
output = model(x_batch)
pred_lstm.append(output.item())
true_lstm.append(y_batch.item())
pred_lstm_rescaled = scaler.inverse_transform(np.array(pred_lstm).reshape(-1, 1)).flatten()
true_lstm_rescaled = scaler.inverse_transform(np.array(true_lstm).reshape(-1, 1)).flatten()
结果:
2.4 融合模型
在获得两种模型的预测结果后,融合模型采用简单平均的方式对预测值进行整合。这种融合策略可以在一定程度上利用两种模型的互补优势,提高整体预测的稳定性与精度。
min_len = min(len(pred_lstm_rescaled), len(y_pred_rf), len(y_test))
pred_lstm_rescaled = pred_lstm_rescaled[:min_len]
y_pred_rf = y_pred_rf[:min_len]
true_vals = y_test.values[:min_len]
fusion_pred = (pred_lstm_rescaled + y_pred_rf) / 2
2.5 结果分析与可视化
模型预测对比图:在测试集上将真实值与随机森林、LSTM、融合模型的预测值一同绘制,直观显示了三种模型的拟合效果。融合模型在视觉上通常表现出更平滑且贴近真实值的趋势。
plt.figure(figsize=(12, 5))
plt.plot(true_vals, label='True Values', color='black')
plt.plot(y_pred_rf, label='Random Forest', color='green')
plt.plot(pred_lstm_rescaled, label='LSTM', color='blue')
plt.plot(fusion_pred, label='Fusion Model', color='red', linestyle='--')
plt.title('Model Comparison on Test Set')
plt.legend()
plt.grid(True)
plt.tight_layout()
plt.show()
均方误差(MSE)柱状图:通过柱状图量化比较了三种模型的预测误差,从中可以看出融合模型的误差最小,体现其优越性。
plt.figure(figsize=(8, 4))
plt.bar(['Random Forest', 'LSTM', 'Fusion'], [mse_rf, mse_lstm, mse_fusion], color=['green', 'blue', 'red'])
plt.title('Mean Squared Error Comparison')
plt.ylabel('MSE')
plt.tight_layout()
plt.show()
误差分布图:可以看到三种模型的预测误差分布情况,通过核密度估计线条对比可见各模型误差集中程度及偏态信息。误差分布更集中且接近0的模型更具稳定性。
error_df = pd.DataFrame({
'Random Forest': y_pred_rf - true_vals,
'LSTM': pred_lstm_rescaled - true_vals,
'Fusion': fusion_pred - true_vals
})
plt.figure(figsize=(10, 5))
sns.histplot(error_df, kde=True, palette='bright')
plt.title('Prediction Error Distribution')
plt.xlabel('Error')
plt.tight_layout()
plt.show()
作者简介: 读研期间发表6篇SCI数据算法相关论文,目前在某研究院从事数据算法相关研究工作,结合自身科研实践经历持续分享关于Python、数据分析、特征工程、机器学习、深度学习、人工智能系列基础知识与案例。关注gzh:数据杂坛,获取数据和源码学习更多内容。