莫度编程网

技术文章干货、编程学习教程与开发工具分享

【Python时序预测系列】建立RF与LSTM融合模型实现单变量时序预测

这是我的第412篇原创文章。

一、引言

随机森林和LSTM的时间序列预测融合模型解决的问题是“时间序列预测”,也就是根据过去的数据来预测未来的趋势,比如预测未来一周的温度、股价、流量等。

涉及到两个强大的工具:

  1. 随机森林(Random Forest):擅长找出“过去某一时刻”和“预测值”之间的模式,是一种“机器学习里的集体智慧”方法。
  2. LSTM(长短期记忆网络):是一种深度学习方法,特别适合处理“时间有关的事情”,它能记住很久以前发生的事,同时也关注最近的变化。

我们把这两个模型结合起来,相当于:

  • 先用随机森林提取一些“短期关联性”;
  • 再用LSTM理解“长期的时间趋势”;
  • 最后把两者的预测结果融合,得到一个更准确的预测。

二、实现过程

2.1 读取数据

代码:

def read_data(filename='data.csv'):
    # 1. 数据读取部分
    df = pd.DataFrame(pd.read_csv(filename))
    return df
data = read_data()
print(data.head())

结果:

可视化:

plt.figure(figsize=(12, 5))
plt.plot(data['Month'], data['Passengers'], color='purple')
plt.title('Time Series Data')
plt.xlabel('Month')
plt.ylabel('Passengers')
plt.grid(True)
plt.tight_layout()
plt.show()

结果:

2.2 特征工程与随机森林建模

通过引入时间序列的滞后值(过去几天的数据)作为特征,捕捉历史对未来的影响;

df_rf = create_features(data, lags=7)
# 划分训练集与测试集
train_size = int(len(df_rf) * 0.8)
train_rf = df_rf.iloc[:train_size]
test_rf = df_rf.iloc[train_size:]
# 随机森林训练与预测
rf = RandomForestRegressor(n_estimators=100, random_state=SEED)
X_train = train_rf.drop(['Passengers', 'Month'], axis=1)
y_train = train_rf['Passengers']
X_test = test_rf.drop(['Passengers', 'Month'], axis=1)
y_test = test_rf['Passengers']
rf.fit(X_train, y_train)
y_pred_rf = rf.predict(X_test)

2.3 LSTM建模

作为一种适合处理序列数据的深度学习结构,LSTM能够学习时间序列中的长期依赖关系,对捕捉时序变化尤为有效。

# 归一化处理
scaler = MinMaxScaler()
scaled_values = scaler.fit_transform(data[['Passengers']].values).flatten()
seq_length = 14
# 分割数据
train_seq = scaled_values[:int(len(scaled_values) * 0.8)]
test_seq = scaled_values[int(len(scaled_values) * 0.8) - seq_length:]
train_dataset = TimeSeriesDataset(train_seq, seq_length)
test_dataset = TimeSeriesDataset(test_seq, seq_length)
train_loader = DataLoader(train_dataset, batch_size=16, shuffle=False)
test_loader = DataLoader(test_dataset, batch_size=1, shuffle=False)
# 训练模型
model = LSTMModel(input_size=1, hidden_size=64, num_layers=2)
criterion = nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
for epoch in range(200):
    model.train()
    total_loss = 0
    for x_batch, y_batch in train_loader:
        x_batch = x_batch.unsqueeze(-1)  # (B, T) -> (B, T, 1)
        optimizer.zero_grad()
        output = model(x_batch)
        loss = criterion(output, y_batch)
        loss.backward()
        optimizer.step()
        total_loss += loss.item()
    print(f"Epoch {epoch+1}, Loss: {total_loss/len(train_loader):.4f}")
# LSTM预测
model.eval()
pred_lstm = []
true_lstm = []
with torch.no_grad():
    for x_batch, y_batch in test_loader:
        x_batch = x_batch.unsqueeze(-1)
        output = model(x_batch)
        pred_lstm.append(output.item())
        true_lstm.append(y_batch.item())
pred_lstm_rescaled = scaler.inverse_transform(np.array(pred_lstm).reshape(-1, 1)).flatten()
true_lstm_rescaled = scaler.inverse_transform(np.array(true_lstm).reshape(-1, 1)).flatten()

结果:

2.4 融合模型

在获得两种模型的预测结果后,融合模型采用简单平均的方式对预测值进行整合。这种融合策略可以在一定程度上利用两种模型的互补优势,提高整体预测的稳定性与精度。

min_len = min(len(pred_lstm_rescaled), len(y_pred_rf), len(y_test))
pred_lstm_rescaled = pred_lstm_rescaled[:min_len]
y_pred_rf = y_pred_rf[:min_len]
true_vals = y_test.values[:min_len]
fusion_pred = (pred_lstm_rescaled + y_pred_rf) / 2

2.5 结果分析与可视化

模型预测对比图:在测试集上将真实值与随机森林、LSTM、融合模型的预测值一同绘制,直观显示了三种模型的拟合效果。融合模型在视觉上通常表现出更平滑且贴近真实值的趋势。

plt.figure(figsize=(12, 5))
plt.plot(true_vals, label='True Values', color='black')
plt.plot(y_pred_rf, label='Random Forest', color='green')
plt.plot(pred_lstm_rescaled, label='LSTM', color='blue')
plt.plot(fusion_pred, label='Fusion Model', color='red', linestyle='--')
plt.title('Model Comparison on Test Set')
plt.legend()
plt.grid(True)
plt.tight_layout()
plt.show()

均方误差(MSE)柱状图:通过柱状图量化比较了三种模型的预测误差,从中可以看出融合模型的误差最小,体现其优越性。

plt.figure(figsize=(8, 4))
plt.bar(['Random Forest', 'LSTM', 'Fusion'], [mse_rf, mse_lstm, mse_fusion], color=['green', 'blue', 'red'])
plt.title('Mean Squared Error Comparison')
plt.ylabel('MSE')
plt.tight_layout()
plt.show()

误差分布图:可以看到三种模型的预测误差分布情况,通过核密度估计线条对比可见各模型误差集中程度及偏态信息。误差分布更集中且接近0的模型更具稳定性。

error_df = pd.DataFrame({
    'Random Forest': y_pred_rf - true_vals,
    'LSTM': pred_lstm_rescaled - true_vals,
    'Fusion': fusion_pred - true_vals
})
plt.figure(figsize=(10, 5))
sns.histplot(error_df, kde=True, palette='bright')
plt.title('Prediction Error Distribution')
plt.xlabel('Error')
plt.tight_layout()
plt.show()

作者简介: 读研期间发表6篇SCI数据算法相关论文,目前在某研究院从事数据算法相关研究工作,结合自身科研实践经历持续分享关于Python、数据分析、特征工程、机器学习、深度学习、人工智能系列基础知识与案例。关注gzh:数据杂坛,获取数据和源码学习更多内容。

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言

    Powered By Z-BlogPHP 1.7.4

    蜀ICP备2024111239号-43