I. 前言
前面已经写过不少时间序列预测的文章:
- 深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)
- PyTorch搭建LSTM实现时间序列预测(负荷预测)
- PyTorch中利用LSTMCell搭建多层LSTM实现时间序列预测
- PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)
- PyTorch搭建双向LSTM实现时间序列预测(负荷预测)
- PyTorch搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
- PyTorch搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
- PyTorch搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
- PyTorch搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
- PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
- PyTorch中实现LSTM多步长时间序列预测的几种方法总结(负荷预测)
- PyTorch-LSTM时间序列预测中如何预测真正的未来值
- PyTorch搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
- PyTorch搭建ANN实现时间序列预测(风速预测)
- PyTorch搭建CNN实现时间序列预测(风速预测)
- PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
- PyTorch搭建Transformer实现多变量多步长时间序列预测(负荷预测)
- PyTorch时间序列预测系列文章总结(代码使用方法)
- TensorFlow搭建LSTM实现时间序列预测(负荷预测)
- TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)
- TensorFlow搭建双向LSTM实现时间序列预测(负荷预测)
- TensorFlow搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
- TensorFlow搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
- TensorFlow搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
- TensorFlow搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
- TensorFlow搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
- TensorFlow搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
- TensorFlow搭建ANN实现时间序列预测(风速预测)
- TensorFlow搭建CNN实现时间序列预测(风速预测)
- TensorFlow搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
- PyG搭建图神经网络实现多变量输入多变量输出时间序列预测
- PyTorch搭建GNN-LSTM和LSTM-GNN模型实现多变量输入多变量输出时间序列预测
在前一篇文章PyG搭建图神经网络实现多变量输入多变量输出时间序列预测中我们讲解了如何利用图神经网络进行时间序列预测,其本质是利用GNN来提取各个变量序列间的关系。
不过,在上一篇文章中也提到,仅仅使用GNN进行时序预测没有考虑时间维度上的卷积。因此,这一篇文章中就浅谈一下如何将GNN和LSTM进行结合,以同时实现时间和空间上的卷积。
本篇文章提出了两种不同的思路,一种是GNN-LSTM,即先将时间序列经过图神经网络进行空间上的卷积,然后再将结果输入到LSTM中进行时间上的卷积。另一种是LSTM-GNN,即先利用LSTM提取时序关系,然后再输入到GNN中进行空间上的卷积。当然,我们很容易想到第三种做法:分别利用LSTM和GNN直接对原始时间序列进行操作,然后再将二者结果进行组合,这种方法不再赘述。
以下仅为个人想法,如有原理上的错误欢迎指出!
II. GNN-LSTM
即先进行空间上的卷积,再进行时间上的卷积。
在上一篇文章PyG搭建图神经网络实现多变量输入多变量输出时间序列预测中我们提到了仅用GNN进行时间序列预测的两种方法:
- 静态图结构。图的结构不变,是一开始利用训练集计算得到的,每次更换不同的输入特征
(input_size, seq_len)
进行卷积。 - 动态图结构。每次都使用当前变量序列
(input_size, seq_len)
计算出当前的邻接矩阵,然后再进行卷积。
对于GNN-LSTM,我们采用静态图(动态图也行),然后我们使用torch_geometric.loader.DataLoader
对数据进行包装,这样可以将多个图进行拼接以实现GNN的并行处理。数据处理可以参考上一篇文章,下面直接给出模型的搭建细节:
class GAT_LSTM(nn.Module):
def __init__(self, args, graph):
super(GAT_LSTM, self).__init__()
self.args = args
self.out_feats = 128
self.edge_index = graph.edge_index
self.gat = GAT(in_feats=args.seq_len, h_feats=64, out_feats=self.out_feats)
self.lstm = nn.LSTM(input_size=args.input_size, hidden_size=128,
num_layers=args.num_layers, batch_first=True, dropout=0.5)
self.fcs = nn.ModuleList()
self.graph = graph
for k in range(args.input_size):
self.fcs.append(nn.Sequential(
nn.Linear(128, 64),
nn.ReLU(),
nn.Linear(64, args.output_size)
))
def forward(self, data):
x, edge_index, batch = data.x, data.edge_index, data.batch
batch_size = torch.max(batch).item() + 1
x = self.gat(x, edge_index) # 6656 128 = 512 * (13, 128) # y = 6656 1 = 512 * (13 1)
batch_list = batch.cpu().numpy()
# print(batch_list)
# split
xs = [[] for k in range(batch_size)]
ys = [[] for k in range(batch_size)]
for k in range(x.shape[0]):
xs[batch_list[k]].append(x[k, :])
ys[batch_list[k]].append(data.y[k, :])
xs = [torch.stack(x, dim=0) for x in xs]
ys = [torch.stack(x, dim=0) for x in ys]
x = torch.stack(xs, dim=0)
y = torch.stack(ys, dim=0)
x = x.permute(0, 2, 1)
x, _ = self.lstm(x)
x = x[:, -1, :]
preds = []
for fc in self.fcs:
preds.append(fc(x))
pred = torch.stack(preds, dim=0)
return pred, y
这里依然选择图注意力网络GAT。
任意输出一个样本对应的图:
Data(x=[13, 24], edge_index=[2, 40], y=[13, 1])
输出loader中任意一个batch的图数据:
DataBatch(x=[3328, 24], edge_index=[2, 10240], y=[3328, 1], batch=[3328], ptr=[257])
可以看到此时图的特征依然是二维的,但这个图是256个样本对应的小图拼接得到的大图,3328=256*13
,10240=256*40
。此时我们可以将256个图拼接到一起送入GAT,大大提高了计算效率。
利用GAT得到空间上的卷积结果的维度为(3328, 128)
,即256个图的输出,然后,我们将该输出进行拆分,以还原成256个输出:
xs = [[] for k in range(batch_size)]
for k in range(x.shape[0]):
xs[batch_list[k]].append(x[k, :])
xs = [torch.stack(x, dim=0) for x in xs]
ys = [torch.stack(x, dim=0) for x in ys]
x = torch.stack(xs, dim=0)
这里不知道还有没有更简单的方式进行拆分,目前我只能想到循环遍历处理,这种方法效率很低!
最终x=(batch_size=256, input_size=13, hidden_size=128)
,即我们对初始输入(batch_size=256, seq_len=24, input_size=13)
中256个(13, 24)
进行了卷积,得到了256个(13, 128)
。
细心的读者会发现,在这里,GAT的作用与CNN中的一维卷积类似。通过PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)我们知道,一维卷积的定义如下:
nn.Conv1d(in_channels=args.in_channels, out_channels=args.out_channels, kernel_size=3)
一维卷积本质上是对seq_len
维度进行卷积,然后通过out_channels
参数对input_size
维度进行变换。这种操作与GNN类似,不过区别是GNN
只对seq_len
维度进行了变换。因此,本质上GNN也是一种卷积操作。
在得到x=(batch_size=256, input_size=13, hidden_size=128)
后,为了满足LSTM(batch_size, seq_len, input_size)
的输入要求,我们只需要将x
的后两个维度进行交换,将hidden_size
当做seq_len
,这是因为GNN的作用就是对seq_len
维度进行卷积变换,因此我们可以简单地将二者类似。即:
x = x.permute(0, 2, 1)
x, _ = self.lstm(x)
x = x[:, -1, :]
preds = []
for fc in self.fcs:
preds.append(fc(x))
pred = torch.stack(preds, dim=0)
最终pred
中包含了13个变量的预测结果。
III. LSTM-GNN
在LSTM-GNN中,我们先利用LSTM进行时间上的卷积,然后再利用GNN进行空间上的卷积。
为此,我们采用PyTorch搭建LSTM实现时间序列预测(负荷预测)中的数据处理方式,最终得到多个大小为(batch_size, seq_len, input_size)
的输出。
LSTM-GNN搭建如下:
class LSTM_GAT(nn.Module):
def __init__(self, args):
super(LSTM_GAT, self).__init__()
self.args = args
self.out_feats = 128
self.gat = GAT(in_feats=args.hidden_size, h_feats=128, out_feats=64)
self.lstm = nn.LSTM(input_size=args.input_size, hidden_size=args.hidden_size,
num_layers=args.num_layers, batch_first=True, dropout=0.5)
self.fcs = nn.ModuleList()
for k in range(args.input_size):
self.fcs.append(nn.Sequential(
nn.Linear(64, 32),
nn.ReLU(),
nn.Linear(32, args.output_size)
))
def create_edge_index(self, adj):
adj = adj.cpu()
ones = torch.ones_like(adj)
zeros = torch.zeros_like(adj)
edge_index = torch.where(adj > 0, ones, zeros)
#
edge_index_temp = sp.coo_matrix(edge_index.numpy())
indices = np.vstack((edge_index_temp.row, edge_index_temp.col))
edge_index = torch.LongTensor(indices)
# edge_weight
edge_weight = []
t = edge_index.numpy().tolist()
for x, y in zip(t[0], t[1]):
edge_weight.append(adj[x, y])
edge_weight = torch.FloatTensor(edge_weight)
edge_weight = edge_weight.unsqueeze(1)
return edge_index.to(device), edge_weight.to(device)
def forward(self, x):
# x (b, s, i)
x, _ = self.lstm(x) # b, s, h
# s * h conv
s = torch.randn((x.shape[0], x.shape[1], 64)).to(device)
for k in range(x.shape[0]):
feat = x[k, :, :] # s, h
# creat edge_index
adj = torch.matmul(feat, feat.T) # s * s
adj = F.softmax(adj, dim=1)
edge_index, edge_weight = self.create_edge_index(adj)
feat = self.gat(feat, edge_index, edge_weight)
s[k, :, :] = feat
# s(b, s, 64)
s = s[:, -1, :]
preds = []
for fc in self.fcs:
preds.append(fc(s))
pred = torch.stack(preds, dim=0)
return pred
对于LSTM我们已轻车熟路,直接将x=(batch_size, seq_len, input_size)
输入到LSTM中,得到的输出为x=(batch_size, seq_len, hidden_size)
,此时的x
中包含了多个时间步的隐输出。
如果我们仅仅使用LSTM进行时间序列预测,那么我们只需要取出x
中最后一个时间步的隐输出,然后再简单通过MLP即可得到预测结果。
但这里我们想利用GNN继续进行卷积,因此我们首先要考虑的一个问题是:节点应该是什么?
这个问题的答案很明显,我们应该将时间步当做节点,时间步上的隐藏层输出当做节点的特征变量进行卷积。即我们每次输入一个(seq_len, hidden_size)
进行卷积。
一个关键问题是:如何利用(seq_len, hidden_size)
构建出图结构?
一个简单的想法是采用完全图,然后计算多个时间步隐藏层输出间的相关性作为边上的权重:
adj = torch.matmul(feat, feat.T) # s * s
adj = F.softmax(adj, dim=1)
edge_index, edge_weight = self.create_edge_index(adj)
这里采用内积作为相关性判断依据。即首先计算(seq_len, hidden_size)
中seq_len * seq_len
对向量间的内积,然后归一化,得到每个时间步与其他时间步间的权重,这些权重将作为边上的权重。
然后,进行图卷积:
edge_index, edge_weight = self.create_edge_index(adj)
feat = self.gat(feat, edge_index, edge_weight)
s[k, :, :] = feat
最终得到输出s=(batch_size, seq_len, out_feats)
。此时,我们再取最后一个时间步上的输出,然后通过多个MLP以得到每个变量的输出。
由于图卷积,最后一个时间步的输出包含了其他时间步输出的信息,这里感觉与attention机制类似。
IV. 模型训练/测试
同前面。
V. 代码
后续考虑整理公开。