1 数据集介绍
ETT(电变压器温度):由两个小时级数据集(ETTh)和两个 15 分钟级数据集(ETTm)组成。它们中的每一个都包含 2016 年 7 月至 2018 年 7 月的七种石油和电力变压器的负载特征。
traffic(交通) :描述了道路占用率。它包含 2015 年至 2016 年旧金山高速公路传感器记录的每小时数据
electrity(电力):从 2012 年到 2014 年收集了 321 个客户每小时电力消耗。
exchange_rate(汇率):收集了 1990 年至 2016 年 8 个国家的每日汇率。
Weather:包括 21 个天气指标,例如空气温度和湿度。它的数据在 2020 年的每 10 分钟记录一次。
ILLNESS:描述了患有流感疾病的患者与患者数量的比率。它包括 2002 年至 2021 年美国疾病控制和预防中心每周数据。
数据集链接:
https://drive.google.com/drive/folders/1ZOYpTUa82_jCcxIdTmyr0LXQfvaM9vIy
2 处理方法
(1)方法
·GNN
GNN 的核心在于消息传递机制(Message Passing),即通过节点及其邻居之间的信息交换来更新节点表示。每个节点的特征向量通过聚合自身及邻居节点的特征来更新,公式如下:
本文中通过在滑动窗口内的每个时间步提取特征,并利用膨胀卷积捕获时间子模式。在此基础上,采用 Gumbel-Softmax 技术生成动态的邻接矩阵,学习时间序列的动态图结构。最终,通过 GraphSAGE 聚合图节点的局部特征,生成时间序列的预测值。
·Attention
Scaled Dot-Product Attention 是 Transformer 模型中的核心机制,能够高效捕获序列数据中的全局依赖关系。它的目标是基于查询(Query)、键(Key)和值(Value)之间的相似性计算加权输出。公式如下:
优势在于:全局信息建模,每个查询都能与所有键进行匹配,捕获序列的全局依赖。计算高效,点积操作简单且易于并行化。适应不同权重,Softmax 的归一化使模型能够灵活关注重要位置。
(2)实验结果
训练集、验证集和测试集划分设置为6:2:2,实验参数设置如下:
lr = 0.0001
batch_size = 32
num_inputs = 7
sequence_length = 10
nb_unites = sequence_length
hidden_dim = 64 # GNN的隐藏层
注:需根据数据集的特征进一步探索最合适的参数组合,以提升模型性能。
本文方法ETTm1数据集:
本文方法ETTh1数据集:
3 代码下载
GNN-Attention——基于动态图神经网络GNN和注意力机制Attention的时间序列预测
最后:
小编会不定期发布相关设计内容包括但不限于如下内容:信号处理、通信仿真、算法设计、matlab appdesigner,gui设计、simulink仿真......希望能帮到你!