必收藏!GNN五大模型架构(GCN、GAT、GraphSAGE、图Transformer、时空图网络)
2025-05-08 16:21:43 0 举报
本作品展示了图神经网络五大核心模型,包含 GCN(图卷积神经网络)、GAT(图注意力网络)、GraphSAGE(归纳学习)、Transformer(长程依赖优化)、时空图网络(STGNN)。
作者其他创作
大纲/内容
Graph Transformer
l
V
k=2
h
λ
α
...
输出为节点的低维向量表示,可直接应用于下游任务(如链接预测、社区发现)
j
Temporalspan style=\"font-size:17px; color:#000000; letter-spacing:0px;\
输入层
·
+
GCN(Graph Convolutional Network) 模型框架
t
6
o
)
.
C
1-DConv
4
1
}
3
F
W
i
O
M
span style=\"font-size:12px; color:#000000; letter-spacing:0px;\
k=1
-
Graph Transformer Layer(源于论文《A Generalization of Transformer Networks to Graphs》)
k
ST-Conv Block
span style=\"font-size:24px; color:#000000; letter-spacing:0px;\
Q
Scaling
STGCN通过 “时间-空间-时间”分层卷积 和 残差瓶颈设计,实现了对复杂时空数据的高效建模。其核心价值在于:端到端联合学习:无需手工设计时空特征,直接从原始数据中提取模式。可扩展性:适配动态图结构(如交通网络的实时变化),支持多任务预测。鲁棒性:通过门控机制与残差连接应对数据噪声和长期依赖挑战。
Product
Graph Transformer 是一种结合 Transformer 自注意力机制与图结构先验知识的图神经网络模型,旨在同时捕获全局节点依赖关系和局部图拓扑特征。
GAT(Graph Attention Networks)算法原理图
Sum j
× L
GLU
Add & Norm
图注意力网络(GAT)
2. 聚合特征信息Aggregate feature information from neighbors
heads
3. 预测图上下文和标签Predict graph context and label using aggregated information
隐藏层
Softmax j
GraphSAGE
(
图卷积层2
输入Input
n
特征聚合
图卷积层1
K
aggregator1
× H
′
STGNN 时空网络
N
5
1. 邻域采样Sample neighborhood
{
2
Softmax
c
时空图卷积网络(STGCN)架构
输出Ouput
激活函数ReLU
label
Output Layer
输入为图的节点及其属性(如文本、数值特征)
a
aggregator2
预测与输出
图卷积神经网络(GCN)
concat/avg
输入与邻域采样
Spatialspan style=\"font-size:17px; color:#000000; letter-spacing:0px;\
TemporalGated-Conv
GraphSAGE(Graph Sample and Aggregator)的核心架构
layers
0 条评论
下一页