没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
GCN
的一个隐藏层可以写成
H
i
=f(H
i-1
,A),
其中
H
0
=X
并且
f
是一个
propagation
。每
层
H
i
对应一个
N×F
i
的特征矩阵,矩阵的每行是一个节点的特征表示。在每层,这些特征
通过
propagation rule f
聚合起来形成下一层的特征。通过这种方式,特征变得越来越抽
象在每一层。在这个框架中,
GCN
的各种变体仅仅是在
propagation rule f
的选择上有
不同。
一个简单的
Propagation Rule
一个可能最简单的传播规则是:
f(H
i
,A)=σ(AH
i
W
i
)
其中 W
i
是第 i 层的权重并且σ是一个非线性激活函数例如 ReLU 函数。权重矩阵的维度是
F
i
×F
i+1
;也就是说权重矩阵的第二个维度决定了在下一层的特征的数目。如果你对卷积神
经网络熟悉,这个操作类似于
filtering operation
因为这些权重被图上节点共享。
可以简单表示为
来自
<https://aistudio.baidu.com/aistudio/projectdetail/340225>
简化
让我们在简单的水平上研究
propagation rule
。令:
i=1, s.t. f
是一个输入特征矩阵的函数,
Σ
是恒等函数(Identity function),并且
选择权重矩阵满足
AH
0
W
0
=AXW
0
=AX
也就是说,f(X,A)=AX。这个传播规则或许太过简单,但是后面我们将会对缺失的部分
进行补充。做个旁注,AX 现在等于一个多层感知机的输入层。
一个简单的例子
我们将使用下面的图作为一个简单的例子:
这个图的邻接矩阵表示是
A = np.matrix([
[0, 1, 0, 0],
[0, 0, 1, 1],
[0, 1, 0, 0],
[1, 0, 1, 0]],
dtype=float
)
剩余18页未读,继续阅读
资源评论
AIAlchemist
- 粉丝: 56
- 资源: 305
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功