没有合适的资源?快使用搜索试试~ 我知道了~
disentanglement+vae简介1
需积分: 0 0 下载量 130 浏览量
2022-08-03
22:02:37
上传
评论
收藏 134KB PDF 举报
温馨提示
试读
1页
disentanglement+vae简介1
资源推荐
资源详情
资源评论
该论文和之前的 ConvKB 是同一个作者,可以看做是 ConvKB 的
一个扩展,对于一个三元组(s, r, o),其中 s 为头实体,o
是尾实体,r 为头尾实体之间的关系。CapsE 首先学习一个 3 列
的矩阵,每一列分别表示头实体、关系和尾实体的向量,之后
使用多个卷积核对该矩阵进行卷积操作,得到相应的多个特征
向量。到目前为止,CapsE 和 ConvKB 是一致的,都是使用了
CNN 来提取三元组内部的深层关系。
在本篇论文中,胶囊网络被加在了特征向量的后面,特征向量
变换之后便成为了第一层的胶囊网络,每一个向量为一个胶
囊,即下图中的 u1、u2、u3 和 u4。在经过路由过程(routing
precessing)和 squash 激活函数之后,信息被传递到了第二层
的胶囊网络。第二层胶囊网络中仅有一个胶囊,该胶囊对应的
向量的模长即为(s, r, o)三元组存在于知识图谱中的概率。
Motivation:
隐层表示的可分解性,以接受直觉的解释。
VAE:
VAE 是一个概率模型(probabilistic model),它把深度模型和
概率方法结合了起来,也因此取名 Variational Autoencoder。
它的主要作用是生成新的相似的数据而非学习一个低维的隐性
表达。
Let’s label this distribution as pθ, parameterized by
θ. The relationship between the data input x and the
latent encoding vector z can be fully defined by:
VAE takes the inference model qφ(z|x) to be an encoder
and the likelihood model pθ(x|z) to be a decoder. Here
θ and φ are neural network parameters,
VAE 是为每个样本构造专属的正态分布,然后采样来重构。
VAE 的关键是在隐层的处理,引进了 Q(Z|X)来近似 P(Z|X),这样
就可以通过采样 Z,来最大化 P(X),P(X)是网络的逻辑输出。是
需要最大化的目标,也就是最大似然。
β−VAE 的目标是学习独立的特征,让某种特征对应某个生成因
素,而独立于其他因素。
我们试想在 z 处加一个“瓶颈”β,它像一个沙漏,进入的信息
量可能有很多,但是出口就只有 β 那么大,所以这个瓶颈的作
用是:不允许流过 z 的信息量多于 β。跟沙漏不同的是,沙漏的
沙过了瓶颈就完事了,而信息过了信息瓶颈后,还需要完成它要
完成的任务(分类、回归等),所以模型迫不得已,只好想办法让
最重要的信息通过瓶颈。这就是信息瓶颈的原理!
Beta 越大,overlap 越大。Beta 为 0 的时候,类似于一个 Look-
up table,就几乎没有 overlap。When β>1, it applies a
stronger constraint on the latent bottleneck and limits
the representation capacity of z. For some conditionally
independent generative factors, keeping them
disentangled is the most efficient representation.
Therefore a higher β encourages more efficient latent
encoding and further encourages the disentanglement.
Meanwhile, a higher β may create a trade-off between
reconstruction quality and the extent of disentanglement.
把十字换成正方形,没有太多的耦合,(耦合举例,可以看成是多
个高斯分布)当 beta 很大的时候,相当于 latent factor 内部
的变量整齐的排列,很少的 overlap,并不是解耦合的定义。
各向同性 Isotropic: 指物体的物理、化学等方面的性质不会因
方向的不同而有所变化的特性,即某一物体在不同的方向所测得
的性能数值完全相同,亦称均质性。
各向异性 Anisotropic: 指物质的全部或部分化学、物理等性质
随着方向的改变而有所变化,在不同的方向上呈现出差异的性质。
beta 越大,后验和先验越像,z 会聚成几个团,失去了对数据的
区分或者准确的建模,
资源评论
郭逗
- 粉丝: 30
- 资源: 318
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功