RNN与时空建模:RNN+CNN,Zigzag与GHU,Eidetic RNN(memory pool),RNN图灵机
(内存机制,LSTM门结构控制)
RNN应用:
核心:embedding+网络特征学习
自然语言处理:embedding(Wordvec,NCE正负例,Hierarchical Softmax),文本分类,摘
要,问题回答,词标签
图:图embedding(deepwalk,unbiased deepwalk),图神经网络
推荐系统:传统方法,DNN,Tree-Based DNN
GAN:
GAN基础:基本流程,DCGAN,损失函数改进(Wassenstein Distance),评价(IS,FID)
模式坍塌:主要解决方法(SN-GAN,Gradient Penalty),带标签解决(Conditional),有配对解
决
GAN高级网络:self attention,BigGAN
RL:
RL定义:马尔科夫决策过程MDP
基于Q-value的方法-DQN:Monte Carlo方法,Temporal Difference方法,Q-value改进(记
忆重放,double网络,拆分)
基于策略的方法-Policy Gradient:基本流程,Actor-Critic改进,比DQN的优势
AlphaGo,AlphaGo Zero:AlphaGo=MCTS(蒙特卡洛树搜索)+策略网络(监督学习+强化学
习)+值网络,AlphaGo Zero一个网络,全靠生成数据,大幅改进
RL的局限性还很大
思路总结
大力出奇迹:网络越深越好(只要你不梯度消失,不过拟合),越宽越好,batch越大越好(只要你有
卡),但是最好还是simpler is better
参数共享:减小参数量,提高泛化性,利用局部相关性等。
CNN在图片各个区域参数共享; RNN在所有时间参数共享;图卷积网络同一层都参数共享;
损失函数:分类的cross-entrophy,回归的L2,要限制网络为某种性质(比如正交矩阵)||WW^T-
I||,encoder-decoder重建有重建损失函数||重建的-需要的||_1(cycle loss是特殊形式)。无监督的NCE
损失函数(正负例,用于各种embedding),Hierarchical Softmax等,度量分布相似性的推土机距离
等。其余具体任务设置具体损失函数,比如点云重建,度量两个点云相关性的chamfer distance等。
各种Norm:目的基本都是让网络更smooth,训练更快,防止过拟合等。
BatchNorm对batch平均,layer norm对channel平均,weight norm直接修改参数网络范数。
Instance Norm对图片平均,目的是白化,消除内容图片的对比度影响。spectral norm是网络除以最
大|特征值|,控制lipchitz系数来防止模式坍塌
随机化:目的都是引入随机性,避免陷入贪心的局部最优解。
优化中SGD引入随机性,改进SGLD引入随机的noise。RL中Policy Gradient引入随机性以实现E-
greedy,探索利用的均衡。
融合:将多尺度的数据融合在一起,便于学习/利用多个层次的特征,网络拓宽。
Inception网络不同感受野/尺度特征融合,Resnext也是类似的思路。RNN图像分割需要低级特征(细
节)和高级特征(骨架)的融合。CNN目标检测需要不同尺度特征融合(FPN,SSD)(高级特征检测大
物体,低级特征检测小物体)。视频识别中fast-slow融合,slow为主fast为辅。
评论0
最新资源