- 本课程介绍
- 神经元、多层感知器和人工智能
- 理论分析:梯度下降算法
- 理论分析:反向传播算法
- 思路分析:如何利用Python实现多层感知器?
- Anaconda环境搭建、数据准备
- 代码实践:MLP的前向传播
- 代码实践:MLP的反向传播
- 代码实践:梯度检验
- 代码实践:探索各种激活函数
- 代码实践:探索各种权重初始化
- 代码实践:探索各种优化算法
- 理论分析:BatchNormalization
- 代码实践:BatchNormalization
- 理论分析:CNN的前向传播
- 理论分析:CNN的反向传播
- 深度学习框架Caffe基础入门
- 思路分析:如何设计自己的框架?
- 环境准备:Json、Armadillo、Protobuf
- 代码实践:利用json定义网络结构
- 代码实践:设计内部数据结构——Blob
- 代码实践:加载Mnist数据集到Blob
- 代码实践:逐层构造数据Blob和梯度Blob
- 代码实践:逐层初始化(上)
- 代码实践:逐层初始化(下)
- 代码实践:将Blob切割为mini-batch
- 代码实践:卷积层的前向传播
- 代码实践:激活层、池化层的前向传播
- 代码实践:全连接层、损失层的前向传播
- 代码实践:损失层、全连接层的反向传播
- 代码实践:池化层、激活层的反向传播
- 代码实践:卷积层的反向传播
- 代码实践:模型参数优化和评估
- 添砖加瓦:实现模型微调功能(fine-tune)
- 添砖加瓦:实现SVM损失层
- 添砖加瓦:实现更多的优化器
- 添砖加瓦:实现对L2正则化的支持
- 添砖加瓦:实现Dropout层
- 添砖加瓦:实现BN层和Scale层
- 添砖加瓦:实现通用的图片数据接口
- 总结与展望
0/1024
暂无留言