img
share 分享

深度学习实战

作者:Douwe Osinga

出版社:机械工业出版社

ISBN:9787111624837

VIP会员免费 (仅需0.8元/天) ¥ 45.0

温馨提示: 价值40000元的1000本电子书,VIP会员随意看哦!

电子书推荐

更多资源 展开

DeepLearning的深度学习基础 评分:

第三章 深度学习基础 3.1 基本概念 3.1.1 神经⽹网络组成? 3.1.2神经⽹网络有哪些常⽤用模型结构? 3.1.3如何选择深度学习开发平台? 3.1.4为什什么使⽤用深层表示? 3.1.5为什什么深层神经⽹网络难以训练? 3.1.6 深度学习和机器器学习有什什么不不同? 3.2 ⽹网络操作与计算 3.2.1前向传播与反向传播? 3.2.2如何计算神经⽹网络的输出? 3.2.3如何计算卷积神经⽹网络输出值? 3.2.4 如何计算 Pooling 层输出值输出值? 3.2.5 实例例理理解反向传播 3.2.6 神经⽹网络更更“深”有什什么意义? 3.3 超参数 3.3.1 什什么是超参数? 3.3.2 如何寻找超参数的最优值? 3.3.3 超参数搜索⼀一般过程? 3.4 激活函数 3.4.1 为什什么需要⾮非线性激活函数? 3.4.2 常⻅见的激活函数及图像 3.4.3 常⻅见激活函数的导数计算? 3.4.4 激活函数有哪些性质? 3.4.5 如何选择激活函数? 3.4.6 使⽤用 ReLu 激活函数的优点? 3.4.7什什么时候可以⽤用线性激活函数? 3.4.8 怎样理理解 Relu(< 0 时)是⾮非线性激活函数? 3.4.9 Softmax 函数如何应⽤用于多分类? 3.4.10 交叉熵代价函数定义及其求导推导。(贡献者:⻩黄钦建-华南理理⼯工⼤大学) 3.4.11 为什什么Tanh收敛速度⽐比Sigmoid快?(贡献者:⻩黄钦建-华南理理⼯工⼤大学) 3.5 Batch_Size 3.5.1 为什什么需要 Batch_Size? 3.5.2 Batch_Size 值的选择 3.5.3 在合理理范围内,增⼤大Batch_Size有何好处? 3.5.4 盲⽬目增⼤大 Batch_Size 有何坏处? 3.5.5 调节 Batch_Size 对训练效果影响到底如何? 3.5.6 受限于​客观条件⽆无法给⾜足够的Batch Size怎么办? 3.6 归⼀一化 3.6.1 归⼀一化含义? 3.6.2 为什什么要归⼀一化? 3.6.3 为什什么归⼀一化能提⾼高求解最优解速度? 3.6.4 3D 图解未归⼀一化 3.6.5 归⼀一化有哪些类型? 3.6.6 局部响应归⼀一化作⽤用 3.6.7理理解局部响应归⼀一化公式 3.6.8 什什么是批归⼀一化(Batch Normalization) 3.6.9 批归⼀一化(BN)算法的优点 3.6.10 批归⼀一化(BN)算法流程 3.6.11 批归⼀一化和群组归⼀一化 3.6.12 Weight Normalization和Batch Normalization 3.6.13 Batch Normalization在什什么时候⽤用⽐比较合适?(贡献者:⻩黄钦建-华南理理⼯工⼤大学) 3.7 预训练与微调(fine tuning) 3.7.1 为什什么⽆无监督预训练可以帮助深度学习? 3.7.2 什什么是模型微调fine tuning 3.7.3 微调时候⽹网络参数是否更更新? 3.7.4 fine-tuning 模型的三种状态 3.8 权重偏差初始化 3.8.1 全都初始化为 0 3.8.2 全都初始化为同样的值 3.8.3 初始化为⼩小的随机数 3.8.4 ⽤用 校准⽅方差 3.8.5 稀疏初始化(Sparse Initialazation) 3.8.6 初始化偏差 3.9 Softmax 3.9.1 Softmax 定义及作⽤用 3.9.2 Softmax 推导 3.10 理理解 One Hot Encodeing 原理理及作⽤用? 3.11 常⽤用的优化器器有哪些 3.12 Dropout 系列列问题 3.12.1 为什什么要正则化? 3.12.2 为什什么正则化有利利于预防过拟合? 3.12.3 理理解dropout正则化 3.12.4 dropout率的选择 3.12.5 dropout有什什么缺点? 3.13 深度学习中常⽤用的数据增强⽅方法(Data Augmentation)?(贡献者:⻩黄钦建-华南理理⼯工⼤大学) 3.14 如何理理解 Internal Covariate Shift?(贡献者:⻩黄钦建-华南理理⼯工⼤大学) 3.15 什什么时候⽤用local-conv?什什么时候⽤用全卷积?(贡献者:梁梁志成-魅族科技)

...展开详情
上传时间:2018-12 大小:5.08MB
热门图书