• Feature Engineering Made Easy.rar

    Feature Engineering Made Easy特征工程入门到实践英文版

    0
    73
    3.9MB
    2019-10-20
    9
  • 解析深度学习:语音识别实践

    1 简介1 1.1 自动语音识别:更好的沟通之桥 1 1.1.1 人类之间的交流 2 1.1.2 人机交流 2 1.2 语音识别系统的基本结构 4 1.3 全书结构 6 1.3.1 第一部分:传统声学模型6 1.3.2 第二部分:深度神经网络6 1.3.3 第三部分:语音识别中的DNN-HMM 混合系统7 1.3.4 第四部分:深度神经网络中的特征表示学习 7 1.3.5 第五部分:高级的深度模型 7 第一部分传统声学模型9 2 混合高斯模型10 2.1 随机变量10 2.2 高斯分布和混合高斯随机变量11 2.3 参数估计13 2.4 采用混合高斯分布对语音特征建模 15 3 隐马尔可夫模型及其变体17 3.1 介绍17 3.2 马尔可夫链19 3.3 序列与模型 20 3.3.1 隐马尔可夫模型的性质21 3.3.2 隐马尔可夫模型的仿真22 3.3.3 隐马尔可夫模型似然度的计算22 3.3.4 计算似然度的高效算法24 3.3.5 前向与后向递归式的证明25 3.4 期望zui大化算法及其在学习HMM 参数中的应用 26 3.4.1 期望zui大化算法介绍 26 3.4.2 使用EM 算法来学习HMM 参数——Baum-Welch 算法 28 3.5 用于解码HMM 状态序列的维特比算法32 3.5.1 动态规划和维特比算法32 3.5.2 用于解码HMM 状态的动态规划算法33 3.6 隐马尔可夫模型和生成语音识别模型的变体35 3.6.1 用于语音识别的GMM-HMM 模型 36 3.6.2 基于轨迹和隐藏动态模型的语音建模和识别37 3.6.3 使用生成模型HMM 及其变体解决语音识别问题 38 第二部分深度神经网络41 4 深度神经网络42 4.1 深度神经网络框架42 4.2 使用误差反向传播来进行参数训练 45 4.2.1 训练准则 45 4.2.2 训练算法46 4.3 实际应用50 4.3.1 数据预处理51 4.3.2 模型初始化52 4.3.3 权重衰减52 4.3.4 丢弃法 53 4.3.5 批量块大小的选择55 4.3.6 取样随机化56 4.3.7 惯性系数 57 4.3.8 学习率和停止准则58 4.3.9 网络结构59 4.3.10 可复现性与可重启性 59 5 高级模型初始化技术61 5.1 受限玻尔兹曼机61 5.1.1 受限玻尔兹曼机的属性63 5.1.2 受限玻尔兹曼机参数学习66 5.2 深度置信网络预训练 69 5.3 降噪自动编码器预训练71 5.4 鉴别性预训练74 5.5 混合预训练75 5.6 采用丢弃法的预训练 75 第三部分语音识别中的深度神经网络–隐马尔可夫混合模型77 6 深度神经网络–隐马尔可夫模型混合系统78 6.1 DNN-HMM 混合系统 78 6.1.1 结构78 6.1.2 用CD-DNN-HMM 解码80 6.1.3 CD-DNN-HMM 训练过程81 6.1.4 上下文窗口的影响83 6.2 CD-DNN-HMM 的关键模块及分析 85 6.2.1 进行比较和分析的数据集和实验85 6.2.2 对单音素或者三音素的状态进行建模 87 6.2.3 越深越好88 6.2.4 利用相邻的语音帧89 6.2.5 预训练 90 6.2.6 训练数据的标注质量的影响 90 6.2.7 调整转移概率 91 6.3 基于KL 距离的隐马尔可夫模型91 7 训练和解码的加速93 7.1 训练加速93 7.1.1 使用多GPU 流水线反向传播94 7.1.2 异步随机梯度下降97 7.1.3 增广拉格朗日算法及乘子方向交替算法100 7.1.4 减小模型规模 101 7.1.5 其他方法102 7.2 加速解码103 7.2.1 并行计算103 7.2.2 稀疏网络105 7.2.3 低秩近似107 7.2.4 用大尺寸DNN 训练小尺寸DNN108 7.2.5 多帧DNN 109 8 深度神经网络序列鉴别性训练111 8.1 序列鉴别性训练准则 111 8.1.1 zui大相互信息 112 8.1.2 增强型MMI 113 8.1.3 zui小音素错误/状态级zui小贝叶斯风险114 8.1.4 统一的公式115 8.2 具体实现中的考量116 8.2.1 词图产生116 8.2.2 词图补偿117 8.2.3 帧平滑 119 8.2.4 学习率调整119 8.2.5 训练准则选择 120 8.2.6 其他考量120 8.3 噪声对比估计 121 8.3.1 将概率密度估计问题转换为二分类设计问题121 8.3.2 拓展到未归一化的模型123 8.3.3 在深度学习网络训练中应用噪声对比估计算法 124 第四部分深度神经网络中的特征表示学习127 9 深度神经网络中的特征表示学习128 9.1 特征和分类器的联合学习128 9.2 特征层级129 9.3 使用随意输入特征的灵活性 133 9.4 特征的鲁棒性 134 9.4.1 对说话人变化的鲁棒性134 9.4.2 对环境变化的鲁棒性 135 9.5 对环境的鲁棒性137 9.5.1 对噪声的鲁棒性138 9.5.2 对语速变化的鲁棒性 140 9.6 缺乏严重信号失真情况下的推广能力141 10 深度神经网络和混合高斯模型的融合144 10.1 在GMM-HMM 系统中使用由DNN 衍生的特征144 10.1.1 使用Tandem 和瓶颈特征的GMM-HMM 模型144 10.1.2 DNN-HMM 混合系统与采用深度特征的GMM-HMM 系统的比较147 10.2 识别结果融合技术149 10.2.1 识别错误票选降低技术(ROVER) 149 10.2.2 分段条件随机场(SCARF) 151 10.2.3 zui小贝叶斯风险词图融合153 10.3 帧级别的声学分数融合153 10.4 多流语音识别 154 11 深度神经网络的自适应技术157 11.1 深度神经网络中的自适应问题157 11.2 线性变换159 11.2.1 线性输入网络.159 11.2.2 线性输出网络 159 11.3 线性隐层网络 161 11.4 保守训练162 11.4.1 L2 正则项163 11.4.2 KL 距离正则项163 11.4.3 减少每个说话人的模型开销 165 11.5 子空间方法167 11.5.1 通过主成分分析构建子空间 167 11.5.2 噪声感知、说话人感知及设备感知训练168 11.5.3 张量172 11.6 DNN 说话人自适应的效果172 11.6.1 基于KL 距离的正则化方法 173 11.6.2 说话人感知训练174 第五部分先进的深度学习模型177 12 深度神经网络中的表征共享和迁移178 12.1 多任务和迁移学习178 12.1.1 多任务学习 178 12.1.2 迁移学习180 12.2 多语言和跨语言语音识别180 12.2.1 基于Tandem 或瓶颈特征的跨语言语音识别181 12.2.2 共享隐层的多语言深度神经网络182 12.2.3 跨语言模型迁移185 12.3 语音识别中深度神经网络的多目标学习188 12.3.1 使用多任务学习的鲁棒语音识别188 12.3.2 使用多任务学习改善音素识别189 12.3.3 同时识别音素和字素(graphemes) 190 12.4 使用视听信息的鲁棒语音识别 190 13 循环神经网络及相关模型192 13.1 介绍192 13.2 基本循环神经网络中的状态-空间公式194 13.3 沿时反向传播学习算法195 13.3.1 zui小化目标函数 196 13.3.2 误差项的递归计算196 13.3.3 循环神经网络权重的更新197 13.4 一种用于学习循环神经网络的原始对偶技术199 13.4.1 循环神经网络学习的难点199 13.4.2 回声状态(Echo-State)性质及其充分条件 199 13.4.3 将循环神经网络的学习转化为带约束的优化问题 200 13.4.4 一种用于学习RNN 的原始对偶方法201 13.5 结合长短时记忆单元(LSTM)的循环神经网络203 13.5.1 动机与应用203 13.5.2 长短时记忆单元的神经元架构204 13.5.3 LSTM-RNN 的训练205 13.6 循环神经网络的对比分析205 13.6.1 信息流方向的对比:自上而下还是自下而上 206 13.6.2 信息表征的对比:集中式还是分布式208 13.6.3 解释能力的对比:隐含层推断还是端到端学习209 13.6.4 参数化方式的对比:吝啬参数集合还是大规模参数矩阵 209 13.6.5 模型学习方法的对比:变分推理还是梯度下降210 13.6.6 识别正确率的比较211 13.7 讨论212 14 计算型网络214 14.1 计算型网络214 14.2 前向计算215 14.3 模型训练 218 14.4 典型的计算节点222 14.4.1 无操作数的计算节点 223 14.4.2 含一个操作数的计算节点223 14.4.3 含两个操作数的计算节点228 14.4.4 用来计算统计量的计算节点类型235 14.5 卷积神经网络 236 14.6 循环连接 239 14.6.1 只在循环中一个接一个地处理样本240 14.6.2 同时处理多个句子242 14.6.3 创建任意的循环神经网络243 15 总结及未来研究方向245 15.1 路线图 245 15.1.1 语音识别中的深度神经网络启蒙245 15.1.2 深度神经网络训练和解码加速248 15.1.3 序列鉴别性训练248 15.1.4 特征处理249 15.1.5 自适应 250 15.1.6 多任务和迁移学习251 15.1.7 卷积神经网络 251 15.1.8 循环神经网络和长短时记忆神经网络251 15.1.9 其他深度模型 252 15.2 技术前沿和未来方向 252 15.2.1 技术前沿简析252 15.2.2 未来方向253

    0
    689
    132.68MB
    2018-07-02
    48
  • deep learning with pytorch pdf版本

    deep learning with pytorch pdf版本pdf版本pdf版本pdf

    3
    1546
    9.07MB
    2018-07-02
    49
  • deep learning with pytorch源代码

    deep learning with pytorch源代码注意只有源代码!!!

    0
    167
    17.39MB
    2018-07-02
    16
  • Deep Learning with PyTorch

    deep learning with pytorch 的 epub,注意是.epub.epub.epub.epub.epub.epub.epub.epub.epub.epub

    0
    150
    17.23MB
    2018-07-02
    10
  • 深度学习入门之PyTorch

    第1 章深度学习介绍1 1.1 人工智能. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 数据挖掘、机器学习与深度学习. . . . . . . . . . . . . . . . . . . . . . . 2 1.2.1 数据挖掘. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.2 机器学习. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.3 深度学习. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 学习资源与建议. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 第2 章深度学习框架11 2.1 深度学习框架介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2 PyTorch 介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.1 什么是PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.2 为何要使用PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.3 配置PyTorch 深度学习环境. . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3.1 操作系统的选择. . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3.2 Python 开发环境的安装. . . . . . . . . . . . . . . . . . . . . . . . 16 2.3.3 PyTorch 的安装. . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 第3 章多层全连接神经网络24 3.1 热身:PyTorch 基础. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.1.1 Tensor(张量) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.1.2 Variable(变量) . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.1.3 Dataset(数据集) . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.1.4 nn.Module(模组) . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1.5 torch.optim(优化) . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.1.6 模型的保存和加载. . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.2 线性模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.2.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.2.2 一维线性回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.2.3 多维线性回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2.4 一维线性回归的代码实现. . . . . . . . . . . . . . . . . . . . . . 35 3.2.5 多项式回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.3 分类问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.3.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.3.2 Logistic 起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.3.3 Logistic 分布. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.3.4 二分类的Logistic 回归. . . . . . . . . . . . . . . . . . . . . . . . 43 3.3.5 模型的参数估计. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.3.6 Logistic 回归的代码实现. . . . . . . . . . . . . . . . . . . . . . . 45 3.4 简单的多层全连接前向网络. . . . . . . . . . . . . . . . . . . . . . . . . 49 3.4.1 模拟神经元. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.4.2 单层神经网络的分类器. . . . . . . . . . . . . . . . . . . . . . . . 50 3.4.3 激活函数. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.4.4 神经网络的结构. . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3.4.5 模型的表示能力与容量. . . . . . . . . . . . . . . . . . . . . . . . 55 3.5 深度学习的基石:反向传播算法. . . . . . . . . . . . . . . . . . . . . . . 57 3.5.1 链式法则. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.5.2 反向传播算法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.5.3 Sigmoid 函数举例. . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.6 各种优化算法的变式. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.6.1 梯度下降法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.6.2 梯度下降法的变式. . . . . . . . . . . . . . . . . . . . . . . . . . 62 3.7 处理数据和训练模型的技巧. . . . . . . . . . . . . . . . . . . . . . . . . 64 3.7.1 数据预处理. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.7.2 权重初始化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3.7.3 防止过拟合. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.8 多层全连接神经网络实现MNIST 手写数字分类. . . . . . . . . . . . . . 69 3.8.1 简单的三层全连接神经网络. . . . . . . . . . . . . . . . . . . . . 70 3.8.2 添加激活函数. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3.8.3 添加批标准化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.8.4 训练网络. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 第4 章卷积神经网络76 4.1 主要任务及起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.2 卷积神经网络的原理和结构. . . . . . . . . . . . . . . . . . . . . . . . . 77 4.2.1 卷积层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.2.2 池化层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.2.3 全连接层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.2.4 卷积神经网络的基本形式. . . . . . . . . . . . . . . . . . . . . . 85 4.3 PyTorch 卷积模块. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.3.1 卷积层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.3.2 池化层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.3.3 提取层结构. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.3.4 如何提取参数及自定义初始化. . . . . . . . . . . . . . . . . . . . 91 4.4 卷积神经网络案例分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.4.1 LeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.4.2 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.4.3 VGGNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 4.4.4 GoogLeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.4.5 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.5 再实现MNIST 手写数字分类. . . . . . . . . . . . . . . . . . . . . . . . . 103 4.6 图像增强的方法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.7 实现cifar10 分类. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 第5 章循环神经网络111 5.1 循环神经网络. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5.1.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5.1.2 循环神经网络的基本结构. . . . . . . . . . . . . . . . . . . . . . 112 5.1.3 存在的问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.2 循环神经网络的变式:LSTM 与GRU . . . . . . . . . . . . . . . . . . . . 116 5.2.1 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.2.2 GRU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.2.3 收敛性问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 5.3 循环神经网络的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . . 122 5.3.1 PyTorch 的循环网络模块. . . . . . . . . . . . . . . . . . . . . . . 122 5.3.2 实例介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 5.4 自然语言处理的应用. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 5.4.1 词嵌入. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 5.4.2 词嵌入的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . . 133 5.4.3 N Gram 模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 5.4.4 单词预测的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . 134 5.4.5 词性判断. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 5.4.6 词性判断的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . 137 5.5 循环神经网络的更多应用. . . . . . . . . . . . . . . . . . . . . . . . . . . 140 5.5.1 Many to one . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 5.5.2 Many to Many(shorter) . . . . . . . . . . . . . . . . . . . . . . . 141 5.5.3 Seq2seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 5.5.4 CNN+RNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 第6 章生成对抗网络144 6.1 生成模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 6.1.1 自动编码器. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.1.2 变分自动编码器. . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 6.2 生成对抗网络. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 6.2.1 何为生成对抗网络. . . . . . . . . . . . . . . . . . . . . . . . . . 153 6.2.2 生成对抗网络的数学原理. . . . . . . . . . . . . . . . . . . . . . 160 6.3 Improving GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 6.3.1 Wasserstein GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 6.3.2 Improving WGAN . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 6.4 应用介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 6.4.1 Conditional GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 6.4.2 Cycle GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 第7 章深度学习实战173 7.1 实例一――猫狗大战:运用预训练卷积神经网络进行特征提取与预测. 173 7.1.1 背景介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 7.1.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 7.1.3 代码实现. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 7.1.4 总结. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 7.2 实例二――Deep Dream:探索卷积神经网络眼中的世界. . . . . . . . . 183 7.2.1 原理介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 7.2.2 预备知识:backward . . . . . . . . . . . . . . . . . . . . . . . . . 185 7.2.3 代码实现. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 7.2.4 总结. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 7.3 实例三――Neural-Style:使用PyTorch 进行风格迁移. . . . . . . . . . . 196 7.3.1 背景介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 7.3.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 7.3.3 代码实现. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 7.3.4 总结. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 7.4 实例四――Seq2seq:通过RNN 实现简单的Neural Machine Translation . 205 7.4.1 背景介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 7.4.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 7.4.3 代码实现. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 7.4.4 总结. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

    3
    0
    50.62MB
    2018-07-02
    3
  • 贝叶斯思维 统计建模的Python学习法

     贝叶斯方法正在变得越来越常见与重要,但是却没有太多可以借鉴的资料来帮助初学者。基于Allen Downey在大学讲授的本科课程,本书的计算方法能帮助你获得一个良好的开端。   使用已有的编程技巧学习和理解贝叶斯统计   处理估计、预测、决策分析、假设的证据、假设检验等问题   从简单的例子开始,包括硬币问题、M&Ms;豆问题、《龙与地下城》勇士投骰子问题、彩弹游戏和冰球比赛问题   学习计算方法,解决诸如SAT分数含义、模拟肾肿瘤和人体微生物建模问题 内容简介

    0
    197
    15.32MB
    2018-06-18
    10
  • 统计思维:程序员数学之概率统计

    统计思维:程序员数学之概率统计完整版! 《统计思维:程序员数学之概率统计(第2版)》是一本以全新视角讲解概率统计的入门图书。抛开经典的数学分析,Downey手把手教你用编程理解统计学。 具体说来,《统计思维:程序员数学之概率统计(第2版)》通过一个案例研究,介绍探索性数据分析的全过程:从收集数据、生成统计信息,到发现模式、验证假设。同时研究分布、概率规则、可视化和其他多种工具及概念。此外,第2版新增了回归、时间序列分析、生存分析和分析方法等章节。

    0
    0
    5.71MB
    2018-06-18
    3
  • Learning Probabilistic Graphical Models in R

    Learning Probabilistic Graphical Models in R 英文版Learning Probabilistic Graphical Models in R 英文版Learning Probabilistic Graphical Models in R 英文版Learning Probabilistic Graphical Models in R 英文版

    0
    90
    3.19MB
    2018-06-16
    10
  • Reinforcement Learning with Tensorflow(conv)

    系统阐述了使用tensorflow如果构建强化学习算法。。。。。。。。。。。。。。。。。。。。。。

    0
    42
    18.47MB
    2018-06-13
    8
关注 私信
上传资源赚积分or赚钱