下载频道  >  qq_27206435的资源
  • Deep-Learning-with-PyTorch.pdf

    简短的 PyTorch 官方教程,《Deep Learning with PyTorch》一书制作完后,加注了书签,更加易读。

    2020-05-07
    1
  • NLP算法面试必备!史上最全!PTMs:NLP预训练模型的全面总结.md

    **预训练模型(Pre-trained Models,PTMs)**的出现将NLP带入了一个全新时代。2020年3月18日,**邱锡鹏老师**发表了**关于NLP预训练模型的综述《Pre-trained Models for Natural Language Processing: A Survey》**[[1\]](https://zhuanlan.zhihu.com/p/115014536#ref_1),这是一篇**全面的综述**,**系统**地对PTMs进行了**归纳分类**。 知乎上发表的本文以此篇综述论文为主要参考,通过借鉴不同的归纳方法进行总结,同时也**整合**了专栏之前已经介绍过的《[nlp中的词向量对比](https://zhuanlan.zhihu.com/p/56382372)》和《[nlp中的预训练语言模型总结](https://zhuanlan.zhihu.com/p/76912493)》**两篇文章,以QA形式对PTMs进行全面总结归纳**。 本文是.md笔记档

    2020-04-08
    10
  • 模块化、反事实推理、特征分离,「因果表示学习」的最新研究都在讲什么?.zip

    本文精选了几篇**因果表示学习**领域的最新文献,并细致分析了不同方法的基本架构,希望能帮助感兴趣的你对**因果学习应用于机器学习**的方向和可能一探究竟。 提取模块化结构(Learning modular structures) 反事实推理(Counterfactual) 平衡因果表示学习 收录了此文补充引用的文章 图灵奖得主Judea Pearl:机器学习的理论局限性与因果推理的七大特性 最后,本.md笔记收录了丁鹏老师的因果推断简介连载文章

    2020-04-08
    4
  • ICLR 2020 Bengio 一作论文:因果机制、元学习与模型泛化如何产生关联?.zip

    Yoshua Bengio 等人基于学习器适应新分布的速度提出一种元学习因果结构,假设新分布由干预、智能体动作以及其它非稳态(non-stationarity)导致的稀疏分布变化引起,由此得出“正确的因果结构选择 会使学习器**更快地适应修改后的分布**”。该假设的研究将“适应修改后分布的速度”作为元学习的目标,表明“这可用于决定两个观测变量之间的因果关系”。研究结论的价值即特点和优势发现是,分布变化无需对应标准干预,学习器不具备关于干预的直接知识。因果结构可通过连续变量进行参数化,并以端到端的形式学得。研究探讨了想法的如何应用,来满足“独立机制 以及 动作和非稳态 导致的 机制内微小稀疏变化 ”的假设。

    2020-04-08
    8
  • 二值神经网络(Binary Neural Networks)最新综述.md

    知乎转引的此文介绍了来自北京航空航天大学刘祥龙副教授研究团队的最新综述文章 **Binary Neural Networks: A Survey**,合作者包括中国电子科技大学的宋井宽教授和意大利特伦托大学计算机系主任 Nicu Sebe 教授。在阅读基础上,做了.md的笔记。 摘要如下: 神经网络二值化能够**最大程度地降低模型的存储占用和模型的计算量**,将神经网络中**原本 32 位浮点数参数量化至 1 位定点数**,**降低了模型部署的存储资源消耗,同时极大加速了神经网络的推断过程**。但二值化会不可避免地导致**严重的信息损失**,其**<u>量化函数不连续性也给深度网络的优化带来了困难</u>**。 近年来许多算法被提出致力于解决上述问题,并取得了令人满意的进展。在本文中,我们对这些方法进行了全面的总结和概括,主要分为**直接量化的朴素二值化方法**,以及使用**最小化量化误差**、**改善网络损失函数和减小梯度误差**等技术的**改进二值化方法**。 本文还调研了二值神经网络的**其他实用方面**,例如**硬件友好的设计和训练技巧**。然后,我们对**图像分类,目标检测和语义分割**等不同任务进行了**评估和讨论**。最后,本文展望了**未来研究可能面临的挑战**。

    2020-04-02
    2
  • 华为深度学习框架MindSpore正式开源:自动微分不止计算图.md

    今年的华为开发者大会 HDC 2020 上,除了**昇腾、鲲鹏等自研芯片硬件平台**之外,最令人期待的就是**深度学习框架 MindSpore 的开源**了。今天上午,华为 MindSpore **首席科学家陈雷**在活动中宣布这款产品正式开源,我们终于可以在开放平台上一睹它的真面目。 本文是根据机器之心报道的MindSpore 的开源介绍而整理的.md笔记 作为一款支持**端、边、云独立/协同的统一训练和推理框架,华为希望通过这款完整的软件堆栈,实现**一次性算子开发、一致的开发和调试体验**,以此帮助开发者实现**一次开发,应用在所有设备上平滑迁移**的能力。 三大创新能力:新编程范式,执行模式和协作方式 由**自动微分、自动并行、数据处理**等功能构成 开发算法即代码、运行高效、部署态灵活**的**特点**, 三层核心:从下往上分别是**后端运行时、计算图引擎及前端表示层**。 最大特点:采用了业界最新的 **Source-to-Source 自动微分**,它能**利用编译器及编程语言的底层技术**,进一步**优化以支持更好的微分表达**。主流深度学习框架中主要有**三种自动微分技术,才用的不是静态计算图、动态计算图,而是基于**源码**转换:该技术源以**函数式编程框架**为基础,以**即时编译(JIT)**的方式**在<u>中间表达</u>(编译过程中程序的表达形式)上做自动微分变换**,支持**<u>复杂控制流场景、高阶函数和闭包</u>**。 MindSpore 主要概念就是张量、算子、单元和模型 其代码有两个比较突出的亮点:计算图的调整,动态图与静态图可以一行代码切换;自动并行特性,我们写的串行代码,只需要多加一行就能完成自动并行。

    2020-04-02
    29
  • 清华开源深度学习框架计图,开源超级玩家再进阶.md

    清华大学计算机系图形实验室宣布开源一个全新的深度学习框架: Jittor,中文名计图 。 Jittor 是一个采用元算子表达神经网络计算单元、完全基于动态编译(Just-in-Time)的深度学习框架。创新的元算子和统一计算图。元算子 在保证易用性的同时,能够实现更复杂、更高效的操作 。而 统一计算图 则是 融合了静态计算图和动态计算图的诸多优点,在易于使用的同时,提供高性能的优化 。本文介绍了其特性、超越 Pytorch的性能,背后的研发团队。为便于阅读而整理为此篇.md笔记

    2020-03-24
    2
  • 实操!数据分析人必须要会的模型:波士顿矩阵!.md

    以波士顿矩阵和安索夫矩阵为例,介绍数据分析基础思维的矩阵思维,即二元关系思维。用Excel演示。来源是“数据分析不是个事儿”的微信公众号文章,做了简单标记的md档。

    2020-03-24
    11
  • 原来Transformer就是一种图神经网络,这个概念你清楚吗?.md

    现为**南洋理工大学助理研究员的 Chaitanya Joshi 将为读者介绍<u>图神经网络和 Transformer 之间的内在联系</u>**。具体而言,作者首先介绍 **NLP 和 GNN 中模型架构的基本原理**,使用公式和图片来加以联系,然后讨论怎样能够推动这方面的进步。本文由智察机器人利用深度学习和知识图谱等技术, 从海量信息中自动发现并生成。共享此文前做了md标注,以期充分消化理解此文。

    2020-03-18
    7
  • 出自陶大程、叶杰平老师等大牛之手的 GAN 详细综述.rar

    出自陶大程、叶杰平老师等大牛之手的 GAN 详细综述,包括论文 A Review on Generative Adversarial Networks:Algorithms, Theory, and Applications,和对微信公众号分享的综述的整理的md笔记档,适合自学收藏。

    2020-03-11
    9
img
qq_27206435
  • 分享王者

    成功上传51个资源即可获取

关注 私信