神经网络与深度学习实战:Python+Keras+TensorFlow
电子书推荐
-
深度学习轻松学 评分:
作者: 冯超 出版社: 电子工业出版社 出品方: 博文视点 副标题: 核心算法与视觉实践 出版年: 2017-7 页数: 360 定价: 79.00 装帧: 平装 ISBN: 9787121317132
上传时间:2018-10 大小:93.26MB
- 8.71MB
复旦大学_深度学习与神经网络书籍
2019-04-08知乎地址:https://zhuanlan.zhihu.com/p/61591812 随书练习题:https://github.com/nndl/exercise 总体而言,这本书从基础到研究前沿介绍了深度学习的核心概念与理论。我们不仅能了解到全连接、卷积和循环等基本深度神经网络网络,同时还能学习到前沿的 Transformer 等模型,当然所需的数学基础在附录也都是有提供的。这本 446 页的深度学习开放教科书,足够我们了解 DL 的前前后后。
- 20.47MB
《Deep Learning》Yoshua Bengio即将出版的深度学习书PDF整理
2015-11-20根据11-18版本整理,对上一个整理版本的更新。
- 2.32MB
文本挖掘课程PDF
2018-06-17词向量模板PPT文档,从深度学习技术的基础讲起,较容易入门。
- 1022KB
【智能】【On Intelligence】Jeff Hawkins.pdf
2018-02-06【智能】【On Intelligence】Jeff Hawkins.pdf 【智能】【On Intelligence】Jeff Hawkins.pdf 【智能】【On Intelligence】Jeff Hawkins.pdf 【智能】【On Intelligence】Jeff Hawkins.pdf
- 3.15MB
PyTorch介绍及入门pdf
2017-06-13PyTorch介绍及入门pdf,英文的,讲得很详细。
- 186KB
深度学习轻松学核心算法与视觉实践源码
2018-08-09深度学习轻松学核心算法与视觉实践源代码 为python语言编写
- 11.53MB
深度学习轻松学:核心算法与视觉实践 源代码
2018-12-26深度学习轻松学:核心算法与视觉实践的源代码和各章图片,源码为python语言编写
- 877B
PyTorch深度学习开发医学影像-视频教程网盘链接提取码下载 .txt
2023-07-17PyTorch是一个深度学习框架,它提供了各种工具和功能来构建、训练和部署深度学习模型。...这些工具和功能使得我们可以轻松地构建和训练深度学习模型,而不需要从头开始编写所有的代码。 视频大小:2.8G
- 6.25MB
手把手教程:零基础使用MATLAB完成基于深度学习U-Net模型的遥感影像分类
2019-07-05本教程给出完整的代码、操作手擦、原始训练及测试样本,旨在最大限度的简化操作步骤,让深度学习零基础的学生也可以轻松跑通深度学习代码,增加自信心和学习兴趣,为遥感影像分类提供一个可借鉴的新型的方法。
- 151.68MB
21个项目玩转深度学习代码
2018-10-19读者可以训练自己的图像识别模型、进行目标检测和人脸识别、完成一个风格迁移...读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorFlow 的过程变得轻松和高效。
- 654KB
人工智能深度学习和智慧农业
2018-06-20人工智能技术目前已经渗透到生活的各方面,我们离强人工智能还有很长的路要走,但基于某一方面超出人类能力的弱人工智能技术将推动我们的智慧产业。智慧农业作为一个国家基础产业,是我们社会发展的根本之一。把人工智能智能的深度学习融入智慧农业中,进行模式识别、归纳学习、决策树学习、类比学习、解释学习、神经网络学习等,将大大提高智慧农业的智慧水平。
- 1.95MB
Deep Learning(深度学习)学习笔记整理系列pdf
2015-09-09原创作者是Zouxy,整个笔记在他博客上,为了方便大家保存阅读,我将其整理成了pdf文档,希望大家多多交流。 目录 一、概述 2 二、背景 5 三、人脑视觉机理 8 四、关于特征 10 4.1、特征表示的粒度 10 4.2、初级(浅层)特征表示 11 4.3、结构性特征表示 14 4.4、需要有多少个特征? 16 五、Deep Learning的基本思想 17 六、浅层学习(Shallow Learning)和深度学习(Deep Learning) 18 七、Deep learning与Neural Network 20 八、Deep learning训练过程 21 8.1、传统神经网络的训练方法为什么不能用在深度神经网络 21 8.2、deep learning训练过程 22 九、Deep Learning的常用模型或者方法 23 9.1、AutoEncoder自动编码器 23 9.2、Sparse Coding稀疏编码 28 9.3、Restricted Boltzmann Machine (RBM)限制波尔兹曼机 31 9.4、Deep Belief Networks深信度网络 35 9.5、Convolutional Neural Networks卷积神经网络 38 十、总结与展望 50 十一、参考文献和Deep Learning学习资源(持续更新……) 51
- 138.24MB
深度学习Deep learing英文论文
2018-09-13深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。以上是部分深度学习引文论文合集
- 111.43MB
深度学习基础课程课件ppt
2018-04-08深度学习大讲堂出品的深度学习基础课程的课件ppt,pdf版本
- 2.57MB
神经网络&深度学习经典算法解析
2019-04-07给出了神经网络和深度学习的相关经典算法(BP神经网络和卷积神经网络)的解析和图解,简明易懂。
- 125.77MB
21个项目玩转深度学习_基于TensorFlow的实践详解
2019-03-12读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorFlow的过程变得轻松和高效。本书代码基于TensorFlow 1.4及以上版本,并介绍了TensorFlow中的一些新特性。
- 152.69MB
tensorflow21个项目玩转深度学习源代码.zip
2019-05-24读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorFlow 的过程变得轻松和高效。本书代码基于TensorFlow 1.4 及以上版本,并介绍了TensorFlow 中的一些新特性。
- 31.70MB
deeplearning深度学习笔记v5.1.pdf
2019-12-18通过各位大牛整理得到学习深度学习的优秀宝典,可以轻松学习,=——= 。
- 44KB
Python的深度学习库.docx
2023-06-12Python的深度学习库全文共6页,当前为第1页。Python的深度学习库全文共6页,当前为第1页。Python的深度学习库 Python的深度学习库全文共6页,当前为第1页。 Python的深度学习库全文共6页,当前为第1页。 深度学习...
- 4.2MB
【最厉害面试秘籍】伙伴们,2022深度学习算法最全面面试题 来给您拜年了!
2021-01-26本资料有详细的知识体系目录,从神经网络、CNN(LeNet/AlexNet/VGG/Inception/ResNet/DenseNet)、RNN、LSTM、反向传播、GAN、超参数优化七个模块来分别来详细...-2022准备从事深度学习算法岗位的小伙伴们抓紧来学习...
- 25.57MB
Deeplearning 深度学习笔记
2018-05-08吴恩达Coursera深度学习教程中文笔记,这些课程专为已有一定基础(基本的编程知识,熟悉Python、对机器学习有基本了解),想要尝试进入人工智能领域的计算机专业人士准备。在这5堂课中,学生将可以学习到深度学习的基础,学会构建神经网络,并用在包括吴恩达本人在内的多位业界顶尖专家指导下创建自己的机器学习项目。Deep Learning Specialization对卷积神经网络 (CNN)、递归神经网络 (RNN)、长短期记忆 (LSTM) 等深度学习常用的网络结构、工具和知识都有涉及。
- 2.49MB
深度学习工具使用
2018-01-17本学习笔记作用,知道如何利用caffe工具进行训练学习,非常有用
- 14.6MB
深度学习工具包 DeepLearningToolbox
2017-10-15深度学习工具包 Deprecation notice. ----- This toolbox is outdated and no longer maintained. There are much better tools available for deep learning than this toolbox, e.g. [Theano](http://deeplearning.net/software/theano/), [torch](http://torch.ch/) or [tensorflow](http://www.tensorflow.org/) I would suggest you use one of the tools mentioned above rather than use this toolbox. Best, Rasmus. DeepLearnToolbox ================ A Matlab toolbox for Deep Learning. Deep Learning is a new subfield of machine learning that focuses on learning deep hierarchical models of data. It is inspired by the human brain's apparent deep (layered, hierarchical) architecture. A good overview of the theory of Deep Learning theory is [Learning Deep Architectures for AI](http://www.iro.umontreal.ca/~bengioy/papers/ftml_book.pdf) For a more informal introduction, see the following videos by Geoffrey Hinton and Andrew Ng. * [The Next Generation of Neural Networks](http://www.youtube.com/watch?v=AyzOUbkUf3M) (Hinton, 2007) * [Recent Developments in Deep Learning](http://www.youtube.com/watch?v=VdIURAu1-aU) (Hinton, 2010) * [Unsupervised Feature Learning and Deep Learning](http://www.youtube.com/watch?v=ZmNOAtZIgIk) (Ng, 2011) If you use this toolbox in your research please cite [Prediction as a candidate for learning deep hierarchical models of data](http://www2.imm.dtu.dk/pubdb/views/publication_details.php?id=6284) ``` @MASTERSTHESIS\{IMM2012-06284, author = "R. B. Palm", title = "Prediction as a candidate for learning deep hierarchical models of data", year = "2012", } ``` Contact: rasmusbergpalm at gmail dot com Directories included in the toolbox ----------------------------------- `NN/` - A library for Feedforward Backpropagation Neural Networks `CNN/` - A library for Convolutional Neural Networks `DBN/` - A library for Deep Belief Networks `SAE/` - A library for Stacked Auto-Encoders `CAE/` - A library for Convolutional Auto-Encoders `util/` - Utility functions used by the libraries `data/` - Data used by the examples `tests/` - unit tests to verify toolbox is working For references on each library check REFS.md Setup ----- 1. Download. 2. addpath(genpath('DeepLearnToolbox')); Example: Deep Belief Network --------------------- ```matlab function test_example_DBN load mnist_uint8; train_x = double(train_x) / 255; test_x = double(test_x) / 255; train_y = double(train_y); test_y = double(test_y); %% ex1 train a 100 hidden unit RBM and visualize its weights rand('state',0) dbn.sizes = [100]; opts.numepochs = 1; opts.batchsize = 100; opts.momentum = 0; opts.alpha = 1; dbn = dbnsetup(dbn, train_x, opts); dbn = dbntrain(dbn, train_x, opts); figure; visualize(dbn.rbm{1}.W'); % Visualize the RBM weights %% ex2 train a 100-100 hidden unit DBN and use its weights to initialize a NN rand('state',0) %train dbn dbn.sizes = [100 100]; opts.numepochs = 1; opts.batchsize = 100; opts.momentum = 0; opts.alpha = 1; dbn = dbnsetup(dbn, train_x, opts); dbn = dbntrain(dbn, train_x, opts); %unfold dbn to nn nn = dbnunfoldtonn(dbn, 10); nn.activation_function = 'sigm'; %train nn opts.numepochs = 1; opts.batchsize = 100; nn = nntrain(nn, train_x, train_y, opts); [er, bad] = nntest(nn, test_x, test_y); assert(er < 0.10, 'Too big error'); ``` Example: Stacked Auto-Encoders --------------------- ```matlab function test_example_SAE load mnist_uint8; train_x = double(train_x)/255; test_x = double(test_x)/255; train_y = double(train_y); test_y = double(test_y); %% ex1 train a 100 hidden unit SDAE and use it to initialize a FFNN % Setup and train a stacked denoising autoencoder (SDAE) rand('state',0) sae = saesetup([784 100]); sae.ae{1}.activation_function = 'sigm'; sae.ae{1}.learningRate = 1; sae.ae{1}.inputZeroMaskedFraction = 0.5; opts.numepochs = 1; opts.batchsize = 100; sae = saetrain(sae, train_x, opts); visualize(sae.ae{1}.W{1}(:,2:end)') % Use the SDAE to initialize a FFNN nn = nnsetup([784 100 10]); nn.activation_function = 'sigm'; nn.learningRate = 1; nn.W{1} = sae.ae{1}.W{1}; % Train the FFNN opts.numepochs = 1; opts.batchsize = 100; nn = nntrain(nn, train_x, train_y, opts); [er, bad] = nntest(nn, test_x, test_y); assert(er < 0.16, 'Too big error'); ``` Example: Convolutional Neural Nets --------------------- ```matlab function test_example_CNN load mnist_uint8; train_x = double(reshape(train_x',28,28,60000))/255; test_x = double(reshape(test_x',28,28,10000))/255; train_y = double(train_y'); test_y = double(test_y'); %% ex1 Train a 6c-2s-12c-2s Convolutional neural network %will run 1 epoch in about 200 second and get around 11% error. %With 100 epochs you'll get around 1.2% error rand('state',0) cnn.layers = { struct('type', 'i') %input layer struct('type', 'c', 'outputmaps', 6, 'kernelsize', 5) %convolution layer struct('type', 's', 'scale', 2) %sub sampling layer struct('type', 'c', 'outputmaps', 12, 'kernelsize', 5) %convolution layer struct('type', 's', 'scale', 2) %subsampling layer }; cnn = cnnsetup(cnn, train_x, train_y); opts.alpha = 1; opts.batchsize = 50; opts.numepochs = 1; cnn = cnntrain(cnn, train_x, train_y, opts); [er, bad] = cnntest(cnn, test_x, test_y); %plot mean squared error figure; plot(cnn.rL); assert(er<0.12, 'Too big error'); ``` Example: Neural Networks --------------------- ```matlab function test_example_NN load mnist_uint8; train_x = double(train_x) / 255; test_x = double(test_x) / 255; train_y = double(train_y); test_y = double(test_y); % normalize [train_x, mu, sigma] = zscore(train_x); test_x = normalize(test_x, mu, sigma); %% ex1 vanilla neural net rand('state',0) nn = nnsetup([784 100 10]); opts.numepochs = 1; % Number of full sweeps through data opts.batchsize = 100; % Take a mean gradient step over this many samples [nn, L] = nntrain(nn, train_x, train_y, opts); [er, bad] = nntest(nn, test_x, test_y); assert(er < 0.08, 'Too big error'); %% ex2 neural net with L2 weight decay rand('state',0) nn = nnsetup([784 100 10]); nn.weightPenaltyL2 = 1e-4; % L2 weight decay opts.numepochs = 1; % Number of full sweeps through data opts.batchsize = 100; % Take a mean gradient step over this many samples nn = nntrain(nn, train_x, train_y, opts); [er, bad] = nntest(nn, test_x, test_y); assert(er < 0.1, 'Too big error'); %% ex3 neural net with dropout rand('state',0) nn = nnsetup([784 100 10]); nn.dropoutFraction = 0.5; % Dropout fraction opts.numepochs = 1; % Number of full sweeps through data opts.batchsize = 100; % Take a mean gradient step over this many samples nn = nntrain(nn, train_x, train_y, opts); [er, bad] = nntest(nn, test_x, test_y); assert(er < 0.1, 'Too big error'); %% ex4 neural net with sigmoid activation function rand('state',0) nn = nnsetup([784 100 10]); nn.activation_function = 'sigm'; % Sigmoid activation function nn.learningRate = 1; % Sigm require a lower learning rate opts.numepochs = 1; % Number of full sweeps through data opts.batchsize = 100; % Take a mean gradient step over this many samples nn = nntrain(nn, train_x, train_y, opts); [er, bad] = nntest(nn, test_x, test_y); assert(er < 0.1, 'Too big error'); %% ex5 plotting functionality rand('state',0) nn = nnsetup([784 20 10]); opts.numepochs = 5; % Number of full sweeps through data nn.output = 'softmax'; % use softmax output opts.batchsize = 1000; % Take a mean gradient step over this many samples opts.plot = 1; % enable plotting nn = nntrain(nn, train_x, train_y, opts); [er, bad] = nntest(nn, test_x, test_y); assert(er < 0.1, 'Too big error'); %% ex6 neural net with sigmoid activation and plotting of validation and training error % split training data into training and validation data vx = train_x(1:10000,:); tx = train_x(10001:end,:); vy = train_y(1:10000,:); ty = train_y(10001:end,:); rand('state',0) nn = nnsetup([784 20 10]); nn.output = 'softmax'; % use softmax output opts.numepochs = 5; % Number of full sweeps through data opts.batchsize = 1000; % Take a mean gradient step over this many samples opts.plot = 1; % enable plotting nn = nntrain(nn, tx, ty, opts, vx, vy); % nntrain takes validation set as last two arguments (optionally) [er, bad] = nntest(nn, test_x, test_y); assert(er < 0.1, 'Too big error'); ``` [![Bitdeli Badge](https://d2weczhvl823v0.cloudfront.net/rasmusbergpalm/deeplearntoolbox/trend.png)](https://bitdeli.com/free "Bitdeli Badge")
- 6.87MB
这个软件专门用来看图的
2018-09-20这个软件专门用来看图的,十分方便,而且可对图像做标记
- 43.42MB
吴恩达深度学习课程(deeplearning.ai) 视频做的笔记
2018-09-26压缩包有两个文件,一份是深度学习0.5-beta.pdf,一份是吴恩达深度学习内容的学习笔记,内容充实条理清晰,是非常好的深度学习资源
- 5.6MB
neural networks and deep learning 神经网络与深度学习
2019-02-21《神经网络与深度学习》- Michael Nielsen 神经网络是有史以来最美丽的编程模型之一。在传统的编程方法中,我们告诉计算机该做什么,将大问题分解成许多小的、精确定义的任务,计算机可以轻松执行。相比之下,在...
- 2.84MB
中国科学院大学深度学习课程实验作业——猫狗分类(代码+实验报告)
2021-01-14图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的...实验表明,在给定的验证集上,该方法轻松达到了88%+的准确率,取得了不错的性能效果。 关键字: 猫狗分类;pytorch;VGG16;计算机视觉
- 3.4MB
flowerizer:使用深度学习轻松绘制花朵的工具
2021-05-17一种使用深度学习轻松绘制花朵图片作为Web服务样本的工具。 公告 运行检查环境 Mac mini(2014年末)macOS Sierra 的Python 3.6.2 依赖库 OpenCV 点子 numpy scipy pydot keras matplotlib h5py tensorflow枕头 ...
- 579KB
卷积递归深度学习在3D物体分类上的应用.doc
2020-04-253D传感技术的最新进展使人们有可能轻松地拍摄彩色和深度信息并存的图片,以提高物体识别的图像。目前,大多数方法对于这个新的3D方式依赖于非常精心设计的特征。引入一个基于卷积和递归神经网络(CNN和RNN)组合的...
- 11.55MB
拉普拉斯方程matlab代码-greenlearning:通过深度学习来学习格林的偏微分方程的功能
2021-05-26GreenLearning是一个基于Tensorflow的深度学习库,用于与关联的学习。 上还有其他数据集。 拉普拉斯算子的格林函数的精确知识。 以下是GreenLearning学习的具有可变系数的二阶微分算子的Green函数GreenLearning 。 ...