移动深度学习
电子书推荐
-
神经网络与深度学习(中文+英文原版) 评分:
国外大神Michael Nielsen的Neural Networks and Deep Learning英文原版和中文版,详细介绍了神经网络的原理以及优化方法。deep learning非常好的入门教材!
上传时间:2018-05 大小:15.99MB
- 10.14MB
基于深度学习的神经网络算法论文
2019-01-20基于深度学习的神经网络算法论文基于深度学习的神经网络算法论文基于深度学习的神经网络算法论文
- 13.57MB
深度学习神经网络(英文版PDF教程)
2019-04-14书的目录 Contents Website viii Acknowledgments ix Notation xiii 1 Introduction 1 1.1 Who Should Read This Book? . . . . . . . . . . . . . . . . . . . . 8 1.2 Historical Trends in Deep Learning . . . . . . . . . . . . . . . . . 12 I Applied Math and Machine Learning Basics 27 2 Linear Algebra 29 2.1 Scalars, Vectors, Matrices and Tensors . . . . . . . . . . . . . . . 29 2.2 Multiplying Matrices and Vectors . . . . . . . . . . . . . . . . . . 32 2.3 Identity and Inverse Matrices . . . . . . . . . . . . . . . . . . . . 34 2.4 Linear Dependence and Span . . . . . . . . . . . . . . . . . . . . 35 2.5 Norms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.6 Special Kinds of Matrices and Vectors . . . . . . . . . . . . . . . 38 2.7 Eigendecomposition . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2.8 Singular Value Decomposition . . . . . . . . . . . . . . . . . . . . 42 2.9 The Moore-Penrose Pseudoinverse . . . . . . . . . . . . . . . . . . 43 2.10 The Trace Operator . . . . . . . . . . . . . . . . . . . . . . . . . 44 2.11 The Determinant . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.12 Example: Principal Components Analysis . . . . . . . . . . . . . 45 3 Probability and Information Theory 51 3.1 Why Probability? . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 i CONTENTS 3.2 Random Variables . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3.3 Probability Distributions . . . . . . . . . . . . . . . . . . . . . . . 54 3.4 Marginal Probability . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.5 Conditional Probability . . . . . . . . . . . . . . . . . . . . . . . 57 3.6 The Chain Rule of Conditional Probabilities . . . . . . . . . . . . 57 3.7 Independence and Conditional Independence . . . . . . . . . . . . 58 3.8 Expectation, Variance and Covariance . . . . . . . . . . . . . . . 58 3.9 Common Probability Distributions . . . . . . . . . . . . . . . . . 60 3.10 Useful Properties of Common Functions . . . . . . . . . . . . . . 65 3.11 Bayes’ Rule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.12 Technical Details of Continuous Variables . . . . . . . . . . . . . 69 3.13 Information Theory . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.14 Structured Probabilistic Models . . . . . . . . . . . . . . . . . . . 73 4 Numerical Computation 78 4.1 Overflow and Underflow . . . . . . . . . . . . . . . . . . . . . . . 78 4.2 Poor Conditioning . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.3 Gradient-Based Optimization . . . . . . . . . . . . . . . . . . . . 80 4.4 Constrained Optimization . . . . . . . . . . . . . . . . . . . . . . 91 4.5 Example: Linear Least Squares . . . . . . . . . . . . . . . . . . . 94 5 Machine Learning Basics 96 5.1 Learning Algorithms . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.2 Capacity, Overfitting and Underfitting . . . . . . . . . . . . . . . 108 5.3 Hyperparameters and Validation Sets . . . . . . . . . . . . . . . . 118 5.4 Estimators, Bias and Variance . . . . . . . . . . . . . . . . . . . . 120 5.5 Maximum Likelihood Estimation . . . . . . . . . . . . . . . . . . 129 5.6 Bayesian Statistics . . . . . . . . . . . . . . . . . . . . . . . . . . 133 5.7 Supervised Learning Algorithms . . . . . . . . . . . . . . . . . . . 137 5.8 Unsupervised Learning Algorithms . . . . . . . . . . . . . . . . . 142 5.9 Stochastic Gradient Descent . . . . . . . . . . . . . . . . . . . . . 149 5.10 Building a Machine Learning Algorithm . . . . . . . . . . . . . . 151 5.11 Challenges Motivating Deep Learning . . . . . . . . . . . . . . . . 152 II Deep Networks: Modern Practices 162 6 Deep Feedforward Networks 164 6.1 Example: Learning XOR . . . . . . . . . . . . . . . . . . . . . . . 167 6.2 Gradient-Based Learning . . . . . . . . . . . . . . . . . . . . . . . 172 ii CONTENTS 6.3 Hidden Units . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 6.4 Architecture Design . . . . . . . . . . . . . . . . . . . . . . . . . . 193 6.5 Back-Propagation and Other Differentiation Algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 6.6 Historical Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 7 Regularization for Deep Learning 224 7.1 Parameter Norm Penalties . . . . . . . . . . . . . . . . . . . . . . 226 7.2 Norm Penalties as Constrained Optimization . . . . . . . . . . . . 233 7.3 Regularization and Under-Constrained Problems . . . . . . . . . 235 7.4 Dataset Augmentation . . . . . . . . . . . . . . . . . . . . . . . . 236 7.5 Noise Robustness . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 7.6 Semi-Supervised Learning . . . . . . . . . . . . . . . . . . . . . . 240 7.7 Multitask Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 241 7.8 Early Stopping . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 7.9 Parameter Tying and Parameter Sharing . . . . . . . . . . . . . . 249 7.10 Sparse Representations . . . . . . . . . . . . . . . . . . . . . . . . 251 7.11 Bagging and Other Ensemble Methods . . . . . . . . . . . . . . . 253 7.12 Dropout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 7.13 Adversarial Training . . . . . . . . . . . . . . . . . . . . . . . . . 265 7.14 Tangent Distance, Tangent Prop and Manifold Tangent Classifier . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 8 Optimization for Training Deep Models 271 8.1 How Learning Differs from Pure Optimization . . . . . . . . . . . 272 8.2 Challenges in Neural Network Optimization . . . . . . . . . . . . 279 8.3 Basic Algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 8.4 Parameter Initialization Strategies . . . . . . . . . . . . . . . . . 296 8.5 Algorithms with Adaptive Learning Rates . . . . . . . . . . . . . 302 8.6 Approximate Second-Order Methods . . . . . . . . . . . . . . . . 307 8.7 Optimization Strategies and Meta-Algorithms . . . . . . . . . . . 313 9 Convolutional Networks 326 9.1 The Convolution Operation . . . . . . . . . . . . . . . . . . . . . 327 9.2 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 9.3 Pooling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 9.4 Convolution and Pooling as an Infinitely Strong Prior . . . . . . . 339 9.5 Variants of the Basic Convolution Function . . . . . . . . . . . . 342 9.6 Structured Outputs . . . . . . . . . . . . . . . . . . . . . . . . . . 352 9.7 Data Types . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 iii CONTENTS 9.8 Efficient Convolution Algorithms . . . . . . . . . . . . . . . . . . 356 9.9 Random or Unsupervised Features . . . . . . . . . . . . . . . . . 356 9.10 The Neuroscientific Basis for Convolutional Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 9.11 Convolutional Networks and the History of Deep Learning . . . . 365 10 Sequence Modeling: Recurrent and Recursive Nets 367 10.1 Unfolding Computational Graphs . . . . . . . . . . . . . . . . . . 369 10.2 Recurrent Neural Networks . . . . . . . . . . . . . . . . . . . . . 372 10.3 Bidirectional RNNs . . . . . . . . . . . . . . . . . . . . . . . . . . 388 10.4 Encoder-Decoder Sequence-to-Sequence Architectures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 10.5 Deep Recurrent Networks . . . . . . . . . . . . . . . . . . . . . . 392 10.6 Recursive Neural Networks . . . . . . . . . . . . . . . . . . . . . . 394 10.7 The Challenge of Long-Term Dependencies . . . . . . . . . . . . . 396 10.8 Echo State Networks . . . . . . . . . . . . . . . . . . . . . . . . . 399 10.9 Leaky Units and Other Strategies for Multiple Time Scales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402 10.10 The Long Short-Term Memory and Other Gated RNNs . . . . . . 404 10.11 Optimization for Long-Term Dependencies . . . . . . . . . . . . . 408 10.12 Explicit Memory . . . . . . . . . . . . . . . . . . . . . . . . . . . 412 11 Practical Methodology 416 11.1 Performance Metrics . . . . . . . . . . . . . . . . . . . . . . . . . 417 11.2 Default Baseline Models . . . . . . . . . . . . . . . . . . . . . . . 420 11.3 Determining Whether to Gather More Data . . . . . . . . . . . . 421 11.4 Selecting Hyperparameters . . . . . . . . . . . . . . . . . . . . . . 422 11.5 Debugging Strategies . . . . . . . . . . . . . . . . . . . . . . . . . 431 11.6 Example: Multi-Digit Number Recognition . . . . . . . . . . . . . 435 12 Applications 438 12.1 Large-Scale Deep Learning . . . . . . . . . . . . . . . . . . . . . . 438 12.2 Computer Vision . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 12.3 Speech Recognition . . . . . . . . . . . . . . . . . . . . . . . . . . 453 12.4 Natural Language Processing . . . . . . . . . . . . . . . . . . . . 456 12.5 Other Applications . . . . . . . . . . . . . . . . . . . . . . . . . . 473 iv CONTENTS III Deep Learning Research 482 13 Linear Factor Models 485 13.1 Probabilistic PCA and Factor Analysis . . . . . . . . . . . . . . . 486 13.2 Independent Component Analysis (ICA) . . . . . . . . . . . . . . 487 13.3 Slow Feature Analysis . . . . . . . . . . . . . . . . . . . . . . . . 489 13.4 Sparse Coding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492 13.5 Manifold Interpretation of PCA . . . . . . . . . . . . . . . . . . . 496 14 Autoencoders 499 14.1 Undercomplete Autoencoders . . . . . . . . . . . . . . . . . . . . 500 14.2 Regularized Autoencoders . . . . . . . . . . . . . . . . . . . . . . 501 14.3 Representational Power, Layer Size and Depth . . . . . . . . . . . 505 14.4 Stochastic Encoders and Decoders . . . . . . . . . . . . . . . . . . 506 14.5 Denoising Autoencoders . . . . . . . . . . . . . . . . . . . . . . . 507 14.6 Learning Manifolds with Autoencoders . . . . . . . . . . . . . . . 513 14.7 Contractive Autoencoders . . . . . . . . . . . . . . . . . . . . . . 518 14.8 Predictive Sparse Decomposition . . . . . . . . . . . . . . . . . . 521 14.9 Applications of Autoencoders . . . . . . . . . . . . . . . . . . . . 522 15 Representation Learning 524 15.1 Greedy Layer-Wise Unsupervised Pretraining . . . . . . . . . . . 526 15.2 Transfer Learning and Domain Adaptation . . . . . . . . . . . . . 534 15.3 Semi-Supervised Disentangling of Causal Factors . . . . . . . . . 539 15.4 Distributed Representation . . . . . . . . . . . . . . . . . . . . . . 544 15.5 Exponential Gains from Depth . . . . . . . . . . . . . . . . . . . 550 15.6 Providing Clues to Discover Underlying Causes . . . . . . . . . . 552 16 Structured Probabilistic Models for Deep Learning 555 16.1 The Challenge of Unstructured Modeling . . . . . . . . . . . . . . 556 16.2 Using Graphs to Describe Model Structure . . . . . . . . . . . . . 560 16.3 Sampling from Graphical Models . . . . . . . . . . . . . . . . . . 577 16.4 Advantages of Structured Modeling . . . . . . . . . . . . . . . . . 579 16.5 Learning about Dependencies . . . . . . . . . . . . . . . . . . . . 579 16.6 Inference and Approximate Inference . . . . . . . . . . . . . . . . 580 16.7 The Deep Learning Approach to Structured Probabilistic Models . . . . . . . . . . . . . . . . . . . . . . . . . 581 17 Monte Carlo Methods 587 17.1 Sampling and Monte Carlo Methods . . . . . . . . . . . . . . . . 587 v CONTENTS 17.2 Importance Sampling . . . . . . . . . . . . . . . . . . . . . . . . . 589 17.3 Markov Chain Monte Carlo Methods . . . . . . . . . . . . . . . . 592 17.4 Gibbs Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596 17.5 The Challenge of Mixing between Separated Modes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 597 18 Confronting the Partition Function 603 18.1 The Log-Likelihood Gradient . . . . . . . . . . . . . . . . . . . . 604 18.2 Stochastic Maximum Likelihood and Contrastive Divergence . . . 605 18.3 Pseudolikelihood . . . . . . . . . . . . . . . . . . . . . . . . . . . 613 18.4 Score Matching and Ratio Matching . . . . . . . . . . . . . . . . 615 18.5 Denoising Score Matching . . . . . . . . . . . . . . . . . . . . . . 617 18.6 Noise-Contrastive Estimation . . . . . . . . . . . . . . . . . . . . 618 18.7 Estimating the Partition Function . . . . . . . . . . . . . . . . . . 621 19 Approximate Inference 629 19.1 Inference as Optimization . . . . . . . . . . . . . . . . . . . . . . 631 19.2 Expectation Maximization . . . . . . . . . . . . . . . . . . . . . . 632 19.3 MAP Inference and Sparse Coding . . . . . . . . . . . . . . . . . 633 19.4 Variational Inference and Learning . . . . . . . . . . . . . . . . . 636 19.5 Learned Approximate Inference . . . . . . . . . . . . . . . . . . . 648 20 Deep Generative Models 651 20.1 Boltzmann Machines . . . . . . . . . . . . . . . . . . . . . . . . . 651 20.2 Restricted Boltzmann Machines . . . . . . . . . . . . . . . . . . . 653 20.3 Deep Belief Networks . . . . . . . . . . . . . . . . . . . . . . . . . 657 20.4 Deep Boltzmann Machines . . . . . . . . . . . . . . . . . . . . . . 660 20.5 Boltzmann Machines for Real-Valued Data . . . . . . . . . . . . . 673 20.6 Convolutional Boltzmann Machines . . . . . . . . . . . . . . . . . 679 20.7 Boltzmann Machines for Structured or Sequential Outputs . . . . 681 20.8 Other Boltzmann Machines . . . . . . . . . . . . . . . . . . . . . 683 20.9 Back-Propagation through Random Operations . . . . . . . . . . 684 20.10 Directed Generative Nets . . . . . . . . . . . . . . . . . . . . . . . 688 20.11 Drawing Samples from Autoencoders . . . . . . . . . . . . . . . . 707 20.12 Generative Stochastic Networks . . . . . . . . . . . . . . . . . . . 710 20.13 Other Generation Schemes . . . . . . . . . . . . . . . . . . . . . . 712 20.14 Evaluating Generative Models . . . . . . . . . . . . . . . . . . . . 713 20.15 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716 Bibliography 717 vi CONTENTS Index 774
- 17.33MB
神经网络经典外文入门书籍
2016-10-06包含三本PDF书籍 Pattern classification using ensemble Methods.pdf Neural Networks Tricks of the Trade.pdf Neural Networks for Applied Sciences and Engineering.pdf
- 5.99MB
基于卷积神经网络的深度学习算法与应用研究
2018-01-10基于卷积神经网络的深度学习算法与应用研究 基于卷积神经网络的深度学习算法与应用研究
- 6.90MB
卷积神经网络英文版综述
2018-04-07What Do We Understand About Convolutional Networks?论文 卷积神经网络(CNN)在计算机视觉领域已经取得了前所未有的巨大成功,但我们目前对其效果显著的原因还没有全面的理解。约克大学电气工程与计算机科学系的 Isma Hadji 和 Richard P. Wildes 发表了论文《What Do We Understand About Convolutional Networks?》,对卷积网络的技术基础、组成模块、当前现状和研究前景进行了梳理,介绍了我们当前对 CNN 的理解。
- 2.34MB
人工神经网络介绍(英文)
2007-04-02人工神经网络介绍(英文)
- 138.35MB
目标检测深度学习神经网络经典论文集
2019-06-13收录了14-19年深度学习神经网络的经典论文!收录了14-19年深度学习神经网络的经典论文!收录了14-19年深度学习神经网络的经典论文! 重要的事说三遍!重要的事说三遍!重要的事说三遍!
- 9.45MB
深度学习基础,英文原版+中文翻译
2020-07-101.稀疏自编码器 神经网络 反向传导算法 梯度检验与高级优化 自编码算法与稀疏性 可视化自编码器训练结果 2.矢量化编程实现 矢量化编程 逻辑回归的向量化实现样例 神经网络向量化 3.预处理:主成分分析与白化 主成分分析 白化 实现主成分分析和白化 4.Softmax回归 5.自我学习与无监督特征学习 6.建立分类用深度网络 7.自编码线性解码器 8.处理大型图像 9.稀疏编码 10.独立成分分析样式建模
- 0B
Deep learning_ adaptive computation and machine learning(深度学习经典专著 英文原版).pdf
2022-12-02Deep learning_ adaptive computation and machine learning(深度学习经典专著 英文原版).pdf
- 15.13MB
深度脉冲神经网络
2018-09-28有关深度脉冲神经网络的介绍,写得很好的论文,比较详细,英文原版
- 1.33MB
深度学习的物体识别原版论文(英文)
2018-12-26卷积神经网络,深度学习,主动学习,半监督学习。 题目:Incremental Deep Learning for Robust Object Detection in Unknown Cluttered Environments。
- 84B
AI人工智能换脸技术DeepFaceLive实时直播换脸(软件+人脸模型+教程)
2023-08-23DeepFaceLive它使用深度学习算法创建逼真的换脸视频。它是一种深度伪造技术,可以将一个人的脸部超级放置在另一个人的身体上的视频中。 DeepFaceLive使用一种称为“生成对抗网络”(GAN)的技术来创建这些视频。...
- 1.90MB
MATLAB Deep Learning_ With Machine Learning, Neural Networks
2019-09-23matlab 深度学习、神经网络、英文版原版教材,希望学习的小伙伴喜欢。
- 3.31MB
AlexNet论文资料共3个文档 1-原版论文pdf-2-中文翻译pdf-3-中英文翻译对照pdf.rar
2023-06-12它是第一个在ImageNet图像识别挑战中获得最佳表现的卷积神经网络,标志着深度学习的重要突破。AlexNet包含8个卷积层和3个全连接层,其中使用了ReLU激活函数和Dropout正则化技术,同时采用了数据增强和GPU并行计算等...
- 101B
AI人工智能换脸技术DeepFaceLive实时直播换脸(下载地址).txt
2023-05-20DeepFaceLive它使用深度学习算法创建逼真的换脸视频。它是一种深度伪造技术,可以将一个人的脸部超级放置在另一个人的身体上的视频中。 DeepFaceLive使用一种称为“生成对抗网络”(GAN)的技术来创建这些视频。...
- 31.20MB
吴恩达斯坦福机器学习课程,课后作业高分Python代码,机器学习入门必看!
2023-02-24所有作业使用 python+numpy 实现。...《机器学习》编程作业 4——神经网络 《机器学习》编程作业 5——偏差与方差 《机器学习》编程作业 6——SVM支持向量机 《机器学习》编程作业 7——异常检测和推荐系统
- 21.85MB
Deep Learning - Ian Goodfellow 完整高清英文版
2017-12-17Deep Learning - Ian Goodfellow 英文清晰原版,官方网站http://www.deeplearningbook.org/,深度学习经典书籍,包含各种神经网络优化与深度学习领域的最新研究。低分分享,希望可以帮助到大家
- 3.49MB
ResNet论文资料共3个文档 1-原版论文pdf-2-中文翻译pdf-3-中英文翻译对照pdf.rar
2023-06-13ResNet是深度学习中非常经典的一个模型,全称是Residual Network。它通过引入残差连接(Residual Connection)来缓解深度神经网络中的梯度消失问题,使得网络可以更深更容易训练。ResNet在ImageNet图像识别比赛中...
- 2.83MB
GoogLeNet论文资料共3个文档 1-原版论文pdf-2-中文翻译pdf-3-中英文翻译对照pdf.rar
2023-06-13GoogLeNet 是一种深度神经网络,由 Google 的研究员在 2014 年提出。GoogLeNet 采用了一种称为 Inception 模块的结构,使得网络可以同时学习不同大小的特征。这种模块化的结构使得 GoogLeNet 可以更加高效地进行训练...
- 2.84MB
《Neural Networks and Deep Learning》中文版
2018-11-14Michael Nielsen 大神的 《Neural Networks and Deep Learning》 网络教程一直是很多如我一样的小白入门深度学习的很好的一本初级教程。不过其原版为英文,对于初期来说我们应该以了解原理和基本用法为主,所以中文...
- 7.17MB
ZynqNet: An FPGA-Accelerated Embedded Convolutional Neural Network
2018-12-03ZynqNet:An FPGA-Accelerated Embedded Convolutional Neural Network 基于FPGA加速的卷积神经网络。原版英文论文。使用Xilinx Zynq XC-7Z045
- 950KB
LeNet-5论文完整版
2018-04-23LeNet-5论文英文原版,模型可用于手写数字识别,文字清晰。
- 293.88MB
YOLOv8-deepsort 实现智能车辆目标检测+车辆跟踪+车辆计数
2023-10-06本资源纯属免费,不收任何钱和任何积分,纯粹为爱发电,本资源已经为大家整合好了的,看我的博客部署好直接用:https://blog.csdn.net/Little_Carter/article/details/133610076?spm=1001.2014.3001.5501 资源原本项目源码地址:https://github.com/MuhammadMoinFaisal/YOLOv8-DeepSORT-Object-Tracking 本资源提供了基于YOLOv8-deepsort算法的智能车辆目标检测、车辆跟踪和车辆计数的实现方案。首先,利用YOLOv8算法对视频中的车辆目标进行检测,并对检测到的目标进行标记。然后,通过deepsort算法对标记的车辆目标进行跟踪,实现车辆目标的持续跟踪。最后,根据跟踪结果对车辆数量进行统计,实现车辆计数功能。本资源提供了完整的代码实现和详细的使用说明,帮助读者快速掌握基于YOLOv8-deepsort的智能车辆目标检测、车辆跟踪和车辆计数技术。
- 98KB
YOLOv8网络结构图,自制visio文件,yolov8.vsds,需要的自取,在原有的基础上直接改就行了
2024-03-12YOLOv8网络结构图,自制visio文件,yolov8.vsds,需要的自取,在原有的基础上直接改就行了
- 367.44MB
yolov8(2023年8月版本),已经下好yolov8s.pt和yolov8n.pt
2023-10-09yolov8(2023年8月版本),已经下好yolov8s.pt和yolov8n.pt,需要创建的文件夹都以创建,方便大家不用再去GitHub下载 可以搭配该博客:https://blog.csdn.net/weixin_43366149/article/details/132206526?spm=1001.2014.3001.5501
- 26.50MB
Transformer模型实现长期预测并可视化结果(附代码+数据集+原理介绍)
2023-11-12这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。其灵活的模型结构允许调整以适应不同复杂度这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。定制化训练个人数据集进行训练利用python和pytorch实现
- 141KB
社交平台上经济类话题的文章热度信息,数据是真实的,但不是真实日期
2023-03-16使用LSTM模型进行时序预测的代码与说明见:https://blog.csdn.net/Q_M_X_D_D_/article/details/109366895
- 40.38MB
YOLOV5 + 双目相机实现三维测距(新版本)
2024-04-14YOLOV5 + 双目相机实现三维测距(新版本)
- 62.4MB
行人跌倒数据集(VOC格式)
2023-01-30行人跌倒数据集(VOC格式)