没有合适的资源?快使用搜索试试~ 我知道了~
NLP on Transformer面试题.docx
需积分: 50 7 下载量 155 浏览量
2021-11-13
00:29:56
上传
评论
收藏 235KB DOCX 举报
温馨提示
试读
21页
以Transformer架构为基石、萃取NLP中最具有使用价值的内容、围绕手动实现工业级智能业务对话机器人所需要的全生命周期知识点展开,学习完成后不仅能够从算法、源码、实战等方面融汇贯通NLP领域NLU、NLI、NLG等所有核心环节,同时会具备独自开发业界领先智能业务对话机器人的知识体系、工具方法、及参考源码,成为具备NLP硬实力的业界Top 1%人才。
资源推荐
资源详情
资源评论
NLP on Transformers 101
(基于 Transformer 的 NLP 智能对话机器人实战课程)
One Architecture, One Course,One Universe
本课程以 Transformer 架构为基石、萃取 NLP 中最具有使用价值的内容、围绕手动实现工业级智
能业务对话机器人所需要的全生命周期知识点展开,学习完成后不仅能够从算法、源码、实战等
方面融汇贯通 NLP 领域 NLU、NLI、NLG 等所有核心环节,同时会具备独自开发业界领先智能业
务对话机器人的知识体系、工具方法、及参考源码,成为具备 NLP 硬实力的业界 Top 1%人才。
课程特色:
101 章围绕 Transformer 而诞生的 NLP 实用课程
5137 个围绕 Transformers 的 NLP 细分知识点
大小近 1200 个代码案例落地所有课程内容
10000+行纯手工实现工业级智能业务对话机器人
在具体架构场景和项目案例中习得 AI 相关数学知识
以贝叶斯深度学习下 Attention 机制为基石架构整个课程
五大 NLP 大赛全生命周期讲解并包含比赛的完整代码实现
第 1 章: 贝叶斯理论下的 Transformer 揭秘
1,基于 Bayesian Theory,融 Hard Attention、Soft Attention、Self-Attention、Multi-
head Attention 于一身的 Transformer 架构
2,为什么说抛弃了传统模型(例如 RNN、 LSTM、CNN 等)的 Transformer 拉开了非序
列化模型时代的序幕?
3,为什么说 Transformer 是预训练领域底层通用引擎?
4,Transformer 的 Input-Encoder-Decoder-Output 模型组建逐一剖析
5,Transformer 中 Encoder-Decoder 模型进行 Training 时候处理 Data 的全生命周期七大
步骤揭秘
6,Transformer 中 Encoder-Decoder 模型进行 Inference 时候处理 Data 的全生命周期六
大步骤详解
7,Teacher Forcing 数学原理及在 Transformer 中的应用
8,穷根溯源:为何 Scaled Dot-Product Attention 是有效的?
9,透视 Scaled Dot-Product Attention 数据流全生命周期
10,穷根溯源:Queries、Keys、Values 背后的 Trainable 矩阵揭秘
11,当 Transformer 架构遇到 Bayesian 理论:Multi-head attention
12,End-to-end Multi-head attention 的三种不同实现方式分析
13,透视 Multi-head attention 全生命周期数据流
14,Transformer 的 Feed-Forward Networks 的两种实现方式:Linear Transformations
和 Convolutions
15,Embeddings 和 Softmax 参数共享剖析
16,Positional Encoding 及 Positional Embedding 解析
17,Sequence Masking 和 Padding Masking 解析
18,Normal distribution、Layer Normalization 和 Batch Normalization 解析
19,Transformer 的 Optimization Algorithms 数学原理、运行流程和最佳实践
20,Learning rate 剖析及最佳实践
21,从 Bayesian 视角剖析 Transformer 中的 Dropout 及最佳实践
22,Label Smoothing 数学原理和工程实践解析
23,Transformer 背后的驱动力探讨
第 2 章: 通过 30+个细分模块完整实现 Transformer 论文源码及项目调试
1,Transformer 源码训练及预测整体效果展示
2,模型训练 model_training.py 代码完整实现
3,数据预处理 data_preprocess.py 代码完整实现
4,Input 端 Embeddings 源码完整实现
5,Attention 机制 attention.py 代码完整实现
6,Multi-head Attention 机制 multi_head_attention.py 代码完整实现
7,Position-wise Feed-forward 源码完整实现
8,Masking 在 Encoder 和 Decoder 端的源码完整实现 0
9,SublayerConnection 源码完整实现
10,Encoder Layer 源码完整实现
11,LayerNormalization 源码完整实现
12,DecoderLayer 源码完整实现
13,Encoder Stack 源码完整实现
14,Decoder Stack 源码完整实现
15,由 Memory 链接起来的 EncoderDecoder Module 源码完整实现
16,Batch 操作完整源码实现
16,Optimization 源码完整实现
17,Loss 计算数学原理及完整源码实现
18,Output 端 Generator 源码完整实现
19,Transformer 模型初始化源码及内幕揭秘
20, Label Smoothing 源码完整实现
21,Training 源码完整实现
22,Greedy Decoding 源码及内幕解析
23,Tokenizer 源码及调试
24,Multi-GPU 训练完整源码
27,使用自己实现的 Transformer 完成分类任务及调试
28,Transformer 翻译任务代码完整实现及调试
29,BPE 解析及源码实现
30,Shared Embeddings 解析及源码实现
31,Beam Search 解析及源码实现
32,可视化 Attention 源码实现及剖析
第 3 章: 细说 Language Model 内幕及 Transformer XL 源码实现
1,人工智能中最重要的公式之一 MLE 数学本质剖析及代码实战
2,Language Model 的数学原理、Chain Rule 剖析及 Sparsity 问题
3,Markov Assumption:"rst order、second order、third order 剖析
4,Language Model:unigram 及其问题剖析、bigram 及依赖顺序、n-gram
5,使用 Unigram 训练一个 Language Model 剖析及实践
6,使用 Bigram 训练一个 Language Model 剖析及实践
7,使用 N-gram 训练一个 Language Model 剖析及实践
8,拼写纠错案例实战:基于简化后的 Naive Bayes 的纠错算法详解及源码实现
9,使用基于 Average Log Likelihood 的 PPL(Perplexity)来评估 Language Model
10,Laplace Smoothing 剖析及基于 PPL 挑选最优化 K 的具体方法分析
11,Interpolation Smoothing 实现解析:加权平均不同的 N-gram 概率
12,Good-Turning Smoothing 算法解析
13,Vallina Transformer language model 处理长文本架构解析
14, Vallina Transformer Training Losses:Multiple Postions Loss、Intermediate Layer
Losses、Multiple Targets Losses
15,Vallina Transformer 的三大核心问题:Segment 上下文断裂、位置难以区分、预测效
率低下
16,Transformer XL:Attentive Language Models Beyond a Fixed-Length Context
17,Segment-level Recurrence with State Reuse 数学原理及实现分析
18,Relative Positional Encoding 算法解析
19,Transformer XL 中降低矩阵运算复杂度的 Trick 解析
20,缓存机制在语言模型中的使用思考
21,Transformer XL 之数据预处理完整源码实现及调试
22,Transformer XL 之 MemoryTransformerLM 完整源码实现及调试
23,Transformer XL 之 PartialLearnableMultiHeadAttention 源码实现及调试
24,Transformer XL 之 PartialLearnableDecoderLayer 源码实现及调试
25,Transformer XL 之 AdaptiveEmbedding 源码实现及调试
26,Transformer XL 之相对位置编码 PositionalEncoding 源码实现及调试
27,Transformer XL 之 Adaptive Softmax 解析及源码完整实现
28,Transformer XL 之 Training 完整源码实现及调试
29,Transformer XL 之 Memory 更新、读取、维护揭秘
30,Transformer XL 之 Unit 单元测试
31,Transformer XL 案例调试及可视化
第 4 章: Autoregressive Language Models 之 GPT-1、2、3 解析及 GPT 源码实现
1,Task-aware 的人工智能 Language model + Pre-training + Fine-tuning 时代
2,Decoder-Only Stack 数学原理及架构解析
3,训练材料标注:neutral、contradiction、entailment、multi-label、QA 等
4,NLP(Natural Language Understanding):Semantic similarity、document
classification、textual entailment 等
5,大规模 Unsupervised pre-training 贝叶斯数学原理及架构剖析
6,Task-specific Supervised fine-tuning 的 Softmax 及 Loss 详解
7,针对 Classification、Entailment、Similarity、Mutiple Choice 特定任务的 Input 数据预
处理解析及矩阵纬度变化处理
8,GPT2 架构解析:Language Models for unsupervised multitask learners
9,GPT 2 把 Layer Norm 前置的数据原理剖析
10,GPT 2 Self-Attention 剖析
11,GPT 2 Training 数据流动全生命周期解析
12,GPT 2 Inference 数据流动全生命周期解析
13,GPT 3 架构剖析:Language Models are Few-Shot Learners
14,由 GPT 3 引发的 NLP12 大规律总结
15,GPT 数据预处理源码完整实现及调试
16,GPT 的 BPE 实现源码及调试
17,GPT 的 TextEncoder 源码实现及调试
18,GPT 的 Attention 完整源码实现及调试
19,GPT 的 Layer Normalization 完整源码实现及调试
20,GPT 的 Feed Foward 神经网络通过 Convolutions 源码实现
21,GPT 的 Block 源码完整实现及调试
22,GPT 的 TransformerModel 源码完整实现及调试
23,GPT 的输入 LMHead 源码完整实现及调试
24,GPT 的 MultipleChoiceHead 源码完整实现及调试
25,GPT 的语言模型及特定 Task 的 DoubleHeadModel 源码完整实现
26,GPT 的 OpenAIAdam 优化器源码及调试
27,GPT 的 LanguageModel loss 源码及调试
28,GPT 的 MultipleChoiceLoss 源码及调试
29,OpenAI GPT 的 Pretrained Model 的加载使用
剩余20页未读,继续阅读
资源评论
NLP自然语言处理
- 粉丝: 59
- 资源: 82
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功