# PTMs: Pre-trained-Models in NLP
### NLP预训练模型的全面总结(持续更新中)
## 置顶
知乎文章1: [全面总结!PTMs:NLP预训练模型](https://zhuanlan.zhihu.com/p/115014536) ➡️➡️ [图片下载](https://github.com/loujie0822/Pre-trained-Models/blob/master/resources/PTMs.jpg)
知乎文章2:[nlp中的预训练语言模型总结](https://zhuanlan.zhihu.com/p/76912493)
知乎文章3:[nlp中的词向量对比](https://zhuanlan.zhihu.com/p/56382372)
<img src="resources/PTMs.jpg" style="zoom:20%;" />
## 1、论文汇总:
PTMs-Papers:
1. https://github.com/thunlp/PLMpapers
2. https://github.com/tomohideshibata/BERT-related-papers
3. https://github.com/cedrickchee/awesome-bert-nlp
4. https://bertlang.unibocconi.it/
5. https://github.com/jessevig/bertviz
## 2. PTMs单模型解读
1. 自监督学习:[Self-Supervised Learning 入门介绍](https://zhuanlan.zhihu.com/p/108625273)
2. 自监督学习:[Self-supervised Learning 再次入门](https://zhuanlan.zhihu.com/p/108906502)
3. 词向量总结:[nlp中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert](https://zhuanlan.zhihu.com/p/56382372)
4. 词向量总结:[从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史](https://zhuanlan.zhihu.com/p/49271699)
5. ELMo解读:[关于ELMo的若干问题整理记录](https://zhuanlan.zhihu.com/p/82602015)
6. BERT解读: [Bert时代的创新:Bert应用模式比较及其它](https://zhuanlan.zhihu.com/p/65470719)
7. XLNET解读:[XLNet:运行机制及和Bert的异同比较](https://zhuanlan.zhihu.com/p/70257427)
8. XLNET解读:[XLnet:比Bert更强大的预训练模型](https://zhuanlan.zhihu.com/p/71759544)
9. RoBERTa解读:[RoBERT: 没错,我就是能更强——更大数据规模和仔细调参下的最优BERT](https://zhuanlan.zhihu.com/p/75629127)
10. 预训练语言模型总结:[nlp中的预训练语言模型总结(单向模型、BERT系列模型、XLNet)](https://zhuanlan.zhihu.com/p/76912493)
11. 预训练语言模型总结:[8篇论文梳理BERT相关模型进展与反思](https://zhuanlan.zhihu.com/p/81157740)
12. ELECTRA解读: [ELECTRA: 超越BERT, 19年最佳NLP预训练模型](https://zhuanlan.zhihu.com/p/89763176)
13. 模型压缩 LayerDrop:[结构剪枝:要个4层的BERT有多难?](https://zhuanlan.zhihu.com/p/93207254)
14. 模型压缩 BERT-of-Theseus:[bert-of-theseus,一个非常亲民的bert压缩方法](https://zhuanlan.zhihu.com/p/112787764)
15. 模型压缩 TinyBERT:[比 Bert 体积更小速度更快的 TinyBERT](https://zhuanlan.zhihu.com/p/94359189)
16. 模型压缩总结:[BERT 瘦身之路:Distillation,Quantization,Pruning](https://zhuanlan.zhihu.com/p/86900556)
(持续更新中...)
没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
收起资源包目录
基于NLP的预训练语言模型综述.rar (10个子文件)
基于NLP的预训练语言模型综述
resources
基于上下文(Context Based)的3种语言模型PTMs总结.png 377KB
PTMs-NLP编码器对比.png 250KB
PTMs.jpg 1.66MB
PTMs-三类语言模型之间的对比.png 221KB
不同的知识蒸馏PTMs.png 131KB
PTMs-常见的3种浅层词嵌入对比.png 169KB
基于上下文(Contrastive Based)的PTMs总结.png 115KB
README.md 3KB
docs
.DS_Store 6KB
PTMs:NLP预训练模型.md 0B
共 10 条
- 1
资源评论
- Ronald袁洪哲2023-05-12支持这个资源,内容详细,主要是能解决当下的问题,感谢大佬分享~
- SRplayer2023-06-23资源很受用,资源主总结的很全面,内容与描述一致,解决了我当下的问题。
爱吃苹果的Jemmy
- 粉丝: 75
- 资源: 1148
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功