# BERT
## 1. Principle
## 2. Implemented by PyTorch:TODO
Please refer to this repo: [Transformers_for_Text_Classification](https://github.com/zhanlaoban/Transformers_for_Text_Classification).
## 3. Implemented by TensorFlow: TODO
# Collections of Text Classification
## PyTorch
1. [Bert-Pytorch-Chinese-TextClassification](https://github.com/xieyufei1993/Bert-Pytorch-Chinese-TextClassification)
> 提供完数据集和步骤,代码可以跑通,但仅能进行训练与验证,没有测试的代码
2. [Bert-Chinese-Text-Classification-Pytorch](https://github.com/649453932/Bert-Chinese-Text-Classification-Pytorch)
> 支持训练、验证与测试(该测试也是验证,还是不能进行预测),拥有完整数据集
>
> 支持BERT、ERNIE
>
> 支持BERT与CNN、RNN、RCNN和DPCNN的结合使用
## TensorFlow
1. [BERT-chinese-text-classification-and-deployment](https://github.com/SunYanCN/BERT-chinese-text-classification-and-deployment)
> 可以训练、验证与测试,支持使用**TensorFlow Serving**进行部署
2. [TextClassify_with_BERT](https://github.com/yaleimeng/TextClassify_with_BERT)
> 支持预测。提供完整数据集。可以使用TensorFlow Serving进行部署。
# Others Pretrained Model
1. BERT-wwm
> 1. [Pre-Training with Whole Word Masking for Chinese BERT](https://arxiv.org/pdf/1906.08101.pdf)
>
> 2. [中文预训练BERT-wwm(Pre-Trained Chinese BERT with Whole Word Masking)](https://github.com/ymcui/Chinese-BERT-wwm)
>
> 基于全词遮掩(Whole Word Masking)技术的中文预训练模型BERT-wwm
2. RoBERTa
> 1. [RoBERTa: A Robustly Optimized BERT Pretraining Approach](https://arxiv.org/pdf/1907.11692.pdf)
>
> 2. [RoBERTa中文预训练模型: RoBERTa for Chinese](https://github.com/brightmart/roberta_zh)
>
> RoBERTa for Chinese, TensorFlow & PyTorch
3. XLNet
> 1. [XLNet: Generalized Autoregressive Pretraining for Language Understanding](https://arxiv.org/pdf/1906.08237.pdf)
> 2. [Pre-Trained Chinese XLNet(中文XLNet预训练模型)](https://github.com/ymcui/Chinese-PreTrained-XLNet)
> 3. [中文预训练XLNet模型: Pre-Trained Chinese XLNet_Large](https://github.com/brightmart/xlnet_zh)
4. ERNIE
> 1. [ERNIE](https://github.com/PaddlePaddle/ERNIE)
>
> 2. [ERNIE-Pytorch](https://github.com/nghuyong/ERNIE-Pytorch)
>
> ERNIE Pytorch Version
5. GPT-2
> 1. [Chinese version of GPT2 training code, using BERT or BPE tokenizer.](https://github.com/Morizeyao/GPT2-Chinese)
6. Others
[多领域开源中文预训练语言模型仓库](https://github.com/thunlp/OpenCLaP)
# Related Nice Blogs
1. [nlp中的预训练语言模型总结(单向模型、BERT系列模型、XLNet)](https://zhuanlan.zhihu.com/p/76912493)
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
1、该资源内项目代码经过严格调试,下载即用确保可以运行! 2、该资源适合计算机相关专业(如计科、人工智能、大数据、数学、电子信息等)正在做课程设计、期末大作业和毕设项目的学生、或者相关技术学习者作为学习资料参考使用。 3、该资源包括全部源码,需要具备一定基础才能看懂并调试代码。 基于深度学习的文本分类技术资料(PyTorch实现源码+项目说明).zip
资源推荐
资源详情
资源评论
收起资源包目录
基于深度学习的文本分类技术资料(PyTorch实现源码+项目说明).zip (31个子文件)
project_code_0628
01_FastText
README.MD 69B
05_TextGRU
TrainModel.py 5KB
data
cnews
cnews.vocab.txt 19KB
model.py 2KB
run.py 4KB
DatasetPreprocess.py 2KB
README.MD 46B
03_TextLSTM
TrainModel.py 6KB
data
cnews
cnews.vocab.txt 19KB
model.py 3KB
run.py 5KB
DatasetPreprocess.py 2KB
README.MD 626B
06_TextRCNN
README.MD 129B
02_TextCNN
visualLog
events.out.tfevents.1567085025.ustc 40B
events.out.tfevents.1567221588.ustc 40B
TrainModel.py 6KB
data
cnews
cnews.vocab.txt 19KB
model.py 4KB
run.py 5KB
DatasetPreprocess.py 2KB
README.MD 870B
04_TextLSTM_Attention
AttentionClass.py 4KB
TrainModel.py 5KB
data
cnews
cnews.vocab.txt 19KB
model.py 1KB
run.py 4KB
DatasetPreprocess.py 2KB
README.MD 46B
07_Transformers
README.MD 3KB
README.md 2KB
共 31 条
- 1
资源评论
辣椒种子
- 粉丝: 3444
- 资源: 5724
下载权益
C知道特权
VIP文章
课程特权
开通VIP
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功