# 大作业一
## wordCut.py 用于分词
## wordAttrMark.py 用于词性标注
## 直接运行程序即可,相关引导输入语句已写好
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
【资源说明】 NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zipNLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载使用,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 欢迎下载,沟通交流,互相学习,共同进步!
资源推荐
资源详情
资源评论
收起资源包目录
NLP项目基于词典的分词方法python源码+详细注释+实验报告+数据集.zip (20个子文件)
大作业一源码+实验报告
实验报告
README.md 144B
实验报告(含实现过程描述等).pdf 1.53MB
代码
BigHomework1
yuxiuhua_wordcut.csv 8KB
yuxiuhua.txt 7KB
wordAttrMark.py 7KB
fortrain_bidirectional.txt 4.16MB
.idea
BigHomework1.iml 352B
misc.xml 200B
inspectionProfiles
Project_Default.xml 847B
profiles_settings.xml 174B
modules.xml 276B
.gitignore 47B
fortrain_forward.txt 4.16MB
wordCut.py 10KB
train.csv 9.25MB
corpus_wordattr.csv 3.99MB
fortrain_backward.txt 4.16MB
CoreNatureDictionary.txt 2.06MB
corpus.csv 2.72MB
README.md 47B
共 20 条
- 1
资源评论
Make程序设计
- 粉丝: 5738
- 资源: 3570
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功