# 大作业一
## wordCut.py 用于分词
## wordAttrMark.py 用于词性标注
## 直接运行程序即可,相关引导输入语句已写好
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
【资源介绍】 基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip 基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip 基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip 基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip 基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip 基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip 基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip 基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip 【备注】 该项目是个人毕设/课设/大作业项目,代码都经过严格调试测试,功能ok才上传,可快速上手运行!欢迎下载使用,若遇到问题请及时私信沟通,帮助解决。 该资源主要针对计算机、通信、人工智能、自动化等相关专业的学生、老师或从业者下载使用,可直接作为期末课程设计、课程大作业、毕业设计等。 项目整体具有较高的学习借鉴价值!基础还可以,动手能力强的也可做二次开发,以实现不同的功能。 欢迎下载使用,也欢迎交流学习!
资源推荐
资源详情
资源评论
收起资源包目录
基于python实现词典的分词方法源码+实验报告+数据集+详细注释(NLP大作业).zip (37个子文件)
代码
BigHomework1
yuxiuhua_wordcut.csv 8KB
yuxiuhua.txt 7KB
wordAttrMark.py 7KB
fortrain_bidirectional.txt 4.16MB
.idea
BigHomework1.iml 352B
misc.xml 200B
inspectionProfiles
Project_Default.xml 847B
profiles_settings.xml 174B
modules.xml 276B
.gitignore 47B
fortrain_forward.txt 4.16MB
wordCut.py 10KB
train.csv 9.25MB
corpus_wordattr.csv 3.99MB
fortrain_backward.txt 4.16MB
CoreNatureDictionary.txt 2.06MB
corpus.csv 2.72MB
实验报告(含实现过程描述等).pdf 1.53MB
NLP大作业项目
实验报告
README.md 144B
实验报告(含实现过程描述等).pdf 1.53MB
代码
BigHomework1
yuxiuhua_wordcut.csv 8KB
yuxiuhua.txt 7KB
wordAttrMark.py 7KB
fortrain_bidirectional.txt 4.16MB
.idea
BigHomework1.iml 352B
misc.xml 200B
inspectionProfiles
Project_Default.xml 847B
profiles_settings.xml 174B
modules.xml 276B
.gitignore 47B
fortrain_forward.txt 4.16MB
wordCut.py 10KB
train.csv 9.25MB
corpus_wordattr.csv 3.99MB
fortrain_backward.txt 4.16MB
CoreNatureDictionary.txt 2.06MB
corpus.csv 2.72MB
共 37 条
- 1
资源评论
z同学的编程之路
- 粉丝: 1880
- 资源: 2130
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功