# 大作业一
## wordCut.py 用于分词
## wordAttrMark.py 用于词性标注
## 直接运行程序即可,相关引导输入语句已写好
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
<项目介绍> 课程大作业-自然语言处理,基于词典的分词方法的Python源码+文档说明+实验报告 - 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。 --------
资源推荐
资源详情
资源评论
收起资源包目录
NLP-Dictionary-based-segmentation-method-main.zip (20个子文件)
NLP-Dictionary-based-segmentation-method-main
史桠彬-1120201198-大作业一
实验报告
README.md 144B
实验报告(含实现过程描述等).pdf 1.53MB
代码
BigHomework1
yuxiuhua_wordcut.csv 8KB
yuxiuhua.txt 7KB
wordAttrMark.py 7KB
fortrain_bidirectional.txt 4.16MB
.idea
BigHomework1.iml 352B
misc.xml 200B
inspectionProfiles
Project_Default.xml 847B
profiles_settings.xml 174B
modules.xml 276B
.gitignore 47B
fortrain_forward.txt 4.16MB
wordCut.py 10KB
train.csv 9.25MB
corpus_wordattr.csv 3.99MB
fortrain_backward.txt 4.16MB
CoreNatureDictionary.txt 2.06MB
corpus.csv 2.72MB
README.md 90B
共 20 条
- 1
资源评论
- GpcpG2024-06-15感谢资源主分享的资源解决了我当下的问题,非常有用的资源。
- 2401_843396112024-05-13内容与描述一致,超赞的资源,值得借鉴的内容很多,支持!
机智的程序员zero
- 粉丝: 2402
- 资源: 4796
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功