没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
使用哈工大的ltp,少不了分词模型,由于ltp_data全量模型包太大,经常遇到下载不下来的问题,可以通过下载cws.model直接解决。该文件需要放置到全英文名的路径下才能用: import pyltp from pyltp import Segmentor #导入Segmentor库 math_path = "D:\ltp340\cws.model" #LTP分词模型库 segmentor = Segmentor() #实例化分词模块 segmentor.load(math_path) #加载分词库 words = segmentor.segment("中国是一个自由、和平的国家") print(' '.join(words).split()) #分割分词后的结果
资源推荐
资源评论
资源评论
ggf0101
- 粉丝: 8
- 资源: 26
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功