没有合适的资源?快使用搜索试试~
我知道了~
文库首页
人工智能
机器学习
Python Jieba中文分词工具实现分词功能
Python Jieba中文分词工具实现分词功能
jieba
Python
需积分: 50
51 下载量
89 浏览量
2019-03-10
22:00:16
上传
评论
1
收藏
126.01MB
RAR
举报
温馨提示
立即下载
Python Jieba中文分词工具实现分词功能,Python Jieba中文分词工具实现分词功能
资源推荐
资源评论
Python第三方安装包-中文公司名称分词工具
浏览:6
5星 · 资源好评率100%
中文公司名称分词工具,支持公司名称中的地名,品牌名(主词),行业词,公司名后缀提取。 对公司名文本解析,识别并提取地名、品牌名、行业词、公司名后缀词。
Python jieba库用法及实例解析
浏览:87
5星 · 资源好评率100%
主要介绍了Python jieba库用法及实例解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
jieba中文分词
浏览:126
NULL 博文链接:https://java--hhf.iteye.com/blog/2181919
python的jieba功能
浏览:198
近来看到jieba分词功能,自己写了测试用,只是玩玩,没有内容,不要下载就好了,谢谢!!
python中文分词
浏览:155
4星 · 用户满意度95%
python中文分词
jieba分词工具包下载
浏览:176
python-jieba文件包,解压后将两个文件夹放入 工程文件--->venv(或自定义的配置文件夹)--->Lib--->site-packages中使用
结巴分词Python代码
浏览:60
5星 · 资源好评率100%
结巴分词,很不错的分词工具,python写的,亲身试用,不管英文还是中文分得很准!
jieba分词关键字含英文和特殊字符的处理方法
浏览:177
1.默认情况 语句中关键字在含有英文和特殊字符时(machine-1234),使用jieba往往将我们的关键词分割的非常零碎,比如: # 默认情况 import jieba str1 = 查找machine-1234的产品说明书 for w in jieba.cut(str1): print(w) # 运行结果 >>>查找 >>>machine >>>- >>>1234 >>>的 >>>产
结巴分词源代码
浏览:193
4星 · 用户满意度95%
结巴分词的源代码,python。
python jieba 分词的一系列代码
浏览:27
jieba snownlp bs4 等包的使用,包括tf-idf算法等,具体方法见代码注释部分。练习数据也在文件夹中 11111111111
基于Python的中文结巴分词技术实现
浏览:36
基于Python的中文结巴分词技术实现
Python基于jieba库进行简单分词及词云功能实现方法
浏览:94
主要介绍了Python基于jieba库进行简单分词及词云功能实现方法,结合实例形式分析了Python分词库jieba以及wordcloud库进行词云绘制相关步骤与操作技巧,需要的朋友可以参考下
基于Python自然语言处理实现中文分词【100013101】
浏览:56
5星 · 资源好评率100%
中文分词指的是将一个汉字序列切分成一个一个单独的词。中文分词是文本挖掘的基础,对于输入的一段中文,成功的进行中文分词,可以达到电脑自动识别语句含义的效果。它是信息提取、信息检索、机器翻译、文本分类、自动文摘、语音识别、文本语音转换、自然语言理解等中文信息处理领域的基础。
Python中文分词实现方法(安装pymmseg)
浏览:34
本文实例讲述了Python中文分词实现方法。分享给大家供大家参考,具体如下: 在Python这pymmseg-cpp 还是十分方便的! 环境 ubuntu10.04 , python2.65 步骤: 1 下载mmseg-cpp的源代码 http://code.google.com/p/pymmseg-cpp/ 2 执行: tar -zxf pymmseg-cpp*.tar.gz //解压后得到p
Python基于sklearn库的随机森林实现的中文分词项目源码
浏览:179
软件架构 main.py 主运行程序 Reader.py 新闻文件读取器 Evaluator.py 读取data中的新闻,通过词频挖掘词表并估值 Classifier.py 调用sklearn库的随机森林,进行词汇估值 Segmenter.py 对新闻进行分词 sample.csv 人工挑选的随机森林训练样本 test.csv 人工挑选的随机森林测试样本 stopwords.txt 网上获取的标准
Jieba分词工具的使用
浏览:109
jieba分词工具的使用,python环境下,中文分词,jieba
Python中文分词_中文分词软件
浏览:74
Python中文分词_中文分词软件,使用jieba字典
中文分词程序Python版
浏览:122
中文分词程序Python版,算法是正向最大匹配 效果不错,亲自编写的
jieba 0.42.1中文分词
浏览:127
Python Jieba中文分词工具实现分词功能
Python-jieba结巴中文分词做最好的Python中文分词组件
浏览:66
jieba:“结巴”中文分词:做最好的 Python 中文分词组件
jieba分词jar包
浏览:160
Java使用结巴分词时,必须应用的 jar包。应用于 分词器
jieba分词包
浏览:60
结巴分词包
jieba分词jieba.NET-master.zip
浏览:15
jieba分词jieba分词jieba.NET-master.zip
结巴中文分词.zip
浏览:63
结巴中文分词.zip,结巴中文分词
基于Python实现的中文公司名称分词工具,支持公司名称中的地名,品牌名(主词),行业词,公司名后缀提取
浏览:60
对公司名文本解析,识别并提取地名(place)、品牌名(brand)、行业词(trade)、公司名后缀词(suffix)。 Evaluate 运行评估脚本evaluate_file.py,使用预测结果与GroundTruth完成相等才为算对的保守评估方法, 评估结果: 准确率:97.0% 召回率:96.7%
Java实现的用于生产环境的中文分词处理工具,可自定义语料、可自定义模型、架构清晰,分词效果好
浏览:169
Java实现的用于生产环境的中文分词处理工具,可自定义语料、可自定义模型、架构清晰,分词效果好 crf-seg是CRF模型用于自然语言处理(NLP)的Java工具包,目标是普及自然语言处理在生产环境中的应用。 crf-seg具备性能高效、架构清晰、语料时新、可自定义语料、可自定义模型的特点。
Python-使用keras实现的基于BiLSTMCRF的中文分词词性标注
浏览:133
使用keras实现的基于Bi-LSTM CRF的中文分词 词性标注
支持英文数字中文混合分词-实现很多功能非常强大!
浏览:60
4星 · 用户满意度95%
支持英文数字中文混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。分词算法:词库+最大匹配。具体的里面有非常详尽的说明文档
Python中文分词工具之结巴分词用法实例总结【经典案例】
浏览:86
本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下: 结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用过程中遇到的问题及解决方法》中已经有所描述。这里要说的内容与实际应用更贴近——从文本中读取中文信息,利用结巴分词工具进行分词及词性标注。 示例代码如下: #coding=utf-8 import jieba import jieba.p
评论
收藏
内容反馈
立即下载
资源评论
资源反馈
评论星级较低,若资源使用遇到问题可联系上传者,3个工作日内问题未解决可申请退款~
联系上传者
评论
xl168199
粉丝: 4
资源:
6
私信
上传资源 快速赚钱
我的内容管理
展开
我的资源
快来上传第一个资源
我的收益
登录查看自己的收益
我的积分
登录查看自己的积分
我的C币
登录后查看C币余额
我的收藏
我的下载
下载帮助
前往需求广场,查看用户热搜
最新资源
TexturePacker Importer 6.0.3
PCB载流与线宽对照表
websocket小工具-与ajax一样使用,JavaScript
V到DBm和W换算对照表
Linux的一些配置文件
seg_16
Screenshot_20240426_141524.jpg
Screenshot_20240426_165620.jpg
数据科学与机器学习:混淆矩阵深度解析-精准评估分类模型性能的必备工具
重庆市下属38个区县geojson 用于ECharts大屏
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功