没有合适的资源?快使用搜索试试~
我知道了~
文库首页
移动开发
JavaME
中文分词软件
中文分词软件
需积分: 9
5 下载量
12 浏览量
2012-10-23
17:58:53
上传
评论
收藏
1.02MB
JAR
举报
温馨提示
立即下载
中文分词算法软件
资源推荐
资源评论
中文分词器
浏览:102
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。可用于solr和Lucene
中文分词工具包
浏览:194
(1)精确模式:试图将句子最精确地切开,适合文本分析; (2)全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; (3)搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
中文分词软件,支持自动标引
浏览:27
4星 · 用户满意度95%
这是一个好用的中文分词软件。。。。。。。 支持自动标引,自动分词。。。。。。。。 支持全文检索。。。。。 还有统计功能
中文分词工具jar包
浏览:113
4星 · 用户满意度95%
源码是中科院的分词源码,将其引入项目中,进行生成jar包,很方便的引入到另一个项目中,推荐使用啊。
最新版ICTCLAS中文分词软件——2014版本
浏览:193
5星 · 资源好评率100%
中科院最新版中文分词软件。 2014版,各种材料齐全,包含代码、文档等等;希望大家爱用。 以备不时之需。
切词工具,切词软件,SEO必备分词工具,分词软件
浏览:63
4星 · 用户满意度95%
中国最强大的分词工具,最专业的学院研制,高级分词切词工具,系统化的让您了解搜索引擎的切词分词系统,是做SEO的必备辅助工具
中文分词处理工具包,很准的一款分词器
浏览:49
基于BiLSTM模型训练而成,包含词性标注,分词,实体识别等, 都准确率挺高的,用来做分词挺好的,调用简单无需配置一大堆东西,仅在linux Python3 环境测试通过,使用案例: import fool text = "两个傻子" print(fool.cut(text)) # ['两个', '傻子']
最新中文分词工具的词库
浏览:10
5星 · 资源好评率100%
包括4款分词工具的最新词库: 1、IK分词:27万词 2、jieba分词:40万词 3、mmseg分词:15万词 4、word分词:64万词
中文分词器工具包下载(配置+Jar包)
浏览:79
5星 · 资源好评率100%
IK配置+两个Jar包,实现与Solr 7.2.1版本的对接,对中文语句进行分词处理,可自行扩展词库字段ext.dict以及停止词字典dict
中科院分词,很好的分词软件
浏览:127
4星 · 用户满意度95%
很好的分词软件…… 支持各种分词,对于中文分词效果更佳……
中文分词软件ICTCLAS
浏览:62
4星 · 用户满意度95%
中文分词标注软件,开源版ICTCLAS,C++环境,用用还不错。
ICA中文分词软件
浏览:128
采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。
Python中文分词_中文分词软件
浏览:47
Python中文分词_中文分词软件,使用jieba字典
中文分词工具类
浏览:16
最新中文分词工具jar包,使用方便,分词准确,中文分析的一个不错的包
IK Analyzer 中文分词器下载
浏览:3
IK Analyzer 中文分词器下载...............................
中文分词词库
浏览:19
分词词库字典,主要为百度中文分词,主要用于中文jieba分词的自定义词典,或者其他分词工具的自定义词典等。
庖丁解牛 中文分词工具
浏览:112
5星 · 资源好评率100%
Version 2.0.4–alpha2 通过 analyzer.bat 程序,可以输入中文文本,即时地查看分词效果。 Jar包在lib 文件夹中。 本人倡导零分资源共享,欢迎大家下载和评论。
ik中文分词器,适用于solr5.5
浏览:181
ik中文分词器,适用于solr5.5,亲测可用
中文分词词组库及工具汇总(全).rar
浏览:153
中文分词词库汇总 汇总的中文分词词库,分为两个目录: 1、中文分词词库汇总,共150多万分词词组。 2、主流分词工具的词库。包含word/jieba/mmseg/IK分词工具的最近词库。
中文分词的一些文章
浏览:177
博文链接:https://mikesu.iteye.com/blog/51457
财经常用词词库大全,用于中文分词
浏览:103
财经常用词词库大全,用于中文分词,非常全。学习分词、自然语义分析的必备词库。适用于市面绝大部分主流的自然语言处理工具包。
中文分词字典
浏览:101
5星 · 资源好评率100%
中文分词词库,格式如下: 00000001 李 168 n 00000002 李浩 133 nr2 00000003 互联网式 121 b ...
ChineseSplitter中文分词(单字、双字、词义)
浏览:161
5星 · 资源好评率100%
简介 ChineseSplitter中文分词系统集成了单字(一元切分)、双字(二元切分)、词义切分等分词方法。提供很好的权重计算办法。类结构 BaseSplitter(分词基类) │ ├─SingleSplitter(一元切分) │ ├─DoubleSplitter(二元切分) │ └─DefaultS
中文分词软件ICTCLAS2015
浏览:180
最新版的中文分词软件,兼容c#,c++,java,安卓
中文分词技术
浏览:157
c#开发的winform项目,网上搜集的资料。基于.net2.0的轻量级分词组件,分词效率和准确性都较高。KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法
中文分词方法
浏览:187
1)基于词典的匹配: 前向最大匹配,后向最大匹配 2)基于字的标注: 最大熵模型,条件随机场模型,感知器模型 3)其它方法 与词性标注结合,与句法分析结合
中文对分词
浏览:121
详细讲述了对中文词对的分词算法,对大家会很有帮助!
中文分词中文分词中文分词
浏览:152
分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词
评论
收藏
内容反馈
立即下载
资源评论
资源反馈
评论星级较低,若资源使用遇到问题可联系上传者,3个工作日内问题未解决可申请退款~
联系上传者
评论
忘忧草_jju
粉丝: 0
资源:
2
私信
上传资源 快速赚钱
我的内容管理
展开
我的资源
快来上传第一个资源
我的收益
登录查看自己的收益
我的积分
登录查看自己的积分
我的C币
登录后查看C币余额
我的收藏
我的下载
下载帮助
前往需求广场,查看用户热搜
最新资源
javaee 后端餐饮系统
误差理论与大数据处理作业.doc
调度自动化主站系统的研究与应用.docx
贴片机运行与编程.ppt
基于k-means和谱聚类算法的数据分类matlab对比仿真【包括程序,注释,参考文献,操作步骤】
越海金刚砂地坪施工大数据分析研究.pptx
车辆管理信息化系统介绍.doc
转载使用许可协议范本(互联网行业)模版.doc
软件产业运行情况调研问卷模版.doc
软件产品发布管理流程.doc
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功