下载  >  开发技术  >  Perl  > 中文分词工具

中文分词工具 评分:

这是一个中文分词工具 里面详细描述了 使用的方法

...展开详情
2012-10-28 上传 大小:354KB
举报 收藏
分享
ansj中文分词工具

最新2015年的java工程的ansj中文分词工具 myeclipse工程

立即下载
中文分词工具类

最新中文分词工具jar包,使用方便,分词准确,中文分析的一个不错的包

立即下载
中科院FreeICTCLAS中文分词工具C++源码

//ICTCLAS简介:计算所汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System), // 功能有:中文分词;词性标注;未登录词识别。 // 分词正确率高达97.58%(973专家评测结果), // 未登录词识别召回率均高于90%,其中中国人名的识别召回率接近98%; // 处理速度为31.5Kbytes/s。 //著作权: Copyright?2002-2005中科院计算所 职务著作

立即下载
中文分词器IK Analyzer 2012

中文分词器IK Analyzer 2012优化的词典存储,更小的内存占用。支持用户词典扩展定义。特别的,在 2012 版本, 词典支持中文,英文,数字混合词语。

立即下载
IK中文分词器

ikanalyzer-2012_u6.jar\org\wltea\analyzer\lucene 将此路径下的两个文件替换对应目录文件

立即下载
中文分词器

IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。可用于solr和Lucene

立即下载
中文分词软件

中文分词算法软件

立即下载
JE中文分词工具

中文分词很好的工具,可以自组定制

立即下载
Python Jieba中文分词工具实现分词功能

Python Jieba中文分词工具实现分词功能,Python Jieba中文分词工具实现分词功能

立即下载
seo优化工具-中文分词工具

seo优化工具-中文分词工具,有利于seo优化,检查seo是否合理。

立即下载
IkAnalyze中文分词工具包

solr的中文分词工具包

立即下载
lucene中文分词工具包

IKAnalyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包,将一段文字进行IK分词处理一般经过:词典加载、预处理、分词器分词、歧义处理、善后结尾 五个部分

立即下载
IKAnalyzer中文分词器

IKAnalyzer分词器,是由java编写的中文分词工具包,目前在lucene以及solr中用的比较多,采用了特有的“正向迭代最细粒度切分算法“,支持细粒度和智能分词两种切分模式

立即下载
中文分词工具包

(1)精确模式:试图将句子最精确地切开,适合文本分析; (2)全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; (3)搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

立即下载
中文分词器工具包下载(配置+Jar包)

IK配置+两个Jar包,实现与Solr 7.2.1版本的对接,对中文语句进行分词处理,可自行扩展词库字段ext.dict以及停止词字典dict

立即下载
中文分词工具包.zip

中文分词工具包.zip

立即下载
中文分词工具jar包

源码是中科院的分词源码,将其引入项目中,进行生成jar包,很方便的引入到另一个项目中,推荐使用啊。

立即下载
nlpir-中文分词工具和代码

张华平老师的分词包 用于命名实体识别 稍作修改 nlpir-中文分词工具和代码

立即下载
最新中文分词工具的词库

包括4款分词工具的最新词库: 1、IK分词:27万词 2、jieba分词:40万词 3、mmseg分词:15万词 4、word分词:64万词

立即下载
中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file demo text 杨尚川是APDPlat应用级产品开发平台的作者 file d:/text.txt

立即下载