下载  >  开发技术  >  Java  > 分词器LUcene

分词器LUcene 评分

支持分词歧义处理 支持数量词合并 词典支持中英文混合词语,如:Hold住

...展开详情
所需积分/C币:4 上传时间:2018-05-16 资源大小:84.04MB
举报 举报 收藏 收藏
分享 分享
Lucene分词器资源包

压缩包内含有Lucene分词时所需要的jar包,可以添加到本地maven当中使用,但不含demo,如需使用Lucene的demo,还请下载Lucene-Demo.rar

立即下载
盘古分词+Lucene

做中文全文检索、搜索必备。 里面有实例代码。 相互学习!

立即下载
jieba结巴分词 支持lucene5

jieba分词器,支持lucene5版本。分词效果非常好,推荐使用。

立即下载
Lucene.Net中文分词组件 Lucene.Net.Analysis.Cn

Lucene.Net中文分词组件 Lucene.Net.Analysis.Cn

立即下载
ikanalyzer中文分词支持lucene7.1.0

由于林良益先生在2012之后未对IKAnalyzer进行更新,后续lucene分词接口发生变化,导致不可使用,所以此jar包支持lucene6.0以上版本

立即下载
c#写的关于分词使用Lucene.net

本人用c#写的关于分词、去除停用词的代码,使用Lucene.net的dll,很详细,编译通过。

立即下载
搜索引擎的分词列表Lucene-stopwords.rar

在开发apache的lucene框架的时候,如果你要编写自己的分析器的话,就要考虑到停止词的处理。

立即下载
IKAnalyzer中文分词支持lucene6.5.0版本

由于林良益先生在2012之后未对IKAnalyzer进行更新,后续lucene分词接口发生变化,导致不可使用,所以此jar包支持lucene6.0以上版本

立即下载
IKAnalyzer中文分词器支持Lucene6.0以上

提示:IKAnalyzer中文分词器支持Lucene6.0以上,IKAnalyzer中文分词器支持Lucene6.0以上。

立即下载
ICTCLAS分词器与Lucene4.9的结合

基于ICTCLAS中科院分词器实现Lucene4.9版本的中文分词功能,新增中英文停用词库,直接导入即可使用。

立即下载
IK分词器集成lucene4.5使用方法

IK分词器集成lucene4.5使用方法 在test 包内说明详细直观 内附IK源码

立即下载
IKAnalyzer分词器升级Lucene5.5.4

目前比较好用的分词器 是IK 2012年停更 只支持到 Lucene4.7 ,但是有些程序需要使用Lucene高版本,比如,Solr5.5就需要Lucene5.5.4来支持

立即下载
盘古分词、lucene3.0.3搜索的使用示例.zip

盘古分词 lucene3.0.3 使用 示例 可以方便地整合到项目中使用,.net 4.0的。

立即下载
盘古分词、lucene3.0.3搜索的使用示例v1.2

盘古分词 lucene3.0.3 使用 示例 可以方便地整合到项目中使用,.net 4.0的。新加分页功能。

立即下载
中文分词lucene

支持中文的庖丁分词,里面分为两个类,一个建立通过文档建立索引(里面的类)TextFileIndexer.java(里面包含两个目录c:\\d 指明要索引文件夹的位置,这里是C盘的S文件夹下,里面存放要创建索引的位置,c:\\index5这里放索引文件的位置),一个通过索引来进行查TestQuery.java。

立即下载
盘古分词器+lucene .net4.0下编译

盘古分词器的最新版本是.net2.0版本,这里发布的是net4.0下重新编译后的程序集

立即下载
盘古分词、lucene3.0.3搜索的使用示例v1.3.zip

盘古分词 lucene3.0.3 使用 示例 可以方便地整合到项目中使用,.net 4.0的。有分页功能。新加根据分类索引功能。

立即下载
Lucene中文分词器组件

Lucene中文分词器组件,不错的。

立即下载
Lucene中文分词器包

来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。<br>1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)<br>2. 对数量词、地名、路名的优化处理<br>3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率<br>(使用方法请参考IKAnalyzer V1.1版)

立即下载
lucene、solr中文分词器

lucene默认自带的分词器对中文支持并不好,所以对于中文索引的分词器,建议使用第三方开源的中文分词器

立即下载