<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict"></entry>
<!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords"></entry>
<!--用户可以在这里配置远程扩展字典 -->
<!-- <entry key="remote_ext_dict">words_location</entry> -->
<!--用户可以在这里配置远程扩展停止词字典-->
<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>
没有合适的资源?快使用搜索试试~ 我知道了~
7.17.1系列Elasticsearch的elasticsearch-analysis-ik分词器
共19个文件
dic:11个
jar:5个
xml:1个
需积分: 0 1 下载量 38 浏览量
2023-08-07
19:34:40
上传
评论
收藏 4.3MB ZIP 举报
温馨提示
适用于7.17.1系列,例如Elasticsearch的7.17.12版本。 elasticsearch-analysis-ik 是一个常用的中文分词器,在 Elasticsearch 中广泛应用于中文文本的分析和搜索。下面是 elasticsearch-analysis-ik 分词器的几个主要特点: 中文分词:elasticsearch-analysis-ik 是基于最大正向匹配算法实现的中文分词器。它能够将中文文本按照合理的单词边界进行分割,并提供高质量的分词结果。 词库扩展性:elasticsearch-analysis-ik 采用了可扩展的词库机制。用户可以根据自己的需求,定制和扩展词库,添加新的词汇,从而实现更好的分词效果。 多种分词模式:elasticsearch-analysis-ik 支持多种分词模式,包括细粒度切分和智能切分。细粒度切分会将文本切分为更小的词汇单位,而智能切分则会根据上下文进行适当的切分,更符合语义的需求。 中文数字处理:elasticsearch-analysis-ik 还针对中文文本中的数字进行了特殊处理。它将连续的数字组合成一个整体。
资源推荐
资源详情
资源评论
收起资源包目录
elasticsearch-analysis-ik-7.17.1.zip (19个子文件)
plugin-descriptor.properties 2KB
httpclient-4.5.2.jar 719KB
commons-codec-1.9.jar 258KB
elasticsearch-analysis-ik-7.17.1.jar 54KB
plugin-security.policy 125B
commons-logging-1.2.jar 60KB
httpcore-4.4.4.jar 319KB
config
main.dic 2.92MB
stopword.dic 164B
IKAnalyzer.cfg.xml 625B
extra_single_word.dic 62KB
quantifier.dic 2KB
suffix.dic 192B
extra_main.dic 4.98MB
extra_single_word_full.dic 62KB
extra_single_word_low_freq.dic 11KB
surname.dic 752B
extra_stopword.dic 156B
preposition.dic 123B
共 19 条
- 1
资源评论
qq_15145603
- 粉丝: 260
- 资源: 8
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功