没有合适的资源?快使用搜索试试~
我知道了~
文库首页
网络技术
网络基础
中文分词搜索
中文分词搜索
共10个文件
txt:3个
php:3个
dic:2个
需积分: 0
1 下载量
9 浏览量
2013-08-08
09:05:17
上传
评论
收藏
2.16MB
RAR
举报
温馨提示
立即下载
完整的中文分词搜索 可以自己编译词典 扩展词典等 类百度搜索
资源推荐
资源详情
资源评论
中文分词词库
浏览:123
5星 · 资源好评率100%
中文分词词库,较全,适合做搜索,输入法等程式
中文分词中文分词中文分词
浏览:155
分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词
中文对分词
浏览:107
详细讲述了对中文词对的分词算法,对大家会很有帮助!
中文分词搜索,商城搜索分词
浏览:88
做商城搜索,测试无误后上传,中文分词搜索,商城搜索分词,商城搜索
实验报告(利用Nutch和IKanalyzer构造中文分词搜索引擎)
浏览:180
利用Nutch和IKanalyzer构造中文分词搜索引擎
搭建Sphinx+MySQL5.1x+SphinxSE+mmseg中文分词搜索引擎架构
浏览:132
3星 · 编辑精心推荐
搭建Sphinx+MySQL5.1x+SphinxSE+mmseg中文分词搜索引擎架构
php搜索引擎中文分词例子
浏览:36
4星 · 用户满意度95%
说明:本技术用于搜索引擎中文分词 程序使用自建词库,存储15多万(免费版10万左右)词,未压缩词库仅1.13M 程序自动过滤了诸如:█♀♂卍※ 平均每个词查找词库次数为2 使用分词类中的add_word方法可以很轻易扩展词库,...
中文分词方法
浏览:121
1)基于词典的匹配: 前向最大匹配,后向最大匹配 2)基于字的标注: 最大熵模型,条件随机场模型,感知器模型 3)其它方法 与词性标注结合,与句法分析结合
中文信息处理中文分词
浏览:39
由于大小所限,将部分.mdb文件删除,如若运行错误,可考虑将.mdb文件复制到其他文件下,使用C++,MFC完成
paoding中文分词
浏览:96
paoding是一个不错的中文分词程序,中文分词是很多NLP需要用到的,希望能对大家有点用
中文分词中文切词分词
浏览:50
3星 · 编辑精心推荐
中文分词源代码,论文全部都有,获得2010界准阴工学院优秀毕业设计 词库高达几十万
中文分词技术
浏览:3
c#开发的winform项目,网上搜集的资料。基于.net2.0的轻量级分词组件,分词效率和准确性都较高。KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法
中文分词和搜索引擎
浏览:42
众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字...把中文的汉字序列切分成有意义的词,就是中文分词,有些人也称为切词。我是一个学生,分词的结果是:我 是 一个 学生。
如何使用Lucene的中文分词搜索
浏览:171
NULL 博文链接:https://gznofeng.iteye.com/blog/1129902
搜索引擎技术 中文分词搜索引擎程序
浏览:173
冒死分享别人的搜索引擎技术,搜索引擎介绍.不错的资源,和大家分享.
php实现scws中文分词搜索的方法
浏览:12
本文实例讲述了php实现scws中文分词搜索的方法。分享给大家供大家参考,具体如下: 1、4个文件(本站下载地址。)解压后,放到一个地方 eg:E:/wamp/scws 2、php.ini 中配置 extension = php_scws.dll scws.default....
搜索引擎原理 中文分词 搜索引擎三段式工作流程
浏览:161
搜索引擎 中文自动分词 网页净化与消重 搜索引擎三段式工作流程
Paoding中文分词
浏览:176
5星 · 资源好评率100%
庖丁解牛中文分词,速度不错,词库也很全面,非常不错!
f_中文分词_
浏览:137
该程序实现了基于词典的前向最大匹配算法分词
b_中文分词_
浏览:7
该程序实现了基于词典的后向最大匹配算法的分词
结巴中文分词
浏览:165
5星 · 资源好评率100%
比较好的Python下的中文分词工具,但是速度不是特别快,可以看看我的博客说明
jieba中文分词
浏览:146
NULL 博文链接:https://java--hhf.iteye.com/blog/2181919
ik中文分词词库35万中文分词词库(含电商)
浏览:186
ik中文分词词库35万中文分词词库(含电商)
中文分词学习版
浏览:87
CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行...
Lucene中文分词器包
浏览:193
4星 · 用户满意度95%
来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。 1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP) 2. 对数量词、地名、路名的...
c#中文分词类库 可用来做搜索引擎分词 准确率90% 支持Lucene.net
浏览:151
4星 · 用户满意度95%
c#中文分词类库 可用来做搜索引擎分词 准确率90%,提供Lucene。net的支持
收起资源包目录
fenci_jb51_utf8.rar
(10个子文件)
脚本之家.url
3KB
dict_build.php
1KB
dict
base_dic_full.dic
7.43MB
not-build
base_dic_full.txt
2.49MB
words_addons.dic
3KB
readme.txt
603B
phpanalysis.class.php
37KB
index.php
6KB
服务器软件.url
122B
jb51.net.txt
4KB
共 10 条
1
评论
收藏
内容反馈
立即下载
资源评论
资源反馈
评论星级较低,若资源使用遇到问题可联系上传者,3个工作日内问题未解决可申请退款~
联系上传者
评论
Ltish
粉丝: 0
资源:
2
私信
上传资源 快速赚钱
我的内容管理
展开
我的资源
快来上传第一个资源
我的收益
登录查看自己的收益
我的积分
登录查看自己的积分
我的C币
登录后查看C币余额
我的收藏
我的下载
下载帮助
前往需求广场,查看用户热搜
最新资源
fu项目 3.smart
2023 React 18 系统入门 进阶实战《欢乐购》
实验一顺序表的基本操作.doc
SAP Client Copy 参数文件
Spark On K8s实战视频课程
毕业设计-基于Java开发的电影购票小程序(Vue、SpringBoot)
Flink On K8s实战课程2023
SpringBoot+Vue3打造企业级一体化SaaS系统【已完结13章】
MSSQLX86、X64卸载工具
在进行深度学习前,对张量的理解,以及如何处理数据,使其变为张量
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功