没有合适的资源?快使用搜索试试~
我知道了~
文库首页
安全技术
网络攻防
b_中文分词_
b_中文分词_
共4个文件
txt:3个
py:1个
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
中文分词
0 下载量
181 浏览量
2021-09-29
05:08:33
上传
评论
收藏
283KB
ZIP
举报
温馨提示
五一特惠:¥9.90
19.90
该程序实现了基于词典的后向最大匹配算法的分词
资源推荐
资源详情
资源评论
中文分词系统
浏览:136
c#写的一个分词的小案例,分词系统对于搜索有很大的提升空间,使搜索的条件也更加灵活。 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。我们知道,在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段能通过明显的分界符来简单划界,唯独词没有一个形式上的分界符,虽然英
中文分词工具
浏览:80
很好的中文分词工具,速度快,准确率高,值得使用
中文对分词
浏览:26
详细讲述了对中文词对的分词算法,对大家会很有帮助!
中文分词的研究
浏览:103
5星 · 资源好评率100%
关于中文的分词技术的一些研究和概述
中文分词方法
浏览:111
1)基于词典的匹配: 前向最大匹配,后向最大匹配 2)基于字的标注: 最大熵模型,条件随机场模型,感知器模型 3)其它方法 与词性标注结合,与句法分析结合
中文分词学习版
浏览:193
CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行...
HMM实现中文分词python实现作业
浏览:80
自然语言处理课程的小作业,以新闻语料为基础,用HMM算法实现中文分词。按照每个字为B,E,S,M进行划分。以新闻语料为基础,用HMM算法实现中文分词。按照每个字为B,E,S,M进行划分。
30万 中文分词词库
浏览:143
自己做毕设整理的分词词库,使用中科院的标注集合北大标注集,也就是两种标注混合用的。每个词一个词性,也有词频。由于使用多个词典整合的,词频不是特别准。但是能满足一般的需求。 容量为29.8w. 包含了三级地名、...
SCWS繁体中文分词辞典txt格式
浏览:183
3星 · 编辑精心推荐
它是一套基于词频词典的机械中文分词引擎,它能将一整段的汉字基本正确的 切分成词,因为词是汉语的基本语素单位,而书写的时候不像英语会在词之间 用空格分开,所以如何准确快速的分词一直是中文分词的...
中文分词中文分词中文分词
浏览:93
分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词
中文分词中文切词分词
浏览:17
3星 · 编辑精心推荐
中文分词源代码,论文全部都有,获得2010界准阴工学院优秀毕业设计 词库高达几十万
中文分词技术
浏览:3
c#开发的winform项目,网上搜集的资料。基于.net2.0的轻量级分词组件,分词效率和准确性都较高。KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法
中文分词字典
浏览:19
5星 · 资源好评率100%
中文分词词库,格式如下: 00000001 李 168 n 00000002 李浩 133 nr2 00000003 互联网式 121 b ...
csw5.0中文分词组件
浏览:12
4星 · 用户满意度95%
CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行...
中文分词检索系统
浏览:68
System.out.println("关键字:"+b+" 检索完成"); } if( myFile != null) myFile.close(); if( resultFile != null) resultFile.close(); } catch (ParserException e) { e.printStackTrace(); }
HHM实战:使用HMM进行中文分词1
浏览:84
通过以上的序列标注,那么我们可以得到这个HMM模型:状态空间为{B,E,M,S}每个字就是模型中的观测,所以观测空间为语料中的所有中文字两个空间完了,还需要三个
中文 分词 -- 同义词大全整理
浏览:194
5星 · 资源好评率100%
合并多词条 a,b>>> a,b,c,d,... tonitsi1_deduli_deFei.txt 14797条词条 tonitsi1_deduli_deFei_join.txt 大概6734条词条 参考: │ 0两万同义词大全.txt │ 1伪原创同义词库(13000条).txt │ 2四十万汉语...
中文信息处理中文分词
浏览:50
由于大小所限,将部分.mdb文件删除,如若运行错误,可考虑将.mdb文件复制到其他文件下,使用C++,MFC完成
paoding中文分词
浏览:96
paoding是一个不错的中文分词程序,中文分词是很多NLP需要用到的,希望能对大家有点用
Paoding中文分词
浏览:117
5星 · 资源好评率100%
庖丁解牛中文分词,速度不错,词库也很全面,非常不错!
SIGHAN-中文分词
浏览:66
中文分词
新闻分词_leafk6w_分词_中文分词_
浏览:56
对excel里的新闻标题进行分词,并将分词结果写到excel
SCWS简体中文分词辞典txt格式
浏览:136
5星 · 资源好评率100%
它是一套基于词频词典的机械中文分词引擎,它能将一整段的汉字基本正确的 切分成词,因为词是汉语的基本语素单位,而书写的时候不像英语会在词之间 用空格分开,所以如何准确快速的分词一直是中文分词的...
python之中文分词
浏览:144
5星 · 资源好评率100%
目录 1、安装和使用jieba 2、分词练习 3、为jieba添加自定义的词典 4、知识点普及 1)分词文件怎么写 2)jieba.cut()参数说明 5、搜索引擎模式 1、安装和使用jieba 直接用命令:pip3 ... 结果:Prefix dict has b
15万汉字字典有解释 md b数据库格式 可以用作分词匹配
浏览:7
15万汉字字典有解释 mdb数据库格 式 可以用作分词匹配15万汉字字典有解释 mdb数据库格式 可以用作分词匹配
基于 B Bs 文 本 信息的中文自动分词系统的研究
浏览:99
5星 · 资源好评率100%
基于 B Bs 文 本 信息的中文自动分词系统的研究。
asp 的中文分词
浏览:118
” b=”中国,我们,张家界,日本,美国,苹果” b=split(b,”,”) a=split(a,”|”) for k=0 to ubound(a) s=”” n=”” for i=0 to ubound(b) if instr(a(k),b(i))>0 then s=s & instr(a(k),b(i)) & “,”...
收起资源包目录
b.zip
(4个子文件)
dic.txt
40B
str.txt
195B
dictionary.txt
679KB
backward.py
1KB
共 4 条
1
评论
收藏
内容反馈
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
五一特惠:¥9.90
19.90
资源评论
资源反馈
评论星级较低,若资源使用遇到问题可联系上传者,3个工作日内问题未解决可申请退款~
联系上传者
评论
西西nayss
粉丝: 70
资源:
4754
私信
上传资源 快速赚钱
我的内容管理
展开
我的资源
快来上传第一个资源
我的收益
登录查看自己的收益
我的积分
登录查看自己的积分
我的C币
登录后查看C币余额
我的收藏
我的下载
下载帮助
前往需求广场,查看用户热搜
最新资源
51单片机输出PWM波,可调频率、占空比
fclqdq_247006.apk
蓝桥杯python真题解析
stm32单片机调试can总线上位机软件
YOLOv5水下目标检测权重+数据集+ptqt界面
基于qt和C++的ROS人机交互界面源码+运行使用说明+效果图.zip
STM32F407(HAL库)移植modbus从机rs232通信携带freerots系统
STM32F407(HAL库)移植modbus从机rs485通信携带freerots系统
yolov5垃圾检测+检测模型+标注好的数据集+pyqt界面
YOLOv5水下垃圾检测+训练好的模型+标注好的数据集+pyqt可视化界面
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功