没有合适的资源?快使用搜索试试~
我知道了~
文库首页
开发技术
其它
易语言应用中文分词源码-易语言
易语言应用中文分词源码-易语言
共2个文件
e:1个
ec:1个
网络相关源码
需积分: 5
0 下载量
73 浏览量
2021-06-13
05:51:35
上传
评论
收藏
8KB
ZIP
举报
温馨提示
立即下载
易语言应用中文分词源码
资源详情
资源评论
收起资源包目录
易语言应用中文分词源码.zip
(2个子文件)
彗星HTTP应用模块.ec
25KB
应用中文分词.e
8KB
共 2 条
1
评论
收藏
内容反馈
立即下载
评论0
去评论
最新资源
generateReporter.jl
Zotero中的配置文件
exp02.cpp
酷我畅听 9.1.8.apk
1111.py.html
免费自动连点器.apk
streamlit hello.py
基于51单片机的直流电机调速Keil工程文件
初级教程sql-tutorial【程序员VIP专用】.zip
php教程【程序员VIP专用】.zip
weixin_38551046
粉丝: 5
资源:
931
私信
上传资源 快速赚钱
前往需求广场,查看用户热搜
相关推荐
易语言应用中文分词
易语言应用中文分词源码,应用中文分词,中文分词
易语言源码易语言应用中文分词源码.rar
易语言源码易语言应用中文分词源码.rar 易语言源码易语言应用中文分词源码.rar 易语言源码易语言应用中文分词源码.rar 易语言源码易语言应用中文分词源码.rar 易语言源码易语言应用中文分词源码.rar 易语言源码易语言应用中文分词源码.rar易语言源码易语言应用中文分词源码.rar 易语言源码易语言应用中文分词源码.rar
开源_易语言中文分词_非网页调用
' ' 窗口启动的时候,初始化类会把数据库载入内存,以增加运算速度,所以占用内存稍微大一点,如果不喜欢,可以修改类初始化部分{方初始化()} ' 子重置词典数据库() 这个功能用于自定义词库,吧文本词库转换为sqlite数据库词库 ' 词库文件保存在运行目录kic.txt ' 词库数据库为disk.db ' 词库数据保存在sqlite数据库中,没有找到更好的,更快的查找文本的方式,只能先用数据库了
4星 · 用户满意度95%
[易语言]基于词典的中文句子分词断句,带例程及词典
基于词典的中文句子分词断句,算法比较简单,如果加入连接词处理及词性处理的话效果应该会好很多
易语言中科院分词模块2014
NLPIR汉语分词系统(又名ICTCLAS2014),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取。
4星 · 用户满意度95%
易语言分词模块
易语言分词模块非常好用,采用采用中科院分词转化,需要date,可以自己去下载,下载授权文件,放到根目录即可
中文分词+自动提取关键字
1:中文分词 2:词频统计 3:罗列出要自动提取的关键字 ---------------------------------------- 具有60 万字/秒的高速处理能力。
5星 · 资源好评率100%
中文分词处理技术源代码
专业提供中文分词扩展和中文词库。使中文分词,全文搜索不再是难点,一个函数即完成分词。然后即可把分词后的结果存储,再使用sphinx,Lucene等进行索引搜索了。
4星 · 用户满意度95%
中文分词源码
ChineseSplitter中文分词系统集成了单字(一元切分)、双字(二元切分)、词义切分等分词方法。提供很好的权重计算办法。
智能中文分词小程序(含源码)
输入任意一篇中文文档,能够分析出里面可能的词组,然后输出,输入的文档越多,结果越准确, 不需要外部字典,输出的重点词汇用"*"开头,可以调整关键参数来调整准确率,附完整的源代码和测试文档(输入 的学习文档必须以ANSI编码保存,因为目前没有加入icu字符处理,并且固定了输入文档的文件名 命名规则,每个输入文档必须以file开头,后面跟连续的数字序号,从0开始,比如file0, file1, fil
4星 · 用户满意度95%
运用在lucene中的中文分词算法源码
运用在lucene中的中文分词算法源码
C#中文分词源码
支持中文的分词源码,效果还不错,准确率、速度都合适
小程序 中文分词工具包 smallseg(源码).jar
免责声明:资料部分来源于合法的互联网渠道收集和整理,部分自己学习积累成果,供大家学习参考与交流。收取的费用仅用于收集和整理资料耗费时间的酬劳。 本人尊重原创作者或出版方,资料版权归原作者或出版方所有,本人不对所涉及的版权问题或内容负法律责任。如有侵权,请举报或通知本人删除。
自编的易语言字典--源码
易语言写的字典。随便拿用,仅供参考。源码来的。看不懂中-国字的别说我。
3星 · 编辑精心推荐
易语言分词例程(含数据库)
易语言分词例程,通过易语言匹配数据库词库,按照词性将语句进行分割,还能识别数据库中没有记录的词,并定义为“未分词”。
中科院NLPIR最新版分词(2018.10)系统加入用户词典和去除停用词的完整代码
在最新版的中科分词系统基础上,进行了改进,加入用户词典和停用词,并进行文件无乱码读写,输出分词结果,效果不错,是情感分析的良好基础。这一部分,我用来写作为硕士论文的数据处理基础。在此分享给各位,欢迎指教
中文分词_最大匹配法
中文分词(C语言实现),利用数据字典实现的中文句子分词,如,我爱我的祖国,分词后,我爱/我的/祖国.
4星 · 用户满意度95%
最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码
最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码
scws中文分词源码包
scws是 基于词频词典的中文分词系统,源码包中含有win下php的dll拓展.测试可用
Lucene与中文分词技术的研究及应用
Lucene与中文分词技术的研究及应用Lucene与中文分词技术的研究及应用Lucene与中文分词技术的研究及应用
5星 · 资源好评率100%
中文分词原理及源码剖析.pdf
中文分词原理及源码剖析
C#中文分词技术源码
C#中文分词技术源码
盘古中文分词源码
盘古中文分词源码,C#语言编写,源代码,带词库。
5星 · 资源好评率100%
C++编写中文分词最大匹配的分词源码
C++编写的中文最大匹配分词源码,对学习分词的朋友有很大的帮助啊哦!
4星 · 用户满意度95%
C++中文分词源码,分词的方法
西方语言在语句(或从句)内词汇之间存在分割符(空格),而汉语的词汇在语句中是连续排列的。因此,汉语词汇的切分(分词)在中文信息处理的许多应用领域,如机器翻译、文献检索、文献分类、文献过滤、以及词频统计等,是非常重要的第一步。 自动分词是基于字符串匹配的原理进行的。迄今为止,已经有许多文献对各种分词方法进行探讨,其着重点或为分词的速度方面,或为分词的精度方面以及分词的规范。本文主要探讨分词的速度问题
4星 · 用户满意度95%
Lucene中文分词源码详解
Lucene,作为一种全文搜索的辅助工具,为我们进行条件搜索,无论是像Google,Baidu之类的搜索引 擎,还是论坛中的搜索功能,还是其它C/S架构的搜索,都带来了极大的便利和比较高的效率。本文主要是利用Lucene对MS Sql Server 2000进行建立索引,然后进行全文索引。至于数据库的内容,可以是网页的内容,还是其它的。本文中数据库的内容是图书馆管理系统中的某个作者表- Autho
3星 · 编辑精心推荐
Qt 5实现串口调试助手 (源工程文件、0积分下载)
基于Qt 5实现串口调试助手,程序仅供参考,修改了之前十六进制接收0xA0--0xFF有误的问题,新增了窗口自适应(ui文件设置栅格),文件详情可看博客链接https://blog.csdn.net/m0_51294753/article/details/121405661。
5星 · 资源好评率100%
【SystemVerilog】路科验证V2学习笔记(全600页).pdf
SystemVerilog的听课学习笔记,包括讲义截取、知识点记录、注意事项等细节的标注。 目录如下: 第一章 SV环境构建常识 1 1.1 数据类型 1 四、二值逻辑 4 定宽数组 9 foreach 13 动态数组 16 队列 19 关联数组 21 枚举类型 23 字符串 25 1.2 过程块和方法 27 initial和always 30 func
5星 · 资源好评率100%
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0
最新资源