没有合适的资源?快使用搜索试试~
我知道了~
文库首页
人工智能
深度学习
小黄鸡语料库(分词以及未分词)
小黄鸡语料库(分词以及未分词)
共2个文件
conv:2个
5星
· 超过95%的资源
需积分: 47
57 下载量
39 浏览量
2019-03-08
14:17:07
上传
评论
3
收藏
12.25MB
RAR
举报
温馨提示
立即下载
小黄鸡语料库,包含分词以及未分词,可以用于自然语言处理。
资源详情
资源评论
收起资源包目录
小黄鸡语料库(分词以及未分词).rar
(2个子文件)
xiaohuangji50w_nofenci.conv
23.33MB
xiaohuangji50w_fenciA.conv
29.57MB
共 2 条
1
评论
收藏
内容反馈
立即下载
评论1
去评论
Zh823275484
2020-05-27
这个语料有助于训练对话
最新资源
测试工程师的简单版本OKR
Java二叉树算法实现:节点插入与遍历示例代码
CSDN积分的获取方式
shell脚本:CPU和GPU压力测试工具,使CPU和GPU占用率达到90%
神通数据库单机部署安装
C代码:动态规划算法之01背包问题
C语言代码:直接插入排序
PyCharm下Python调用OpenCV库开发PC端摄像头对在线学习学生的人脸进行检测以及表情识别项目源代码+数据集+模型
sklearn 实现混淆矩阵的计算
消操职考.apk
huhuqiaomu
粉丝: 0
资源:
1
私信
上传资源 快速赚钱
前往需求广场,查看用户热搜
相关推荐
小黄鸡语料库.conv
小黄鸡语料库.conv
5星 · 资源好评率100%
小黄鸡语料(分词+未分词)
小黄鸡语料(分词+未分词)
分词以及未分词的小黄鸡语料库+CDNOW数据集
分词和未分词的小黄鸡语料库还有CDNOW数据集;;;;;
小黄鸡-未分词-语料库
来源于人人网小黄鸡语料库,经过一部分处理后,但是并没有分词,可以用于对于中文的常用对话系统训练,也可以进行普通的中文自然语言处理。
小黄鸡对话语料,一共三份,未处理、单个词切分、结巴分词处理
该文档是网传的小黄鸡语料库,经过简单的数据预处理,已保存为conv文件格式,每一个E代表一段对话的开始,详见语料库内容,经本人测试,语料训练效果还不错,有志于学习NLP相关课程的同学可以下载做个小案例
人工智能聊天机器人50w中文闲聊语料
人工智能聊天机器人50w中文闲聊语料
5星 · 资源好评率100%
小黄鸡50W闲聊
小黄鸡50W条问答对话,都是中文,可供训练闲聊机器人试用。
小黄鸡”中文聊天机器人的详细解释.
对最近流行的小黄鸡”中文聊天机器人进行深层的技术剖析,希望对各位开发人员有用
4星 · 用户满意度95%
测试用的闲聊语料
一些测试用的闲聊语料,未经过清洗,数量约为9.7万条。
机器人多轮对话的闲聊语料
使两个机器人的相互对话生成语料,文本大小为1.03m,用于闲聊机器人的训练数据,使用 # 作为两个多轮对话之间的分隔符
汉语分词语料库
CTB6汉语分词语料库,可以拿来做分词任务。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
微软亚洲研究院中文分词语料库
微软亚洲研究院中文分词语料库,研究中文分词,研究中文分词
4星 · 用户满意度95%
汉语语料库分词类词频表-高频词汇.xls
分类词频是文本分析中非常重要的内容。本资源把常用的分类词收集起来,方便大家在做文本分析时使用。有了本资源,大家可以提高文本分析的效率
人人网小黄鸡源码
人人网小黄鸡,大牛用python实现。利用simi提供的API。用到人工智能的技术在里面
5星 · 资源好评率100%
青云语料库
自然语言处理语料库,可以用于训练。对话质量较高,噪音相对较少,任然需要做一些处理。
智能聊天系统小黄鸡源代码
人人网智能聊天系统小黄鸡实现代码,可以参考语义分析,通过智能学习算法实现自动回复。
4星 · 用户满意度95%
小黄鸡微信接口(小九版,国内小黄鸡)
小九机器人微信接口php源码 国内版小黄鸡数据接口 可以通过该api源码编写其他接口文件。 官网:www.weixen.com
4星 · 用户满意度95%
chinese_chatbot_corpus:中文公开聊天语料库
说明 该库是对目前市面上已有的开源中文聊天语料的搜集和系统化整理工作 该库搜集了包含 chatterbot 豆瓣多轮 PTT八卦语料 青云语料 电视剧对白语料 贴吧论坛回帖语料 微博语料 小黄鸡语料 共8个公开闲聊常用语料和短信,白鹭时代问答等语料。 并对8个常见语料的数据进行了统一化规整和处理,达到直接可以粗略使用的目的。 使用该项目,即可对所有的聊天语料进行一次性的处理和统一下载,不需要到处自
Brown语料库和LOB语料库
Brown语料库是世界上第一个计算机可读的语料库,它搜集的语料来自1961年美国英语出版物上的文本,共500篇,每篇大约2000个单词,合计100万单词。LOB语料库是模仿Brown语料库的比例建立起来的英国英语语料库,其预料...
5星 · 资源好评率100%
搜狗语料库(已分词)
搜狗语料库,自己用结巴分词分好的。(为什么摘要必须大于50个字)
4星 · 用户满意度95%
基于后缀数组分词 不需要词典和语料库
基于后缀数组的分词,是不需要词典和语料库。通过后缀数组和散列表获得汉字结合模式。
兰卡斯特汉语语料库LCMC语料库
LCMC语料库是一个100万词次(按每1.6个汉字对应一个英文单词折算)的现代汉语书面语通用型平衡语料库。起先建立时,它是作为英国经社研究委员会资助项目Contrasting Tense and Aspect in English and Chinese的部分...
2021年4月wiki简体中文语料未分词.txt
百度网盘链接和密码在文件中
论文研究-中文文本语料库分词一致性检验技术的初探.pdf
对大规模语料库中的分词不一致现象进行分析,提出了语料库分词一致性检查和校对的新方法。该方法提取词与词之间语法、语义搭配信息,利用支持向量机的理论对候选序列进行判断,给出一个切分结果,进而提高汉语语料库...
英语语料库LOB语料库
LOB语料库 创建时间: 1970年代初 创建单位:英国Lancaster大学和挪威Oslo大学以及Bergen大学 规模层级: 100万词次 基本情况:研究当代英国英语,与美国英语对比,使用了TAGIT系统,以统计方式建立换算几率矩阵,提高标注...
4星 · 用户满意度95%
论文研究-藏文语料库深加工方法研究.pdf
结合973前期项目《藏文语料库分词标注规范研究》的开发经验,论述了班智达大型藏文语料库的建设,分词标注词典库和分词标注软件的设计与实现,重点讨论了词典库的索引结构及查找算法、分词标注软件的格词分块匹配...
【深度学习语料库】常见金融领域词汇词典
金融方面的常见词汇形成的词典/语料库,jieba.load_userdict()即可使用
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论1
最新资源