conll2000

所需积分/C币:6 2020-04-06 4.68MB ZIP
评分

本人将conll相关的数据集做了整理,大家可以下载使用,我也写了相关的数据集的说明,也在我的博客里.希望大家有兴趣的可以一块交流学习.

...展开详情
立即下载 最低0.43元/次 身份认证VIP会员低至7折
举报 举报 收藏 收藏
分享
13KB
CoNLL 2000

CoNLL 2000 CRF结果评测perl程序

2009-06-22
4.68MB
conll2000 conll2002 conll2003 conll2007 conll2012

本人将conll相关的数据集做了整理,大家可以下载使用,我也写了相关的数据集的说明,也在我的博客里.希望大家有兴趣的可以一块交流学习.

2018-05-10
576KB
conll200语料

conll2000的train语料和test语料

2009-03-01
10.34MB
conll-corpors.zip

包含CoNLL2000,CoNLL02,CoNLL03,CoNLL04,CoNLL07,CoNLL12,。使用时阅读每个文件中的readme。

2019-06-21
4.71MB
coNLL2004数据集

机器学习或采用统计模型如HMM,MEMM,CRF等训练时需要的数据集,具体使用方法请看里面的README,一定要看仔细了,里面有很多的小压缩包,完整的train.txt或text.txt要在linux下用命令生成

2009-07-12
2.09MB
Python-使用谷歌BERT做CoNLL2003NER

Use google BERT to do CoNLL-2003 NER !

2019-08-11
3.18MB
conll 特征词提取 python

这是我自己写的conll评测比赛的程序,希望对大家有帮助

2012-02-20
67.81MB
conll-2012

OntoNotes 5.0的中文部分包括250K字的新闻专线数据,270K字的广播新闻和170K的广播会话。 新闻专线的数据来自中国树库5.0。 250K包括100K的新华新闻数据(chtb_001.fid到chtb_325.fid)和来自Sinorama新闻杂志的150K数据(chtb_1001.fid到chtb_1078.fid)。 广播新闻数据是来自TDT4的274K字,并且是从LDC为自动内容提取(ACE)程序注释的数据中选择的。已将这些文件的编号chtb_2000.fid分配给chtb_3145.fid。 广播对话数据是170K字,取自LDC的GALE数据。 50K的原始中文数

2019-01-11
3.13MB
CoNLL-2003 eng.train

数据集CoNLL-2003,这一数据集是用于测试命名实体识别的早期训练数据,文本来源是报纸新闻。英文数据eng.train

2020-03-11
34.93MB
F:\python\chi_sim.traineddata和eng.train.rar.zip

chi_sim.traineddata和eng.train.rar

2019-10-12
746KB
YAGO: A Large Ontology from Wikipedia and WordNet

Web Semantics: Science, Services and Agents on the World Wide Web YAGO: A Large Ontology from Wikipedia and WordNet

2018-12-10
5.39MB
Dataset.zip

红外与可见光图像融合研究中所使用的的实验图像,一共29组对应的红外与可见光图像,不同场景,都为灰度图像。如果测试图像不够的话可以看看这个。

2020-03-26
158KB
python查找字符串

python语言查找字符串,包括匹配,这是做conll评测中用到的部分程序

2012-02-20
192KB
论文研究-英语从句识别中的特征表示.pdf

英语从句识别是句法分析的基本问题,它是进一步进行英汉机器翻译的基础。提出一种基于最大熵原理的英语从句识别方法,即先将提取后的特征表示为最大熵模型形式并对其编码,再采用最大熵原理完成最后的识别过程。采用该方法进行完整从句识别的正确率和召回率分别达到8092%和6236%,实验表明,该方法的正确识别率远高于CoNLL01的底线标准,是一种简单有效的从句识别方法。

2019-07-22
39KB
哈工大停用词表.doc

此为哈工大停用词表,可用于分词使用。语言技术平台(LTP) 提供包括中文分词、词性标注、命名实体识别、依存句法分析、语义角色标注等丰富、 高效、精准的自然语言处理技术。经过 哈工大社会计算与信息检索研究中心 11 年的持续研发和推广,LTP 已经成为国内外最具影响力的中文处理基础平台,曾获 CoNLL 2009七国语言句法语义分析评测 总成绩第一名,中文信息学会钱伟长一等奖等重要成绩和荣誉。目前,LTP 已经被 500 多家国内外研究机构和企业使用,多家大企业和科研机构付费使用。

2019-12-02
2.43MB
aida-yago2-dataset.zip

包含了较流行的实体链指数据集,aida-yago2, 以及coNLL2003数据集。

2019-05-24
754KB
论文研究-一种异常无线电通信信号实时检测方法.pdf

描述了一个基于依存关系的语义角色标注系统,该系统把依存关系作为语义角色标注的基本单元。通过手工或自动标注出来的依存关系,构造出依存关系树,并从树上抽取特征。用最大熵模型对句中谓词的语义角色进行识别和分类。为了消除不必要的结构化信息,在预处理阶段,依存关系树经过了Xue的剪枝算法处理。通过特征工程,丰富的特征及其组合被应用于系统。最终使用 CoNLL 2008 shared task提供的数据作为训练、开发和测试集,使用手工标注的依存关系,F1值达到了86.25%;使用MSTParser自动产生的依存关系,F1值达到了81.66%。

2019-09-11
535KB
论文研究-引文作者主题演化模型在专家检索方面的应用.pdf

目前基于科技文献的专家检索方法大多数是静态地获取专家信息,而动态演化的分析方法很少考虑文献的作者、引文作者等外部信息,且很少应用于专家检索领域。基于此,在CAT和ToT模型的基础上构建了引文作者主题演化(CAToT)模型,并给出了一种估计CAToT模型参数的吉布斯采样方法以及该模型在专家检索方面应用的方法。该模型集成了CAT和ToT模型的优势,不仅可以揭示科技文献中隐含的主题、与主题相关的作者和引文作者,而且可以挖掘主题随时间变化的规律以及专家排名的演化规律。以1 557篇ACL、CONLL、EMNLP的会议论文集作为实验数据,通过与CAT模型的对比分析验证了CAToT模型的可行性和有效性。

2019-09-07
36.76MB
Twitter手机端安装包--Android

Android手机Twitter客户端,很多时候下载特别慢,希望对你有帮助。

2017-09-29
1.5MB
60分钟学会OrCAD-Capture-CIS

60分钟学会OrCAD-Capture-CIS 很不错的资料,推荐给大家

2017-09-29
img
shikelangNo1
  • 分享王者

    成功上传51个资源即可获取

关注 私信 TA的资源

上传资源赚积分,得勋章
相关内容推荐