# 说明
## 使用Stanfordnlp和nltk进行**依存句法分析**,提取动名词短语
分词之后名词动词合并成chunking短语
主函数:sentenceSplit_host.py
输入:text.txt
输出:dependency.txt
## 主要步骤
通过读取text.txt文本,
进行Stanfordnlp的parse进行**依存句法分析**,
然后将分析结果通过nltk构建成树结构,
通过nltk构建的search方法进行**子树搜索,递归遍历搜索,叶子节点提取**返回需要的(动词,名词短语)对
注意:这个遍历树的方法是使用栈【动态递归】
没有合适的资源?快使用搜索试试~ 我知道了~
依存句法树解析(Stanfordnlp、nltk)
共20个文件
py:6个
xml:5个
pyc:5个
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
0 下载量 61 浏览量
2023-09-28
14:18:26
上传
评论
收藏 21KB ZIP 举报
温馨提示
# 说明 ## 使用Stanfordnlp和nltk进行**依存句法分析**,提取动名词短语 分词之后名词动词合并成chunking短语 主函数:sentenceSplit_host.py 输入:text.txt 输出:dependency.txt ## 主要步骤 通过读取text.txt文本, 进行Stanfordnlp的parse进行**依存句法分析**, 然后将分析结果通过nltk构建成树结构, 通过nltk构建的search方法进行**子树搜索,递归遍历搜索,叶子节点提取**返回需要的(动词,名词短语)对 注意:这个遍历树的方法是使用栈【动态递归】
资源推荐
资源详情
资源评论
收起资源包目录
4.2依存句法树解析.zip (20个子文件)
4.2依存句法树解析
text.txt 863B
recursionSearch.py 3KB
sentenceSplit_host.py 3KB
readme.md 580B
.idea
4.2依存句法树解析.iml 398B
vcs.xml 186B
workspace.xml 18KB
misc.xml 191B
modules.xml 300B
encodings.xml 135B
dependency.txt 0B
grammer
__init__.py 0B
rules.py 3KB
tools.py 2KB
__pycache__
tools.cpython-36.pyc 3KB
__init__.cpython-36.pyc 105B
rules.cpython-36.pyc 3KB
__pycache__
recursionSearch.cpython-36.pyc 2KB
stanfordParse.cpython-36.pyc 1KB
stanfordParse.py 1KB
共 20 条
- 1
资源评论
白话机器学习
- 粉丝: 8185
- 资源: 7687
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功