没有合适的资源?快使用搜索试试~ 我知道了~
融合多种类型语法信息的属性级情感分析模型.docx
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
0 下载量 79 浏览量
2022-11-02
16:11:18
上传
评论
收藏 236KB DOCX 举报
温馨提示
试读
13页
融合多种类型语法信息的属性级情感分析模型.docx
资源推荐
资源详情
资源评论
属 性 级 情 感 分 析( aspect based sentiment analysis,ABSA)是 一 种 细 粒
度的情感分类任务。与识别篇章、句子的整体情感倾向的粗粒度任务不同,属
性级情感分析的目标是识别句子中包含的不同属性的情感倾向
[1]
。例如,给定句
子“我们去吃了晚餐,虽然服务不错,但是不好吃。”,属性级情感分析要识别出句
子中包含的两个属性“晚餐”和“服务”的情感倾向分别是负向和正向。
解决属性级情感分析的传统方法是结合人工设计的特征和机器学习算法,
例如支持向量机、隐马尔科夫模型等
[2,3]
。随着深度学习的发展,越来越多的深
度学习模型被提出用于属性情感分析。Ruder 等人
[4]
提出使用层次长短期记忆
模型利用长评论里不同句子之间的情感关联来进行属性级情感分析。Tang 等
人
[5]
提出结合记忆网络和注意力机制的方法。近些年来,属性级情感分析的研究
重点在如何利用注意力机制更好地建模属性与情感表达的关系,提出了基于不
同形式注意力机制的模型
[6,7,8]
。
然而,基于注意力机制的模型却忽视了使用语法信息,这会导致模型难以正
确匹配属性和对应情感表达。例如,在句子“我们去吃了晚餐,虽然服务不错,但是
不好吃。”中,属性“晚餐”的对应情感表达是“不好吃”,但由于缺乏句子的句法信
息,基于注意力的模型可能会错将“不错”作为对应“晚餐”的情感表达。一方面,现
有的属性级情感分析标注数据集较小,基于注意力的模型很难从较小的数据集
中学习到通用的语法知识;另一方面,属性级情感分析往往面临多个属性、多种
情感倾向的复杂语境,情感表达也随着语言的发展更加复杂。于是,引入更多的
语法信息成为提高模型准确率的关键。本文提出一种融合多种类型语法信息的
神经网络模型,有效解决基于注意力机制的模型在多个属性、多种情感倾向的
复 杂 语 境 下 的 不 足 。 首 先 , 本 文 提 出 将 预 训 练 模 型 BERT ( bidirectional
encoder representations from transformers)作为语法信息的来源。自 BERT
提出以来,大量工作使用它的最后一层的输出作为上下文相关词表示输入到模
型,而忽略了使用中间层。Jawahar 等人
[9]
通过实验得出结论,BERT 的不同层学
习到的知识有显著偏好:低层偏向学习短语结构信息,中层偏向学习句法信息,
高层偏向学习语义信息。这启发本文使用 BERT 的中间层引入短语结构、句法
等多种语法信息解决属性级情感分析的复杂语境问题。然后,本文使用依存句
法树引入句子结构信息。句子的依存句法树含有显性的结构信息,如图 1 所示,
属性“晚餐”在依存句法树中离与它相关的情感表达“不好吃”更近,而在句子的线
性形式中,“不错”比“不好吃”更靠近属性“晚餐”。在这种情况下,基于注意力机制
的模型难以正确匹配属性和情感表达的关系,尤其是模型使用基于词和属性的
距离的位置编码时,正确的情感表达“不好吃”的重要性会进一步减小。为了有效
利用这种显性的结构信息,本文利用基于依存句法树的多层图卷积神经网络学
习属性的向量表示。为了同时利用 BERT 中间层的语法信息和依存句法树的句
法结构信息,本文提出一种利用多种类型语法信息的模型,将 BERT 中间层的输
出作为指导信息,每一层图卷积神经网络(graph convolutional networks,GCN)
的输入由上一层 GCN 的输出和该层指导信息结合而 成,然后再进行图卷积操
作。属性在最后一层 GCN 的输出作为最终的特征,进行情感倾向分类。
图 1
图 1 依存句法树例子
Fig.1 Example of dependency tree
本文的贡献可以总结为以下三点:
(1)提出使用 BERT 的中间层输出,引入多种类型语法信息,能够更好地自
动抽取特征。
(2)提出一种同时利用 BERT 和依存句法树两种语法信息来源的模型,将
BERT 中间层的语法信息作为指导信息,指导每层 GCN。
(3)在 SemEval 2014 Task4 Restaurant、Laptop 和 Twitter 三个数据集
上的实验结果表明,本文方法超越了很多基准模型。
1 相关 工作
1.1 BERT
BERT
[10]
是在 大规模无标 注文 本上预 训练 的语 言模型 ,基于它的微 调模 型
在句子级情感分类、词性标注等自然语言处理问题上都取得了非常好的效果。
BERT 由多层 Transformer Encoder
[11]
叠加组成,每层 Transformer Encoder 的
输出都作为下一层 Transformer Encoder 的输入。一般认为 BERT 最后一层的
输 出 拥 有 丰 富 的 上 下 文 词 相 关 信 息 ,因 此 通 常 把 它 用 来 代 替 Word2vec
[12]
、
Glove
[13]
作为模型的输入词向量。Jawahar 等人
[9]
通过大量实验发现,BERT 的
不同层学习到的知识有显著偏好。BERT 的低层倾向于学习短语语法和句子长
度等信息,中层倾向于学习主谓一致、词序是否正确等语法信息,而高层倾向于
学习上下文相关语义信息。
1.2 图 卷积 神经 网络 GCN
GCN
[14]
可以看作卷积神经网络(convolutional neural networks,CNN)在
图数据上的迁移。对于一张图,图中的每个节点都能用一个向量来表示,GCN 用
图中每个节点的一跳邻居节点来更新所有节点的表示。在开始时,每个节点被
初始化为初始状态,而后 GCN 对图中每个节点的表示进行更新,这时图中每个
节点即可获得它们所有一跳邻居节点的信息。叠加使用 L 层 GCN,则每个节点
可以获得 L 跳邻居节点的信息。经典的 GCN 结构和流程如图 2
[15]
所示。使用
基于依存句法树的 GCN 可以直接匹配属性和情感表达,缓解冗余信息的干扰。
图 2
剩余12页未读,继续阅读
资源评论
罗伯特之技术屋
- 粉丝: 3591
- 资源: 1万+
下载权益
C知道特权
VIP文章
课程特权
开通VIP
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 基于MATLAB的图像分割源码+详细文档+全部数据(高分课程设计).zip
- 基于MATLAB的图像分割源码+详细文档+全部数据(高分课程设计).zip
- 基于MINST数据库的手写体数字识别CNN设计,MATLAB实现源码+全部资料.zip
- 基于MINST数据库的手写体数字识别CNN设计,MATLAB实现源码+全部资料(高分项目)
- stata 经纬度计算反距离矩阵的方法.docx
- ORACLE数据库面试题解答DBA数据库管理员JAVA程序员架构师必看.docx
- stata 经纬度计算反距离矩阵的方法.zip
- ORACLE数据库面试题解答DBA数据库管理员JAVA程序员架构师必看.zip
- 华为-华为od题库练习题之密码截取.zip
- 华为-华为od题库练习题之字符串加解密.zip
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功