# 利用Python实现酒店评论的情感分析
> **情感极性分析**,即情感分类,对带有主观情感色彩的文本进行分析、归纳。情感极性分析主要有两种分类方法:**基于情感知识的方法**和**基于机器学习的方法**。基于情感知识的方法通过一些已有的情感词典计算文本的情感极性(正向或负向),其方法是统计文本中出现的正、负向情感词数目或情感词的情感值来判断文本情感类别;基于机器学习的方法利用机器学习算法训练已标注情感类别的训练数据集训练分类模型,再通过分类模型预测文本所属情感分类。本文采用机器学习方法实现对酒店评论数据的情感分类,利用Python语言实现情感分类模型的构建和预测,不包含理论部分,旨在通过实践一步步了解、实现中文情感极性分析。
## 1 开发环境准备
#### 1.1 Python环境
在python官网https://www.python.org/downloads/ 下载计算机对应的python版本,本人使用的是Python2.7.13的版本。
#### 1.2 第三方模块
本实例代码的实现使用到了多个著名的第三方模块,主要模块如下所示:
+ 1)**Jieba**
目前使用最为广泛的中文分词组件。下载地址:https://pypi.python.org/pypi/jieba/
+ 2)**Gensim**
用于主题模型、文档索引和大型语料相似度索引的python库,主要用于自然语言处理(NLP)和信息检索(IR)。下载地址:https://pypi.python.org/pypi/gensim
本实例中的维基中文语料处理和中文词向量模型构建需要用到该模块。
+ 3)**Pandas**
用于高效处理大型数据集、执行数据分析任务的python库,是基于Numpy的工具包。下载地址:https://pypi.python.org/pypi/pandas/0.20.1
+ 4)**Numpy**
用于存储和处理大型矩阵的工具包。下载地址:https://pypi.python.org/pypi/numpy
+ 5)**Scikit-learn**
用于机器学习的python工具包,python模块引用名字为sklearn,安装前还需要Numpy和Scipy两个Python库。官网地址:http://scikit-learn.org/stable/
+ 6)**Matplotlib**
Matplotlib是一个python的图形框架,用于绘制二维图形。下载地址:https://pypi.python.org/pypi/matplotlib
+ 7)**Tensorflow**
Tensorflow是一个采用数据流图用于数值计算的开源软件库,用于人工智能领域。
官网地址:http://www.tensorfly.cn/
下载地址:https://pypi.python.org/pypi/tensorflow/1.1.0
## 2 数据获取
#### 2.1 停用词词典
本文使用中科院计算所中文自然语言处理开放平台发布的中文停用词表,包含了1208个停用词。下载地址:http://www.hicode.cc/download/view-software-13784.html
#### 2.2 正负向语料库
文本从http://www.datatang.com/data/11936 下载“有关中文情感挖掘的酒店评论语料”作为训练集与测试集,该语料包含了4种语料子集,本文选用正负各1000的平衡语料(ChnSentiCorp_htl_ba_2000)作为数据集进行分析。
## 3 数据预处理
#### 3.1 正负向语料预处理
下载并解压ChnSentiCorp_htl_ba_2000.rar文件,得到的文件夹中包含neg(负向语料)和pos(正向语料)两个文件夹,而文件夹中的每一篇评论为一个txt文档,为了方便之后的操作,需要把正向和负向评论分别规整到对应的一个txt文件中,即正向语料的集合文档(命名为2000_pos.txt)和负向语料的集合文档(命名为2000_neg.txt)。
具体Python实现代码如下所示:
![1_process--文档处理代码](http://upload-images.jianshu.io/upload_images/5189322-0be01e42195ba4c3.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
运行完成后得到2000_pos.txt和2000_neg.txt两个文本文件,分别存放正向评论和负向评论,每篇评论为一行。文档部分截图如下所示:
![酒店评论截图](http://upload-images.jianshu.io/upload_images/5189322-6af94cd73084d1eb.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
#### 3.2 中文文本分词
本文采用**结巴分词**分别对正向语料和负向语料进行分词处理。特别注意,在执行代码前需要把txt源文件手动转化成UTF-8格式,否则会报中文编码的错误。在进行分词前,需要对文本进行去除数字、字母和特殊符号的处理,使用python自带的**string**和**re**模块可以实现,其中string模块用于处理字符串操作,re模块用于正则表达式处理。
具体实现代码如下所示:
![2_cutsentence--结巴分词代码](http://upload-images.jianshu.io/upload_images/5189322-f8b7fae53bfad5ae.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
处理完成后,得到2000_pos_cut.txt和2000_neg_cut.txt两个txt文件,分别存放正负向语料分词后的结果。分词结果部分截图如下所示:
![分词结果截图](http://upload-images.jianshu.io/upload_images/5189322-4f936f92f3c34e23.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
#### 3.3 去停用词
分词完成后,即可读取停用词表中的停用词,对分词后的正负向语料进行匹配并去除停用词。去除停用词的步骤非常简单,主要有两个:
+ 1)读取停用词表;
+ 2)遍历分词后的句子,将每个词丢到此表中进行匹配,若停用词表存在则替换为空。
具体实现代码如下所示:
![3_stopword--去除停用词代码](http://upload-images.jianshu.io/upload_images/5189322-f68c23b22f7309e4.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
根据代码所示,停用词表的获取使用到了python特有的**广播**形式,一句代码即可搞定:
stopkey = [w.strip() for w in codecs.open('data\stopWord.txt', 'r', encoding='utf-8').readlines()]
读取出的每一个停用词必须要经过去符号处理即**w.strip()**,因为读取出的停用词还包含有换行符和制表符,如果不处理则匹配不上。代码执行完成后,得到2000_neg_cut_stopword.txt和2000_pos_cut_stopword.txt两个txt文件。
由于去停用词的步骤是在句子分词后执行的,因此通常与分词操作在同一个代码段中进行,即在句子分词操作完成后直接调用去停用词的函数,并得到去停用词后的结果,再写入结果文件中。本文是为了便于步骤的理解将两者分开为两个代码文件执行,各位可根据自己的需求进行调整。
#### 3.4 获取特征词向量
根据以上步骤得到了正负向语料的特征词文本,而模型的输入必须是数值型数据,因此需要将每条由词语组合而成的语句转化为一个数值型向量。常见的转化算法有Bag of Words(BOW)、TF-IDF、Word2Vec。本文采用**Word2Vec**词向量模型将语料转换为词向量。
由于特征词向量的抽取是基于已经训练好的词向量模型,而wiki中文语料是公认的大型中文语料,本文拟从wiki中文语料生成的词向量中抽取本文语料的特征词向量。Wiki中文语料的Word2vec模型训练在之前写过的一篇文章[“利用Python实现wiki中文语料的word2vec模型构建”](http://www.jianshu.com/p/ec27062bd453) 中做了详尽的描述,在此不赘述。即本文从文章最后得到的wiki.zh.text.vector中抽取特征词向量作为模型的输入。
获取特征词向量的主要步骤如下:
+ 1)读取模型词向量矩阵;
+ 2)遍历语句中的每个词,从模型词向量矩阵中抽取当前词的数值向量,一条语句即可得到一个二维矩阵,行数为词的个数,列数为模型设定的维度;
+ 3)根据得到的矩阵计算**矩阵均值**作为当前语句的特征词向量;
+ 4)全部语句计算完成后,拼接语句类别代表的值,写入csv文件中。
主要代码如下图所示:
![4_getwordvecs--获取词向量代码](http://upload-images.jianshu.io/upload_images/5189322-92b0b1ddc3260f55.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
代码执行完
没有合适的资源?快使用搜索试试~ 我知道了~
利用Python实现酒店评论的中文情感分析-成品demo
共2000个文件
txt:2002个
py:5个
md:1个
需积分: 0 10 下载量 148 浏览量
更新于2023-04-11
收藏 811KB RAR 举报
开发环境准备
1.Python环境
在python官网https://www.python.org/downloads/ 下载计算机对应的python版本,本人使用的是Python2.7.13的版本。
2.第三方模块
本实例代码的实现使用到了多个著名的第三方模块,主要模块如下所示:
1)Jieba 目前使用最为广泛的中文分词组件。下载地址:https://pypi.python.org/pypi/jieba/
2)Gensim 用于主题模型、文档索引和大型语料相似度索引的python库,主要用于自然语言处理(NLP)和信息检索(IR)。下载地址:https://pypi.python.org/pypi/gensim 本实例中的维基中文语料处理和中文词向量模型构建需要用到该模块。
3)Pandas 用于高效处理大型数据集、执行数据分析任务的python库,是基于Numpy的工具包。下载地址:https://pypi.python.org/pypi/pandas/0.20.1
4)Numpy 用于存储和处理大型矩阵的工具包。下载地址:https://pypi.python.org
收起资源包目录
利用Python实现酒店评论的中文情感分析-成品demo (2000个子文件)
README.md 10KB
4_getwordvecs.py 2KB
2_cutsentence.py 2KB
3_stopword.py 1KB
1_process.py 1KB
5_pca_svm.py 1KB
stopWord.txt 9KB
neg.670.txt 2KB
pos.719.txt 2KB
pos.709.txt 2KB
neg.36.txt 2KB
neg.730.txt 2KB
pos.554.txt 2KB
pos.545.txt 2KB
pos.318.txt 2KB
neg.360.txt 2KB
neg.359.txt 2KB
neg.745.txt 2KB
neg.860.txt 2KB
neg.608.txt 2KB
neg.161.txt 2KB
neg.231.txt 1KB
neg.445.txt 1KB
neg.444.txt 1KB
分享说明.txt 1KB
neg.945.txt 1KB
neg.549.txt 1KB
neg.548.txt 1KB
pos.195.txt 1KB
pos.185.txt 1KB
neg.230.txt 1KB
neg.975.txt 1KB
neg.739.txt 1KB
pos.629.txt 1KB
neg.774.txt 1KB
pos.888.txt 1KB
pos.896.txt 1KB
pos.721.txt 1KB
pos.711.txt 1KB
pos.716.txt 1KB
pos.706.txt 1KB
neg.252.txt 1KB
neg.251.txt 1KB
neg.482.txt 1KB
pos.723.txt 1KB
pos.713.txt 1KB
neg.442.txt 1KB
neg.125.txt 1KB
neg.390.txt 1KB
neg.160.txt 1KB
neg.754.txt 1KB
neg.753.txt 1KB
neg.825.txt 1KB
neg.823.txt 1KB
neg.679.txt 1KB
neg.449.txt 1KB
neg.452.txt 1KB
pos.251.txt 1KB
pos.241.txt 1KB
pos.782.txt 1KB
neg.871.txt 1KB
neg.607.txt 1KB
neg.741.txt 1KB
neg.672.txt 1KB
pos.894.txt 1KB
pos.886.txt 1KB
neg.80.txt 1KB
neg.82.txt 1KB
neg.932.txt 1KB
pos.433.txt 1KB
neg.653.txt 1KB
neg.650.txt 1KB
neg.321.txt 1KB
neg.758.txt 1024B
neg.768.txt 1022B
neg.769.txt 1022B
pos.981.txt 1019B
neg.133.txt 1010B
neg.11.txt 995B
neg.258.txt 995B
neg.257.txt 995B
neg.516.txt 991B
neg.518.txt 991B
neg.615.txt 981B
neg.358.txt 967B
neg.304.txt 965B
neg.307.txt 965B
neg.814.txt 953B
neg.815.txt 948B
neg.817.txt 948B
pos.893.txt 945B
pos.885.txt 945B
pos.162.txt 923B
pos.167.txt 923B
neg.827.txt 912B
pos.672.txt 909B
pos.280.txt 900B
neg.760.txt 900B
neg.761.txt 900B
neg.515.txt 895B
共 2000 条
- 1
- 2
- 3
- 4
- 5
- 6
- 20
资源推荐
资源预览
资源评论
5星 · 资源好评率100%
169 浏览量
5星 · 资源好评率100%
129 浏览量
5星 · 资源好评率100%
5星 · 资源好评率100%
162 浏览量
2024-10-11 上传
129 浏览量
5星 · 资源好评率100%
201 浏览量
137 浏览量
5星 · 资源好评率100%
5星 · 资源好评率100%
2023-02-15 上传
5星 · 资源好评率100%
107 浏览量
2023-11-12 上传
180 浏览量
5星 · 资源好评率100%
5星 · 资源好评率100%
2023-01-11 上传
5星 · 资源好评率100%
5星 · 资源好评率100%
116 浏览量
2024-07-11 上传
187 浏览量
2024-11-02 上传
111 浏览量
2018-11-11 上传
134 浏览量
5星 · 资源好评率100%
资源评论
小正太浩二
- 粉丝: 334
- 资源: 5942
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功