情感分析

背景介绍

在自然语言处理中,情感分析一般是指判断一段文本所表达的情绪状态。其中,一段文本可以是一个句子,一个段落或一个文档。情绪状态可以是两类,如(正面,负面),(高兴,悲伤);也可以是三类,如(积极,消极,中性)等等。情感分析的应用场景十分广泛,如把用户在购物网站(亚马逊、天猫、淘宝等)、旅游网站、电影评论网站上发表的评论分成正面评论和负面评论;或为了分析用户对于某一产品的整体使用感受,抓取产品的用户评论并进行情感分析等等。表格1展示了对电影评论进行情感分析的例子:

电影评论 类别
在冯小刚这几年的电影里,算最好的一部的了 正面
很不好看,好像一个地方台的电视剧 负面
圆方镜头全程炫技,色调背景美则美矣,但剧情拖沓,口音不伦不类,一直努力却始终无法入戏 负面
剧情四星。但是圆镜视角加上婺源的风景整个非常有中国写意山水画的感觉,看得实在太舒服了。。 正面

表格 1 电影评论情感分析


图1. 卷积神经网络文本分类模型

假设待处理句子的长度为,其中第个词的词向量(word embedding)为为维度大小。

首先,进行词向量的拼接操作:将每个词拼接起来形成一个大小为的词窗口,记为,它表示词序列的拼接,其中,表示词窗口中第一个词在整个句子中的位置,取值范围从

其次,进行卷积操作:把卷积核(kernel)应用于包含个词的窗口,得到特征,其中为偏置项(bias),为非线性激活函数,如。将卷积核应用于句子中所有的词窗口,产生一个特征图(feature map):

接下来,对特征图采用时间维度上的最大池化(max pooling over time)操作得到此卷积核对应的整句话的特征,它是特征图中所有元素的最大值:

在实际应用中,我们会使用多个卷积核来处理句子,窗口大小相同的卷积核堆叠起来形成一个矩阵(上文中的单个卷积核参数相当于矩阵的某一行),这样可以更高效的完成运算。另外,我们也可使用窗口大小不同的卷积核来处理句子(图1作为示意画了四个卷积核,不同颜色表示不同大小的卷积核操作)。

最后,将所有卷积核得到的特征拼接起来即为文本的定长向量表示,对于文本分类问题,将其连接至softmax即构建出完整的模型。

对于一般的短文本分类问题,上文所述的简单的文本卷积网络即可达到很高的正确率[1]。若想得到更抽象更高级的文本特征表示,可以构建深层文本卷积神经网络[2,3]。

循环神经网络(RNN)

循环神经网络是一种能对序列数据进行精确建模的有力工具。实际上,循环神经网络的理论计算能力是图灵完备的[4]。自然语言是一种典型的序列数据(词序列),近年来,循环神经网络及其变体(如long short term memory[5]等)在自然语言处理的多个领域,如语言模型、句法解析、语义角色标注(或一般的序列标注)、语义表示、图文生成、对话、机器翻译等任务上均表现优异甚至成为目前效果最好的方法。


图2. 循环神经网络按时间展开的示意图

循环神经网络按时间展开后如图2所示:在第时刻,网络读入第个输入(向量表示)及前一时刻隐层的状态值(向量表示,一般初始化为向量),计算得出本时刻隐层的状态值,重复这一步骤直至读完所有输入。如果将循环神经网络所表示的函数记为,则其公式可表示为:

其中是输入到隐层的矩阵参数,是隐层到隐层的矩阵参数,为隐层的偏置向量(bias)参数,函数。

在处理自然语言时,一般会先将词(one-hot表示)映射为其词向量(word embedding)表示,然后再作为循环神经网络每一时刻的输入。此外,可以根据实际需要的不同在循环神经网络的隐层上连接其它层。如,可以把一个循环神经网络的隐层输出连接至下一个循环神经网络的输入构建深层(deep or stacked)循环神经网络,或者提取最后一个时刻的隐层状态作为句子表示进而使用分类模型等等。

长短期记忆网络(LSTM)

对于较长的序列数据,循环神经网络的训练过程中容易出现梯度消失或爆炸现象[6]。为了解决这一问题,Hochreiter S, Schmidhuber J. (1997)提出了LSTM(long short term memory[5])。

相比于简单的循环神经网络,LSTM增加了记忆单元、输入门、遗忘门及输出门。这些门及记忆单元组合起来大大提升了循环神经网络处理长序列数据的能力。若将基于LSTM的循环神经网络表示的函数记为,则其公式为:

由下列公式组合而成[7]:


其中,分别表示输入门,遗忘门,记忆单元及输出门的向量值,带角标的为模型参数,为双曲正切函数,表示逐元素(elementwise)的乘法操作。输入门控制着新输入进入记忆单元的强度,遗忘门控制着记忆单元维持上一时刻值的强度,输出门控制着输出记忆单元的强度。三种门的计算方式类似,但有着完全不同的参数,它们各自以不同的方式控制着记忆单元,如图3所示:


图3. 时刻的LSTM [7]

LSTM通过给简单的循环神经网络增加记忆及控制门的方式,增强了其处理远距离依赖问题的能力。类似原理的改进还有Gated Recurrent Unit (GRU)[8],其设计更为简洁一些。这些改进虽然各有不同,但是它们的宏观描述却与简单的循环神经网络一样(如图2所示),即隐状态依据当前输入及前一时刻的隐状态来改变,不断地循环这一过程直至输入处理完毕:

其中,可以表示简单的循环神经网络、GRU或LSTM。

栈式双向LSTM(Stacked Bidirectional LSTM)

对于正常顺序的循环神经网络,包含了时刻之前的输入信息,也就是上文信息。同样,为了得到下文信息,我们可以使用反方向(将输入逆序处理)的循环神经网络。结合构建深层循环神经网络的方法(深层神经网络往往能得到更抽象和高级的特征表示),我们可以通过构建更加强有力的基于LSTM的栈式双向循环神经网络[9],来对时序数据进行建模。

如图4所示(以三层为例),奇数层LSTM正向,偶数层LSTM反向,高一层的LSTM使用低一层LSTM及之前所有层的信息作为输入,对最高层LSTM序列使用时间维度上的最大池化即可得到文本的定长向量表示(这一表示充分融合了文本的上下文信息,并且对文本进行了深层次抽象),最后我们将文本表示连接至softmax构建分类模型。


图4. 栈式双向LSTM用于文本分类

数据准备

数据介绍与下载

我们以IMDB情感分析数据集为例进行介绍。IMDB数据集的训练集和测试集分别包含25000个已标注过的电影评论。其中,负面评论的得分小于等于4,正面评论的得分大于等于7,满分10分。您可以使用下面的脚本下载 IMDB 数椐集和Moses工具:

  1. ./data/get_imdb.sh

如果数椐获取成功,您将在目录data中看到下面的文件:

  1. aclImdb get_imdb.sh imdb mosesdecoder-master

数据预处理

我们使用的预处理脚本为preprocess.py。该脚本会调用Moses工具中的tokenizer.perl脚本来切分单词和标点符号,并会将训练集随机打乱排序再构建字典。注意:我们只使用已标注的训练集和测试集。执行下面的命令就可以预处理数椐:

  1. data_dir="./data/imdb"
  2. python preprocess.py -i $data_dir

运行成功后目录./data/pre-imdb 结构如下:

  1. dict.txt labels.list test.list test_part_000 train.list train_part_000

提供数据给PaddlePaddle

PaddlePaddle可以读取Python写的传输数据脚本,下面dataprovider.py文件给出了完整例子,主要包括两部分:

  1. from paddle.trainer.PyDataProvider2 import *
  2. def hook(settings, dictionary, **kwargs):
  3. settings.word_dict = dictionary
  4. settings.input_types = {
  5. 'word': integer_value_sequence(len(settings.word_dict)),
  6. 'label': integer_value(2)
  7. }
  8. settings.logger.info('dict len : %d' % (len(settings.word_dict)))
  9. @provider(init_hook=hook)
  10. def process(settings, file_name):
  11. with open(file_name, 'r') as fdata:
  12. for line_count, line in enumerate(fdata):
  13. label, comment = line.strip().split('\t\t')
  14. label = int(label)
  15. words = comment.split()
  16. word_slot = [
  17. settings.word_dict[w] for w in words if w in settings.word_dict
  18. ]
  19. yield {
  20. 'word': word_slot,
  21. 'label': label
  22. }

模型配置说明

trainer_config.py 是一个配置文件的例子。

数据定义

  1. from os.path import join as join_path
  2. from paddle.trainer_config_helpers import *
  3. # 是否是测试模式
  4. is_test = get_config_arg('is_test', bool, False)
  5. # 是否是预测模式
  6. is_predict = get_config_arg('is_predict', bool, False)
  7. # 数据路径
  8. data_dir = "./data/pre-imdb"
  9. # 文件名
  10. train_list = "train.list"
  11. test_list = "test.list"
  12. dict_file = "dict.txt"
  13. # 字典大小
  14. dict_dim = len(open(join_path(data_dir, "dict.txt")).readlines())
  15. # 类别个数
  16. class_dim = len(open(join_path(data_dir, 'labels.list')).readlines())
  17. if not is_predict:
  18. train_list = join_path(data_dir, train_list)
  19. test_list = join_path(data_dir, test_list)
  20. dict_file = join_path(data_dir, dict_file)
  21. train_list = train_list if not is_test else None
  22. # 构造字典
  23. word_dict = dict()
  24. with open(dict_file, 'r') as f:
  25. for i, line in enumerate(open(dict_file, 'r')):
  26. word_dict[line.split('\t')[0]] = i
  27. # 通过define_py_data_sources2函数从dataprovider.py中读取数据
  28. define_py_data_sources2(
  29. train_list,
  30. test_list,
  31. module="dataprovider",
  32. obj="process", # 指定生成数据的函数。
  33. args={'dictionary': word_dict}) # 额外的参数,这里指定词典。

算法配置

  1. settings(
  2. batch_size=128,
  3. learning_rate=2e-3,
  4. learning_method=AdamOptimizer(),
  5. regularization=L2Regularization(8e-4),
  6. gradient_clipping_threshold=25)

模型结构

我们用PaddlePaddle实现了两种文本分类算法,分别基于上文所述的文本卷积神经网络和[栈式双向LSTM](#栈式双向LSTM(Stacked Bidirectional LSTM))。

文本卷积神经网络的实现

  1. def convolution_net(input_dim,
  2. class_dim=2,
  3. emb_dim=128,
  4. hid_dim=128,
  5. is_predict=False):
  6. # 网络输入:id表示的词序列,词典大小为input_dim
  7. data = data_layer("word", input_dim)
  8. # 将id表示的词序列映射为embedding序列
  9. emb = embedding_layer(input=data, size=emb_dim)
  10. # 卷积及最大化池操作,卷积核窗口大小为3
  11. conv_3 = sequence_conv_pool(input=emb, context_len=3, hidden_size=hid_dim)
  12. # 卷积及最大化池操作,卷积核窗口大小为4
  13. conv_4 = sequence_conv_pool(input=emb, context_len=4, hidden_size=hid_dim)
  14. # 将conv_3和conv_4拼接起来输入给softmax分类,类别数为class_dim
  15. output = fc_layer(
  16. input=[conv_3, conv_4], size=class_dim, act=SoftmaxActivation())
  17. if not is_predict:
  18. lbl = data_layer("label", 1) #网络输入:类别标签
  19. outputs(classification_cost(input=output, label=lbl))
  20. else:
  21. outputs(output)

其中,我们仅用一个sequence_conv_pool方法就实现了卷积和池化操作,卷积核的数量为hidden_size参数。

栈式双向LSTM的实现

  1. def stacked_lstm_net(input_dim,
  2. class_dim=2,
  3. emb_dim=128,
  4. hid_dim=512,
  5. stacked_num=3,
  6. is_predict=False):
  7. # LSTM的层数stacked_num为奇数,确保最高层LSTM正向
  8. assert stacked_num % 2 == 1
  9. # 设置神经网络层的属性
  10. layer_attr = ExtraLayerAttribute(drop_rate=0.5)
  11. # 设置参数的属性
  12. fc_para_attr = ParameterAttribute(learning_rate=1e-3)
  13. lstm_para_attr = ParameterAttribute(initial_std=0., learning_rate=1.)
  14. para_attr = [fc_para_attr, lstm_para_attr]
  15. bias_attr = ParameterAttribute(initial_std=0., l2_rate=0.)
  16. # 激活函数
  17. relu = ReluActivation()
  18. linear = LinearActivation()
  19. # 网络输入:id表示的词序列,词典大小为input_dim
  20. data = data_layer("word", input_dim)
  21. # 将id表示的词序列映射为embedding序列
  22. emb = embedding_layer(input=data, size=emb_dim)
  23. fc1 = fc_layer(input=emb, size=hid_dim, act=linear, bias_attr=bias_attr)
  24. # 基于LSTM的循环神经网络
  25. lstm1 = lstmemory(
  26. input=fc1, act=relu, bias_attr=bias_attr, layer_attr=layer_attr)
  27. # 由fc_layer和lstmemory构建深度为stacked_num的栈式双向LSTM
  28. inputs = [fc1, lstm1]
  29. for i in range(2, stacked_num + 1):
  30. fc = fc_layer(
  31. input=inputs,
  32. size=hid_dim,
  33. act=linear,
  34. param_attr=para_attr,
  35. bias_attr=bias_attr)
  36. lstm = lstmemory(
  37. input=fc,
  38. # 奇数层正向,偶数层反向。
  39. reverse=(i % 2) == 0,
  40. act=relu,
  41. bias_attr=bias_attr,
  42. layer_attr=layer_attr)
  43. inputs = [fc, lstm]
  44. # 对最后一层fc_layer使用时间维度上的最大池化得到定长向量
  45. fc_last = pooling_layer(input=inputs[0], pooling_type=MaxPooling())
  46. # 对最后一层lstmemory使用时间维度上的最大池化得到定长向量
  47. lstm_last = pooling_layer(input=inputs[1], pooling_type=MaxPooling())
  48. # 将fc_last和lstm_last拼接起来输入给softmax分类,类别数为class_dim
  49. output = fc_layer(
  50. input=[fc_last, lstm_last],
  51. size=class_dim,
  52. act=SoftmaxActivation(),
  53. bias_attr=bias_attr,
  54. param_attr=para_attr)
  55. if is_predict:
  56. outputs(output)
  57. else:
  58. outputs(classification_cost(input=output, label=data_layer('label', 1)))

我们的模型配置trainer_config.py默认使用stacked_lstm_net网络,如果要使用convolution_net,注释相应的行即可。

  1. stacked_lstm_net(
  2. dict_dim, class_dim=class_dim, stacked_num=3, is_predict=is_predict)
  3. # convolution_net(dict_dim, class_dim=class_dim, is_predict=is_predict)

训练模型

使用train.sh脚本可以开启本地的训练:

  1. ./train.sh

train.sh内容如下:

  1. paddle train --config=trainer_config.py \
  2. --save_dir=./model_output \
  3. --job=train \
  4. --use_gpu=false \
  5. --trainer_count=4 \
  6. --num_passes=10 \
  7. --log_period=20 \
  8. --dot_period=20 \
  9. --show_parameter_stats_period=100 \
  10. --test_all_data_in_one_period=1 \
  11. 2>&1 | tee 'train.log'

如果运行成功,输出日志保存在 train.log中,模型保存在目录model_output/中。 输出日志说明如下:

  1. Batch=20 samples=2560 AvgCost=0.681644 CurrentCost=0.681644 Eval: classification_error_evaluator=0.36875 CurrentEval: classification_error_evaluator=0.36875
  2. ...
  3. Pass=0 Batch=196 samples=25000 AvgCost=0.418964 Eval: classification_error_evaluator=0.1922
  4. Test samples=24999 cost=0.39297 Eval: classification_error_evaluator=0.149406

应用模型

测试

测试是指使用训练出的模型评估已标记的数据集。

  1. ./test.sh

测试脚本test.sh的内容如下,其中函数get_best_pass通过对分类错误率进行排序来获得最佳模型:

  1. function get_best_pass() {
  2. cat $1 | grep -Pzo 'Test .*\n.*pass-.*' | \
  3. sed -r 'N;s/Test.* error=([0-9]+\.[0-9]+).*\n.*pass-([0-9]+)/\1 \2/g' | \
  4. sort | head -n 1
  5. }
  6. log=train.log
  7. LOG=`get_best_pass $log`
  8. LOG=(${LOG})
  9. evaluate_pass="model_output/pass-${LOG[1]}"
  10. echo 'evaluating from pass '$evaluate_pass
  11. model_list=./model.list
  12. touch $model_list | echo $evaluate_pass > $model_list
  13. net_conf=trainer_config.py
  14. paddle train --config=$net_conf \
  15. --model_list=$model_list \
  16. --job=test \
  17. --use_gpu=false \
  18. --trainer_count=4 \
  19. --config_args=is_test=1 \
  20. 2>&1 | tee 'test.log'

与训练不同,测试时需要指定--job = test和模型路径--model_list = $model_list。如果测试成功,日志将保存在test.log中。 在我们的测试中,最好的模型是model_output/pass-00002,分类错误率是0.115645:

  1. Pass=0 samples=24999 AvgCost=0.280471 Eval: classification_error_evaluator=0.115645

预测

predict.py脚本提供了一个预测接口。预测IMDB中未标记评论的示例如下:

  1. ./predict.sh

predict.sh的内容如下(注意应该确保默认模型路径model_output/pass-00002存在或更改为其它模型路径):

  1. model=model_output/pass-00002/
  2. config=trainer_config.py
  3. label=data/pre-imdb/labels.list
  4. cat ./data/aclImdb/test/pos/10007_10.txt | python predict.py \
  5. --tconf=$config \
  6. --model=$model \
  7. --label=$label \
  8. --dict=./data/pre-imdb/dict.txt \
  9. --batch_size=1

本示例的预测结果:

  1. Loading parameters from model_output/pass-00002/
  2. predicting label is pos

10007_10.txt在路径./data/aclImdb/test/pos下面,而这里预测的标签也是pos,说明预测正确。

总结

本章我们以情感分析为例,介绍了使用深度学习的方法进行端对端的短文本分类,并且使用PaddlePaddle完成了全部相关实验。同时,我们简要介绍了两种文本处理模型:卷积神经网络和循环神经网络。在后续的章节中我们会看到这两种基本的深度学习模型在其它任务上的应用。

参考文献

  1. Kim Y. Convolutional neural networks for sentence classification[J]. arXiv preprint arXiv:1408.5882, 2014.
  2. Kalchbrenner N, Grefenstette E, Blunsom P. A convolutional neural network for modelling sentences[J]. arXiv preprint arXiv:1404.2188, 2014.
  3. Yann N. Dauphin, et al. Language Modeling with Gated Convolutional Networks[J] arXiv preprint arXiv:1612.08083, 2016.
  4. Siegelmann H T, Sontag E D. On the computational power of neural nets[C]//Proceedings of the fifth annual workshop on Computational learning theory. ACM, 1992: 440-449.
  5. Hochreiter S, Schmidhuber J. Long short-term memory[J]. Neural computation, 1997, 9(8): 1735-1780.
  6. Bengio Y, Simard P, Frasconi P. Learning long-term dependencies with gradient descent is difficult[J]. IEEE transactions on neural networks, 1994, 5(2): 157-166.
  7. Graves A. Generating sequences with recurrent neural networks[J]. arXiv preprint arXiv:1308.0850, 2013.
  8. Cho K, Van Merriënboer B, Gulcehre C, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation[J]. arXiv preprint arXiv:1406.1078, 2014.
  9. Zhou J, Xu W. End-to-end learning of semantic role labeling using recurrent neural networks[C]//Proceedings of the Annual Meeting of the Association for Computational Linguistics. 2015.



知识共享许可协议

本教程由PaddlePaddle创作,采用知识共享 署名-非商业性使用-相同方式共享 4.0 国际 许可协议进行许可。