growvv / emo_is_all_you_need

基于预训练BERT和GAT的剧本角色情绪识别研究
15 stars 5 forks source link

CCF BDCI剧本角色情感识别比赛:基于预训练BERT和GAT的剧本角色情绪识别研究

比赛官网

赛题背景

 剧本对影视行业的重要性不言而喻。一部好的剧本,不光是好口碑和大流量的基础,也能带来更高的商业回报。剧本分析是影视内容生产链条的第一环,其中剧本角色的情感识别是一个非常重要的任务,主要是对剧本中每句对白和动作描述中涉及到的每个角色从多个维度进行分析并识别出情感。相对于通常的新闻、评论性文本的情感分析,有其独有的业务特点和挑战。

赛题任务

本赛题提供一部分电影剧本作为训练集,训练集数据已由人工进行标注,参赛队伍需要对剧本场景中每句对白和动作描述中涉及到的每个角色的情感从多个维度进行分析和识别。该任务的主要难点和挑战包括: 1)剧本的行文风格和通常的新闻类语料差别较大,更加口语化; 2)剧本中角色情感不仅仅取决于当前的文本,对前文语义可能有深度依赖。

数据示例

id content character emotion
1171_0001_A_1 天空下着暴雨,o2正在给c1穿雨衣,他自己却只穿着单薄的军装,完全暴露在大雨之中。 o2 0,0,0,0,0,0
1171_0001_A_2 天空下着暴雨,o2正在给c1穿雨衣,他自己却只穿着单薄的军装,完全暴露在大雨之中。 c1 0,0,1,0,0,0
1171_0001_A_3 o2一手拿着一个行李,一路小跑着把c1带到了文工团门口。 o2 1,0,0,0,0,0
1171_0001_A_4 o2一手拿着一个行李,一路小跑着把c1带到了文工团门口。 c1 0,0,0,0,0,0

字段说明:

字段名称 类型 描述 说明
id String 数据ID 猜测是剧本_场景_id
content String 文本内容 剧本对白或动作描写
character String 角色名 文本中提到的角色
emotion String 情感识别结果(按顺序) 爱情感值,乐情感值,惊情感值,怒情感值,恐情感值,哀情感值

总体思路

具体的:

  1. 取连续batch_size个句子作为一个batch
  2. 经过Bert得到句子表示,[batch_size, embedding_size]
  3. 一个batch构建一个图,经过GAT仍然返回句子表示, [batch_size, embedding_size]
  4. 最后接线性层,用回归算loss

例如:前batch_size=32个句子构建的GAT图 haha, 没有31号,因为它没有边与其他节点相连

损失函数

尝试过用分类做,效果没有回归好

采用回归损失函数MSE,MSE(Mean Squred Error)叫做均方误差

此外,评测标准,也是均方根误差(RMSE)

代码实现

utils下:

data下:

logs下: 训练过程中的打印信息

runs下: tensorboard记录的loss信息

results下: 预测结果

1. 开始训练

python train.py >> logs/train.log 2>&1

2. 修正结果

python improve_result.py

训练结果

一些loss图:

一些日志:见logs文件夹

存档

预训练模型: hfl_chinese_roberta_wwm_ext(修改了vocab.txt)

链接: https://pan.baidu.com/s/1xJdL71RvLb-G4bYUuwmBpw 提取码: qq4s

checkpoint: 训练10轮后的模型

链接: https://pan.baidu.com/s/1frhD-ZzwNn4mGJcduL1i8Q 提取码: swag

训练时间

32000+训练集,batch_size=64, epoch=10, 20000+测试集,batch_size=1, epoch=11 单张2080Ti 共3个小时

提交结果

模型 得分
ensemble(['./results/bert_gat_adv_improve.tsv', './results/bert_gat_adv_gat11_improve.tsv', './results/bert_gat_normal_improve.tsv'], [1/3, 1/3, 1/3]) 0.69311495076
['./results/bert_gat_adv_improve.tsv', './results/bert_gat_adv_gat11_improve.tsv', './results/bert_gat_normal_improve.tsv'], [0.25,0.5,0.25] 0.69292791520
bert+gat,gat采用3层卷积,gat的dropout调小 0.69019270470
在epoch_num=5的基础上,固定bert,再训练3轮 0.69274829981
默认参数,epoch_num=5 0.69079147481
ernie修正版 emo < 0.2 0.69204910612
ernie修正版 emo < 0.5 0.68790208608
roberta_large 0.68978064345
未加场景,角色*2,epoch_num=5,未丢, ernie1.0 0.69554328794
epoch_num=5, output*3, warmup_proportion=0.0, 减少50% 0.68196819294
outputs*3, 减少50%的全0 0.69005280956
随机扔掉30%的全0数据 0.69222025156
增大batch_size=32, outputs*4 0.68920540598
改成回归 0.69466536245
测试能否交小数 0.66664726448
全0?? 0.66668028392

经验总结

参考链接

官方baseline-paddle版

*剧本角色情感识别baseline-pytorch-v1

剧本角色情感识别baseline-pytorch-v2

CCF BDCI 剧本角色情感识别:多标签多分类学习开源方案

CCF BDCI 剧本角色情感识别第二版分享:多任务学习开源方案