pengwei-iie / Bert-THUCNews

MIT License
34 stars 16 forks source link

参考此人的github并且增加了Bert(https://github.com/gaussic/text-classification-cnn-rnn) Bert模型需要大家自行下载

Text Classification with RNN

有bert后缀的都是在原来的基础上,进行改造,得到的效果能到97.5 无bert后缀的加入了Attention以及多层或者双向模型

使用循环神经网络进行中文文本分类

环境

数据集

使用THUCNews的一个子集进行训练与测试,数据集请自行到THUCTC:一个高效的中文文本分类工具包下载,请遵循数据提供方的开源协议。

本次训练使用了其中的10个分类,每个分类5000条数据。相关数据下载地址:链接: https://pan.baidu.com/s/1GmBFZfDKsXBMFEYQWFdrfQ 提取码: 9ixg

类别如下:

体育, 财经, 房产, 家居, 教育, 科技, 时尚, 时政, 游戏, 娱乐

这个子集可以在此下载:链接: https://pan.baidu.com/s/1hugrfRu 密码: qfud

数据集划分如下:

从原数据集生成子集的过程请参看helper下的两个脚本。其中,copy_data.sh用于从每个分类拷贝6500个文件,cnews_group.py用于将多个文件整合到一个文件中。执行该文件后,得到三个数据文件:

预处理

data/cnews_loader.py为数据的预处理文件。

经过数据预处理,数据的格式如下:

Data Shape Data Shape
x_train [50000, 600] y_train [50000, 10]
x_val [5000, 600] y_val [5000, 10]
x_test [10000, 600] y_test [10000, 10]

RNN循环神经网络

配置项

RNN可配置的参数如下所示,在rnn_model.py中。

class TRNNConfig(object):
    """RNN配置参数"""

    # 模型参数
    embedding_dim = 768  # 词向量维度
    seq_length = 512  # 序列长度
    num_classes = 10  # 类别数
    vocab_size = 5000  # 词汇表达小

    num_layers = 1  # 隐藏层层数
    hidden_dim = 512  # 隐藏层神经元
    rnn = 'gru'  # lstm 或 gru

    attention_dim = 512
    l2_reg_lambda = 0.01

    dropout_keep_prob = 0.5  # dropout保留比例
    learning_rate = 1e-3  # 学习率

    batch_size = 128  # 每批训练大小
    num_epochs = 10  # 总迭代轮次

    print_per_batch = 100  # 每多少轮输出一次结果
    save_per_batch = 10  # 每多少轮存入tensorboard

RNN模型

具体参看rnn_model_bert.py的实现。

大致结构如下:

images/rnn_architecture