jx00109 / siamese-lstm-for-sentence-similarity

A tensorflow implementation of siamese lstm.
90 stars 33 forks source link

pre_train的意义 #4

Open charmpeng opened 6 years ago

charmpeng commented 6 years ago

up主你好,我看了下代码,了解了model的大致框架。不太明白为何有一个pre_train的过程,是为了给模型的参数一个初始化么?

Zyue10969 commented 5 years ago

预训练-微调(pretrain - finetune)策略是在深度模型训练过程中一个常用的训练策略. 具体做法是,先用一个与任务相关的数据集(往往比任务数据集大)对模型进行预训练, 然后使用预训练模型在任务数据集上进行微调训练. 这种策略在CV/NLP领域被广泛采用,你可以看下这个博客,总结的特别好. https://flyyufelix.github.io/2016/10/03/fine-tuning-in-keras-part1.html

lipanpanpanpanpan commented 5 years ago

up主你好,我看了一下你的代码,想问一下你的那个data文件夹能提供下吗?因为没有数据所以不知道该如何运行。。。