tannal / ohmywork

0 stars 0 forks source link

Dropout: A Simple Way to Prevent Neural Networks from Overfittin #82

Open tannal opened 1 month ago

tannal commented 1 month ago

论文作者介绍:

Dropout的核心思想是在训练过程中随机"丢弃"一些神经元,以防止网络过度依赖某些特征,从而提高泛化能力。如图所示: 每次训练时,每个隐藏单元以0.5的概率被随机丢弃。 这相当于在2^H种不同的网络架构中随机采样(H为隐藏单元数)。 所有架构共享权重。 论文后续研究:

变体如DropConnect、Spatial Dropout等被提出。 在各种深度学习模型中广泛应用,如CNN、RNN等。 理论分析方面,有研究将Dropout与贝叶斯推断联系起来。

后续研究idea: 自适应Dropout率: 根据网络层的重要性或训练进度动态调整Dropout概率。 结构化Dropout: 不仅随机丢弃单个神经元,还可以考虑丢弃相关的神经元组或子网络。 与其他正则化技术的结合: 探索Dropout与L1/L2正则化、批归一化等技术的最佳组合方式。 Dropout在图神经网络中的应用: 研究如何在图结构数据上有效应用Dropout。 解释性研究: 深入分析Dropout如何影响网络的特征表示和决策过程。