Open Alex-McAvoy opened 2 months ago
https://alex-mcavoy.github.io/artificial-intelligence/deep-learning/network-fundamentals/c1d77713.html
【梯度爆炸与梯度消失】目前优化神经网络的方法基本都是基于反向传播的思想,即根据损失函数计算的误差通过反向传播的方式,逆向对网络权值进行更新 梯度消失和梯度爆炸是最常见的两个问题,它们会影响模型的收敛速度和性能
https://alex-mcavoy.github.io/artificial-intelligence/deep-learning/network-fundamentals/c1d77713.html
【梯度爆炸与梯度消失】目前优化神经网络的方法基本都是基于反向传播的思想,即根据损失函数计算的误差通过反向传播的方式,逆向对网络权值进行更新 梯度消失和梯度爆炸是最常见的两个问题,它们会影响模型的收敛速度和性能