Langzzx / Deep-Learning---course-Note-Ex

based <Deep Learning Nanodegree Foundation - udacity>
0 stars 0 forks source link

名词解释 #2

Open Langzzx opened 7 years ago

Langzzx commented 7 years ago

为什么损失函数用对数? 对数损失是用于最大似然估计的。 一组参数在一堆数据下的似然值,等于每一条数据的概率之积。 而损失函数一般是每条数据的损失之和,为了把积变为和,就取了对数。 再加个负号是为了让最大似然值和最小损失对应起来。

ref to: zhihu: 对数损失函数是如何度量损失的 zhihu: 在统计学中为什么要对变量取对数

Langzzx commented 7 years ago

batch normalization

A technique for accelerating deep neural network learning

比如, 带Mini-batch的SGD