fengdu78 / Coursera-ML-AndrewNg-Notes

吴恩达老师的机器学习课程个人笔记
32.01k stars 10.63k forks source link

错误纠正帖 #12

Open fengdu78 opened 6 years ago

fengdu78 commented 6 years ago

笔记错误的地方请在这里跟帖,我修改好了也会在这里跟帖。 错误格式:笔记版本+页码+错误的地方,并附上修改的地方。 谢谢大家!

Chandlercjy commented 6 years ago

感谢贡献那么优秀的笔记! 错误地方我直接提交pull了,也不确定改的对不对

Chandlercjy commented 6 years ago

week6.md """ 11.4 查准率和查全率之间的权衡 参考视频: 11 - 4 - Trading Off Precision and Recall (14 min).mkv

​ 在之前的课程中,我们谈到查准率和召回率,作为遇到偏斜类问题的评估度量值。在很多应用中,我们希望能够保证查准率和召回率的相对平衡。

​ 在这节课中,我将告诉你应该怎么做,同时也向你展示一些查准率和召回率作为算法评估度量值的更有效的方式。继续沿用刚才预测肿瘤性质的例子。假使,我们的算法输出的结果在0-1 之间,我们使用阀值0.5 来预测真和假。 """

其中recall一下翻译成查全率,一下翻译成召回率。建议修改统一一下

lartpang commented 6 years ago

版本:机器学习个人笔记完整版v5.3-A4打印版 页码:P132 问题:此页中,关于记号 $s{l}$ 的使用,让人疑惑。此处我未看视频,不知视频中如何表述,但是这里描述—— “正则化的那一项只是排除了每一层 $\theta{0}$ 后,每一层的 $\theta$ 矩阵的和。最里层的循环 j 循环所有的行(由 $s{l}$ +1 层的激活单元数决定),循环 i 则循环所有的列,由该层($s{l}$ 层)的激活单元数所决定。”

这里 $s_{l}$ 本身表示的是第 l 层的激活单元数目。

“$s_{l}$ +1 层”这让人费解,实际上这里应该说的是第 l、第 l+1 层吧?

另外,对应的,此处的损失函数的正则化部分,第二个累和号上界应该是 $s{l}+1$ ,第三个是 $s{l+1}$ ?

theta 矩阵是以第 j +1层的激活单元数量( $s{j+1}$ )为行数,以第 j 层的激活单元数加一( $s{j+1}+1$ )为列数的矩阵

image


不知理解是否有误,还望告知。

lartpang commented 6 years ago

版本:机器学习个人笔记完整版v5.3-A4打印版 页码:P150 问题:公式漏了字符

这里的损失函数漏掉了 y^{i}_{test}

JachinLi commented 5 years ago

机器学习个人笔记完整版v5.35-A4打印版.pdf 页码:P112 问题:多了一对小括号。后面那个正则化项是不该包含在外层的累加里的 image