Closed KevinLee1110 closed 7 years ago
关于equivariance性质的讨论: (1)equivariance翻译成“等价”不好,从词根上说这个词是equi(等)+variance(变化),应该翻译成”等变“或”等变性“;按意义上说,作者在这里的意思是,一个函数,它的输入变化的时候,它的输出以同样的方式变化,从这个意义说,“等变”比较合适。“等价”的译法太误导读者了。 (2)原文有个错误,原文出现I'的地方,其实应该是I (3)equivariant的含义看起来不应该说成一个函数和另一个函数是”等变“的,而应该说成函数f针对函数g这个变换(g代表一个变换,即transformation)具有”等变性“,或者简单说成函数f具有”等变性“(省略掉了变换g)。总起来说,说一个函数具有”等变性“比说成两个函数同时具有”等变性“,表达上更好理解。
不错! @KevinLee1110 分析一哈。 现阶段,一般我们都会按照原文错误来,给出脚注或者tex注释,并结合大家的反馈进行更改。
@tielei 真的好认真!非常感谢你的建议!! 我也觉得“卷积和平移是等价的”这种说法本身就怪怪的。我觉得“等变”或者“同变”这个词挺好的,我先前想当然地把equivariance理解成了两个函数的性质(把equivariance看成了equivalence),仔细读一下原文才发现这是对一个函数的性质。实在是自己太粗心了。 原文中确实把I写成了I',我最初也在tex里注释了,这里我通过脚注说明一下吧。
一个小勘误:"表示在通道$i$中第$i$行第$j$列的值。" 这句应该是:” 表示在通道$i$中第$j$行第$k$列的值。“
@tielei 量变到质变!多谢
@tielei 非常感谢~我这就去改一下
关于full convolution: 原文这句:”in which enough zeroes are added for every pixel to be visited k times in each direction“ 目前的翻译:”它是对每个方向上被访问了k次的像素进行足够的零填充“,这样翻译因果倒置了。 原文真正的意思是说:这种全卷积(full convolution)用足够的零进行填充,使得每个像素在各个方向上都恰好被访问k次。
@tielei 被你的认真感动到了。这里确实是我没有理解清楚,full convolution应该是在两边各加入$k-1$
个零(对于图像width为$m$
,核width为$k$
的情况)使得每个像素都刚好被访问了$k$
次,最终输出的图像具有$[2(k-1)+m]-k+1=m+k-1$
的width。
@KevinLee1110 最近正好看到这一章,突然发现了你们的中译文,所以偶然发现了一些错误。个人感觉原著在表达上做得就不算太好。这本书可能内容覆盖确实比较全,但在细节上阐述得不够,很多地方令人费解,估计翻译过来更是难懂。如果在原书表达不够细的这些地方,增加一些脚注详细说明一下,可能会更好。
原文这一句:"It is straightforward to generalize this equation to use a different tiling range for each dimension." 目前的翻译:”在每一维上使用其他的索引方法可以很直观的对这个方程进行扩展。“
感觉这一句没有把原文要表达的意思说出来。原文的意思应该是:可以通过在不同维度上使用不同的titling range这种方式来对上面那个公式进行重写(扩展)。这里不同的titling range指的就是在不同的维度上采用不同的参数t,现在译文里的”使用其他的索引方法“没有把这个意思表达清楚。
@tielei 感谢你的每一条建议。未来我们也打算在脚注或者边注中加上一些注解,这样更方便读者理解。我赶紧去把第9章再过一遍,感觉以前真是太不仔细了。
the prior “imposed” by convolution 翻译错了
“其他” / “其它”,建议各章节统一下。推荐“其它”。
https://github.com/exacity/deeplearningbook-chinese/blob/master/Chapter9/convolutional_networks.tex#L504 “the same feature should occur across all of space” 翻译不准确。
https://github.com/exacity/deeplearningbook-chinese/blob/master/Chapter9/convolutional_networks.tex#L713 翻译不准确。 “Because ......”是针对“variable size”的解释。
“primary visual cortex” 初级视觉皮层
@HC-2016 收到,确实应该统一 “其他” / “其它”,先用“其它”了,之后替换也算快,多谢! 另外的由@KevinLee1110 整合。
@HC-2016 不好意思,打错了,我们统一用“其他”, “其它”是后来出现的词。
receptive field 文中存在两种翻译:接受/收域。 我更多接触的到的是“感知野”。
@HC-2016 非常感谢你的每一条建议~真的受益匪浅!先前没来得及更新...
Locally connected layers are useful when we know that each feature should be a function of a small part of space, but there is no reason to think that the same feature should occur across all of space.
现在翻译为"当我们知道每一个特征都是一小块空间的函数并且在全空间上不存在相同的特征时,局部连接层是很有用的"。
Note that the use of convolution for processing variably sized inputs makes sense only for inputs that have variable size because they contain varying amounts of observation of the same kind of thing—different lengths of recordings over time, different widths of observations over space, and so forth. Convolution does not make sense if the input has variable size because it can optionally include different kinds of observations.
现在翻译成"注意,使用卷积处理可变尺寸的输入,仅对输入是因为包含对同种事物的不同量的观察(时间上不同长度的记录,空间上不同宽度的观察等)而导致的尺寸变化这种情况才有意义。 如果输入是因为它可以选择性地包括不同种类的观察而具有可变尺寸,使用卷积是不合理的。"
primary visual cortex -> 初级视觉皮层
"它们"确实会指代不清,改成了"这些网络"
"flow backwards" 原本我翻译成"向后流动",现在翻译成"回流"行吗?这样感觉更贴切一些。
"receptive field"确实有些生物相关的材料中会翻译成感受野,但我觉得神经网络毕竟和生物不太一样,我统一用"接受域"来描述吧,在脚注中标记一下。
多谢各位,这章先告一段落。
关于第9章的各种建议,请在这里回复