Closed YanjiNing closed 2 years ago
1.pytorch内部雅可比向量积是如何计算的,是否可以给出数学公式 2.
.grad_fn是对tensor计算一次就引用一次Function对象,来产生运算结果,记录运算的发生,保存记录运算的输入,tensor使用.grad.fn属性记录这个计算图的入口,反向传播中,autograd引擎会按照逆序,通过function的backward依次计算梯度. 手动创建这里建议给出例子,比如: 3.对于markdown公式无法显示问题,是否能改善一下,阅读体验不佳 4. 对于开篇的这些总结,感觉可以在下面对应代码块的头部进行匹配,这样对于小白来说阅读起来会更容易理解一些,不会摸不着头脑,可以适当在结尾处对知识点做一些总结。
非常感谢上述建议!
1.pytorch内部雅可比向量积是如何计算的,是否可以给出数学公式 2.
.grad_fn是对tensor计算一次就引用一次Function对象,来产生运算结果,记录运算的发生,保存记录运算的输入,tensor使用.grad.fn属性记录这个计算图的入口,反向传播中,autograd引擎会按照逆序,通过function的backward依次计算梯度. 手动创建这里建议给出例子,比如: 3.对于markdown公式无法显示问题,是否能改善一下,阅读体验不佳 4. 对于开篇的这些总结,感觉可以在下面对应代码块的头部进行匹配,这样对于小白来说阅读起来会更容易理解一些,不会摸不着头脑,可以适当在结尾处对知识点做一些总结。