Open qiwang067 opened 3 years ago
感恩,整理得很清楚,不过有个小问题,查了一下好像大部分都认为PPO是on-policy的,而非off-policy?
感恩,整理得很清楚,不过有个小问题,查了一下好像大部分都认为PPO是on-policy的,而非off-policy?
感谢您的反馈,PPO 的确是 on-policy 的,本章参考的资料有一些问题,会尽快更新
感恩,整理得很清楚,不过有个小问题,查了一下好像大部分都认为PPO是on-policy的,而非off-policy?
感谢您的反馈,PPO 的确是 on-policy 的,本章参考的资料有一些问题,会尽快更新
添加了 PPO 是 on-policy 算法的解释
@qiwang067
感恩,整理得很清楚,不过有个小问题,查了一下好像大部分都认为PPO是on-policy的,而非off-policy?
感谢您的反馈,PPO 的确是 on-policy 的,本章参考的资料有一些问题,会尽快更新
添加了 PPO 是 on-policy 算法的解释 你好,请问ppo是用旧的θ'来更新新的θ,为什么还是on-policy呢?
@qiwang067
感恩,整理得很清楚,不过有个小问题,查了一下好像大部分都认为PPO是on-policy的,而非off-policy?
感谢您的反馈,PPO 的确是 on-policy 的,本章参考的资料有一些问题,会尽快更新
添加了 PPO 是 on-policy 算法的解释 你好,请问ppo是用旧的θ'来更新新的θ,为什么还是on-policy呢?
这个解释在本章笔记中就有,详见下图
您好,非常感谢整理,重要性采样那块儿我没弄明白“q(x) 可以是任何分布,唯一的限制就是 q(x) 的概率是 0 的时候,p(x) 的概率不为 0,不然这样会没有定义。假设 q(x) 的概率是 0 的时候,p(x) 的概率也都是 0 的话,那这样 p(x) 除以 q(x)是有定义的。” 分母不应该不能为0吗
您好,非常感谢整理,重要性采样那块儿我没弄明白“q(x) 可以是任何分布,唯一的限制就是 q(x) 的概率是 0 的时候,p(x) 的概率不为 0,不然这样会没有定义。假设 q(x) 的概率是 0 的时候,p(x) 的概率也都是 0 的话,那这样 p(x) 除以 q(x)是有定义的。” 分母不应该不能为0吗
您好,您可以这样理解,在重要性权重 p/q 中,p≠0 但是 q=0,那么重要性权重=∞,所以p≠0 但是 q=0 的情况是个限制,不适用; 而 p 和 q 在某处 x 都为0的话,重要性权重也可以定义(不为无穷或者零),只不过f(x)p(x)=0,即这点对期望的累积没有贡献。
谢谢博主!
这里这个baseline好像有问题?感觉指的是bias
这里这个baseline好像有问题?感觉指的是bias
感谢您的反馈,这里指的就是基线(baseline),具体可参考: https://datawhalechina.github.io/easy-rl/#/chapter4/chapter4?id=tip-1-add-a-baseline
我看pg算法里,有对t累加的操作,为什么第三张幻灯片没有了呢?不太懂这张幻灯片里期望的含义
@o00000o 您好,非常感谢整理,重要性采样那块儿我没弄明白“q(x) 可以是任何分布,唯一的限制就是 q(x) 的概率是 0 的时候,p(x) 的概率不为 0,不然这样会没有定义。假设 q(x) 的概率是 0 的时候,p(x) 的概率也都是 0 的话,那这样 p(x) 除以 q(x)是有定义的。” 分母不应该不能为0吗
您好,在高等数学里面分母是可以趋向于0的,只不过如果分母为零,分子不为零,整个函数是趋于无穷的,如果分子分母都为零是有可能收敛的。比如 f(x) = sinx/x,当x趋于0的时候,可以算出结果为f(0) = 1。当然这只是一个例子,具体的可以去搜一下无穷小量。
您好,作为强化学习的初学者,我从本章5.1小节的标题“从同策略到异策略”中感受到两点暗示:1、从同策略到异策略是一种优化。2、PPO算法是一种异策略算法。对于第一点我还没搞明白,第二点似乎并不正确。是不是改为“同策略与异策略”之类的标题会更合适一点。
@xiaoliua1 感谢您的反馈,回复如下:
- 异策略并非是同策略的优化。
- PPO算法是一种同策略算法,本章5.2节明确讲了这件事:
- 标题确实可能会给人造成误解,已改成“重要性采样”。
您好,我有问题想请教一下。我感觉PPO相比于重要性采样的唯一区别是在约束中增加了一个约束项,使得$theta^'$与$theta$相差不大,为什么重要性采样是异策略,PPO是同策略呢?文章中说原因是PPO中$thete^'$是$theta_old$,但我觉得重要性采样中的$thete^'$也应该是$theta_old$呀。谢谢!
您好,我有问题想请教一下。我感觉PPO相比于重要性采样的唯一区别是在约束中增加了一个约束项,使得$theta^'$与$theta$相差不大,为什么重要性采样是异策略,PPO是同策略呢?文章中说原因是PPO中$thete^'$是$theta_old$,但我觉得重要性采样中的$thete^'$也应该是$theta_old$呀。谢谢!
@Chuan-shanjia 感谢您的反馈,回复如下:
关于这块的表述已在文章中更新:https://github.com/datawhalechina/easy-rl/commit/552e4f2efc0246e9fcd31cbe4866fc8658e78b4a
感谢分享
感谢分享
客气啦~
请问有连续情况下PPO的实例吗
请问图5.4有出处吗?
请问图5.4有出处吗?
@Chin-Sun Proximal Policy Optimization Algorithms https://arxiv.org/pdf/1707.06347
@qiwang067
请问图5.4有出处吗?
@Chin-Sun Proximal Policy Optimization Algorithms https://arxiv.org/pdf/1707.06347
谢谢!感谢分享这篇笔记:)
@qiwang067
请问图5.4有出处吗?
@Chin-Sun Proximal Policy Optimization Algorithms https://arxiv.org/pdf/1707.06347
谢谢!感谢分享这篇笔记:)
客气啦~ ^V^
请问有连续情况下PPO的实例吗
@YZH-WDNMD 可以看这个: https://github.com/datawhalechina/joyrl-book/blob/main/notebooks/%E7%AC%AC12%E7%AB%A0_PPO_Pendulum-v1.ipynb
https://datawhalechina.github.io/easy-rl/#/chapter5/chapter5
Description