Open yxz777 opened 10 months ago
在运行书中DDPG的参考代码时,观察到随着训练的进行,actorloss 的值在不断的上升,criticloss的值也是上下飘忽不定 actorloss 的定义不是-q值吗?现在这个值越来越大不就意味着动作的q值越来越小吗?这不是与我们想最大化动作的q值的目的相反吗? 所以评价这个算法的好坏最终是要看他的奖励是否上升吗?
看奖励情况。actor的loss的绝对情况应该没什么意义吧,本身他的loss其实就是critic的输出,而critic网络又是不断在变的,可能最开始对于Q值估计误差偏大,后面逐渐修正。总之感觉强化学习的训练和其他深度学习任务还不太一样,最终目标还是看奖励是否收敛稳定
在运行书中DDPG的参考代码时,观察到随着训练的进行,actorloss 的值在不断的上升,criticloss的值也是上下飘忽不定 actorloss 的定义不是-q值吗?现在这个值越来越大不就意味着动作的q值越来越小吗?这不是与我们想最大化动作的q值的目的相反吗? 所以评价这个算法的好坏最终是要看他的奖励是否上升吗?