MorvanZhou / Reinforcement-learning-with-tensorflow

Simple Reinforcement learning tutorials, 莫烦Python 中文AI教学
https://mofanpy.com/tutorials/machine-learning/reinforcement-learning/
MIT License
8.94k stars 5.01k forks source link

关于open AI gym运行报错 #206

Open Jackmeory opened 2 years ago

Jackmeory commented 2 years ago

我下载了DQN的代码,发现运行报错,主要错误在两个地方上 1.choose_action(self, observation): observation = observation[np.newaxis, :]出现错误为TypeError: tuple indices must be integers or slices, not tuple 2.在修改了第一部分的错误之后(通过课程讨论区一位朋友提供的想法先observation=np.array(observation)然后再进行reshape,发现在transition部分又出现错误,提示输入的transition和self.memory列数不同,在进行observation的打印之后发现它的格式很奇怪,是(array([ 0.00107828, -0.02266533, -0.03175206, -0.04841794], dtype=float32), {}) 这样的一个形式,和observation_的形式也不同,我又回去check了maze的observation和observation_的形式发现maze的是相同,不知道该如何修改RL_brain的代码,希望大神们能给点建议

QiangWong007 commented 2 years ago

老兄,我和你遇到的是一样的问题,请问你的解决了吗?

PPCINUST commented 1 year ago

env.reset 的格式会有问题改为: observation = env.reset()[0] env.step 会返回五个变量,有一个是执行概率 可以改为:
observation_, reward, done, info, pro = env.step(action)