Artificial intelligence 培养dqn的实用方法

Artificial intelligence 培养dqn的实用方法,artificial-intelligence,reinforcement-learning,Artificial Intelligence,Reinforcement Learning,我不熟悉强化学习,当我阅读教程和论文时,似乎大多数DQN(或基于DQN的算法,如Double DQN等)学习(更新网络),每一步的批量大小从32到512 然而,当我在Atari游戏中尝试使用4层CNN的DQN时,它似乎非常慢,每一步都需要半秒钟以上。这是合理的,因为训练可能很慢。因此,似乎训练DQN的理论方法在视频游戏中不是很实用(特别是如果我想要更深入的网络来识别更复杂的状态),除非我有几个GPU或像P100这样的非常好的GPU 因此,相反,我尝试在每集结束时学习多个批次,而不是每一步学习一个

我不熟悉强化学习,当我阅读教程和论文时,似乎大多数DQN(或基于DQN的算法,如Double DQN等)学习(更新网络),每一步的批量大小从32到512

然而,当我在Atari游戏中尝试使用4层CNN的DQN时,它似乎非常慢,每一步都需要半秒钟以上。这是合理的,因为训练可能很慢。因此,似乎训练DQN的理论方法在视频游戏中不是很实用(特别是如果我想要更深入的网络来识别更复杂的状态),除非我有几个GPU或像P100这样的非常好的GPU

因此,相反,我尝试在每集结束时学习多个批次,而不是每一步学习一个批次,速度要快得多,但基本上表现不佳,经过三四个小时的训练,分数甚至低于随机移动

那么,在视频游戏RL中,还有哪些更实用的方法可以保持良好的性能呢

任何帮助都会很好!谢谢