Keras 如何查看健身房内发生的事情。make(';env';)

Keras 如何查看健身房内发生的事情。make(';env';),keras,controls,environment,reinforcement-learning,openai-gym,Keras,Controls,Environment,Reinforcement Learning,Openai Gym,为了创建自己的环境并使用github的一些代码,我需要查看在gym.make('env')中发生了什么,例如gym.make('carpole0') 在健身房github的什么地方,我能找到它?我发现https://github.com/openai/gym/blob/master/gym/envs/classic_control/cartpole.py但它没有品牌 如何编写为DQN定义环境(env)的更新部分,该环境不在gym库中? 我正在寻找github上的环境定义“env”示例,或者其他不

为了创建自己的环境并使用github的一些代码,我需要查看在
gym.make('env')
中发生了什么,例如
gym.make('carpole0')

在健身房github的什么地方,我能找到它?我发现
https://github.com/openai/gym/blob/master/gym/envs/classic_control/cartpole.py
但它没有品牌

如何编写为DQN定义环境(env)的更新部分,该环境不在gym库中? 我正在寻找github上的环境定义“env”示例,或者其他不是为Atari游戏设计的资源。我看过几个模型,但大多数都使用OpenAI的
gym
库,是为玩环境相对简单的Atari游戏而编写的。我正在寻找一个状态更复杂的游戏环境

我想基于状态
t
为状态
t+1
编写一个更新函数(环境的步进函数)。我的问题是,如果该状态之前依赖于多个状态,如何实现?我正在寻找一个例子来证明这一点。它似乎有义务在环境中发送时间t


如果为一个自适应控制问题定义一个示例,对我会更有帮助。

将发生在数组或字典中的所有环境状态存储起来

如果您的环境需要访问
t
之前的状态以确定下一个状态
t+1
,则这些状态将在阵列中

# array that maintains list of all states the agents experiences
states_experienced = []

# each time a new state is encountered, add it to the array
states_experienced.append(current_state)

如果顺序不重要,或者你想用键来索引状态,你可以用字典来代替。

谢谢R.F.你知道什么环境而不是健身房吗?@SaRa OpenAI的任务范围更广,并且更多地参与赋予RL网络/算法与现实世界互动的能力:玩游戏,使用真实的(虚拟的)环境键盘和鼠标与网页上的按钮和滑块等交互。如果这有帮助,请将我的答案标记为已接受。谢谢你,祝你过得愉快谢谢R.F!但这不是我要找的!我想要一个step函数(更新函数)