# gymRL
本人学习强化学习(PPO,DQN,SAC,DDPG等算法),在gym环境下写的代码集。
主要研究了PPO和DQN类算法,根据各个论文复现了如下改进:
- PPO: dual-PPO, clip-PPO, use-RNN, attention etc.
- DQN: rainbow DQN
在离散动作空间和连续动作空间,PPO算法都奏效,因此我对离散和连续动作空间的代码探索主要在CartPole(PPO), Pendulum(PPO)两份代码进行,读者可以重点关注。
感谢知乎分享:https://zhuanlan.zhihu.com/p/654972230 提出的神经网络构建思路,尤其是其提出的PSCN层:
```python
class PSCN(nn.Module):
def __init__(self, input_dim, output_dim):
super(PSCN, self).__init__()
assert output_dim >= 32 and output_dim % 8 == 0, "output_dim must be >= 32 and divisible by 8 "
self.hidden_dim = output_dim
self.fc1 = MLP([input_dim, self.hidden_dim], last_act=True)
self.fc2 = MLP([self.hidden_dim // 2, self.hidden_dim // 2], last_act=True)
self.fc3 = MLP([self.hidden_dim // 4, self.hidden_dim // 4], last_act=True)
self.fc4 = MLP([self.hidden_dim // 8, self.hidden_dim // 8], last_act=True)
def forward(self, x):
x = self.fc1(x)
x1 = x[:, :self.hidden_dim // 2]
x = x[:, self.hidden_dim // 2:]
x = self.fc2(x)
x2 = x[:, :self.hidden_dim // 4]
x = x[:, self.hidden_dim // 4:]
x = self.fc3(x)
x3 = x[:, :self.hidden_dim // 8]
x = x[:, self.hidden_dim // 8:]
x4 = self.fc4(x)
out = torch.cat([x1, x2, x3, x4], dim=1)
return out
# MLP层即封装的全连接层,具体实现请参照utils/model.py
```
个人在这个层的实践过程中效果颇好,读者可以斟酌使用。
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
基于gym的pytorch深度强化学习实现源码+项目说明(PPO,DQN,SAC,DDPG,TD3等算法).zip基于gym的pytorch深度强化学习实现源码+项目说明(PPO,DQN,SAC,DDPG,TD3等算法).zip基于gym的pytorch深度强化学习实现源码+项目说明(PPO,DQN,SAC,DDPG,TD3等算法).zip基于gym的pytorch深度强化学习实现源码+项目说明(PPO,DQN,SAC,DDPG,TD3等算法).zip 【资源说明】 1、该资源内项目代码都是经过测试运行成功,功能正常的情况下才上传的,请放心下载使用。 2、适用人群:主要针对计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、数学、电子信息等)的同学或企业员工下载使用,具有较高的学习借鉴价值。 3、不仅适合小白学习实战练习,也可作为大作业、课程设计、毕设项目、初期项目立项演示等,欢迎下载,互相学习,共同进步!
资源推荐
资源详情
资源评论
收起资源包目录
基于gym的pytorch深度强化学习实现源码+项目说明(PPO,DQN,SAC,DDPG,TD3等算法).zip (30个子文件)
projectcode30312
CartPole(SAC).py 9KB
Pendulum(PPO).py 7KB
FrozenLake.py 3KB
.gitattributes 66B
CartPole(DQN).py 7KB
utils
buffer.py 2KB
normalization.py 2KB
model.py 11KB
runner.py 7KB
env_wrappers.py 7KB
__pycache__
env_wrappers.cpython-39.pyc 9KB
model.cpython-39.pyc 6KB
buffer.cpython-39.pyc 3KB
runner.cpython-39.pyc 6KB
normalization.cpython-39.pyc 2KB
CartPole(DDQN+PER+DUEL).py 9KB
Pendulum(SAC).py 9KB
MountainCar.py 2KB
Pendulum(TD3).py 9KB
MsPacman(PPO).py 7KB
Pendulum(DDPG).py 8KB
CartPole(NDQN).py 4KB
CartPole(PPO).py 6KB
common
lr.py 768B
eps.py 775B
test.py 24B
CliffWalking.py 5KB
CartPole(DDQN+PER).py 10KB
README.md 2KB
CartPole(RDQN).py 15KB
共 30 条
- 1
资源评论
龙年行大运
- 粉丝: 1002
- 资源: 3854
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功