github:https://github.com/openai/spinningup
多机多卡:不撑持
Spinning Up 是大名鼎鼎的Open AI推出的免费强化学习教学项目,旨在降低强化学习的门槛,让初学者能在项目实践的过程中一步一步循序渐进地学习。
长处是写的通俗易懂上手简单,而且效果有保障,而且同时tf和Pytorch的撑持;错误谬误是没有value-based的算法,做DQN系列的就没法子了
Dopamine - google
github:https://github.com/Denys88/rl_games 多机多卡:撑持
基于 pytorch 实现的一个 RL 算法框架,撑持端到端的 GPU 加速的环境,比如 IsaacGym或者Brax。撑持多智能体训练。
但是这个库的 example 几乎不能直接跑起来(除了Cartpole这种简单的环境),都需要改削才能跑起来。
该框架使用 ray 和 ddp 来完成分布式强化学习。
rainbow-is-all-you-need
github:https://github.com/Curt-Park/rainbow-is-all-you-need
多机多卡:不撑持
这份Pytorch强化学习教程一共有八章,从DQN(Deep Q-Learning)开始,步步深入,最后展示Rainbow到底是什么。不仅有Jupyter Notebook,作者还在Colab上配置好了代码,很适合新手学习。
但是只有 Value based 的方式,没有 Policy Based 的方式。
CleanRL
环境的 github:https://github.com/NVIDIA-Omniverse/IsaacGymEnvs
Isaac Gym由英伟达开发,提供了一个高性能的学习平台,使得各种智能体训练能够直接在GPU长进行。
与使用CPU模拟器和GPU神经网络的传统RL训练对比,Isaac Gym大幅度缩减了复杂机器任务在单个GPU上的训练时间,使其训练速度提高了1-2个数量级。
EnvPool - Sea AI Lab
github: https://github.com/sail-sg/envpool
EnvPool 是一个基于 C++ 、高效、通用的强化学习并行环境(vectorized environment)模拟器 ,不仅能够兼容已有的 gym/dm_env API,还撑持了多智能体环境。来自 Sea AI Lab 团队
但是他的环境并行是在 CPU 上的并行。他的不雅概念是“基于 GPU 的解决方案虽然可以达到千万 FPS,但并不是所有环境都能使用 CUDA 重写,不能很好兼容生态以及不能复用一些受商业庇护的代码。”所以他在 CPU 长进行更加极致的速度优化。