相关资源
章节5:DDPG、PPO、DPPO算法.txt
迅雷云盘
704 B
65:DPPO分布式PPO.mp4
迅雷云盘
36.43 MB
章节5:DDPG、PPO、DPPO算法
迅雷云盘
0 B
57:TD3_使用DoubleNetwork优化DDPG.mp4
迅雷云盘
57.07 MB
66:代码实战_DPPO_创建一个PPO和多个Worker_创建多线程.mp4
迅雷云盘
33.08 MB
59:PPO_通过重要性采样使得PPO可以做Off Policy学习.mp4
迅雷云盘
32.08 MB
53:DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic.mp4
迅雷云盘
43.4 MB
62:代码实战_PPO与环境整体交互_Actor与Critic网络构建.mp4
迅雷云盘
28.52 MB
64:代码实战_剖析PPO代码中如何体现Off Policy的学习方式_效果展示.mp4
迅雷云盘
34.44 MB
67:代码实战_DPPO_GlobalPPO和Workers交替执行.mp4
迅雷云盘
48.49 MB