【资源目录】:

├──1_1-1-课程内容和理念.mp4 59.03M
├──1_10-1-基于模型的强化学习核心思想和原理.mp4 47.96M
├──1_11-1模仿学习.mp4 48.35M
├──1_12-1-项目实战:Gym游戏.mp4 51.39M
├──1_2-1-线性代数.mp4 26.89M
├──1_3-1-CUDA+Anaconda深度学习环境配置.mp4 18.73M
├──1_4-1-序列建模与概率图模型.mp4 38.12M
├──1_5-1-动态回归核心思想和原理.mp4 30.86M
├──1_6-1-蒙特卡洛方法.mp4 32.50M
├──1_7-1-深度Q网络核心思想和原理.mp4 44.71M
├──1_8-1-策略梯度核心思想和原理.mp4 44.18M
├──1_9-1-演员评论家算法核心思想和原理.mp4 20.12M
├──2_1-2-认识强化学习.mp4 53.78M
├──2_10-2-Dyna-Q算法.mp4 44.61M
├──2_11-2-博弈论与强化学习.mp4 64.74M
├──2_12-2-项目实战:大模型RLHF.mp4 31.35M
├──2_2-2-微积分.mp4 30.04M
├──2_3-2-conda使用命令.mp4 11.87M
├──2_4-2-马尔可夫观测过程:学会“看”.mp4 40.93M
├──2_5-2-策略迭代.mp4 40.01M
├──2_6-2-时序差分方法.mp4 34.17M
├──2_7-2-DQN-代码实现.mp4 35.82M
├──2_8-2-蒙特卡洛策略梯度.mp4 24.23M
├──2_9-2-改进型演员评论家算法.mp4 23.04M
├──3_1-3-课程使用的技术栈.mp4 12.01M
├──3_10-3-Dyna-Q算法代码实现.mp4 17.74M
├──3_11-3-多智能体强化学习.mp4 44.45M
├──3_12-3-强化学习最新发展趋势.mp4 65.61M
├──3_2-3-概率.mp4 46.60M
├──3_3-3-Jupyter-Notebook快速上手.mp4 14.13M
├──3_4-3-马尔可夫决策过程:试着-“干”.mp4 29.63M
├──3_5-3-价值迭代.mp4 19.17M
├──3_6-3-蒙特卡洛方法和时序差分代码实现.mp4 22.84M
├──3_7-3-常见问题改进和扩展.mp4 27.54M
├──3_8-3-策略梯度方法代码实现.mp4 19.41M
├──3_9-3-演员评论家算法代码实现.mp4 19.74M
├──4_10-4-基于模型的策略优化.mp4 19.66M
├──4_11-4-MADDP的代码实现.mp4 45.07M
├──4_12-4-下一步的学习建议.mp4 33.28M
├──4_3-4-仿真环境Gym安装.mp4 18.95M
├──4_4-4-马尔可夫奖励过程:懂得“想”.mp4 49.39M
├──4_5-4-动态规划代码实现.mp4 43.48M
├──4_6-4-广义策略迭代.mp4 19.56M
├──4_7-4-DQN改进算法代码实现.mp4 31.02M
├──4_8-4-近端策略优化算法.mp4 36.16M
├──4_9-4-深度确定性策略梯度.mp4 30.35M
├──5_10-5-MBPO的代码实现.mp4 53.79M
├──5_11-5-AlphaStar系统.mp4 82.38M
├──5_3-5-深度学习库PyTorch的安装.mp4 9.24M
├──5_4-5-贝尔曼方程:迭代求解价值函数.mp4 30.56M
├──5_6-5-Q-Learning算法.mp4 32.26M
├──5_8-5-近端策略优化(PPO)代码实现.mp4 34.58M
├──5_9-5-DDPG算法代码实现.mp4 22.50M
├──6_11-6-基于人类反馈大强化学习.mp4 47.15M
├──6_4-6-模型分类与选择.mp4 30.84M
├──6_6-6-SARSA算法.mp4 20.84M
├──6_9-6-软性演员评论家算法.mp4 38.57M
├──7_4-7-常见问题解析.mp4 21.65M
├──7_6-7-Q-Learning&SARSA代码实现.mp4 23.78M
├──7_9-7-SAC代码实现.mp4 35.08M
└──8_4-8-马尔可夫过程代码实现.mp4 40.23M

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。