本文经 AI 新媒体量子位(公众号 ID:QbitAI)授权转载,转载请联繫出处
作者:量子位/鱼羊
自从有了强化学习(RL),AI 上能星海争霸,下能雅达利(Atari)称王,让内行人沈醉,让外行人惊奇。
这里恰有一份标星过万的强化学习资源,既有教程推荐,又有配套练习,网友学了都说好,并且还在实时更新。
入学要求并不高,只需要一些基础的数学和机器学习知识。
扎实学习 AI 强化学习,大神推荐这两个资源想要入门强化学习,一份优质的课程必不可少。
强化学习资源千千万,项目作者 Denny Britz 大力推荐这两个:
David Silver 的强化学习课程
以及 Richard Sutton 和 Andrew Barto 的《强化学习:简介(第二版)》
Denny Britz 表示,这两本书几乎涵盖了入门强化学习需要了解的大部分研究论文,基础决定高度,理论知识还是要扎扎实实学起来。
理论有了,可书里并没有演算法练习。
别担心,帮人帮到底,送佛送到西,Denny Britz 亲自动手,用 Python,OpenAI Gym 和 Tensorflow 实现了大多数标準强化演算法,并把它们都共享了出来,方便大家配合教材使用。
在这份万星资源里,每个文件夹都对应着教材的一个或多个章节。除了练习和解决方案之外,每个文件夹下还包含了一系列学习目标,基础概念摘要,以及相关连结。
以基于模型的强化学习:使用动态规划的策略迭代和值迭代这一章为例。
这一章配套的是 David Silver RL 课程的第三讲,动态编程规划。
首先是学习目标:
了解策略评估和策略改进之间的区别,以及这些流程如何相互作用
理解策略迭代演算法
理解值迭代演算法
了解动态规划方法的局限性
设定好学习目标,这份教程还替你划了重点概念。
最后,奉上实战演练。
大框架已经搭好,只需专注重点思考如何填空:
文后附标準答案:
这份教程现在涵盖了以下演算法实现。
动态规划策略评估
动态规划策略迭代
动态规划值迭代
蒙特卡洛预测
Epslion-Greedy 策略的蒙特卡洛控制
具有重要性抽样的蒙特卡洛非策略控制
SARSA(策略 TD 学习)
Q 学习(非策略 TD 学习)
线性函数逼近的 Q 学习
雅达利游戏的深度 Q 学习
雅达利游戏的双重深度 Q 学习
优先经验回放的深度 Q 学习(施工中)
策略梯度:基线强化
策略梯度:基线 Actor-Critic 演算法
策略梯度:具有连续动作空间的基线 Actor-Critic 演算法
连续动作空间的确定性策略梯度(施工中)
DDPG(施工中)
异步优势 Actor-Critic 演算法(A3C)
学习路径如此清晰,这样的优质资源,不存起来吗?
GitHub 传送门
热门文章
E-sports competition
随机文章
E-sports game
2020-06-19
北美改装车展抢先报—CHEVROLETHHRPanelSS重装商用先锋问世!
2020-06-19
北美改装车展速报
2020-06-19
北美改装车展速报—CADILLACCTSSportConcept轻度武装撑场面
2020-06-19
北美改装车展速报—CADILLACEscaladeSportConcept同场
2020-06-19
北美改装车展速报—CHEVROLETCobaltSS性能王登基!
2020-06-19
北美改装车展速报—CHEVROLETCountryMusicSilverado