dhcn

https://zhuanlan.zhihu.com/p/87647631

今天我们带来本系列第六篇文章:北美CS名校强化学习与决策控制相关课程的整理。本系列今后将持续保持一周两更的频率,想学习更多请点击关注专栏大学模拟器,点赞支持,也欢迎关注微信公众号Univ模拟器。

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。(摘自《机器之心》)

课程资料

由于本人平时需要上班,现在的文章将主要列出课号、名称与主页链接。其他资源链接将在有精力的时候补上。非常欢迎志同道合的有为青年加入我们(私信我),帮忙收集资料或者发一些与课程相关的学习心得体会。

加州大学伯克利分校 UCB

CS 285: Deep Reinforcement Learning, Decision Making, and Control

CS285 Home Page

CS281B: Advanced Topics in Learning and Decision Making

CS281B Home Page

斯坦福大学 Stanford

CS234: Reinforcement Learning

CS234: Reinforcement Learning Winter 2019

CS239 Sequential Decision Making

Sequential Decision Making | AA229/CS239 Winter 2018

AA228/CS238 Decision Making under Uncertainty

AA228/CS238 | Decision Making under Uncertainty

卡耐基梅隆大学 CMU

16-881: Special Topics: Deep Reinforcement Learning for Robotics

16-745: Optimal Control and Reinforcement Learning

16-745: Optimal Control and Reinforcement Learning

10-403: Deep Reinforcement Learning and Control

Deep RL and Control

Econ 3810/Econ 6760/ CS 5846: Decision Theory

Econ 3810/Econ 6760/ CS 5846 (Spring, 2017)

ORIE 5751: Learning and Decision Making From Data

伊利诺伊大学香槟分校 UIUC

CS 598: Statistical Reinforcement Learning (S19)

CS 598 Statistical Reinforcement Learning

华盛顿大学 UW

CSE 479: Intelligent control through learning and optimization

Intelligent control through learning and optimization说在后面

大学模拟器专栏旨在为广大学习爱好者收集公开/非公开资源,降低在校学生与工作人士的学习成本,提供免费可得的课程培养方案。最终达到降低内卷、打击智商税收割者的目的。

从今天开始,本专栏在之后几个月将陆续发出关于北美名校CS专业的相关课程主页链接,课程主题全面覆盖人工智能(自然语言处理、计算机视觉、增强学习)、机器学习理论与应用、数据结构与算法分析、大数据与并行计算、操作系统与编译原理、网络与信息安全、分布式系统与数据库、机器人、数值分析与计算机基础数学、人机交互、机器人、计算机图形学等方面的内容,目前主要面向Stanford、MIT、UCB、CMU、UIUC、Cornell、Princeton、Caltech、Harvard、UW、Georgia Tech、UT Austin这几所CS强校。

分类:

技术点:

相关文章:

  • 2021-12-02
  • 2021-11-01
  • 2022-01-13
  • 2022-01-10
  • 2021-12-09
  • 2021-08-31
  • 2021-09-08
  • 2021-05-07
猜你喜欢
  • 2021-08-29
  • 2021-06-20
  • 2022-03-01
  • 2021-12-31
  • 2021-11-03
  • 2021-05-22
  • 2021-05-30
相关资源
相似解决方案