导语
因果科学读书会第四季主要围绕因果表征学习引论、理论基础、技术框架,以及在机器学习领域和在工业界中的具体的应用进行深度探讨,系统梳理因果表征学习领域并促进相关的研究。自2022年12月31日开始,每周六晚上20:00-22:00举办,持续时间预计 10 周。欢迎对本话题感兴趣的朋友报名参加!
分享内容简介
分享内容简介
分享简介
分享简介
• 参考文献:
分享内容大纲
分享内容大纲
引言 Introduction 出发点 Motivation 强化学习与因果的简单介绍 Brief Intro to RL and Causality 因果强化学习 Causal RL 总结 Summary 基于先验因果信息的因果强化学习 CRL with prior causal information 基于未知因果信息的因果强化学习 CRL with unknown causal information 未来方向 Future Directions 论文解读一 Related Publication I 论文解读二 Related Publication II
主要涉及到的知识概念
主要涉及到的知识概念
因果推断 Causal Inference 因果发现 Causal Discovery 强化学习 Reinforcement Learning 马尔科夫决策过程 Markov Decision Process 部分可观测马尔科夫决策过程 Partially Observed Markov Decision Process 多臂老虎机 Multi-Armed Bandit 模仿学习 Imitation Learning
主持人简介
主持人简介
主要涉及到的参考文献
主要涉及到的参考文献
[1] Zeng Y, Cai R, Sun F, et al. A Survey on Causal Reinforcement Learning[J]. arXiv preprint arXiv:2302.05209, 2023.
这是一篇因果强化学习的研究综述,较全面地阐释了因果强化学习的基本问题、基础假设、技术框架、应用场景和未来可能的研究方向。
[2] B. Huang, F. Feng, C. Lu, S. Magliacane, K. Zhang. AdaRL: What, Where, and How to Adapt in Transfer Reinforcement Learning. ICLR'22.
这篇文章提出了一种高效的迁移强化学习模型,可以在目标领域中利用少量样本可靠且高效地适应跨领域的变化。该方法利用因果图对RL系统中变量之间的结构关系进行刻画。通过利用图表征去推断领域变化量和不变量之间的关系,可以将策略适应到目标领域中来实现高效的迁移强化学习。
[3] F. Feng, B. Huang, K. Zhang, S. Magliacane. Factored Adaptation for Non-Stationary Reinforcement Learning. NeurIPS’22
这篇文章提出了一种新的方法来处理强化学习中的非稳态性问题,该方法利用因果关系文献中的见解,将非稳态性建模为个体潜在变化因素和环境模型之间的因果图。该方法可以通过学习环境模型中的联合适应性,以应对环境状态状态和目标的变化。
本次分享与读书会主题之间的关系
本次分享与读书会主题之间的关系
直播信息
直播信息
因果科学读书会第四季启动
因果科学读书会第四季主要围绕因果表征学习引论、理论基础、技术框架,以及在机器学习领域和在工业界中的具体的应用进行深度探讨,系统梳理因果表征学习领域并促进相关的研究。自2022年12月31日开始,每周六晚上20:00-22:00举办,持续时间预计 10 周。欢迎对本话题感兴趣的朋友报名参加!(附第四季资源列表)