导语
集智俱乐部的“后 ChatGPT”读书会由北师大教授、集智俱乐部创始人张江老师联合肖达、李嫣然、崔鹏、侯月源、钟翰廷、卢燚等多位老师共同发起,旨在系统性地梳理ChatGPT技术,并发现其弱点与短板。同时,结合集智俱乐部常年来积累的各种人工智能技术讨论,展望后GPT时代的人工智能都有哪些可能性?
本周五将进行该系列的第三次分享,也是后chatGPT读书会与集智因果科学读书会的联动,围绕因果科学的主题展开交流互动。本报告中,崔鹏老师回顾将因果统计思想引入机器学习的研究历程,并重点介绍利用不变性和异质性提升机器学习分布外泛化能力的最新研究进展。
与读书会整体主题之间的关系
与读书会整体主题之间的关系
主要涉及到的知识概念
主要涉及到的知识概念
因果关系:causality 因果统计:causal statistics 稳定性:stability 可解释性:interpretability 公平性:fairness 可回溯性:traceability 不变性:invariance 异质性:heterogeneous
分享简介
分享简介
分享大纲
分享大纲
一、因果推断融合机器学习的发展历史
二、分布外泛化与不变性和异质性
三、因果推断与不变性的等价关系
四、异质性中的不变机制
主讲人
主讲人
直播信息
直播信息
扫码参与读书会,加入群聊获取本系列读书会的视频回放权限、资料权限,与社区的一线科研工作者和企业实践者沟通交流。
概念解析
概念解析
1. 什么是分布外泛化问题(Out-of-Distribution Generalization)?
人工智能非常依赖于独立同分布假设(Independent and Identically Distributed, I.I.D),这是它存在局限性的主要原因。该假设要求训练模型时的数据分布和测试模型时的数据分布是同一个,这样才能保证机器学习的模型的性能。但是在真实开放的世界中产生的数据和训练数据的分布是不同的。这给机器学习模型的真正落地带来非常大的挑战。
2. OOD泛化与传统机器学泛化的区别?
OOD泛化(OOD Generalization)和传统机器学习的泛化存在差别。OOD泛化更多的是外插问题,而传统机器学习的算法更多的是研究内插问题。如何理解内插和外插的区别呢?
用技术上的语言来描述就是,用回归方程预测样本数据范围以外的数值称为外插法,而内插法则是在样本数据的范围内预测。我们举个例子,有一个男生和女孩说,你昨天没有男朋友,今天你有一个男朋友。这是发生的事实,如果我们做内插,就相当于昨天晚上你大概有0.8个男朋友;如果我们做外插,那就是在本月底的时候你大概要有 30个男朋友,这就是一个非常有风险的做法。
“后ChatGPT”读书会启动
因果科学读书会第二季
哥伦比亚大学 CausalAI 实验室主任 Elias Bareinboim 在其 ACM 邀请文章中提到:“如果我们希望下一代人工智能系统是安全的,稳健的,与人类兼容的,提升人类社会福祉的,那么把因果之梯和人类经验连接起来是至关重要的步骤”。回顾人类从亚里士多德开始的 2000 多年的因果研究历程,探求事物之间的因果关系是哲学、自然科学和社会科学等众多研究所追求的终极目标。那么如何让 AI 系统超越曲线拟合,攀登因果之梯思考为什么,并使用因果建模回答因果问题?是本次读书会希望解决的问题。
连接统计学、机器学习与自动推理的新兴交叉领域——因果科学读书会再起航