导语
统计物理方法是一座架起微观作用到宏观涌现的桥梁,2021年诺贝尔物理学奖得主帕里西在无序系统方面作出开创之举,他提出复本对称破缺方法解决自旋玻璃问题,这一方法也对神经网络等交叉学科产生深厚影响,激发学者对人工智能和人脑等复杂系统的进一步研究。由中山大学黄海平教授组织的【神经网络的统计力学】系列课程,系统性梳理统计力学的基本原理及其在理解神经网络内部工作原理的应用,自2022年9月持续到2023年6月,周六授课。课程视频将在集智学园网站同步,购课回看录播请扫二维码或下拉至文末报名。
在上周六的第16讲中,重点介绍了两类非常经典的生成模型——玻尔兹曼机和受限制玻尔兹曼机,并讲解了如何对其进行物理解析以及部分算法设计的内容。3月18日(周六)10:00-12:00 将进行系列课程的第17讲,继续上节主题,重点介绍利用受限制玻尔兹曼机解析的自由能设计算法,分别应用于连续权重受限制玻尔兹曼机的空腔算法,以及应用于离散权重受限制玻尔兹曼机的变分平均场算法,并由小组汇报深度学习的Parisi解。本节课程会在集智学园视频号和B站直播,预约及付费报名方式见下文。
课程简介
课程简介
本节课程大纲
本节课程大纲
1. 玻尔兹曼机
2. 受限制玻尔兹曼机
3. 受限制玻尔兹曼机的自由能计算
4. 算法1:基于空腔方法的玻尔兹曼学习
5. 算法2:变分平均场算法
6. 小组汇报:深度学习的Parisi解
负责人介绍
负责人介绍
黄海平,中山大学物理学院教授。本科毕业于中山大学理工学院,博士毕业于中国科学院理论物理研究所,随后在香港科技大学物理系、东京工业大学计算智能系 (2012年获日本学术振兴会资助) 以及日本理化学研究所 (RIKEN) 脑科学中心从事统计物理与机器学习、 神经计算交叉的基础理论研究,2017年因在无监督学习方面的研究获得 RIKEN 杰出研究奖。于2018年入选中山大学百人计划,在物理学院组建了“物理、机器与智能” (PMI)研究小组,专注于各种神经计算的理论基础,长期目标是使用基于物理的近似来揭示机器及大脑智能的基本原理。曾主持国家自然科学基金两项。
直播信息
直播信息
集智学园视频号预约
集智学园 B 站免费直播,房间号 https://live.bilibili.com/6782735
参与方式二:付费加入课程,查看课程回放
付费后,可参与集智学园平台直播并加入交流群获得视频回放权限。欢迎对统计力学的基本原理感兴趣的你,加入【神经网络的统计力学】课程!
课程定价:499元
课程时间:从2023年2月18日起,每周六 10:00-12:00(节假日除外)
扫码付费报名课程
https://campus.swarma.org/course/4543
付费流程:
第一步:扫码付费
第二步:在课程详情页面,填写“学员信息登记表”
第三步:扫码添加助教微信,入群
神经网络的统计力学
每周更新,持续报名中
本学期内容介绍
系列课程大纲
2.1 Multi-spin Interaction Models 2.2 Cavity Method 2.3 From Cavity Method to Message Passing Algorithms
3.1 Variational Method 3.2 Variational Free Energy 3.3 Mean-Field Inverse Ising Problem
4.1 Monte Carlo Method 4.2 Importance Sampling 4.3 Markov Chain Sampling 4.4 Monte Carlo Simulations in Statistical Physics
5.1 Statistical Physics Setting 5.2 High-Temperature Expansion 5.3 Properties of the TAP Equation
6.1 Model Setting 6.2 Exact Result for Internal Energy 6.3 Proof of No RSB Effects on the Nishimori Line
7.1 Model Setting 7.2 Phase Diagram
8.1 Hopfield Model 8.2 Replica Method 8.3 Phase Diagram 8.4 Hopfield Model with Arbitrary Hebbian Length
9.1 Generalized Free Energy and Complexity of States 9.2 Applications to Constraint Satisfaction Problems 9.3 More Steps of Replica Symmetry Breaking
10.1 Boltzmann Machine 10.2 Restricted Boltzmann Machine 10.3 Free Energy Calculation 10.4 Thermodynamic Quantities Related to Learning 10.5 Stability Analysis 10.6 Variational Mean-Field Theory for Training Binary RBMs
11.1 Model Setting 11.2 Derivation of sMP and AMP Equations 11.3 Replica Computation 11.4 Phase Transitions 11.5 Measuring the Temperature of Dataset
12.1 Model Setting 12.2 Phase Diagram 12.3 Hyper-Parameters Inference
13.1 Ising Perceptron model 13.2 Message-Passing-Based Learning 13.3 Replica Analysis
14.1 Random Active Path Model 14.2 Mean-Field Training Algorithms 14.3 Spike and Slab Model
15.1 Mean-Field Model 15.2 Linear Dimensionality and Correlation Strength 15.3 Dimension Reduction with Correlated Synapses
16.1 Spiking and Rate Models 16.2 Dynamical Mean-Field Theory 16.3 Lyapunov Exponent and Chaos 16.4 Excitation-Inhibition Balance Theory 16.5 Training Recurrent Neural Networks
17.1 Spectral Density 17.2 Replica Method and Semi-circle Law 17.3 Cavity Approach and Marchenko 17.4 Spectral Densities of Random Asymmetric Matrices
报名加入课程
扫码付费报名课程