从更广角度看,统计物理的基本问题和机器学习中的非监督学习具有天然的联系:统计物理中的玻尔兹曼分布对应于贝叶斯推断的后验概率;最小化自由能原理等价于变分推断;寻找统计物理系统的基态等价于最大似然学习等等。那么一个自然的想法是,可不可以用近年来快速发展的深度学习方法来推动统计物理的核心问题的进展?
近年来,理论物理研究所张潘研究员的课题组致力于探索统计物理与机器学习的交叉领域,并在近期取得重要进展。张潘与合作者中科院物理所王磊研究员以及北京大学本科生吴典,合作提出了一个应用于统计力学问题的计算方法---变分自回归神经网络(Variational Autoregressive Networks)。这个框架拓展了传统意义上的平均场方法,用自回归神经网络构建变分的概率分布,并通过强化学习的方法训练网络,进而可以同时计算系统的自由能上界,测量系统的能量,熵及各种热力学量,并直接无偏地对系统采样。张潘和合作者们将此方法成功地应用于伊辛模型,自旋玻璃以及统计物理反问题中。相关论文发表于Phys. Rev. Lett. 122, 080602,并被选为编辑推荐文章。

此工作得到了中科院前沿重点项目“统计物理平均场理论在统计推断与机器学习中的应用”(项目编号:QYZDB-SSW-SYS032)以及国家自然科学基金委理论物理专款“彭桓武理论物理创新研究中心”的支持。

图1:用于求解统计力学问题的变分自回归神经网络结构图示
原文链接: https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.122.080602
想进一步了解此工作,获得更多详情,可参见论文的开源代码实现https://github.com/wdphy16/stat-mech-van
和Flatiron Institute的Giuseppe Carleo在Journal Club for Condensed Matter Physics为本文撰写的评论文章:https://www.condmatjclub.org/?p=3498。