跳转到内容

神经网络高斯过程

维基百科,自由的百科全书

神经网络高斯过程(英語:neural network Gaussian process,简称NNGP) 是一种特殊的高斯过程,可以看作一类特定人工神经网络序列的极限。具体而言,当多种神经网络架构的宽度趋于无穷时,其函数分布会收敛到一个高斯过程。[1][2][3][4][5][6][7][8]

背景

[编辑]

贝叶斯网络是一种建模工具,它通过为事件分配概,来量化模型预测中的不确定性。深度学习人工神经网络则是机器学习中的主流方法,用于构建能从训练样本中学习的计算模型。贝叶斯神经网络则将二者相融合,是一种参数与预测都具有概率性的神经网络。[9][10]标准的神经网络常会对错误的预测赋予较高的置信度[11],而贝叶斯神经网络能够更准确地评估自身预测正确的可能性。

左图:包含两个隐藏层的贝叶斯神经网络,该网络将三维输入(下)转换为二维输出(上)。右图:网络输出的概率密度函数,由网络的随机权重所决定。视频:随着网络宽度的增加,输出分布变得简单,最终在无限宽度极限下收敛到多元正态分布

人工神经网络的计算可以表示成人工神经元构成的层序列,其中每一层的神经元数量称为层的宽度。当我们考察一个贝叶斯神经网络序列(见图),其所有层的宽度不断增加时,这个序列在函数分布上最终会收敛到一个神经网络高斯过程。这种无限宽度下的极限具有现实意义,因为在实践中更宽的网络通常会有更好的性能。[12][4][13]同时,这一极限也为我们提供了一种评估网络性能的闭式方法。

除了作为贝叶斯神经网络的极限,神经网络高斯过程还出现在其他几种场景下:它描述了一个非贝叶斯宽人工神经网络在参数随机初始化之后、训练之前的输出函数分布;它可以作为神经正切核预测方程中的关键组成部分;它在深度信息传播中用以表征超参数和架构是否可以训练。[14]它还与神经网络的其他大宽度极限有关。

适用范围

[编辑]

关于神经网络与高斯过程的第一个对应关系,最早可以追溯到Radford M. Neal在其1995年博士论文中的结果[15],当时他的导师是多伦多大学教授杰弗里·辛顿。Neal表示他的研究灵感来源于从事贝叶斯学习研究的戴维·J·C·麦凯

如今,这一对应关系已被证明适用于多种架构,如单隐藏层贝叶斯神经网络[15]、层宽趋于无穷时的深度全连接网络[2][3]、通道数趋于无穷时的卷积神经网络[4][5][6]、注意头数量趋于无穷时的Transformer网络[16]、单元数趋于无穷时的循环网络[8]等。事实上,这种对应关系对几乎所有神经网络架构都成立。只要一个架构可以完全由矩阵乘法和逐坐标的非线性运算来表达,那么它就存在一个无限宽度下的高斯过程极限。[8]这一定义涵盖了由多层感知器、循环神经网络(如LSTM和GRU)、(任意维度或图上的)卷积、池化、跳跃连接、注意力、批量归一化及层归一化组成的所有前馈或循环神经网络。

图解说明

[编辑]
当无限宽度网络的参数从其先验分布中采样时,网络输出的最终分布可以由高斯过程描述。

神经网络参数的每一组参数对应于由该网络所计算的特定函数。当我们指定网络参数的先验分布时,也就等同于在网络可能实现的所有函数上确定了一个先验分布。对于许多网络架构而言,当其宽度趋于无穷时,这个函数空间上的分布会收敛到一个高斯过程。

图中直观地展示了这一概念。对于一维输出的神经网络,该图的坐标轴表示网络对两个不同输入的对应输出值。图中的每一个黑点都代表了一次随机采样:先从中随机抽取一组参数,然后再计算两个输入值对应的输出对。而图中的红线则描绘了由得到的输出对的联合概率分布。这是参数空间中对应于函数空间中的分布。在无限宽的神经网络中,由于其函数分布是一个高斯过程,因此对任意有限的一组输入,其输出的联合分布必定是一个多元高斯分布。

讨论

[编辑]

无限宽全连接网络

[编辑]

本节针对全连接网络这一具体架构,讨论无限宽神经网络与高斯过程之间的对应关系。我们将提供了一个证明概要,旨在阐述这一对应关系成立的原因,并给出这一架构下神经网络高斯过程的具体函数形式。此处的证明概要主要遵循了Novak等人提出的方法。[4]

网络架构

[编辑]
全连接贝叶斯神经网络

考虑一个全连接人工神经网络,其中为输入,参数由每一层的权重和偏置组成,则分别表示每一层的预激活值(非线性运算之前)和激活值(非线性运算之后),为逐点作用的非线性函数,为层宽。为简单起见,输出向量的宽度取为 1。假设网络的参数具有先验分布,其中每一个权重和偏置都独立地服从一个各向同性的高斯分布,而权重的方差与层宽成反比。该网络的结构如右图所示,并由以下方程组描述:

高斯过程

[编辑]

首先,我们注意到预激活值可以被描述为一个以激活值为条件的高斯过程。这一结论即便在有限宽度的网络中也成立。每个预激活值是一系列高斯随机变量(权重和偏置)的加权和,而这一求和中每个高斯变量的系数都是之前的激活值。因为是零均值高斯随机变量的加权和,所以其本身也是零均值高斯随机变量。对于任意服从联合高斯分布,因此其可以被定义为以为条件的高斯过程。该高斯过程的协方差(即核函数)取决于权重方差、偏置方差以及激活值的二阶矩矩阵

其中权重方差的作用是缩放来自的贡献,而偏置由于是对所有输入共享的,因此使得更接近常数矩阵,即让不同输入数据点所对应的更相似。

高斯过程

[编辑]

预激活值的依赖仅取决于其二阶矩矩阵。正因如此,我们可以说是一个以为条件的高斯过程,而无需取决于整个激活向量

层宽趋于无穷时的确定性

[编辑]

如前所述,是激活值的二阶矩矩阵。由于是对预激活值应用非线性函数的结果,可以将其替换为,从而将)的定义改写为

前文已证明是一个高斯过程。这意味着,上述定义中的求和项,实现上是个样本的平均,这些样本都是从基于为的高斯过程中采样得到的,即

随着层宽趋于无穷大,这个高斯过程样本的均值会收敛到一个高斯过程上的积分:

因此,在无限宽度极限下,输入对的二阶矩矩阵可以通过一个关于二维高斯分布的积分来计算。对许多常见的激活函数,例如ReLU[17]、ELU、GELU[18]误差函数[1]等,这一积分都存在解析解。即使在没有解析解的情况下,由于它只是一个二维积分,通常也可以通过数值方法高效地计算。[2]由于该积分是确定性的,也是确定性的。

为了方便表示,我们定义一个泛函,它代表了上述积分的计算过程,并将前一层的映射到当前层的

神经网络高斯过程

[编辑]

上节我们得到,是确定性的。递归地应用这一结论,最后一层的可以写成输入层的确定性函数:

其中,表示将连续应用次。同时,输入层的二阶矩矩阵也是输入的确定性函数,加之我们已证明是一个高斯过程,最终我们可以将神经网络的输出表示为输入的高斯过程:

软件库

[编辑]

Neural Tangents是一个由Google开发的免费开源Python库,可以用于计算和推断与各常见神经网络架构相对应的神经网络高斯过程和神经正切核[19]

参考文献

[编辑]
  1. ^ 1.0 1.1 Williams, Christopher K. I. Computing with infinite networks. Neural Information Processing Systems. 1997. 
  2. ^ 2.0 2.1 2.2 Lee, Jaehoon; Bahri, Yasaman; Novak, Roman; Schoenholz, Samuel S.; Pennington, Jeffrey; Sohl-Dickstein, Jascha. Deep Neural Networks as Gaussian Processes. International Conference on Learning Representations. 2017. Bibcode:2017arXiv171100165L. arXiv:1711.00165可免费查阅. 
  3. ^ 3.0 3.1 G. de G. Matthews, Alexander; Rowland, Mark; Hron, Jiri; Turner, Richard E.; Ghahramani, Zoubin. Gaussian Process Behaviour in Wide Deep Neural Networks. International Conference on Learning Representations. 2017. Bibcode:2018arXiv180411271M. arXiv:1804.11271可免费查阅. 
  4. ^ 4.0 4.1 4.2 4.3 Novak, Roman; Xiao, Lechao; Lee, Jaehoon; Bahri, Yasaman; Yang, Greg; Abolafia, Dan; Pennington, Jeffrey; Sohl-Dickstein, Jascha. Bayesian Deep Convolutional Networks with Many Channels are Gaussian Processes. International Conference on Learning Representations. 2018. Bibcode:2018arXiv181005148N. arXiv:1810.05148可免费查阅. Novak, Roman; Xiao, Lechao; Lee, Jaehoon; Bahri, Yasaman; Yang, Greg; Abolafia, Dan; Pennington, Jeffrey; Sohl-Dickstein, Jascha (2018). "Bayesian Deep Convolutional Networks with Many Channels are Gaussian Processes". International Conference on Learning Representations. arXiv:1810.05148. Bibcode:2018arXiv181005148N.
  5. ^ 5.0 5.1 Garriga-Alonso, Adrià; Aitchison, Laurence; Rasmussen, Carl Edward. Deep Convolutional Networks as shallow Gaussian Processes. International Conference on Learning Representations. 2018. Bibcode:2018arXiv180805587G. arXiv:1808.05587可免费查阅. 
  6. ^ 6.0 6.1 Borovykh, Anastasia. A Gaussian Process perspective on Convolutional Neural Networks. 2018. arXiv:1810.10798可免费查阅 [stat.ML]. 
  7. ^ Tsuchida, Russell; Pearce, Tim. Avoiding Kernel Fixed Points: Computing with ELU and GELU Infinite Networks. 2020. arXiv:2002.08517可免费查阅 [cs.LG]. 
  8. ^ 8.0 8.1 8.2 Yang, Greg. Tensor Programs I: Wide Feedforward or Recurrent Neural Networks of Any Architecture are Gaussian Processes (PDF). Advances in Neural Information Processing Systems. 2019. Bibcode:2019arXiv191012478Y. arXiv:1910.12478可免费查阅. 
  9. ^ MacKay, David J. C. A Practical Bayesian Framework for Backpropagation Networks. Neural Computation. 1992, 4 (3): 448–472. ISSN 0899-7667. S2CID 16543854. doi:10.1162/neco.1992.4.3.448. 
  10. ^ Neal, Radford M. Bayesian Learning for Neural Networks. Springer Science and Business Media. 2012. 
  11. ^ Guo, Chuan; Pleiss, Geoff; Sun, Yu; Weinberger, Kilian Q. On calibration of modern neural networks. Proceedings of the 34th International Conference on Machine Learning-Volume 70. 2017. arXiv:1706.04599可免费查阅. 
  12. ^ Novak, Roman; Bahri, Yasaman; Abolafia, Daniel A.; Pennington, Jeffrey; Sohl-Dickstein, Jascha. Sensitivity and Generalization in Neural Networks: an Empirical Study. International Conference on Learning Representations. 2018-02-15. Bibcode:2018arXiv180208760N. arXiv:1802.08760可免费查阅. 
  13. ^ Neyshabur, Behnam; Li, Zhiyuan; Bhojanapalli, Srinadh; LeCun, Yann; Srebro, Nathan. Towards understanding the role of over-parametrization in generalization of neural networks. International Conference on Learning Representations. 2019. Bibcode:2018arXiv180512076N. arXiv:1805.12076可免费查阅. 
  14. ^ Schoenholz, Samuel S.; Gilmer, Justin; Ganguli, Surya; Sohl-Dickstein, Jascha. Deep information propagation. International Conference on Learning Representations. 2016. arXiv:1611.01232可免费查阅. 
  15. ^ 15.0 15.1 Neal, Radford M., Priors for Infinite Networks, Bayesian Learning for Neural Networks, Lecture Notes in Statistics 118, Springer New York: 29–53, 1996, ISBN 978-0-387-94724-2, doi:10.1007/978-1-4612-0745-0_2 
  16. ^ Hron, Jiri; Bahri, Yasaman; Sohl-Dickstein, Jascha; Novak, Roman. Infinite attention: NNGP and NTK for deep attention networks. International Conference on Machine Learning. 2020-06-18, 2020. Bibcode:2020arXiv200610540H. arXiv:2006.10540可免费查阅. 
  17. ^ Cho, Youngmin; Saul, Lawrence K. Kernel Methods for Deep Learning. Neural Information Processing Systems. 2009, 22: 342–350. 
  18. ^ Tsuchida, Russell; Pearce, Tim. Avoiding Kernel Fixed Points: Computing with ELU and GELU Infinite Networks. 2020. arXiv:2002.08517可免费查阅 [cs.LG]. 
  19. ^ Novak, Roman; Xiao, Lechao; Hron, Jiri; Lee, Jaehoon; Alemi, Alexander A.; Sohl-Dickstein, Jascha; Schoenholz, Samuel S., Neural Tangents: Fast and Easy Infinite Neural Networks in Python, International Conference on Learning Representations (ICLR), 2019-12-05, 2020, Bibcode:2019arXiv191202803N, arXiv:1912.02803可免费查阅