标签 神经网络特性 下的文章

深度神经网络对自然数据泛化上的成功与经典的模型复杂性概念不一致,且实验表明可拟合任意随机数据。论文On the Spectral Bias of Neural Networks通过傅立叶分析,研究深度神经网络的表达性,发现深度神经网络倾向于学习低频函数,也即是函数全局的变化无局部浮动。该特性与过参数化网络优先学习简单模式而泛化性强的特点一致。这种现象被称为场域偏差,不仅仅表现在学习过程,也表现在模型的参数化。

- 阅读剩余部分 -

深度学习的信息瓶颈理论,表明:

  • 深度神经网络经历两个显著阶段,分别是初始拟合阶段和随后的压缩阶段。
  • 压缩阶段与神经网络的泛化性之间有直接的因果关系。
  • 由于随机梯度下降的类似扩散行为,往往导致压缩阶段的产生。

然而,根据On the Information Bottleneck Theory of Deep Learning,可知,在通常情况下这些声明是不存在的。

- 阅读剩余部分 -