正则化

    幸好,哪怕使用固定的网络和固定的训练数据,我们还有别的方法来避免过拟合。这就是所谓的正则化(regularization)技术。在这一节我将描述一种最常用的正则化技术——权重衰减(weight decay)或叫 L2 正则(L2 regularization)。L2 正则的思想是,在代价函数中加入一个额外的正则化项。这是正则化之后的交叉熵:

    第一项是常规的交叉熵表达式。但我们加入了第二项,也就是网络中所有权值的平方和。它由参数 进行调整,其中 被称为正则化参数(regularization parameter), 是我们训练集的大小。我稍后会讨论应该如何选择 。另外请注意正则化项包括偏置。我稍后也会提到这点。

    当然,我们也可以对其它的代价函数进行正则化,例如平方代价。正则化的方法与上面类似:

    在两种情况中,我们都能把正则化的代价函数写成:

    其中 是原本的、没有正则化的代价函数。

    直观来说,正则化的作用是让网络偏好学习更小的权值,而在其它的方面保持不变。选择较大的权值只有一种情况,那就是它们能显著地改进代价函数的第一部分。换句话说,正则化可以视作一种能够折中考虑小权值和最小化原来代价函数的方法。两个要素的相对重要性由 的值决定:当 较小时,我们偏好最小化原本的代价函数,而 较大时我们偏好更小的权值。

    为什么这种折中能够减少过拟合,其中的原因也太不明显了!但事实是它的确能够减少过拟合。我们将在下一部分阐述为何这样的折中能够减少过拟合。先让我们通过一个例子展示正则化确实能够减小过拟合。

    为了构建这样一个例子,我们首先要解决如何把随机梯度下降学习算法应用于正则化的神经网络中。我们尤其需要知道如何对网络中所有的权值和偏置计算偏导数 和。对等式(87)求偏导可得:

    而对于权值的学习规则变为:

    其它部分与常规的梯度下降学习规则完全一样,不一样的地方是我们以 调整权值 。这种调整有时也被称作权重衰减(weight decay),因为它减小了权重。一眼看去权值将被不停地减小直到为 0。但实际上并不是这样的,因为如果可以减小未正则化的代价函数的话,式中的另外一项可能会让权值增加。

    好的,这就是梯度下降实现的方法。那么随机梯度下降呢?和未正则化的随机梯度下降一样,我们首先在包含 个训练样例的 mini-batch 数据中进行平均以估计 的值。因此对于随机梯度下降法而言正则化的学习方法就变成了(参考等式 (20)):

    其中的求和是对 mini-batch 中的所有训练样例进行的, 是每个样例对应的未正则化的代价。这与通常的随机梯度下降方法一致,除了权重衰减变量 。最后,为了表述完整,我要说明对于偏置的正则化学习规则。毫无疑问,那就是与未正则化的情况(如等式 (21))完全一样,

    其中的求和是对 mini-batch 中的所有训练样例 进行的。

    让我们看看正则化如何改变了我们的神经网络的表现。我们将使用一个神经网络来进行验证,其包含 个隐藏神经元,mini-batch 大小为 ,学习率为 ,并以交叉熵作为代价函数。然而,这次我们设置正则化参数 。注意在代码中,我们使用变量名 ,因为 lambda 是 Python 的保留字,其含义与此无关。我也再次使用了 而非 validation_data。严格来说,我们应该使用 ,详细原因我们在此前已经解释过。不过我决定用 test_data 因为它能让结果与我们此前未正则化的结果进行更直观的比较。对代码稍作改动你即可使用 ,并且你将发现得到的结果很相似。

    代价函数一直都在下降,几乎与此前在未正则化的情形一样

    但这次它在 test_data 上的准确率在 400 次迭代中保持提升: 正则化  - 图1

    如果我们从仅有 张训练图片迁移到有着 张图片的环境,结果又会怎么样呢?当然,我们已经看到过拟合对于 张图片来说不再是个大问题了。那么正则化能在这上面提供更多帮助吗?让我们把超参数保持跟以前的一样: 次迭代,学习率为 ,mini-batch 数目为 。然而,我们需要调整正则化参数。原因是,训练数据集的大小已经从 变成了 ,而这就改变了权重衰减因数 。如果我们继续使用 那么权重衰减将会大大减小,而正则化的效果也会相应减弱。我们调整 以进行补偿。好的,让我们训练我们的网络,并在此之前重新初始化权值:

    我们得到结果如图:

    这里有很多好消息。首先,我们在测试数据上的分类准确率提升了,从未正则化时的百分之 到百分之 。这是一个重大的提升。第二,我们能看到训练数据的结果与测试数据的之间的间隙相比之前也大大缩小了,在一个百分点之下。虽然这仍然是一个明显的间隙,但我们显然已经在减弱过拟合上做出了大量的提升。

    最后,让我们看看当我们使用 个隐藏神经元并设置 时测试分类准确率。我将不会对这里的过拟合进行详细的分析,这只是纯粹为了有趣,只为了看看我们使用新的技巧——交叉熵代价函数和L2 正则化——能让我们得到多高的准确率。

    最终结果是,分类准确率在验证数据上达到了 。相对于 个隐藏神经元的情形,这是一个飞跃。事实上,只要再训练更多些,保持 和 ,增加到 次迭代,我们能够突破百分之 的壁垒,在验证数据上达到百分之 的准确率。对于这 152 行代码来说是不错的结果了!

    我已经描述了正则化作为一种减弱过拟合并提升分类准确率的方法。事实上,这并不是它唯一的好处。经验表明,当在多次运行我们的 MNIST 网络,并使用不同的(随机)权值初始化时,我发现未正则化的那些偶尔会被「卡住」,似乎陷入了代价函数的局部最优中。结果就是每次运行可能产生相当不同的结果。相反,正则化的那些的每次运行可以提供更容易复现的结果。

    为什么会这样呢?启发式地来说,如果代价函数没有正则化,那么权重向量的长度倾向于增长,而其它的都不变。随着时间推移,权重向量将会变得非常大。这可能导致权重向量被限制得或多或少指向同一个方向,因为当长度过长时,梯度下降只能带来很小的变化。我相信这一现象令我们的学习算法难于恰当地探索权重空间,因而难以给代价函数找到一个好的极小值。

    1 这张图和下两张图的结果是由程序 产生的。