联系我们

AI 101.

什么是过度装备?

mm

更新

 on

什么是过度装备?

当您培训神经网络时,您必须避免过度装备。过度装满是一个问题机器学习和统计数据,其中模型的训练数据集的模式良好,完美地解释了训练数据集,而是未能将其预测电力概括为其他数据集。

为了将另一种方式放在过度装备模型的情况下,它通常会在训练数据集中展示极高的准确性,但在未来收集的数据的准确性很低。这是一个快速的过度定义,但让我们更详细地走过来的概念。让我们来看看如何发生过度充分以及如何避免。

了解“适合”和过度装备

在我们深深地深入了解过度装备之前,看看底下的概念可能会有所帮助“合身“ 一般来说。当我们训练模型时,我们正在尝试根据描述这些项目的功能,开发能够预测数据集中的物品的性质或类的框架。模型应该能够在数据集中解释模式,并基于此模式预测未来数据点的类。模型越好地解释了培训集的特征之间的关系,我们的模型就越“适合”。

Blue line represents predictions by a model that is underfitting, while the green line represents a better fit model. Photo: Pep Roca via Wikimedia Commons, CC BY SA 3.0, (//commons.wikimedia.org/wiki/File:Reg_ls_curvil%C3%ADnia.svg)

一种模型,令人难以解释训练数据的特征与因此无法准确分类未来数据示例之间的关系施工培训数据。如果您要将底层模型的预测关系与特征和标签的实际交叉进行图表,预测将转向标记。如果我们有一个标有训练集的实际值的图表,则一个严重的良好的模型将大大错过大多数数据点。具有更好拟合的模型可能会通过数据点的中心切割路径,只有一点,单个数据点仅关闭预测值。

当数据不足以创建准确的模型时,或者在尝试使用非线性数据设计线性模型时,通常可以发生底部。更多培训数据或更多功能通常会有助于减少底层。

那么为什么我们刚刚创建一个模型,它完全解释了培训数据中的每一部分?肯定是完美的准确性是可取的吗?创建一个模型,它已经吸收了培训数据的模式,这是导致过度装备的原因。训练数据集和其他,您通过模型运行的未来数据集不会完全相同。它们在许多方面可能非常相似,但它们也将在关键方面不同。因此,设计一个模型,该模型解释了训练数据集意味着您最终结束了关于与其他数据集不完全概括的功能之间的关系的理论。

了解过度装备

当模型在训练数据集中的详细信息良好时,会发生过度装备,导致模型在外部数据上进行预测时受到影响。当模型不仅了解数据集的功能时,可能会出现这种情况,它还学会随机波动或 噪音在DataSet中,对这些随机/不重要的发生重视。

使用非线性模型时更有可能发生过度装箱,因为在学习数据功能时它们更灵活。非参数学习算法通常具有各种参数和技术,可以应用于限制模型对数据的敏感性,从而减少过度装备。举个例子,决策树模型对过度装备非常敏感,但是一种称为修剪的技术可用于随机删除模型已经学习的一些细节。

如果您要在X和Y轴上绘制模型的预测,则您将重新曲折来回预测,这反映了模型尝试太难以将数据集中的所有点符合它的解释。

控制过度拟合

当我们训练模型时,我们理想地希望模型没有错误。当模型的性能融合到训练数据集中所有数据点的正确预测时,拟合变得越来越好。具有良好合适的模型能够解释几乎所有培训数据集,而不会过度装箱。

由于模型列举其性能随着时间的推移而改善。由于训练时间通过,模型的错误率将减少,但它只减少到某个点。模型在测试集上的性能的点再次开始上升通常是发生过度的点。为了获得最适合模型,我们希望在训练集的最低损失点停止培训模型,在错误再次升高之前。通过在整个训练时间内绘制模型的性能并在损耗最低时停止训练来确定最佳停止点。然而,这种控制过度装备方法的一个风险是根据测试性能指定训练的端点意味着测试数据变得有些包含在训练过程中,并且它将其状态失去其状态纯粹是“未触及”数据。

有几种不同的方式可以打击过度装备。减少过度装箱的一种方法是使用重采样策略,该策略通过估计模型的精度来操作。你也可以使用一个验证除了测试集之外,数据集还可以针对验证集而不是测试数据集绘制训练精度。这使您的测试数据集无奈。一种流行的重采样方法是K折叠交叉验证。该技术使您能够将数据划分为培训模型的子集,然后分析模型对子集上的性能,以估计模型将如何在外部数据上执行。

利用交叉验证是估计模型对看不见数据的准确性的最佳方法之一,并且当与验证数据集过度相结合时,通常可以保持最小。

Blogger和Programmer有专业的机器学习深度学习话题。丹尼尔希望帮助别人利用AI的力量来社交。