欠拟合、过拟合及解决方法

摘要:
1、 拟合不足首先,拟合不足意味着模型没有很好地捕捉数据特征,无法很好地拟合数据,如以下示例所示:左图表示大小和价格关系的数据,中间的图是拟合不足的模型,无法很拟合数据。如果在中间的多项式上添加二项式,则可以很好地拟合数据,如右图所示。

一、欠拟合

    首先欠拟合就是模型没有很好的捕捉到数据特征,不能够很好的拟合数据,如下面的例子:

欠拟合、过拟合及解决方法第1张

        左图表示size和prize关系的数据,中间的图就是出现欠拟合的的模型,不能够很好的拟合数据,如果在中间的多项式上再加一个二项式,就可以很好的拟合数据了,如右图所示。

        解决方法:

1、添加其它的特征项,有时候模型欠拟合是数据的特征项不够造成的,可以添加其它的特征项来很好的解决,例如"组合","范化",”相关性“三类特征是特征添加的重要手段,无论在什么场合,都可以照葫芦画瓢,总会得到满意的效果。除上面的特征外,“上下文特征”、“平台特征”等等,都 可以作为特征添加的首选项。

2、添加多项式特征,这个在机器学习算法里用的很普遍,例如上面的例子,将线性模型加入二次项或者三次项使模型范化能力更强

3、减少正则化参数,正则化的目的是用来防止过拟合的,但是现在模型出现了欠拟合,则需要减少正则化参数

 

二、过拟合

       通俗一点来说是模型把数据学习的太彻底,以至于把数据中的噪声特征也学到了,这样就会导致后期测试的时候不能很好的识别数据,即不能正确的分类数据,模型泛化能力太差,例如下面的例子:

欠拟合、过拟合及解决方法第2张

上图左边表示size和prize的关系,我们学习到的模型曲线如右图所示,虽然在训练的时候很好的匹配数据,但是很显然扭曲了曲线,不是真实的size和prize曲线。

解决方法:

      1、重新清洗数据,导致过拟合的一个原因也有可能是数据不纯导致的,如果出现了过拟合就需要我们重新清洗数据。

      2、增大数据的训练量,还有一个原因就是我们用于训练的数据量太小导致的,训练数据占总数据的比例过小

      3、采用正则化方法。正则化方法包括L0正则,L1正则和L2正则,而正则一般是在目标函数之后加上对于的范数,但是在机器学习中一般用L2正则

      4、采用dropout方法。这个方法在神经网络中很常用。dropout方法是imageNet中提出的一种方法,通俗一点讲就是dropout方法在训练时让神经元以一定概率的不工作,具体看下图:

   欠拟合、过拟合及解决方法第3张

如上图所示,左图(a)是没有使用dropout方法的标准神经网络,右边(b)图是在训练时使用了dropout方法的神经网络,即在训练的时候以一定的概率p来跳过一定的神经元

 

免责声明:文章转载自《欠拟合、过拟合及解决方法》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇h5 下ios适配底部小黑条,简单解决方案,只需一步jQ效果:jQuery和css自定义video播放控件下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

L1与L2正则化

1.正则化 正则化的主要作用是防止过拟合,对模型添加正则化项可以限制模型的复杂度,使得模型在复杂度和性能达到*衡。 常用的正则化方法有L1正则化和L2正则化。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。 L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归。但是使用正则...

YOLO v4分析

YOLO v4分析 YOLO v4 的作者共有三位:Alexey Bochkovskiy、Chien-Yao Wang 和 Hong-Yuan Mark Liao。其中一作 Alexey Bochkovskiy 是位俄罗斯开发者,此前曾做出 YOLO 的 windows 版本。那么,YOLOv4 性能如何呢? 在实际研究中,有很多特性可以提高卷积神经网络(...

机器学习——正则化与交叉验证

0正则化 模型选择的典型方法是正则化。正则化是结构风险最小化策略的实现,是在经验风险上加一个正则化项或惩罚项。正则化一般是模型复杂度的单调递增函数,模型越越复杂,正则化的值就越大,比如,正则化项可以是模型参数向量的范数: 其中,第1项是经验风险,第二项是正则化项,a>=0为调整两者之间的关系函数。 正则化项可以取不同的形式。例如,回归问题中,损失函...

python机器学习sklearn 岭回归(Ridge、RidgeCV)

  1、介绍     Ridge 回归通过对系数的大小施加惩罚来解决 普通最小二乘法 的一些问题。 岭系数最小化的是带罚项的残差平方和,          其中,α≥0α≥0 是控制系数收缩量的复杂性参数: αα 的值越大,收缩量越大,这样系数对共线性的鲁棒性也更强。        2、参数         alpha:{float,array-like}...

BN层

论文名字:Batch Normalization: Accelerating Deep Network Training by  Reducing Internal Covariate Shift 论文地址:https://arxiv.org/abs/1502.03167 BN被广泛应用于深度学习的各个地方,由于在实习过程中需要修改网络,修改的网络在训练过...

机器学习实战之树回归

一,引言   尽管线性回归包含了一些强大的方法,但这些方法创建的模型需要拟合所有的样本数据。当数据拥有众多特征并且特征之间的关系比较复杂时,构建全局线性模型就会非常困难。并且,在实际生活中很多问题都是非线性的,很难通过全局线性模型来拟合所有数据。   解决上述非线性数据的拟合问题的一个可行的方法是,将数据集切分成很多份容易建模的数据,然后再利用线性回归方法...