前馈神经网络介绍

摘要:
激活函数是一个非线性函数,用于向神经网络模型添加非线性因素,使其能够处理复杂的非线性任务。模型比较:1.基本模型的比较只有一层神经网络模型,这实际上是一个标准的逻辑回归模型。注:sigmoid函数:比较的表达形式如下:逻辑回归:神经网络:可以说,神经网络是由逻辑回归模型连接起来的,这些模型被用作输入和输出。

转自出处:

http://blog.csdn.net/walilk/article/details/50278697

符号说明:

前馈神经网络介绍第1张

以如下图为例:

前馈神经网络介绍第2张

前面的网络结构对应二分类问题

后面的网络结构对应多分类问题

Layer层:

最左边的层为输入层(input layer),对应样本特征

最右边的层为输出层(output layer),对应预测结果

Node:

输入层节点:对应样本的特征输入,每一个节点表示样本的特征向量x中的一个特征变量或特征项

输出层节点:对应样本的预测输出,每个节点表示样本在不同类别下的预测概率

隐藏层节点:对应中间的激活计算,称为隐藏单元,在神经网络中隐藏单元的作用可以理解为对输入层的特征进行变换并将其进行层层转换传递到输出层进行类别预测

偏置单元:

它和线性方程y=wx+b中的b的意义是一致的,在y=wx+b中,b表示函数在y轴上的截距,控制着函数偏离原点的距离,在神经网络中偏置单元起到的是相同的作用。因此神经网络的参数表示为:(W,b),其中W表示参数矩阵,b表示偏置项或截距项

神经网络对偏置单元的处理方式分如下2种:

1、设置偏置单元=1,并在参数矩阵Θ中设置第0列对应偏置单元的参数,对应神经网络如下:

前馈神经网络介绍第3张

其中,x0是对应的偏置单元(设置1),前馈神经网络介绍第4张表示对应偏置单元x0的参数,前馈神经网络介绍第5张表示第二层的偏置单元,前馈神经网络介绍第6张是对应的参数。

 计算激活函数以前馈神经网络介绍第7张为例,按照如下来计算:

前馈神经网络介绍第8张

2、不在参数矩阵中设置偏置单元对应的参数,对应神经网络如下:

前馈神经网络介绍第9张

其中,前馈神经网络介绍第10张前馈神经网络介绍第11张对应的偏置单元向量,前馈神经网络介绍第12张前馈神经网络介绍第13张对应的偏置单元向量,前馈神经网络介绍第14张前馈神经网络介绍第15张所对应的偏置单元,因而激活值可以表示为如下:

前馈神经网络介绍第16张

其表示形式与上一部分原理相同。

激活函数:

 激活单元的计算过程称为激活,指一个神经元读入特征,执行计算并产生输出的过程。

激活函数是非线性函数,用于为神经网络模型加入非线性因素,使其能够处理复杂的非线性任务。一般情况下激活函数有如下几种方式:

(1)sigmoid函数(0~1):

前馈神经网络介绍第17张

(2)tanh函数(-1~1):

前馈神经网络介绍第18张

(3)ReLu函数(前馈神经网络介绍第19张

前馈神经网络介绍第20张

目前ReLu函数在神经网络模型研究及实际应用中较多,因为sigmoid或tanh作为激活函数做无监督学习时,遇到梯度消失问题导致无法收敛,而ReLu可以避免这个问题,此外基于ReLu这种现行激活函数的神经网络计算开销较低。

注:

激活函数额作用可以看作是从原始特征学习出新特征,或是将原始特征从低维空间映射到高维空间。引入激活函数是神经网络具有优异性能的关键所在,多层级联的结构加上激活函数令多层神经网络可以逼近任意函数,从而学习出复杂的假设函数。

假设函数:

如果神经网络采用sigmoid函数作为激活函数,那么其假设函数就与逻辑回归模型一致,也是一个sigmoid函数,可以看作是一个条件概率:P(y=1|x;Θ)

对于神经网络,预测值的计算是一个逐层递进的过程,以神经网络为例:

前馈神经网络介绍第21张

其预测值得计算过程如下:

计算隐藏单元的激活值:

前馈神经网络介绍第22张

计算得到下一层的某节点输出:

前馈神经网络介绍第23张

可以发现,无论网络结构中有多少个隐藏层,在最后计算假设函数的时候,其实是和逻辑回归是一致的,只是逻辑回归直接对样本特征计算,而神经网络中是对隐藏单元的激活值计算。

从计算过程可以发现,神经网络在对样本进行预测时,从输入层开始,层层向前计算激活值,直观上是一种层层向前传播或是层层向前激活的过程,最终计算出前馈神经网络介绍第24张,这个过程称为前向传播。

注:

神经网络计算输出的过程称为前向传播,无论多复杂的神经网络,在前向传播过程中也是在不断的计算激活函数,从输入层一直计算到输出层,最后得到样本的预测标签。

模型对比:

1、基础模型对比

只具有一层(一个输入层)的神经网络模型,其实就是标准的逻辑回归模型(逻辑回归就是激活函数是sigmoid的单层简单神经网络)

注:sigmoid函数的表示形式:

前馈神经网络介绍第25张

对比如下:

逻辑回归:

前馈神经网络介绍第26张

神经网络:

前馈神经网络介绍第27张

可以说,神经网络就是由一个个逻辑回归模型连接而成,它们彼此作为输入和输出。

2、多分类模型对比

在逻辑回归中,决策边界(用于对原始数据进行划分)由前馈神经网络介绍第28张决定,随着参数项的增加,逻辑回归可以在原始特征空间学习出一个非常复杂的非线性决策边界(也就是一个复杂非线性方程);

在神经网络中,决策边界由前馈神经网络介绍第29张决定(这只是一个象征性表达式,Θ表示所有权重矩阵,x表示特征加上所有隐藏单元),神经网络并未直接在原始特征空间学习决策边界,而是将分类问题映射到新的特征空间,通过新特征空间学习决策边界,来解决原始特征空间的分类问题。

3、性能对比

在决策边界对比部分可以发现,逻辑回归和神经网络都可以学习复杂非线性边界,那么神经网络的相对优势在于:

如果给定基础特征的数量为100,在利用逻辑回归解决复杂分类问题时会遇到特征项爆炸增长,导致过拟合及运算量过大问题。

例:

在n=100情况下构建二次项特征变量,最终有5050个二次项,随着特征个数n的增加,二次项的个数大约以n^2的量级增长,其中n是原始项的个数,二次项的个数大约为(n^2)/2个

这种无法再一开始就进行优化,因为难确定哪一个高次项是有用的,因此必须找到所有的二次项进行训练,在训练后通过不同权重来判别

对于神经网络来说可以通过隐层数量和隐藏层单元数量来控制函数的复杂程度,并在计算时只计算一次项特征变量,本质上来说神经网络是通过这样一个网络结构隐含的找到了所需要的高次特征项,来简化计算。

 现有常用的神经网络模型:

深度神经网络:从某种程度来说就是以前n-1层对训练样本进行特征提取,最后一层进入全连接层得到最终结果。

免责声明:文章转载自《前馈神经网络介绍》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇电子科技大学《图论及其应用》复习(史上最全汇总)Django不允许单用户多浏览器同时登录下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

003 机器学习中的基础知识

有些知识还是记录下来比较容易复习。 懂原理, 会使用平台,使用语言实现常见算法。 1.大纲 机器学习的基本概念 机器学习的实质 机器学习方法的三要素 经验风险与结构风险 常见损失函数 一:基本概念 1.机器学习的方法流程 用监督学习为例 首先,有一个输入数据,然后根据这个输入数据做一些特征的加工和整理,基于特征进行模型的训练,去建模,然后做模型评估,得到...

《【GraphTER】通过逐点变换实现无监督图神经网络共变特征学习》

【GraphTER】通过逐点变换实现无监督图神经网络共变特征学习 齐国君 MAPLE(maple-lab.net)实验室 已关注 王晋东不在家 等21 人赞同了该文章 GraphTER: Unsupervised Learning of Graph Transformation Equivariant Representations...

机器学习之线性回归---logistic回归---softmax回归

在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签 可以取两个以上的值。 Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字。Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合。(译者注: MNIST...

使用Keras进行深度学习:(二)CNN讲解及实践

欢迎大家关注我们的网站和系列教程:http://www.tensorflownews.com/,学习更多的机器学习、深度学习的知识! 现今最主流的处理图像数据的技术当属深度神经网络了,尤其是卷积神经网络CNN尤为出名。本文将通过讲解CNN的介绍以及使用keras搭建CNN常用模型LeNet-5实现对MNist数据集分类,从而使得读者更好的理解CNN。 1....

最小二乘法小结

最小二乘法是用来做函数拟合或者求函数极值的方法。在机器学习,尤其是回归模型中,经常可以看到最小二乘法的身影,这里就对我对最小二乘法的认知做一个小结。 1.最小二乘法的原理与要解决的问题  最小二乘法是由勒让德在19世纪发现的,原理的一般形式很简单,当然发现的过程是非常艰难的。形式如下式: 目标函数 =Σ(观测值-理论值)2 观测值就是我们的多组样本,理论值...

超详细介绍 图像处理(卷积)(转)

图像处理(卷积)作者太棒了    原文   http://blog.sina.com.cn/s/blog_4bdb170b01019atv.html 图像处理-线性滤波-1 基础(相关算子、卷积算子、边缘效应) 这里讨论利用输入图像中像素的小邻域来产生输出图像的方法,在信号处理中这种方法称为滤波(filtering)。其中,最常用的是线性滤波:输出...