联系我们

AI 101.

什么是背部化?

mm

更新

 on

什么是背部化?

深度学习系统能够学习极其复杂的模式,并且通过调整其权重来实现这一点。深度神经网络的权重确切地调整了吗?他们通过了一个过程backpropagation.。没有背部化,深度神经网络将无法执行识别图像和解释自然语言等任务。了解BackProjagation Works如何对理解深度神经网络一般来说至关重要,因此让我们进入BackProjagation,并了解该过程如何调整网络的权重。

BackPropagation可能难以理解,并且用于进行反向化的计算可能非常复杂。本文将努力为您提供直观的深度理解,使用很少的复杂数学方式。但是,有必要讨论背部后代的数学讨论。

反向化的目标

让我们首先定义BackProjagation的目标。深度神经网络的重量是神经网络单元之间的连接强度。当神经网络是建立的假设时,涉及如何将一层中的单元连接到与其连接的层。随着数据通过神经网络移动,计算权重,并进行假设。当数据达到网络的最终层时,关于特征如何与数据集中的类相关的预测。预测值与实际值之间的差异是丢失/错误,以及BackProjagation的目标是降低损失。这是通过调整网络的权重来完成的,使假设更像是输入特征之间的真实关系。

培训深度神经网络

在backpropagation之前可以完成神经网络,必须进行神经网络的常规/前进培训通行证。当创建神经网络时,初始化一组权重。随着网络训练,权重的值将被改变。神经网络的前向训练通过作为三个离散步骤:神经元激活,神经元转移和正向繁殖。

在培训深度神经网络时,我们需要利用多种数学函数。深度神经网络中的神经元由传入数据和激活函数组成,它确定激活节点所需的值。用若干组件计算神经元的激活值,是输入的加权和。权重和输入值取决于用于计算激活的节点的索引。计算激活值时必须考虑另一个数字,偏置值。偏差值不会波动,因此它们不会乘以权重和输入,它们刚刚添加。所有这一切都意味着可以使用以下等式来计算激活值:

激活= SUM(重量*输入)+偏置

在激活神经元后,使用激活函数来确定神经元的实际输出的输出。不同的激活功能对于不同的学习任务是最佳的,但常用的激活功能包括SIGMOID函数,TanH函数和Relu功能。

一旦通过所需的激活函数运行激活值来计算神经元的输出,就完成正向传播。前向传播刚刚采用一层的输出并使它们成为下一层的输入。然后使用新输入来计算新的激活功能,并且此操作的输出传递到以下图层。该过程一直到神经网络的末端。

网络中的BackProjagation

BackProjagation的过程采用模型培训通行证的最终决定,然后它决定了这些决策中的错误。通过对比网络的输出/决定和网络的预期/期望输出来计算错误。

一旦计算了网络的决定中的错误,就通过网络逆向处理该信息,并且网络的参数沿途更改。用于更新网络权重的方法基于微积分,具体地,它基于链条规则。然而,对考虑的理解是没有必要理解背后的思想。只要知道,当从神经元提供输出值时,输出值的斜率由传递函数计算,产生导出的输出。在做反向验证时,根据以下内容计算特定神经元的错误公式:

ERROR =(预期_输出–实际_输出)*神经元输出值的斜率

在输出层中的神经元上操作时,类值用作预期值。在计算错误之后,将错误用作隐藏层中神经元的输入,这意味着该隐藏层的错误是输出层内发现的神经元的加权误差。误差计算沿着权重网络向后行驶。

在计算了网络错误之后,必须更新网络中的权重。如上所述,计算误差涉及确定输出值的斜率。在计算斜率之后,一种称为梯度下降可用于调整网络中的权重。梯度是斜率,其角度/陡度可以测量。通过绘制“y过度”或“run”来计算斜坡。在神经网络和错误率的情况下,“Y”是计算错误,而“X”是网络的参数。网络的参数与计算出的错误值具有关系,并且随着网络的权重调整错误,误差会增加或减少。

“梯度下降”是更新权重的过程,使得错误率降低。 BackPropagation用于预测神经网络参数与错误率之间的关系,其设置用于梯度下降的网络。培训具有梯度下降的网络,涉及通过正向传播计算权重,反向衰减误差,然后更新网络的权重。

Blogger和Programmer有专业的机器学习深度学习话题。丹尼尔希望帮助别人利用AI的力量来社交。