完整的神经网络讲解.docx

上传人:王** 文档编号:789161 上传时间:2024-01-14 格式:DOCX 页数:17 大小:155.28KB
下载 相关 举报
完整的神经网络讲解.docx_第1页
第1页 / 共17页
完整的神经网络讲解.docx_第2页
第2页 / 共17页
完整的神经网络讲解.docx_第3页
第3页 / 共17页
完整的神经网络讲解.docx_第4页
第4页 / 共17页
完整的神经网络讲解.docx_第5页
第5页 / 共17页
完整的神经网络讲解.docx_第6页
第6页 / 共17页
完整的神经网络讲解.docx_第7页
第7页 / 共17页
完整的神经网络讲解.docx_第8页
第8页 / 共17页
完整的神经网络讲解.docx_第9页
第9页 / 共17页
完整的神经网络讲解.docx_第10页
第10页 / 共17页
亲,该文档总共17页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《完整的神经网络讲解.docx》由会员分享,可在线阅读,更多相关《完整的神经网络讲解.docx(17页珍藏版)》请在优知文库上搜索。

1、学习是神经网络一种最重要也最令人注目的特点。在神经网络的开展进程中,学习算法的研究有着十分重要的地位。目前,人们所提出的神经网络模型都是和学习算法相应的。所以,有时人们并不去祈求对模型和算法进行严格的定义或区分。有的模型可以有多种算法.而有的算法可能可用于多种模型。不过,有时人们也称算法为模型。自从40年代Hebb提出的学习规那么以来,人们相继提出了各种各样的学习算法。其中以在1986年RUmelhart等提出的误差反向传播法,即BP(erorBackPropagation)法影响最为广泛。直到今天,BP算法仍然是自动控制上最重要、应用最多的有效算法。1.2.1神经网络的学习机理和机构在神经网

2、络中,对外部环境提供的模式样本进行学习训练,并能存储这种模式,那么称为感知器;对外部环境有适应能力,能自动提取外部环境变化特征,那么称为认知器。神经网络在学习中,一般分为有教师和无教师学习两种。感知器采用有教师信号进行学习,而认知器那么采用无教师信号学习的。在主要神经网络如BP网络,HOPfield网络,ART网络和Kohorlerl网络中:BP网络和Hopfield网络是需要教师信号才能进行学习的;而ART网络和KOhonen网络那么无需教师信号就可以学习。所谓教师信号,就是在神经网络学习中由外部提供的模式样本信号。一、感知器的学习结构感知器的学习是神经网络最典型的学习。目前,在控制上应用的

3、是多层前馈网络,这是一种感知器模型,学习算法是BP法,故是有教师学习算法。一个有教师的学习系统可以用图1一7表示。这种学习系统分成三个局部:输入部,训练部和输出部。训练部教师信号(期望输出信号)图1-7神经网络学习系统框图输入部接收外来的输入样本X,由训练部进行网络的权系数W调整,然后由输出部输出结果。在这个过程中,期望的输出信号可以作为教师信号输入,由该教师信号与实际输出进行比拟,产生的误差去控制修改权系数Wo学习机构可用图18所示的结构表示。在图中,Xl,X2,.,Xn,是输入样本信号,Wi,W2,,Wn是权系数。输入样本信号Xi可以取离散值0或1。输入样本信号通过权系数作用,在U产生输出

4、结果WiXi,即有:U=WiXi=WiXi+W2X2+.+WnXn再把期望输出信号Y(t)和U进行比拟,从而产生误差信号e。即权值调整机构根据误差e去对学习系统的权系数进行修改,修改方向应使误差e变小,不断进行下去,使到误差e为零,这时实际输出值u和期望输出值Y完全一样,那么学习过程结束。期望输出y(t)图1-8学习机构神经网络的学习一般需要屡次重复训练,使误差值逐渐向零趋近,最后到达零。那么这时才会使输出与期望一致。故而神经网络的学习是消耗一定时期的,有的学习过程要重复很屡次,甚至达万次级。原因在于神经网络的权系数W有很多分量Wi,W2,-Wn:也即是一个多参数修改系统。系统的参数的调整就必

5、定耗时耗量。目前,提高神经网络的学习速度,减少学习重复次数是十分重要的研究课题,也是实时控制中的关键问题。二、感知器的学习算法感知器是有单层计算单元的神经网络,由线性元件及阀值元件组成。感知器如图1-9所示。图1-9感知器结构感知器的数学模型:Y=ItXWKi-8i=1(1-12)其中:HJ是阶跃函数,并且有rl,u=WiXi-Ofu=,(1-13)一1,u=WiXi-0O;二1是阀值。Y=感知器的最大作用就是可以对输入的样本分类,故它可作分类器,感知器对输入信号的分类如下:(1-14)即是,当感知器的输出为1时,输入样本称为A类;输出为时,输入样本称为B类。从上可知感知器的分类边界是:WiX

6、i-=O(1-15)5三1在输入样本只有两个分量X1,X2时,那么有分类边界条件:WiXi-=O(116)即WiXi+W2X2-=0(1-17)也可写成这时的分类情况如固1一10所示。感知器的学习算法目的在于找寻恰当的权系数W=(WLw2,.,Wn),使系统对一个特定的样本x=(xt,x2,.,Xn)熊产生期望值&当X分类为A类时,期望值d=1;X为B类时,d=-1为了方便说明感知器学习算法,把阀值并人权系数W中,同时,样本X也相应增加一个分量Xn+1.故令:Wn+1=6,Xn1=1(1-19)那么感知器的输出可表示为:n+IY=fwixi(1-20)i=1感知器学习算法步骤如下:1 .对权系

7、数W置初值对权系数W=(W1.W2,.,Wn,WM)的各个分量置一个较小的零随机值,但Wn+1=g0并记为Wl(O),W2(O),.,Wn(0),同时有Wn+1(O)=-B。这里Wi为t时刻从第i个输入上的权系数,i=1,2,.,noWn+1为t时刻时的阀值。图I-IO感知器的分类例子2 .输入一样本X=(X,X2,.XM)以及它的期望输出d。期望输出值d在样本的类属不同时取值不同。如果X是A类,那么取d=1,如果X是B类,那么取1。期望输出d也即是教师信号。3 .计算实际输出值YY(t)=fW5(t)Xi=14 .根据实际输出求误差ee=d-Y(t)(1-21)5 .用误差e去修改权系数Wi

8、(t+1)=Wi(t)+eXii=1,2,n,n+1(1-22)其中,n称为权重变化率,onw在式(1-22)中,n的取值不能太大.如果1取值太大那么会影响Wi的稳定;的取值也不能太小,太小那么会使Wi的求取过程收敛速度太慢。当实际输出和期望值d相同时有:Wi(t+1)=Wi(t)6 .转到第2点,一直执行到一切样本均稳定为止。从上面式(1一14)可知,感知器实质是一个分类器,它的这种分类是和二值逻辑相应的。因此,感知器可以用于实现逻辑函数。下面对感知器实现逻辑函数的情况作一些介绍。例:用感知器实现逻辑函数XiVX2的真值:Xi0011X20101XiVX20111以X1VX2=1为A类,以X

9、1VX2=0为B类,那么有方程组w1o+w2o-0w2eWi射W1+W26(1-24)从式(124)有:Wi,W2令Wi=1,W2=2那么有:1取=0.5那么有:X1+X20.5=0,分类情况如图1-jOJ)(0,0.5个-11所示。X2?(IJ)(0,0)(0.5,oN(ItO)kAlXi+=0.5图1-11逻辑函数XVX2的分类1.2.2神经网络学习的梯度算法从感如器的学习算法可知,学习的目的是在于修改网络中的权系数,使到网络对于所输入的模式样本能正确分类。当学习结束时,也即神经网络能正确分类时,显然权系数就反映了同类输入模式样本的共同特征。换句话讲,权系数就是存储了的输人模式。由于权系数

10、是分散存在的,故神经网络自然而然就有分布存储的特点。前面的感知器的传递函数是阶跃函数,所以,它可以用作分类器。前面一节所讲的感知器学习算法因其传递函数的简单而存在局限性。感知器学习算法相当简单,并且当函数线性可分时保证收敛。但它也存在问题:即函数不是线性可分时,那么求不出结果;另外,不能推广到一般前馈网络中。为了克服存在的问题,所以人们提出另一种算法梯度算法(也即是LMS法)。为了能实现梯度算法,故把神经元的激发函数改为可微分函数,例如SigmOid函数,非对称SigmOid函数为f(X)=1(1+e-),对称SigmOid函数f(X)=(1e)/(1+e-);而不采用式(I-13)的阶跃函数

11、。对于给定的样本集Xi(i=1,2,n),梯度法的目的是寻找权系数W,使得fWX与期望输出Yi尽可能接近。设误差e采用下式表示:e=(Y5-Yi)2(1-25)其中,Yi=f1W,Xi是对应第i个样本Xi的实时输出Yi是对应第i个样本Xi的期望输出。要使误差e最小,可先求取e的梯度:i3色小3ekSradW=而=今而(1-26)其中:ek=(Yk-Yk)2(1-27)令Uk=Wxk,那么有:Hck3.弧必vaw.3队aw-VaukAkJYk(1-28)即有:瑞二-(Yk-%AF(Uk)Xk(1-29)最后有按负梯度方向修改权系数W的修改规那么:Wk+=Wk+(Yi-Yi)f(Ui)Xii三rl

12、(1-30)也可写成:WE=Wk+M-喘)IWi(1-31)在上式(130),式(1-31)中,是权重变化率,它视情况不同而取值不同,一般取0-1之间的小数。很明显,梯度法比原来感知器的学习算法进了一大步。其关键在于两点:1 .神经元的传递函数采用连续的S型函数,而不是阶跃函数;2 .对权系数的修改采用误差的梯度去控制,而不是采用误差去控制。故而有更好的动态特能,即加强了收敛进程。但是梯度法对于实际学习来说,仍然是感觉太慢;所以,这种律法仍然是不理想的。1.2.3反向传播学习的BP算法反向传播算法也称BP算法。由于这种算法在本质上是一种神经网络学习的数学模型,所以,有时也称为BP模型。BP算法

13、是为了解决多层前向神经网络的权系数优化而提出来的;所以,BP算法也通常暗示着神经网络的拓扑结构是一种无反应的多层前向网络。故而.有时也称无反应多层前向网络为BP模型。在这里,并不要求过于严格去争论和区分算法和模型两者的有关异同。感知机学习算法是种单层网络的学习算法。在多层网络中.它只能改变最后权系数。因此,感知机学习算法不能用于多层神经网络的学习。1986年,RIlmeIhart提出了反向传播学习算法,即BP(backpropagation)算法。这种算法可以对网络中各层的权系数进行修正,故适用于多层网络的学习。BP穿法是目前最广泛用的神经网络学习算法之一,在自动控制中是最有用的学习算法。一、

14、BP算法的原理BP算法是用于前馈多层网络的学习算法,前馈多层网络的结构般如图112所示图1-12网络学习结构它含有输人层、输出层以及处于输入输出层之间的中间层。中间层有单层或多层,由于它们和外界没有直接的联系,故也称为隐层。在隐层中的神经元也称隐单元。隐层虽然和外界不连接.但是,它们的状态那么影响输入输出之间的关系。这也是说,改变隐层的权系数,可以改变整个多层神经网络的性能。设有一个m层的神经网络,并在输入层加有样本X;设第k层的i神经元的输入总和表示为Ui输出XiJ从第k-1层的第j个神经元到第k层的第i个神经元的权系数为WiI各个神经元的激发函数为f,那么各个变量的关系可用下面有关数学式表示:Xik=f(Uik)(1-32)(V二彳WijXJkT(1.33)反向传播嵬法分二步进行,即正向传播和反向传播。这两个过程的工作简述如下。1 .正向传播输入的样本从输入层经过隐单元一层一层进行处理,通过所有的隐层之后,那么传向输出层;在逐层处理的过程中,每一层神经元的状态只对下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比拟,如果现行输出不等于期望输出,那么进入反向传播过程。2 .反向传播反向传播时,把误差信号按原来正向传播的通路反向传网,并对每个隐层的各个神经元的

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 人工智能

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!