教学PPT神经网络控制.ppt

上传人:王** 文档编号:688703 上传时间:2023-12-09 格式:PPT 页数:37 大小:339.50KB
下载 相关 举报
教学PPT神经网络控制.ppt_第1页
第1页 / 共37页
教学PPT神经网络控制.ppt_第2页
第2页 / 共37页
教学PPT神经网络控制.ppt_第3页
第3页 / 共37页
教学PPT神经网络控制.ppt_第4页
第4页 / 共37页
教学PPT神经网络控制.ppt_第5页
第5页 / 共37页
教学PPT神经网络控制.ppt_第6页
第6页 / 共37页
教学PPT神经网络控制.ppt_第7页
第7页 / 共37页
教学PPT神经网络控制.ppt_第8页
第8页 / 共37页
教学PPT神经网络控制.ppt_第9页
第9页 / 共37页
教学PPT神经网络控制.ppt_第10页
第10页 / 共37页
亲,该文档总共37页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《教学PPT神经网络控制.ppt》由会员分享,可在线阅读,更多相关《教学PPT神经网络控制.ppt(37页珍藏版)》请在优知文库上搜索。

1、第三章第三章 神经网络控制神经网络控制(Neural Network Control)人工神经元模型人工神经元模型神经元的学习方法神经元的学习方法神经元网络神经元网络神经网络控制神经网络控制应用实例应用实例3.1 人工神经元模型人工神经元模型一、神经元模型(一、神经元模型(The NeuronThe Neuron)生物神经元是脑组织的基本单元,人脑约生物神经元是脑组织的基本单元,人脑约1011个神经元。个神经元。二、人工神经元:二、人工神经元:利用物理器件(电子、光电)、软件在计算利用物理器件(电子、光电)、软件在计算机上仿真,模拟生物结构功能。机上仿真,模拟生物结构功能。对生物神经元的一种模

2、拟与简化。它是神经对生物神经元的一种模拟与简化。它是神经网络的基本处理单元。网络的基本处理单元。f(.)j-1x1wj1xnwjnsjyjnijijijxws1)(jjsfy wji:连接权系数:连接权系数i:内部阈值:内部阈值f():输出变换函数,:输出变换函数,具有非线性特性具有非线性特性,f 的确定的确定:根据应用根据应用 wi 的确定的确定:通过学习通过学习它是一个多输入、单它是一个多输入、单输出的非线性元件。输出的非线性元件。三、三、神经元神经元结构模型结构模型输出变换函数的常见类型输出变换函数的常见类型:ys1-1s100.5ys1-1y0控制中常用控制中常用,0s10s1)s(f

3、y ,比例函数比例函数0e11)s(fys ,0e1e1)s(fyss ,S 状函数状函数 双曲函数双曲函数 ,0KKs)s(fy 符号函数符号函数二、学习规则:二、学习规则:wi(k+1)=wi(k)+ivi(k),i=1,2,.,n k 第第 k 次学习次学习 i 学习速率学习速率 (i 0)vi(k)学习信号(通常为误差的函数)学习信号(通常为误差的函数)yf().w1wnw2x1x2xn.学习规则学习规则学习学习信号信号一、学习的意义:一、学习的意义:通过调整权值通过调整权值 wi,使神经元具有期望的输使神经元具有期望的输入输出模式。入输出模式。3.2 3.2 神经元的学习方法神经元的

4、学习方法)k(WWi)k(WWiii2n21w)k(e)k(ewJ)k(vw)k(e)k(e21JwwwW T ,T则则的的函函数数,是是误误差差,为为基基于于某某种种评评价价准准则则的的其其中中设设性性能能指指标标为为表表示示转转置置,令令最大变化率。最大变化率。具有具有处的梯度,处的梯度,在在称为称为 )k(WJwJwJWJn1 三、学习方法三、学习方法梯度下降法:梯度下降法:特点:特点:l 沿梯度方向下降一定能到达沿梯度方向下降一定能到达 J 的极小点;的极小点;l 学习的快慢取决于学习速率学习的快慢取决于学习速率i 的选取;的选取;l缺点是可能陷入局部最小点。缺点是可能陷入局部最小点。

5、JWW(k)梯度方向梯度方向简单例:简单例:设设 y=w1x1 (即(即=0,f(s)=s)w1 的初值的初值 w1(0)=0yf()w1x1单输入神经元单输入神经元取性能指标为取性能指标为 J=e2(k)2=2 y(k)2 2 =2 w1(k)2 2)k(w2)k(w)1k(w)k(w2wJ1111)k(ww111 则有则有Jw12梯度方向梯度方向02用梯度下降法用梯度下降法,使使 x1=1 时时,y=2 k 1 2 3 4 5w1(k),y(k)1 1.51.751.8751.9375 k 1 2 3 4 5w1(k),y(k)3 1.52.251.8752.0625表表 3-1 =0.5

6、 时的学习结果时的学习结果(学习速率较小学习速率较小)表表 3-2 =1.5 时的学习结果时的学习结果(学习速率较大学习速率较大)k(w2)k(w)1k(w111 学习规则:学习规则:k 1 2 34 5w1(k),y(k)4 0404表表 3-3 =2 时的学习结果时的学习结果(学习速率过大学习速率过大)k 1 2 34 5w1(k),y(k)6-618-3066表表 3-4 =3 时的学习结果时的学习结果(学习速率过大学习速率过大)结论:结论:过小收敛慢;过小收敛慢;过大则振荡甚至可能发散。过大则振荡甚至可能发散。对于该例,对于该例,=1 时的学习次数最少时的学习次数最少(一次结束一次结束

7、)k(w2)k(w)1k(w111 学习规则:学习规则:.三层前馈网络三层前馈网络神经元按一定神经元按一定方式连接方式连接神经神经网络网络目的:目的:通过学习,使神经网络具有通过学习,使神经网络具有 期望期望 的输入输出模式的输入输出模式两个关键两个关键:网络结构网络结构,学习方法学习方法常用结构常用结构:前馈网,反馈网等前馈网,反馈网等3.3 神经元网络神经元网络一、一、BPBP神经网络神经网络 (误差反向传播神经网络(误差反向传播神经网络:Back Propagation:Back Propagation)著名的著名的BP网络网络=前馈网前馈网+BP算法算法1.BP1.BP神经网络特点神经

8、网络特点(1 1)是一种多层网络,包括输入层、隐含层和输出层;)是一种多层网络,包括输入层、隐含层和输出层;(2 2)层与层之间采用全互连方式,同一层神经元之间)层与层之间采用全互连方式,同一层神经元之间不连接;不连接;(3 3)权值通过)权值通过学习算法进行调节;学习算法进行调节;(4 4)神经元激发函数为)神经元激发函数为S S函数;函数;(5 5)学习算法由正向传播和反向传播组成;)学习算法由正向传播和反向传播组成;(6 6)层与层的连接是单向的,信息的传播是双向的。)层与层的连接是单向的,信息的传播是双向的。2.BP2.BP网络的逼近(网络的逼近(BPBP算法)算法)梯度梯度下降法下降

9、法由输出层向输入层由输出层向输入层反向计算每一层的反向计算每一层的连接权值连接权值BP算法算法)(kyn)(ku)(kyijw2jwjxjxixiiijjxwxjxjjexfx11)()1(jjjjxxxx(1 1)前向传播:计算网络的输出。)前向传播:计算网络的输出。隐层神经元的输入为所有输入的加权之和:隐层神经元的输入为所有输入的加权之和:隐层神经元的输出采用隐层神经元的输出采用S S函数激发:函数激发:则则jjjkxwx2)()()(kykyken2)(keE21输出层神经元的输出:输出层神经元的输出:网络输出与理想输出误差为:网络输出与理想输出误差为:误差性能指标函数为:误差性能指标函

10、数为:222)()(jjkjjxkewxkewEw222)()1(jjjwtwtw(2 2)反向传播:采用)反向传播:采用学习算法,调整各层间的权值。学习算法,调整各层间的权值。根据梯度下降法,权值的学习算法如下:根据梯度下降法,权值的学习算法如下:输出层及隐层的连接权值学习算法为:输出层及隐层的连接权值学习算法为:k+1 k+1时刻网络的权值为:时刻网络的权值为:隐层及输入层连接权值学习算法为:隐层及输入层连接权值学习算法为:ijnijijwykewEw)(其中其中ijjjijjjijjjjjnijnxxxwxxxwwxxxxywy)1(22ijijijwkwkw)()1(k+1k+1时刻网

11、络的权值为:时刻网络的权值为:如果考虑上次权值对本次权值变化的影响,需如果考虑上次权值对本次权值变化的影响,需要加入动量因子要加入动量因子 此时的权值为:此时的权值为:)1()()()1(22222kwkwwkwkwjjjjj)1()()()1(kwkwwkwkwijijijijij其中,其中,为学习速率,为学习速率,为动量因子。为动量因子。1,01,0 阵阵(即为对象的输出对控制输入的灵敏度信即为对象的输出对控制输入的灵敏度信息息)算法为:算法为:其中取其中取Jacobian(t)1ux jjjjjjjjjnnwxxwxxxxxykuykuy1211kkk 由给定的输入样本计算网络输出,并与

12、输出样本由给定的输入样本计算网络输出,并与输出样本进行比较(输出误差);由输出误差依次反向计进行比较(输出误差);由输出误差依次反向计算每一层的权值;算每一层的权值;重复重复、,直至输出误差满足要求为止;,直至输出误差满足要求为止;对每组输入输出样本数据都按对每组输入输出样本数据都按 进行学习;进行学习;重复重复,直至所有输出误差都达到要求的精,直至所有输出误差都达到要求的精度。度。(3 3)BPBP算法的计算步骤:算法的计算步骤:(4 4)BPBP网络的逼近仿真实例网络的逼近仿真实例使用使用BPBP网络逼近对象:网络逼近对象:23)1(1)1()()(kykykukyBPBP网络逼近程序见网

13、络逼近程序见chap7_1.mchap7_1.m采样时间:采样时间:1ms1ms。)6sin(5.0)(tku输入信号为:输入信号为:神经网络结构为神经网络结构为2-6-12-6-1之间的随机值的初值为 1,1,21WW05.050.0,3.BP3.BP网络模式识别网络模式识别 根据标准的输入输出模式对,采用神经网络学习根据标准的输入输出模式对,采用神经网络学习算法,以标准的模式作为学习样本进行训练,通算法,以标准的模式作为学习样本进行训练,通过学习调整神经网络的连接权值。过学习调整神经网络的连接权值。当训练满足要求后,得到的神经网络权值构成了当训练满足要求后,得到的神经网络权值构成了模式识别

14、的知识库。模式识别的知识库。利用神经网络并行推理算法对所需要的输入模式利用神经网络并行推理算法对所需要的输入模式进行识别。进行识别。相同时相同时,与样本相对应的输出模式;,与样本相对应的输出模式;不完全相同不完全相同时时,与其相近样本相对应的输出模式。,与其相近样本相对应的输出模式。相差远时,相差远时,新的样本进行训练。新的样本进行训练。BPBP网络的训练过程如下:网络的训练过程如下:正向传播是输入信号从输入层经隐层传向输出层,正向传播是输入信号从输入层经隐层传向输出层,若输出层得到了期望的输出,则学习算法结束;否则,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传播。转至反向传播。

15、网络的学习算法如下:网络的学习算法如下:(1)前向传播:计算网络的输出。)前向传播:计算网络的输出。隐层神经元的输入为所有输入的加权之和:隐层神经元的输入为所有输入的加权之和:iiijjxwx隐层神经元的输出隐层神经元的输出jx采用采用S S函数激发函数激发jxjxjjexfx11)()1(jjjjxxxx则则输出层神经元的输出:输出层神经元的输出:jjjllxwx网络第网络第 个输出与相应理想输出个输出与相应理想输出 的误差为:的误差为:l0lxlllxxe0第第p p个样本的误差性能指标函数为:个样本的误差性能指标函数为:NllpeE1221其中其中N N为网络输出层的个数。为网络输出层的

16、个数。(2 2)反向传播:采用梯度下降法,调整各层间的权)反向传播:采用梯度下降法,调整各层间的权值。权值的学习算法如下:值。权值的学习算法如下:输出层及隐层的连接权值输出层及隐层的连接权值 学习算法为:学习算法为:jlwjljllljlpjlxewxewEwjljljlwkwkw)()1(隐层及输入层连接权值隐层及输入层连接权值 学习算法为:学习算法为:ijwNlijllijpijwxewEw1ijijijwkwkw)()1(其中其中ijjjlijjjlijjjjjlijlxxxwxxxwwxxxxxwx)1(如果考虑上次权值对本次权值变化的影响,需要加如果考虑上次权值对本次权值变化的影响,需要加入动量因子入动量因子 ,此时的权值为:,此时的权值为:11kwkwwkwkwjljljljljl)1()()()1(twtwwtwtwijijijijij其中其中 为学习速率,为学习速率,为动量因子。为动量因子。1,01,0仿真实例:仿真实例:取标准样本为取标准样本为3 3输入输入2 2输出样本,如表输出样本,如表3-13-1所示。所示。表表3-1 3-1 训练样本训练样本 输 入输 出10

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 大学课件

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!