神经网络实验指导书2024版[1].docx

上传人:王** 文档编号:1278215 上传时间:2024-06-06 格式:DOCX 页数:20 大小:235.39KB
下载 相关 举报
神经网络实验指导书2024版[1].docx_第1页
第1页 / 共20页
神经网络实验指导书2024版[1].docx_第2页
第2页 / 共20页
神经网络实验指导书2024版[1].docx_第3页
第3页 / 共20页
神经网络实验指导书2024版[1].docx_第4页
第4页 / 共20页
神经网络实验指导书2024版[1].docx_第5页
第5页 / 共20页
神经网络实验指导书2024版[1].docx_第6页
第6页 / 共20页
神经网络实验指导书2024版[1].docx_第7页
第7页 / 共20页
神经网络实验指导书2024版[1].docx_第8页
第8页 / 共20页
神经网络实验指导书2024版[1].docx_第9页
第9页 / 共20页
神经网络实验指导书2024版[1].docx_第10页
第10页 / 共20页
亲,该文档总共20页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《神经网络实验指导书2024版[1].docx》由会员分享,可在线阅读,更多相关《神经网络实验指导书2024版[1].docx(20页珍藏版)》请在优知文库上搜索。

1、北京信息科技高校自编试验讲义神经网络试验指导书许晓飞陈雯柏编著“京信念科技承BfIJMImomutxaSafXa11cknoiocyiwitun自动化学院智能科学与技术系2024年1月BP神经网络试验指导试验目的:(1)熟识Matlab/Simulink的运用.(2)驾驭BP神经网络的基本原理和基本的设计步骤.(3) 了解BP神经网络在实际中的应用.(4)针对简洁的实际系统,能够建立BP神经网络限制模型.试验原理:1 .前馈型人工神经网络前馈型人工神经网络是整个神经网络体系中最常见的一种,其结构模型如图2所示。网络结构包含输入层、隐层(可能是多层)和输出层,它的连接方式是同层之间不相连接,相邻

2、层之间单元为全连接型。这种网络没有反馈存在,实际运行是单向的,学习方式是一种监督式学习。前馈型神经网络具有很强的非线性映射实力,找寻其映射是靠学习实践的,只要学习数据足够完备,就能够描述随意未知的困难系统。因此前馈神经网络为非线性系统的建模和限制供应了有力的工具。2.BP算法原理BP(BackPropagation)神经网络是一种利用误差反向传播训练算法的前馈型网络,BP学习算法实质是求取网络总误差函数的最小值问题。这种算法采纳非线性规划中的最速下降方法,按误差函数的负梯度方向修改权系数,它是梯度下降法在多层前馈网络中的应用。详细学习算法包括两大过程,其一是输入信号的正向传播过程,其二是输出误

3、差信号的反向传播过程。1.正向传播输入的样本从输入层经过隐层单元一层一层进行处理,通过全部的隐层之后,则传向输出层;在逐层处理的过程中,每一层神经元的状态只对下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比较,假如现行输出不等于期望输出,则进入反向传播过程。2.反向传播反向传播时,把误差信号按原来正向传播的通路反向传回,并对每个隐层的各个神经元的权系数进行修改,以望误差信号趋向最小。网络各层的权值变更量,则由传播到该层的误差大小来确定。3.BP算法的特点BP神经网络具有以下三方面的主要优点网:第一,只要有足够多的隐含层和隐层节点,BP神经网络可靠近随意的非线性映射关系;其次,BP

4、学习算法是一种全局靠近方法,因而它具有较好的泛化实力。第三,BP神经网络具有肯定的容错实力。因为BP神经网络输入输出间的关联信息分布存储于连接权中,由于连接权的个数总多,个别神经元的损坏对输入输出关系只有较小影响。但在实际应用中也存在一些问题,如:收敛速度慢,极有可能陷入最优陷阱(局部极值),而且典型的BP网络是一个冗余结构,它的结构及隐节点数的确定往往有人为的主观性,而且一旦人工确定之后,不能在学习过程中自主变更。其结果是隐节点数少了,学习过程不收敛;隐节点数多了,则网络的学习及推理的效率较差。试验步骤:(1)建立限制模型神经网络训练数据来源于MAT1.AB6.5自带的一阶T-S型模糊限制s

5、lcp.mdlo如图2所不OFuzzy1.ogicController图2一级倒立摆的模糊限制仿真在上面的限制系统中提取摆角、角速度、位移、速度初始条件为分别为0.5rad,lrads,0和0,在此条件下响应的输入输出对,(2)提取训练数据如图3所示,利用【SignalToWorkspace模块获得一阶T-S型模糊限制仿真过程的限制器输入输出数据对,并保存到工作区中,可以干脆用到神经网络的训练中。摆杆角度摆杆角速度小车位移WoikspacelWoikspace图3数据提取(3)BP神经网络限制器的训练首先将提取出的训练数据变为标准的训练数据形式,标准的训练数据分为输入和目标输出两部分。输入部分

6、是一个形式为输入个数X训练数据个数的矩阵,这里输入个数为4。目标输出为一个输出个数X训练数据个数的矩阵,这里输出个数为1。而经SignaltoWOrkSPaCe模块提取出的数据为一个训练数据个数X输入(或输出)个数的矩阵,因此分别将p、t转置后就得到标准训练数据p,fo接着选择要训练的步数,训练步数的选择可由下面语句定义:net.trainParam.epochs=250这一语句定义了一个500步的训练步数。做完上面的工作后就可以对网络进行训练了,依据上一节中的选择和定义初始化网络后,在没有输入延迟和输出延迟的条件下,并设训练后的网络还为NET,便可用下面语句对网络训练:net,tr=trai

7、n(net,FT,)运用下面语句初始化BP神经网络限制器并进行训练:P=P;=t;net=newff(-0.350.35;-1I;-33;-33,121,tansig,purelin),trainlm,learngdm,);net.trainParam.show=25;net.trainParam.epochs=250;net4r=train(net,P,T,);系统提示如下:TRA1N1.M,Epoch0/250,MSE10.1011/0,Gradient2554.35/Ie-010TRAIN1.M,Epoch50/250,MSE4.7875le-008/0,Gradient0.009838

8、32/Ie-010TRA1N1.M,Epoch75/250,MSE4.1262e-0080,Gradient0.00475103/Ie-010TRAIN1.M,Epoch100/250,MSE3.76953e-0080,Gradient0.00278629/Ie-010TRAIN1.M,Epoch125/250,MSE3.52024e-0080,Gradient0.00194476/Ie-010TRAIN1.M,Epoch150/250,MSE3.32444e-0080,Gradient0.00150103/Ie-010TRAIN1.M,Epoch175/250,MSE3.16423e-008

9、0,Gradient0.00121143le-010TRAIN1.M,Epoch200/250,MSE3.02987e-0080,Gradient0.000996205/1e-010TRAIN1.M,Epoch225/250,MSE2.91493e-0080,Gradient0.000826085/1e-010TRAIN1.M,Epoch250/250,MSE2.81489e-0080,Gradient0.000687935/Ie-010ancusJl图4训练误差曲线可以看出,经过250步训练限制器输出与期望输出间的误差已经很小了。提示:如训练程序有错,请在help文档搜寻BP神经网络函数ne

10、wff,杳看语法调用;P=P;T=t;net=newff(0.350.35;-11;-33;-33,f12J,)tansigpurelin,);net.trainparam.show=25;net.trainparam.epochs=3(X);net,tr=train(net,P,T);神经网络的结构用语句gensim(net,-l)可以在SimUlink里生成限制器并运用其进行限制,其中-1的意思是系统是实时的,生成的神经网络限制器结构如图5所示。神经网络控制器(八)神经网络限制器外部结构AP1M1(b)内部结构b1(C)隐层结构b2(d)输出层结构图5BP神经网络结构(4)神经网络限制的实

11、现运用训练后的BP神经网络限制器代替原模糊限制器限制器便可进行仿真试验。限制结构如图6所示。图6直线一级倒立摆神经网络限制仿真单击模型窗口上的,RnA运行以上的仿真试验,可以看出训练后的BP神经网络能胜利的实现倒立摆的限制.试验指导试验目的:(1)熟识Matlab/Simulink的运用.(2)驾驭SOM神经网络的基本原理和基本的设计步骤.(3)熟识SOM神经网络在实际中的应用.试验原理:通过自动找寻样本中的内在规律和本质属性,自组织、自适应地变更网络参数与结构。自组织网络的自组织功能是通过竞争学习(COmPetitiVeIeaming)实现的。1981年芬兰Helsink高校的TKohone

12、n教授提出一种自组织特征映射网,简称SOM网,又称Kohonen网。Kohonen认为:一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式具有不同的响应特征,而且这个过程是自动完成的。自组织特征映射正是依据这一看法提出来的,其特点与人脑的自组织特性相类似。SOM网共有两层,输入层模拟感知外界输入信息的视网膜,输出层模拟做出响应的大脑皮层。Kohonen学习算法程序流程:初始化、归一化权向量W:Wi,j=l,2,.m建立初始优胜邻域NKO)学习率口赋初始值输入归一化样本Xp.pe1,2,P)计算点积可如,j=l,2,.m选出点积最大的获胜节点尸定义优胜邻域.(l)I对优胜邻

13、域NYl)内节点调整权值:Wij(t+l)=wij(r)(t,N)IXiP-wij(/)i=l,2,.njeN/3示例:产生100个(0,0.5pi)之间的角度,用其Sin和CoS值作为输入向量,利用输出为二维平面阵的SOM网络对其进行聚类。参考程序如下:angles=0:0.5*pi/99:0.5*pi;P=sin(angles);cos(angles);PlOt(P(I,:),P(2,:),+/)net=newsom(01;0l,10);net.trainParam.epochs=10;net=train(net,P);plotsom(net.iw1,1),net.layers1).dis

14、tances)P=l;0;a=sim(net,p)试验内容:人口分类是人口统计中的一个重要指标,现有1999共10个地区的人口诞生比例状况如下表所示,建立一个自组织神经网络对上述数据分类,给定某个地区的男、女诞生比例分别为0.5,0.5,测试训练后的自组织神经网络的性能,推断其属于哪个类别。诞生男性百分比0.55120.51230.50870.50010.60120.52980.50000.49650.51030.5003诞生女性百分比0.44880.48770.49130.49990.39880.47020.5(XX)0.50350.48970.4997试验步骤:(1)确定输入模式;(2)确

15、定网络的结构,设计参数;(3)编辑相应的M文件实现SoM对数据进行聚类,运行M文件,在吩咐窗口察看结果。课下扩展试验:利用SOM网络对动物属性特征映射1989年Kohonen给出一个SOM网的闻名应用实例,即把不同的动物按其属性特征映射到两维输出平面上,使属性相像的动物在SOM网输出平面上的位置也相近。该例训练集种共有16种动物,每种动物用一个29维向量来表示,其中前16个重量构成符号向量,对不同的动物进行“16取1”编码;后13个重量构成属性向量,描述动物的13种属性,用1或。表示某动物该属性的有或无。表2中的各列给出16种动物的属性列向量。表2.16种动物1的J腐他响量物属鸽子母鸡鸭鹅猫头鹰隼鹰狐狸狗狼猫虎狮

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 数据结构与算法

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!