数学建模神经网络.ppt

上传人:王** 文档编号:688259 上传时间:2023-12-09 格式:PPT 页数:17 大小:821KB
下载 相关 举报
数学建模神经网络.ppt_第1页
第1页 / 共17页
数学建模神经网络.ppt_第2页
第2页 / 共17页
数学建模神经网络.ppt_第3页
第3页 / 共17页
数学建模神经网络.ppt_第4页
第4页 / 共17页
数学建模神经网络.ppt_第5页
第5页 / 共17页
数学建模神经网络.ppt_第6页
第6页 / 共17页
数学建模神经网络.ppt_第7页
第7页 / 共17页
数学建模神经网络.ppt_第8页
第8页 / 共17页
数学建模神经网络.ppt_第9页
第9页 / 共17页
数学建模神经网络.ppt_第10页
第10页 / 共17页
亲,该文档总共17页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《数学建模神经网络.ppt》由会员分享,可在线阅读,更多相关《数学建模神经网络.ppt(17页珍藏版)》请在优知文库上搜索。

1、神经网络简介(2)多层网络input layerhidden layer(s)output layer多层前馈网络的决策区域n如图可见,多层网络能够表示高度非线性决策面,比之前的单个单元的线性决策面表征能力更强。n问题:使用什么类型的的 单元来构建多层网络的基础?如果使用之前介绍的线性单元,多个线性单元的连接仍然是线性单元,而我们更希望表征非线性函数的网络。Sigmoid 单元x1x2xn.w1w2wnw0 x0=1z=i=0n wi xioo=(z)=1/(1+e-z)(z)=1/(1+e-z)sigmoid function.Sigmoid 函数(logistic函数)(z)=1/(1+e

2、-z)d(z)/dz=(z)(1-(z)梯度下降规则:线性单元 E/wi=-d(td-od)od(1-od)xi 多层网络:反向传播算法 反向传播算法n多层网络的学习算法。n反向传播的含义是通过对误差在神经网络中的反向传播,调整各个节点的权重,使得误差局部最小反向传播算法(随机梯度下降)n步骤:n初始化权重为小的随机数。n对于训练集中的每一个样本:n1.计算此样本在神经网络中的输出n2.对于每一个输出节点k,计算:n3.对于每一个隐藏节点h,计算:n4.更新权重:n其中:反向传播算法的推导n梯度下降的权值修改法则n求导的链式法则ji,dijwEki,kkkkki,wzzooE=wE反向传播算法

3、(输出节点)kikkkkkiwzzooEwE,)()(21 )(2122kkkkkoutputjjjkkototootooE反向传播算法(输出节点))1()(kkkkkkoozzzo)(1(kkkkkotoozEkjkkjkj,kj,kx=zxw=wz,反向传播算法(隐藏节点)h(h)Downstreamkhhhkkh=zoozzE=zEkkzEkhhkwoz,反向传播算法(内部节点)hjhhj,x=wE,)1(hhhhoozo(h)Downstreamkkh,khhhw)o(o=1收敛性与局部最小值n对于多层网络,误差曲面可能含有多个不同的局部极小值,梯度下降可能陷入这些局部极小值的任何一个

4、。因此,对于多层网络,反向传播算法仅能保证收敛到误差E的某个局部极小值,不一定收敛到全局最小误差。缓解局部极小值问题一些常见的启发规则n为梯度更新法则加一个冲量项。冲量有时可以带动梯度下降过程冲过狭窄的局部极小值或滚过误差曲面上的平坦区域n使用随机的梯度下降而不是真正的梯度下降。不同误差曲面通常会有不同的局部极小值,这使得下降过程不太可能陷入任意一个局部极小值)1()(nxnijijjijn使用多个同样的数据训练多个网络,但用不同的随机权值初始化每个网络。如果不同的训练产生不同的局部极小值,那么对分离的验证集合性能最好的那个网络被选中。或者保留所有的网络,并且把它们当作一个网络“委员会”,它们的输出是每个网络输出的平均值。前馈网络的表征能力n布尔函数:任何布尔函数可以被具有两层单元的网络准确表示。n连续函数:每个有界的连续函数可以由一个两层的网络以任意小的误差逼近n任意函数:任意函数可以被一个有三层单元的网络已任意精度逼近

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 大学课件

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!