Java学习者论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

手机号码,快捷登录

恭喜Java学习者论坛(https://www.javaxxz.com)已经为数万Java学习者服务超过8年了!积累会员资料超过10000G+
成为本站VIP会员,下载本站10000G+会员资源,购买链接:点击进入购买VIP会员
JAVA高级面试进阶视频教程Java架构师系统进阶VIP课程

分布式高可用全栈开发微服务教程

Go语言视频零基础入门到精通

Java架构师3期(课件+源码)

Java开发全终端实战租房项目视频教程

SpringBoot2.X入门到高级使用教程

大数据培训第六期全套视频教程

深度学习(CNN RNN GAN)算法原理

Java亿级流量电商系统视频教程

互联网架构师视频教程

年薪50万Spark2.0从入门到精通

年薪50万!人工智能学习路线教程

年薪50万!大数据从入门到精通学习路线年薪50万!机器学习入门到精通视频教程
仿小米商城类app和小程序视频教程深度学习数据分析基础到实战最新黑马javaEE2.1就业课程从 0到JVM实战高手教程 MySQL入门到精通教程
查看: 414|回复: 0

[默认分类] BP网络的MATLAB仿真一般设置

[复制链接]
  • TA的每日心情
    开心
    2021-12-13 21:45
  • 签到天数: 15 天

    [LV.4]偶尔看看III

    发表于 2018-7-1 10:01:07 | 显示全部楼层 |阅读模式

    P=[-1 -1 2 2;0 5 0 5];


    t=[-1 -1 1 1];


    net=newff(minmax(P),[3,1],{"tansig","purelin"},"traingd");


    %输入参数依次为:"样本P范围",[各层神经元数目],{各层传递函数},"训练函数"


    %训练函数traingd--梯度下降法,有7个训练参数.


    %训练函数traingdm--有动量的梯度下降法,附加1个训练参数mc(动量因子,缺省为0.9)


    %训练函数traingda--有自适应lr的梯度下降法,附加3个训练参数:lr_inc(学习率增长比,缺省为1.05;


    %  

      

       

      

       

      

       

      

       

      

      

      lr_dec(学习率下降比,缺省为0.7);max_perf_inc(表现函数增加最大比,缺省为1.04)


    %训练函数traingdx--有动量的梯度下降法中赋以自适应lr的方法,附加traingdm和traingda的4个附加参数


    %训练函数trainrp--弹性梯度下降法,可以消除输入数值很大或很小时的误差,附加4个训练参数:


    %  

      

       

      

       

      

       

      

      delt_inc(权值变化增加量,缺省为1.2);delt_dec(权值变化减小量,缺省为0.5);


    %  

      

       

      

       

      

       

      

      delta0(初始权值变化,缺省为0.07);deltamax(权值变化最大值,缺省为50.0)


    %  

      

       

      

       

      

       

      

      适合大型网络


    %训练函数traincgf--Fletcher-Reeves共轭梯度法;训练函数traincgp--Polak-Ribiere共轭梯度法;


    %训练函数traincgb--Powell-Beale共轭梯度法


    %共轭梯度法占用存储空间小,附加1训练参数searchFcn(一维线性搜索方法,缺省为srchcha);缺少1个训练参数lr


    %训练函数trainscg--量化共轭梯度法,与其他共轭梯度法相比,节约时间.适合大型网络  

      

       

      

       

      

       

      

       

      

      



    %  

      

       

      

       

      

       

      

      附加2个训练参数:sigma(因为二次求导对权值调整的影响参数,缺省为5.0e-5);


    %  

      

       

      

       

      

       

      

       

      

       

      

       

      

       

      

       

      

      lambda(Hessian阵不确定性调节参数,缺省为5.0e-7)


    %  

      

       

      

       

      

       

      

      缺少1个训练参数:lr


    %训练函数trainbfg--BFGS拟牛顿回退法,收敛速度快,但需要更多内存,与共轭梯度法训练参数相同,适合小网络


    %训练函数trainoss--一步正割的BP训练法,解决了BFGS消耗内存的问题,与共轭梯度法训练参数相同


    %训练函数trainlm--Levenberg-Marquardt训练法,用于内存充足的中小型网络


    net=init(net);


    net.trainparam.epochs=300;

      

      %最大训练次数(前缺省为10,自trainrp后,缺省为100)


    net.trainparam.lr=0.05;  

      

      

      %学习率(缺省为0.01)


    net.trainparam.show=50;  

      

      

      %限时训练迭代过程(NaN表示不显示,缺省为25)


    net.trainparam.goal=1e-5; %训练要求精度(缺省为0)


    %net.trainparam.max_fail  

      

      

      最大失败次数(缺省为5)


    %net.trainparam.min_grad  

      

      

      最小梯度要求(前缺省为1e-10,自trainrp后,缺省为1e-6)


    %net.trainparam.time  

      

       

      

      最大训练时间(缺省为inf)


    [net,tr]=train(net,P,t);  

      

      

      %网络训练


    a=sim(net,P)                 %网络仿真


    隐含层神经元个数设置:1:隐层神经元个数=开根号(输入层+输出层)+(1~10)
                           2:隐层神经元个数=2m+1(m为输入节点数)
    一般用以上两种方法设置隐层神经元个数,若输入输出数量少,则为10以内
    注意,还没有整理清楚是隐含层层数,还是神经元个数,等作者弄清楚了再改过来
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    QQ|手机版|Java学习者论坛 ( 声明:本站资料整理自互联网,用于Java学习者交流学习使用,对资料版权不负任何法律责任,若有侵权请及时联系客服屏蔽删除 )

    GMT+8, 2025-2-24 07:32 , Processed in 0.377244 second(s), 37 queries .

    Powered by Discuz! X3.4

    © 2001-2017 Comsenz Inc.

    快速回复 返回顶部 返回列表