1. matlab bp神经网络工具箱怎么用
%% 训练集/测试集产来生
% 训练源集——用于训练网络
P_train = ;%输入集
T_train = ;%输出集
% 测试集——用于测试或者使用。
P_test = ;%输入
T_test ;
N = size(P_test,2);
%% BP神经网络创建、训练及仿真测试
% 创建网络
net = newff(P_train,T_train,9);
% 设置训练参数
net.trainParam.epochs = 1000;
net.trainParam.goal = 1e-3;
net.trainParam.lr = 0.01;
% 训练网络
net = train(net,P_train,T_train);
% 仿真测试、使用。
T_test = sim(net,P_test);%得到结果。
2. bp神经网络 matlab 工具箱怎么调出来
有神经网络的工具箱,bp是配出来的!
3. BP神经网络matlab工具箱中的激励函数(传递函数),训练函数,学习函数
激励函数用于神经元由输入计算输出的,而训练函数和学习函数是基于误差,内来修改权值和阈容值的,再就完成了一次训练,然后继续迭代,知道达到迭代次数或满足精度。
然而,学习函数和训练函数的功能貌似很相近,至于具体区别,正在纠结着我呢
4. matlab中bp神经网络的工具箱怎么用,不要matlab程序,就工具箱怎么实现问题的解决
matlab中神经网络的工具箱:输入nntool,就会弹出一个对话框,然后你就可以根据弹出框的指示来操作。
5. matlabBP神经网络工具箱,可以调整隐含层节点数嘛
Matlab神经网络工具箱几乎包含了现有神经网络的最新成果,神经网络工具箱模型包括感知回器、线性网络、答BP网络、径向基函数网络、竞争型神经网络、自组织网络和学习向量量化网络、反馈网络BP神经网络具有很强的映射能力,主要用于模式识别分类、函数逼近、函数压缩等。下面通过实例来说明BP网络在函数逼近方面的应用需要逼近的函数是f(x)=1+sin(k*pi/2*x),其中,选择k=2进行仿真,设置隐藏层神经元数目为n,n可以改变,便于后面观察隐藏层节点与函数逼近能力的关系。
6. matlab的BP神经网络哦工具箱在哪
打开matlab 在命令窗口输入nntool 回车
开始菜单里也有
goodluck
7. 一个关于BP神经网络的问题,matlab中神经网络工具箱的初始权值和阀值是
训练BP神经网络所采取的随机初始参数确实是随机的,在训练过程中这些参数和权值都会朝着同一个大方向进行修正。例如你用BP神经网络来拟合曲线,找到输入值与输出值之间的线性规律,那么在训练的过程中这个拟合的曲线会不断的调整其参数和权值直到满足几个预设条件之一时训练停止。虽然这个训练出来的结果有时候会有一定误差,但都在可以接受的范围内。
缩小误差的一个方法是需要预先设置初始参数,虽然每次依然会得到不一样的模型(只要参数是随机修正的),但不同模型之间的差距会很小。另外可以反复训练,找到一个自己觉得满意的模型(可以是测试通过率最高,可以是平均结果误差值最小)。
至于你说别人怎么检查你的论文结果,基本上都是通过你的算法来重建模型,而且还不一定都用matlab来做,即便是用同样的代码都会出现不同的结果,何况是不同的语言呢?其实验算结果最重要的是看测试时的通过率,例如在对一组新的数据进行测试(或预测)时,通过率达到95%,别人用其他的方式重建了你的模型也得到这样的通过率,那么你的算法就是可行的。注意,在计算机专业的论文里面大家看重的不是代码,而是算法。
补充一点:只要你训练好了一个神经网络可以把这个神经网络以struct形式保存,这样这个网络可以被反复使用,且每次对同一组测试数据的预测结果都会一样。你也可以当做是检测论文可行性的工具。
8. 关于Matlab BP神经网络工具箱nntool的数据输入问题。
这是可以的,但是,要把两组数据合到一个变量中,如:x=[trainx1;trainx2];作为一个输入矩阵。
9. 请大师指点:BP网络工具箱中的newff()中的参数如何设置
threshold是一个限定BP网络输出的范围
在它规定的范围内为有效(当无效值太多的时候会early stop)
[9,4]代表输入输出的专神经元数目
学习速度关属系到误差梯度的调整,由于误差梯度是由误差对权值的求导得出的,我们加上一个学习速度的系数可以加快或减慢权值调整的速度.一般在0.1~0.8之间.当然也可以用可变学习速率的训练函数进行,这样学习速率可以在开始的时候大一些,而后减小,优化学习过程.
10. 如何用MATLAB的神经网络工具箱实现三层BP网络
这是一个来自<神经网络之家>nnetinfo的例子,在matlab2012b运行后的确可以,因为网络知道的文本宽度不够,注释挤到第二行了,有些乱,楼主注意区分哪些是代码哪些是注释,
x1 =
[-3,-2.7,-2.4,-2.1,-1.8,-1.5,-1.2,-0.9,-0.6,-0.3,0,0.3,0.6,0.9,1.2,1.5,1.8]; %x1:x1 = -3:0.3:2;
x2 =
[-2,-1.8,-1.6,-1.4,-1.2,-1,-0.8,-0.6,-0.4,-0.2,-2.2204,0.2,0.4,0.6,0.8,1,1.2];%x2:x2 = -2:0.2:1.2;
y = [0.6589,0.2206,-0.1635,-0.4712,-0.6858,-0.7975,-0.8040,...
-0.7113,-0.5326,-0.2875
,0,0.3035,0.5966,0.8553,1.0600,1.1975,1.2618]; %y:
y = sin(x1)+0.2*x2.*x2;
inputData = [x1;x2]; %将x1,x2作为输入数据
outputData = y; %将y作为输出数据
%使用用输入输出数据(inputData、outputData)建立网络,
%隐节点个数设为3.其中隐层、输出层的传递函数分别为tansig和purelin,使用trainlm方法训练。
net = newff(inputData,outputData,3,{'tansig','purelin'},'trainlm');
%设置一些常用参数
net.trainparam.goal = 0.0001;
%训练目标:均方误差低于0.0001
net.trainparam.show = 400; %每训练400次展示一次结果
net.trainparam.epochs = 15000;
%最大训练次数:15000.
[net,tr] = train(net,inputData,outputData);%调用matlab神经网络工具箱自带的train函数训练网络
simout = sim(net,inputData);
%调用matlab神经网络工具箱自带的sim函数得到网络的预测值
figure; %新建画图窗口窗口
t=1:length(simout);
plot(t,y,t,simout,'r')%画图,对比原来的y和网络预测的y