Ⅰ matlab 神經網路輸出概率
[class,err,POSTERIOR] = classify(...)
用第三個參數獲取它分類的後驗概率
Ⅱ matlab的神經網路工具箱怎麼用
1.神經網路
神經網路是單個並行處理元素的集合,我們從生物學神經系統得到啟發。在自然界,網路功能主要由神經節決定,我們可以通過改變連接點的權重來訓練神經網路完成特定的功能。
一般的神經網路都是可調節的,或者說可訓練的,這樣一個特定的輸入便可得到要求的輸出。如下圖所示。這里,網路根據輸出和目標的比較而調整,直到網路輸出和目標匹配。作為典型,許多輸入/目標對應的方法已被用在有監督模式中來訓練神經網路。
神經網路已經在各個領域中應用,以實現各種復雜的功能。這些領域包括:模式識別、鑒定、分類、語音、翻譯和控制系統。
如今神經網路能夠用來解決常規計算腿四岩越餼齙奈侍狻N頤侵饕ü飧齬ぞ呦淅唇⑹痙兜納窬縵低常⒂τ玫焦こ獺⒔鶉諍推淥導氏釒恐腥ァ?BR>一般普遍使用有監督訓練方法,但是也能夠通過無監督的訓練方法或者直接設計得到其他的神經網路。無監督網路可以被應用在數據組的辨別上。一些線形網路和Hopfield網路是直接設計的。總的來說,有各種各樣的設計和學習方法來增強用戶的選擇。
神經網路領域已經有50年的歷史了,但是實際的應用卻是在最近15年裡,如今神經網路仍快速發展著。因此,它顯然不同與控制系統和最優化系統領域,它們的術語、數學理論和設計過程都已牢固的建立和應用了好多年。我們沒有把神經網路工具箱僅看作一個能正常運行的建好的處理輪廓。我們寧願希望它能成為一個有用的工業、教育和研究工具,一個能夠幫助用戶找到什麼能夠做什麼不能做的工具,一個能夠幫助發展和拓寬神經網路領域的工具。因為這個領域和它的材料是如此新,這個工具箱將給我們解釋處理過程,講述怎樣運用它們,並且舉例說明它們的成功和失敗。我們相信要成功和滿意的使用這個工具箱,對範例和它們的應用的理解是很重要的,並且如果沒有這些說明那麼用戶的埋怨和質詢就會把我們淹沒。所以如果我們包括了大量的說明性材料,請保持耐心。我們希望這些材料能對你有幫助。
這個章節在開始使用神經網路工具箱時包括了一些注釋,它也描述了新的圖形用戶介面和新的運演算法則和體系結構,並且它解釋了工具箱為了使用模塊化網路對象描述而增強的機動性。最後這一章給出了一個神經網路實際應用的列表並增加了一個新的文本--神經網路設計。這本書介紹了神經網路的理論和它們的設計和應用,並給出了相當可觀的MATLAB和神經網路工具箱的使用。
2.准備工作
基本章節
第一章是神經網路的基本介紹,第二章包括了由工具箱指定的有關網路結構和符號的基本材料以及建立神經網路的一些基本函數,例如new、init、adapt和train。第三章以反向傳播網路為例講解了反向傳播網路的原理和應用的基本過程。
幫助和安裝
神經網路工具箱包含在nnet目錄中,鍵入help nnet可得到幫助主題。
工具箱包含了許多示例。每一個
Ⅲ matlab 神經網路工具箱 為什麼訓練後 預測的結果output輸出向量不是1就是-1
有可能過擬合了
Ⅳ matlab神經網路多輸入單輸出問題
首先:你的想法(199個數作為輸入,1個數作為輸出)是沒什麼問題,但是你的輸入矩陣為199*n,你的n=1,表明你的樣本只有一個,這樣一個孤立的樣本作為訓練樣本沒什麼意義;
其次:姑且不談你的樣本意義,需要跟你說明的是,matlab神經網路工具箱是以一列為一個樣本,而你的B=minmax(input')使得B為1*199的矩陣,顯然不對,最好加上B=B';
最後:[net,tr]=train(net,input,output,[],[]);中的參數為三個也行,改為net=train(net,input,output);
上面所述是按舊版本來的。
下面是我修改的程序,matlab版本R2012b,你的是舊版本的matlab,所以newff用法跟新的略有不同:
clear
p=1:0.05:11-0.05;
t=(p-1).*(p-2).*(p-4).*(p-9).*(p-11);
N=length(p);
input=t(1:199)';
output=t(200);
ptest=t(2:200)';
% B=minmax(input');
net = newff(input,output,[20 6],{'tansig' 'tansig' 'purelin'},'traingdx','learngdm');
[net,tr]=train(net,input ,output);
a=sim(net,ptest');
Ⅳ matlab神經網路工具箱訓練出來的函數,怎麼輸出得到函數代碼段
神經網路訓練出來的是權值矩陣
我想你是想在matlab外用訓練好的神經網路
首先你要在外部實現神內經網路演算法
之後你把神容經網路訓練出來的權值矩陣讀取到你在外部實現的神經網路演算法中
然後你就可以使用這個神經網路了
Ⅵ matlab神經網路工具箱問題
線性神經網路的構建:
net=newlin(PR,S,ID,LR)
PR--Rx2階矩陣,R個輸入元素的最小最大矩陣
S---輸出層神經元個數
ID--輸入延遲向量,默認值為[0]
IR--學習率,默認值為0.01
net = newlin([-1 1;-1 1],1); 表示設計的是一個雙輸入單輸出線性神經網路
P = [1 2 2 3; 2 1 3 1];表示輸入樣本有四個,每一列就是一個輸入樣本
又比如假設我們期望的輸出為 T=[1 2 3 4],則一個簡單的神經網路如下:
>>net = newlin([-1 1;-1 1],1);%創建初始網路
P=[1 2 2 3; 2 1 3 1]%輸入
T=[1 2 3 4]%期望的輸出
net=newlind(P,T);%用輸入和期望訓練網路
Y=sim(net,P)%模擬,可以看到模擬結果Y和期望輸出T的接近程度
P =
1 2 2 3
2 1 3 1
T =
1 2 3 4
Y =
0.8889 2.1667 3.0556 3.8889
樓主可以從《matlab神經網路與應用(第二版)》董長虹 開始入門神經網路的matlab實現
參考資料:《matlab神經網路與應用(第二版)》
Ⅶ 如何使用matlab神經網路工具箱
為了看懂師兄的文章中使用的方法,研究了一下神經網路
昨天花了一天的時間查怎麼寫程序,但是費了半天勁,不能運行,網路知道里倒是有一個,可以運行的,先貼著做標本
% 生成訓練樣本集
clear all;
clc;
P=[110 0.807 240 0.2 15 1 18 2 1.5;
110 2.865 240 0.1 15 2 12 1 2;
110 2.59 240 0.1 12 4 24 1 1.5;
220 0.6 240 0.3 12 3 18 2 1;
220 3 240 0.3 25 3 21 1 1.5;
110 1.562 240 0.3 15 3 18 1 1.5;
110 0.547 240 0.3 15 1 9 2 1.5];
0 1.318 300 0.1 15 2 18 1 2];
T=[54248 162787 168380 314797;
28614 63958 69637 82898;
86002 402710 644415 328084;
230802 445102 362823 335913;
60257 127892 76753 73541;
34615 93532 80762 110049;
56783 172907 164548 144040];
@907 117437 120368 130179];
m=max(max(P));
n=max(max(T));
P=P'/m;
T=T'/n;
%-------------------------------------------------------------------------%
pr(1:9,1)=0; %輸入矢量的取值范圍矩陣
pr(1:9,2)=1;
bpnet=newff(pr,[12 4],{'logsig', 'logsig'}, 'traingdx', 'learngdm');
%建立BP神經網路, 12個隱層神經元,4個輸出神經元
%tranferFcn屬性 'logsig' 隱層採用Sigmoid傳輸函數
%tranferFcn屬性 'logsig' 輸出層採用Sigmoid傳輸函數
%trainFcn屬性 'traingdx' 自適應調整學習速率附加動量因子梯度下降反向傳播演算法訓練函數
%learn屬性 'learngdm' 附加動量因子的梯度下降學習函數
net.trainParam.epochs=1000;%允許最大訓練步數2000步
net.trainParam.goal=0.001; %訓練目標最小誤差0.001
net.trainParam.show=10; %每間隔100步顯示一次訓練結果
net.trainParam.lr=0.05; %學習速率0.05
bpnet=train(bpnet,P,T);
%-------------------------------------------------------------------------
p=[110 1.318 300 0.1 15 2 18 1 2];
p=p'/m;
r=sim(bpnet,p);
R=r'*n;
display(R);
運行的結果是出現這樣的界面
點擊performance,training state,以及regression分別出現下面的界面
再搜索,發現可以通過神經網路工具箱來創建神經網路,比較友好的GUI界面,在輸入命令裡面輸入nntool,就可以開始了。
點擊import之後就出現下面的具體的設置神經網路參數的對話界面,
這是輸入輸出數據的對話窗
首先是訓練數據的輸入
然後點擊new,創建一個新的神經網路network1,並設置其輸入輸出數據,包括名稱,神經網路的類型以及隱含層的層數和節點數,還有隱含層及輸出層的訓練函數等
點擊view,可以看到這是神經網路的可視化直觀表達
創建好了一個network之後,點擊open,可以看到一個神經網路訓練,優化等的對話框,選擇了輸入輸出數據後,點擊train,神經網路開始訓練,如右下方的圖,可以顯示動態結果
Ⅷ matlab神經網路工具箱怎麼輸出得到函數代碼段
神經網路訓練出來的是權值矩陣,我想你是想在matlab外用訓練好的神經網路。首先你要在外部實現神經網路演算法,之後你把神經網路訓練出來的權值矩陣讀取到你在外部實現的神經網路演算法中,然後你就可以使用這個神經網路了。
Ⅸ matlab神經網路工具箱訓練出來的函數,怎麼輸出得到函數代碼段
這樣:
clear;
%輸入數據矩陣
p1=zeros(1,1000);
p2=zeros(1,1000);
%填充數據
for i=1:1000
p1(i)=rand;
p2(i)=rand;
end
%輸入層有兩個,樣本數為1000
p=[p1;p2];
%目標(輸出)數據矩陣,待擬合的關系為簡單的三角函數
t = cos(pi*p1)+sin(pi*p2);
%對訓練集中的輸入數據矩陣和目標數據矩陣進行歸一化處理
[pn, inputStr] = mapminmax(p);
[tn, outputStr] = mapminmax(t);
%建立BP神經網路
net = newff(pn, tn, [200,10]);
%每10輪回顯示一次結果
net.trainParam.show = 10;
%最大訓練次數
net.trainParam.epochs = 5000;
%網路的學習速率
net.trainParam.lr = 0.05;
%訓練網路所要達到的目標誤差
net.trainParam.goal = 10^(-8);
%網路誤差如果連續6次迭代都沒變化,則matlab會默認終止訓練。為了讓程序繼續運行,用以下命令取消這條設置
net.divideFcn = '';
%開始訓練網路
net = train(net, pn, tn);
%訓練完網路後要求網路的權值w和閾值b
%獲取網路權值、閾值
netiw = net.iw;
netlw = net.lw;
netb = net.b;
w1 = net.iw{1,1}; %輸入層到隱層1的權值
b1 = net.b{1} ; %輸入層到隱層1的閾值
w2 = net.lw{2,1}; %隱層1到隱層2的權值
b2 = net.b{2} ; %隱層1到隱層2的閾值
w3 = net.lw{3,2}; %隱層2到輸出層的權值
b3 = net.b{3} ;%隱層2到輸出層的閾值
%在默認的訓練函數下,擬合公式為,y=w3*tansig(w2*tansig(w1*in+b1)+b2)+b3;
%用公式計算測試數據[x1;x2]的輸出,輸入要歸一化,輸出反歸一化
in = mapminmax('apply',[x1;x2],inputStr);
y=w3*tansig(w2*tansig(w1*in+b1)+b2)+b3;
y1=mapminmax('reverse',y,outputStr);
%用bp神經網路驗證計算結果
out = sim(net,in);
out1=mapminmax('reverse',out,outputStr);
注意事項
一、訓練函數
1、traingd
Name:Gradient descent backpropagation (梯度下降反向傳播演算法 )
Description:triangd is a network training function that updates weight and bias values according to gradient descent.
2、traingda
Name:Gradient descentwith adaptive learning rate backpropagation(自適應學習率的t梯度下降反向傳播演算法)
Description:triangd is a network training function that updates weight and bias values according to gradient descent with adaptive learning rate.it will return a trained net (net) and the trianing record (tr).
3、traingdx (newelm函數默認的訓練函數)
name:Gradient descent with momentum and adaptive learning rate backpropagation(帶動量的梯度下降的自適應學習率的反向傳播演算法)
Description:triangdx is a network training function that updates weight and bias values according to gradient descent momentumand an adaptive learning rate.it will return a trained net (net) and the trianing record (tr).
4、trainlm
Name:Levenberg-Marquardtbackpropagation(L-M反向傳播演算法)
Description:triangd is a network training function that updates weight and bias values according toLevenberg-Marquardt optimization.it will return a trained net (net) and the trianing record (tr).
註:更多的訓練演算法請用matlab的help命令查看。
二、學習函數
1、learngd
Name:Gradient descent weight and bias learning function(梯度下降的權值和閾值學習函數)
Description:learngd is the gradient descentweight and bias learning function, it willreturn theweight change dWand a new learning state.
2、learngdm
Name:Gradient descentwith momentumweight and bias learning function(帶動量的梯度下降的權值和閾值學習函數)
Description:learngd is the gradient descentwith momentumweight and bias learning function, it willreturn the weight change dW and a new learning state.
註:更多的學習函數用matlab的help命令查看。
三、訓練函數與學習函數的區別
函數的輸出是權值和閾值的增量,訓練函數的輸出是訓練好的網路和訓練記錄,在訓練過程中訓練函數不斷調用學習函數修正權值和閾值,通過檢測設定的訓練步數或性能函數計算出的誤差小於設定誤差,來結束訓練。
或者這么說:訓練函數是全局調整權值和閾值,考慮的是整體誤差的最小。學習函數是局部調整權值和閾值,考慮的是單個神經元誤差的最小。
它的基本思想是學習過程由信號的正向傳播與誤差的反向傳播兩個過程組成。
正向傳播時,輸入樣本從輸入層傳入,經各隱層逐層處理後,傳向輸出層。若輸出層的實際輸出與期望的輸出(教師信號)不符,則轉入誤差的反向傳播階段。
反向傳播時,將輸出以某種形式通過隱層向輸入層逐層反傳,並將誤差分攤給各層的所有單元,從而獲得各層單元的誤差信號,此誤差信號即作為修正各單元權值的依據。