BP神经网络原理及编程实现

来源:互联网 发布:350淘宝装修平台 编辑:程序博客网 时间:2024/05/16 12:34

1、bp神经网络的介绍可以参考:http://wenku.baidu.com/view/174849da49649b6648d747dd.html?from=search/
2、然后就是bp神经网络的编程部分。
BP神经网络预测前首先要训练网络通过训练使网络具有联想记忆和预测能力。BP神经网络的训练过程包括以下几个步骤:

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
具体的编程部分:
%% 该代码为基于BP网络的语言识别

%% 清空环境变量
clc
clear

%% 训练数据预测数据提取及归一化

%下载四类语音信号
load data1 c1
load data2 c2
load data3 c3
load data4 c4

%四个特征信号矩阵合成一个矩阵
data(1:500,:)=c1(1:500,:);
data(501:1000,:)=c2(1:500,:);
data(1001:1500,:)=c3(1:500,:);
data(1501:2000,:)=c4(1:500,:);

%从1到2000间随机排序
k=rand(1,2000);
[m,n]=sort(k);

%输入输出数据
input=data(:,2:25);
output1 =data(:,1);

%把输出从1维变成4维
output=zeros(2000,4);
for i=1:2000
switch output1(i)
case 1
output(i,:)=[1 0 0 0];
case 2
output(i,:)=[0 1 0 0];
case 3
output(i,:)=[0 0 1 0];
case 4
output(i,:)=[0 0 0 1];
end
end

%随机提取1500个样本为训练样本,500个样本为预测样本
input_train=input(n(1:1500),:)’;
output_train=output(n(1:1500),:)’;
input_test=input(n(1501:2000),:)’;
output_test=output(n(1501:2000),:)’;

%输入数据归一化
[inputn,inputps]=mapminmax(input_train);

%% 网络结构初始化
innum=24;
midnum=25;
outnum=4;

%权值初始化
w1=rands(midnum,innum);
b1=rands(midnum,1);
w2=rands(midnum,outnum);
b2=rands(outnum,1);

w2_1=w2;w2_2=w2_1;
w1_1=w1;w1_2=w1_1;
b1_1=b1;b1_2=b1_1;
b2_1=b2;b2_2=b2_1;

%学习率
xite=0.1;
alfa=0.01;
loopNumber=10;
I=zeros(1,midnum);
Iout=zeros(1,midnum);
FI=zeros(1,midnum);
dw1=zeros(innum,midnum);
db1=zeros(1,midnum);

%% 网络训练
E=zeros(1,loopNumber);
for ii=1:loopNumber
E(ii)=0;
for i=1:1:1500
%% 网络预测输出
x=inputn(:,i);
% 隐含层输出
for j=1:1:midnum
I(j)=inputn(:,i)’*w1(j,:)’+b1(j);
Iout(j)=1/(1+exp(-I(j)));
end
% 输出层输出
yn=w2’*Iout’+b2;

   %% 权值阀值修正    %计算误差    e=output_train(:,i)-yn;         E(ii)=E(ii)+sum(abs(e));    %计算权值变化率,隐含层到输出层    dw2=e*Iout;    db2=e';    for j=1:1:midnum        S=1/(1+exp(-I(j)));        FI(j)=S*(1-S);    end          for k=1:1:innum        for j=1:1:midnum%输入层到隐含层            dw1(k,j)=FI(j)*x(k)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4));            db1(j)=FI(j)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4));        end    end    w1=w1_1+xite*dw1';    b1=b1_1+xite*db1';    w2=w2_1+xite*dw2';%根据学习率调整权值和阈值    b2=b2_1+xite*db2';

%所以从上面就可以看出来,输入到隐含层的权重调整方式和隐含层到输出的权重调整方式是不一样的
w1_2=w1_1;w1_1=w1;
w2_2=w2_1;w2_1=w2;
b1_2=b1_1;b1_1=b1;
b2_2=b2_1;b2_1=b2;
end
end

%% 语音特征信号分类
inputn_test=mapminmax(‘apply’,input_test,inputps);
fore=zeros(4,500);
for ii=1:1
for i=1:500%1500
%隐含层输出
for j=1:1:midnum
I(j)=inputn_test(:,i)’*w1(j,:)’+b1(j);
Iout(j)=1/(1+exp(-I(j)));
end

    fore(:,i)=w2'*Iout'+b2;end

end

%% 结果分析
%根据网络输出找出数据属于哪类
output_fore=zeros(1,500);
for i=1:500
output_fore(i)=find(fore(:,i)==max(fore(:,i)));
end

%BP网络预测误差
error=output_fore-output1(n(1501:2000))’;

%画出预测语音种类和实际语音种类的分类图
figure(1)
plot(output_fore,’r’)
hold on
plot(output1(n(1501:2000))’,’b’)
legend(‘预测语音类别’,’实际语音类别’)

%画出误差图
figure(2)
plot(error)
title(‘BP网络分类误差’,’fontsize’,12)
xlabel(‘语音信号’,’fontsize’,12)
ylabel(‘分类误差’,’fontsize’,12)

%print -dtiff -r600 1-4

k=zeros(1,4);
%找出判断错误的分类属于哪一类
for i=1:500
if error(i)~=0%如果错误
[b,c]=max(output_test(:,i));%找到误判的类别是哪个
switch c
case 1
k(1)=k(1)+1;
case 2
k(2)=k(2)+1;
case 3
k(3)=k(3)+1;
case 4
k(4)=k(4)+1;
end
end
end

%找出每类的个体和
kk=zeros(1,4);
for i=1:500
[b,c]=max(output_test(:,i));%统计所有类别,无论是误分还是正确的
switch c
case 1
kk(1)=kk(1)+1;
case 2
kk(2)=kk(2)+1;
case 3
kk(3)=kk(3)+1;
case 4
kk(4)=kk(4)+1;
end
end

%正确率
rightridio=(kk-k)./kk;%每一类别所有的个数减去误判为这一类别的个数,就是正确率
disp(‘正确率’)
disp(rightridio);
web browser www.matlabsky.com

1 0
原创粉丝点击