实验一总体概率密度分布的非参数方法一、实验目的在进行Bayes决策时,一个前提条件是要预先知道先验概率密度和类条件概率密度,而实际中我们只是收集到有限数目的样本,而不知道先验概率密度和类条件概率密度。因此,我们必须先根据有限的样本对类条件概率密度和先验概率密度进行估计,再用估计的结果进行Bayes决策。由样本集估计概率密度的方法有监督参数估计、非监督参数估计和非参数估计三种类型,其中非参数估计方法是在样本所属类别已知,但是未知总体概率密度函数形式的条件下,直接推断概率密度函数本身的方法。本实验的目的是通过编程进行概率密度的函数的Parzen窗函数估计,加深对非参数估计基本思想的认识和理解。二、 实验数据文中使用的实验数据是一组随机数据,r=r=normrnd(0,2,1,10000);其中normrnd使用来产生正太分布的随机数据,它的调用形式为R= normrnd(MU,SIGMA,m,n)其中,MU:规定数据的均值;SIGMA:规定数据的标准差;m:规定数据的行数;n:规定数据的列数。三、实验结果实验过程中使用的是方窗Parzen,并且对同样一组数据进行了十二种对比,其中同一行中的图表示使用的是相同的窗口大小:分别为N=1,N=16,N=256,N=10000。同一列的数据表示使用的是相同的h,分别是h=0.25,h=1,h=4。最后仿真程序运行得到的结果图如下图1.1所示
实验一 总体概率密度分布的非参数方法 一、 实验目的 在进行 Bayes 决策时,一个前提条件是要预先知道先验概率密度和类条件概 率密度,而实际中我们只是收集到有限数目的样本,而不知道先验概率密度和类 条件概率密度。因此,我们必须先根据有限的样本对类条件概率密度和先验概率 密度进行估计,再用估计的结果进行 Bayes 决策。 由样本集估计概率密度的方法有监督参数估计、非监督参数估计和非参数估 计三种类型,其中非参数估计方法是在样本所属类别已知,但是未知总体概率密 度函数形式的条件下,直接推断概率密度函数本身的方法。 本实验的目的是通过编程进行概率密度的函数的 Parzen 窗函数估计,加深 对非参数估计基本思想的认识和理解。 二、 实验数据 文中使用的实验数据是一组随机数据,r= r=normrnd(0,2,1,10000);其中 normrnd 使用来产生正太分布的随机数据,它的调用形式为 R = normrnd(MU,SIGMA,m,n) 其中,MU:规定数据的均值; SIGMA:规定数据的标准差; m:规定数据的行数; n:规定数据的列数。 三、 实验结果 实验过程中使用的是方窗 Parzen,并且对同样一组数据进行了十二种对比, 其中同一行中的图表示使用的是相同的窗口大小:分别为 N=1,N=16,N=256, N=10000。同一列的数据表示使用的是相同的 h,分别是 h=0.25,h=1,h=4。最 后仿真程序运行得到的结果图如下图 1.1 所示
h=1h=0.25h=40.41210.510.2000-1010-10010-1000100.50.40.291=N091=N0.20.1=Nn0-1-10010-10010-100100.50.50.500957=02=000-55-5550.50.50.500000-000000000000-N0IL50CS0V2图1.1方窗Parzen仿真实验运行结果结果分析:根据实验结果图可以看出最后估计的概率密度函数与N和h的取值大小有密切的关系当h=0.25,N=10000时,曲线起伏很大,噪声大,与真实的概率密度函数曲线相差较大。h=1,起伏减小,不过噪声依旧明显。h=4,曲线平坦。同时当N→8o时,估计曲线也逐渐逼近实际的概率密度曲线。附录程序r=normrnd(0,2,1,10000);f=r(1:1000),Ith=1;h=[0.25,1,4];f=sort(f),VI=h(1);V2=h(2);V3=h(3);V=[V1,V2,V3];a=zeros(1000,3),p=zeros(1000,3);b=0,for m=1:3for x=1:1000for n=1:Ithif abs(r(:;,n)-f(x)/h(;,m)<=1/2q=1;elseq=0;endb=q+b,end
图 1.1 方窗 Parzen 仿真实验运行结果 结果分析:根据实验结果图可以看出最后估计的概率密度函数与 N 和 h 的取 值大小有密切的关系当 h=0.25,N=10000 时,曲线起伏很大,噪声大,与真实的 概率密度函数曲线相差较大。h=1,起伏减小,不过噪声依旧明显。h=4,曲线 平坦。同时当 N→∞时,估计曲线也逐渐逼近实际的概率密度曲线。 附录 程序 r=normrnd(0,2,1,10000); f=r(1:1000); f=sort(f); lth=1; h=[0.25,1,4]; V1=h(1); V2=h(2); V3=h(3); V=[V1,V2,V3]; a=zeros(1000,3); p=zeros(1000,3); b=0; for m=1:3 for x=1:1000 for n=1:lth if abs((r(:,n)-f(x))/h(:,m))<=1/2 q=1; else q=0; end b=q+b; end
b=0;a(x,m)=b,endendfor m=1:3for x=1:1000p(x,m)=1/(Ith*V(m)* a(x,m);endsubplot(4,3,m),plot(f(1:1000),p(,m),ylabel(N=1')endhold onIth=16;b=0;for m=1:3for x=1:1000for n=1:Ithq=1; if abs(r(:,n)-f(x))/h(:,m)<=1/2elseq=0;end b=q+b;endb=0;a(x,m)=b,endendfor m=1:3for x=1:1000p(x,m)=1/(th*V(m)* a(x,m);endsubplot(4,3,m+3);plot(f(1:1000),p(:;m);ylabel(N=16)endhold onIth=256;b=0;for m=1:3for x=1:1000
a(x,m)=b; b=0; end end for m=1:3 for x=1:1000 p(x,m)=1/(lth*V(m))* a(x,m); end subplot(4,3,m);plot(f(1:1000),p(:,m)); ylabel('N=1') end hold on lth=16; b=0; for m=1:3 for x=1:1000 for n=1:lth if abs((r(:,n)-f(x))/h(:,m))<=1/2 q=1; else q=0; end b=q+b; end a(x,m)=b; b=0; end end for m=1:3 for x=1:1000 p(x,m)=1/(lth*V(m))* a(x,m); end subplot(4,3,m+3);plot(f(1:1000),p(:,m)); ylabel('N=16') end hold on lth=256; b=0; for m=1:3 for x=1:1000
for n=1:Ithq=1;if abs(r(:,n)-f(x)/h(;,m)<=1/2q=0; elseendb=q+b;enda(x,m)=b; b=0;endendfor m=1:3for x=1:1000p(x,m)=1/(lth*V(m)* a(x,m);endsubplot(4,3,m+6),plot(f(1:1000),p(,m));axis([-5,5,0,0.6);ylabel(N=256)endIth=10000;b=0;for m=1:3for x=1:1000for n=1:Ithq=1; if abs(r(:,n)-f(x)/h(:,m)<=1/2elseq=0; end b=q+b;endb=0,a(x,m)=b;endendfor m=1:3for x=1:1000p(x,m)=1/(lth*V(m)* a(x,m);endsubplot(4,3,m+9);plot(f(1:1000),p(:,m);axis([-5,5,0,0.5);ylabel(N=10000)end
for n=1:lth if abs((r(:,n)-f(x))/h(:,m))<=1/2 q=1; else q=0; end b=q+b; end a(x,m)=b; b=0; end end for m=1:3 for x=1:1000 p(x,m)=1/(lth*V(m))* a(x,m); end subplot(4,3,m+6);plot(f(1:1000),p(:,m));axis([-5,5,0,0.6]); ylabel('N=256') end lth=10000; b=0; for m=1:3 for x=1:1000 for n=1:lth if abs((r(:,n)-f(x))/h(:,m))<=1/2 q=1; else q=0; end b=q+b; end a(x,m)=b; b=0; end end for m=1:3 for x=1:1000 p(x,m)=1/(lth*V(m))* a(x,m); end subplot(4,3,m+9);plot(f(1:1000),p(:,m));axis([-5,5,0,0.5]); ylabel('N=10000') end
实验二感知器准则算法实验实验目的1)感知器算法是一种线性分类器,通过在实验的过程中理解线性分类器的分类原理,进一步加深对感知准则算法的基本思想的认识和理解。2)了解感知器算法原理之后,需要编程实现算法,这个过程中可以加强编程能力,同时也可以加深对算法的理解。实验数据样本1:W1=[05.0-3.52.04.13.1-0.80.96.03.91.1 6.0 -4.12.7 2.8 5.6 -1.3 1.2 6.4 4.0];样本2:W2=[7.1-1.44.56.34.21.42.42.56.44.14.2 -4.3 0.0 1.6 1.9 -3.2 -4.0 -4.1 3.7-2.21样本3:W3=[-3.00.52.9-0.1-4.0-1.3-3.4-4.1-5.11.9;-2.9 6.72.1 5.2 2.2 3.76.2 3.4 1.65.1];三、实验结果感知器算法仿真实验结果如图2.1所示。86X201-22*丰-10O510010V-55图2.1感知器算法仿真结果图结果分析:图中两个图都是初始权向量为[0,0.0时的结果,左图为对w1、w2样本训练的结果,右图为对w2、w3样本训练结果。根据实验结果图可以发现线
实验二 感知器准则算法实验 一、 实验目的 1)感知器算法是一种线性分类器,通过在实验的过程中理解线性分类器的 分类原理,进一步加深对感知准则算法的基本思想的认识和理解。 2)了解感知器算法原理之后,需要编程实现算法,这个过程中可以加强编 程能力,同时也可以加深对算法的理解。 二、 实验数据 样本 1:W1=[0 5.0 -3.5 2.0 4.1 3.1 -0.8 0.9 6.0 3.9; 1.1 6.0 -4.1 2.7 2.8 5.6 -1.3 1.2 6.4 4.0]; 样本 2:W2=[7.1 -1.4 4.5 6.3 4.2 1.4 2.4 2.5 6.4 4.1; 4.2 -4.3 0.0 1.6 1.9 -3.2 -4.0 -4.1 3.7 -2.2]; 样本 3:W3=[-3.0 0.5 2.9 -0.1 -4.0 -1.3 -3.4 -4.1 -5.1 1.9; -2.9 6.7 2.1 5.2 2.2 3.7 6.2 3.4 1.6 5.1]; 三、 实验结果 感知器算法仿真实验结果如图 2.1 所示。 图 2.1 感知器算法仿真结果图 结果分析:图中两个图都是初始权向量为[0,0,0]时的结果,左图为对 w1、w2 样本训练的结果,右图为对 w2、w3 样本训练结果。根据实验结果图可以发现线