《课程设计实践探索.docx》由会员分享,可在线阅读,更多相关《课程设计实践探索.docx(26页珍藏版)》请在三一办公上搜索。
1、龙经名予科技/冬本科课程设计汇报题目光学遥感图像地物分类措施与数据处理试睑学院电子工程学院专业遥感科学与技术学生姓名导师姓名西安电子科技大学电子工程学院课程设计(汇报)任务书学生姓名指导教师职称副专家学生学号专业遥感科学与技术题目光学遥感图像地物分类措施与数据处理试验有关专业课程MTLAB;图像处理与识别;模式识别任务与规定1、纯熟掌握光学遥感图像中地物可分性的原理。2、深入学习KNN与K-means光学遥感图像数据分类措施。3、运用MATLAB软件编写KNN与K-means识别算法,并对微波遥感实现经典地物目的的分类。开始日期20始年12月26日完毕日期20始年1月9日课程设计所在单位电子工
2、程学院年月日本表格由电子工程学院网络信息中心编辑录入.光学遥感图像地物分类措施与数据处理试验(电子工程学院遥感科学与技术)摘要:遥感具有覆盖范围广、包括信息量大、获取信息快等长处,其所获得的图像已广泛应用于国防安全与国民经济的众多领域。遥感图像分类是遥感图像解译的关键技术,受到各国研究者的广泛关注,成为近年来的研究热点。而对遥感图像地物分类算法的深入研究可以有效改善这些问题,因此我们进行光学遥感图像分类措施与数据处理试验是很有必要时。本论文是通过Matlab,详细以KNN以及K-means算法对光学遥感图像进行地物分类仿真,并对仿真成果进行了数据分析。在最终,我们还总结了全篇所做工作并对未来光
3、学遥感图像分类0发展趋势做了展望。关键词:遥感图像,图像分类,KNN,K-meansAbstract:Remotesensinghasmanyadvantages,suchaswidecoverage,largeamountofinformationandfastaccesstoinformation.Theobtainedimagehasbeenwidelyusedinmanyfieldsofnationaldefensesecurityandnationaleconomy.Remotesensingimageclassificationisthekeytechnologyofremotes
4、ensingimageinterpretation,whichhasbeenthefocusofattentionofresearchersallovertheworldandhasbecomeahotspotinrecentyears.Furtherresearchonremotesensingimagefeatureclassificationalgorithmcaneffectivelyimprovetheseproblems,sowecarryoutopticalremotesensingimageclassificationmethodanddataprocessingexperim
5、entisnecessary.Inthispaper,theclassificationofopticalremotesensingimageissimulatedbyusingMatlabandKNNandK-meansalgorithm,andthesimulationresultsareanalyzed.Intheend,wealsosummarizetheworkdoneinthewholearticleandprospectofthedevelopmenttrendofthefutureclassificationofopticalremotesensingimages.Keywor
6、ds:opticalremotesensingimage,featureclassification,KNN,K-means1引言1.1 目前遥感图像地物分类现实状况先从老式的遥感分类方面说起,该分类措施是目前运用较多,算法比较成熟的措施。分为监督分类和非监督分类,他们0原理都是根据图像象元的光谱特性B相似度来进行0分类。监督分类用于顾客对分类区比较熟悉,由顾客自己控制,非监督分类则是将象元相似度大小进行归类合并。不过未充足运用遥感图像提供的多种信息,只考虑多光谱特性,没有运用到地物空间关系、空间位置形状、纹理等方面的信息。1、监督分类监督分类可根据应用目0和区域,有选择地决定分类类别,可控制
7、样本0选择,防止了非监督分类中对光谱集群组的重新归类。但个人认为其人为主观原因较强,操作者所选择的训练样本有也许不是很经典并且有也许不能反应图像的真实状况,因此图像中同一类别0光谱差异和人为原因,有也许导致样本没有代表性,并且训练样本B选用和评估需要花费较多B人力和时间。2、非监督分类非监督分类过程不需要任何的先验知识,仅凭遥感影像地物光谱特性的分布规律,随其自然地进行分类。不过看文献时看到,非监督分类尚有一种前提,那就是:假定遥感影像上同类地物在同样条件下具有相似0光谱信息特性。假如产生0光谱万一不一定对应于操作者想要0类别,且操作者较难对产生0类别进行控制,例如图像中各类别日勺光谱特性会随
8、时间、地形等变化,不一样图像以及不一样步段B图像之间B光谱无法保持其持续性,从而使不一样图像之间的对比变得困难。无论是监督分类还是非监督分类,都是根据地物的光谱特性时点独立原则来进行分类的,且都是采用的记录措施。该措施只是根据各波段灰度数据时记录特性进行0,加上卫星遥感数据0辨别率0限制,一般图像0像元诸多是混合像元,带有混合光谱信息日勺特点,致使计算机分类面临着诸多模糊对象,不能确定其究竟属于哪一类地物。并且,同物异谱和异物同谱B现象普遍存在,也会导致误分、漏分状况的出现,因此人们不停尝试新措施来加以改善和提高遥感图像分类的效率和质量。这些新措施重要有决策树分类法、综合阈值法、专家系统分类法
9、、多特性融合法、神经网络分类法以及基于频谱特性0分类法等。近年来0研窕大多将老式措施与新措施加以结合。即在非监督分类和监督分类的基础上,运用新措施来改善,减少错分和漏分状况,对遥感图像的分类精度有了一定程度的增强。1. 2遥感发展历程1、无记录地面遥感阶段(1608-1838)1623年汉斯李波尔赛制造了世界第一架望远镜1623年伽利略制作了放大三倍的科学望远镜并初次观测月球1794年气球初次升空侦察为观测远距离目的开辟了先河,但望远镜观测不能把观测到的J事物用图像的方式记录下来。2、有记录地面遥感阶段(1839T857)1839年达盖尔(DagUarre)刊登了他和尼普斯(Niepce)拍摄
10、0照片,第一次成功将拍摄事物记录在胶片上1849年法国人艾米劳塞达特(AimeLaussedat)制定了摄影测量计划,成为有目的有记录的地面遥感发展阶段的标O3、初期发展又可称为空中摄影遥感阶段(1858T956)1858年用系留气球拍摄了法国巴黎0鸟瞰像片,1923年飞机B发明,1923年第一张航空像片。一战期间(1914-1918)形成独立的航空摄影测量学的学科体系。二战期间(1931T945)彩色摄影、红外摄影、雷达技术、多光谱摄影、扫描技术以及运载工具和判读成图设备。4、现代遥感技术从1957年开始迅速发展1957年:前苏联发射了人类第一颗人造地球卫星。20世纪60年代:美国发射了TI
11、ROS、ATS、ESSA等气象卫星和载人宇宙飞船。1972年:发射了地球资源技术卫星ERTS-1(后更名为LandSatLandsat-D,装有MSS感器,辨别率79米。1982年LandSat-4发射,装有TM传感器,辨别率提高到30米。1986年法国发射SPOT-I,装有PAN和XS遥感器,辨别率提10米。1999年美国发射IKNOS,空间辨别率提高到1米。卜”1.3遥感图像分类原理概述一般我们所指的遥感图像是指卫星探测到的地物亮度特性,它们构成了光谱空间。每种地物有其固有的光谱特性,它们位于光谱空间中的某一点。但由于干扰0存在,环境条件的不一样,例如:阴影,地形上B变化,扫描仪视角,干湿
12、条件,不一样步间拍摄及测量误差等,使得测得B每类物质的光谱特性不尽相似,同一类物质B各个样本在光谱空间是围绕某一点呈概率分布,而不是集中到一点,但这仍使我们可以划分边界来辨别各类。因此,我们就要对图像进行分类。图像分类的任务就是通过对各类地物波谱特性的分析选择特性参数,将特性空间划分为不相重叠的子空间,进而把影像内诸像元划分到各子间去,从而实现分类。分类措施可以分为记录决策法(鉴别理论识别法)模式识别和句法模式识别。记录决策法模式识别指的是:对研究对象进行大量的记录分析,抽出反应模式B本质特点、特性而进行识别。重要B有监督分类中的最小距离法、逐次参数估计法、梯度法、最小均方误差法、费歇准则法和
13、非监督分类中的按批修改的逐渐聚类法、等混合距离法。此外还可以将两者结合起来,互相补充以获得很好的效果。句法模式识别则需要理解图像构造信息,从而对其进行分类。2基础原理2.1KNN算法原理邻近算法,或者说K近来邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简朴的措施之一。所谓K近来邻,就是k个近来B邻居的意思,说的是每个样本都可以用它最靠近的k个邻居来代表。KNN算法的关键思想是假如一种样本在特性空间中的k个最相邻的样本中的大多数属于某一种类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该措施在确定分类决策上只根据最邻近0一种或者几种样本的类别来决定待分
14、样本所属0类别。kNN措施在类别决策时,只与很少许B相邻样本有关。由于kNN措施重要靠周围有限B邻近B样本,而不是靠鉴别类域的措施来确定所属类别B,因此对于类域的交叉或重叠较多的待分样本集来说,kNN措施较其他措施更为适合。图2.L1KNN分类图上图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?假如K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,假如K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。K近来邻(k-NearestNeighbor,KNN)分类算法,是一种理论上比较成熟的措施,也是最简朴的机器学习算法之一。该措施F句思绪是:假如一
15、种样本在特性空间中0k个最相似(即特性空间中最邻近)0样本中0大多数属于某一种类别,则该样本也属于这个类别。KNN算法中,所选择的邻居都是已经对的分类的对象。该措施在定类决策上只根据最邻近的一种或者几种样本0类别来决定待分样本所属的类别。KNN措施虽然从原理上也依赖于极限定理,但在类别决策时,只与很少许的J相邻样本有关。由于KNN措施重要靠周围有限的邻近啊样本,而不是靠鉴别类域的措施来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN措施较其他措施更为适合。KNN算法不仅可以用于分类,还可以用于回归。通过找出一种样本的k个近来邻居,将这些邻居的属性日勺平均值赋给该样本,就可以
16、得到该样本B属性。更有用的措施是将不一样距离的邻居对该样本产生的影响予以不一样的权值(weight),如权值与距离成反比。算法流程:1 .准备数据,对数据进行预处理2 .选用合适B数据构造存储训练数据和测试元组3 .设定参数,如k4 .维护一种大小为k的的按距离由大到小I为优先级队列,用于存储近来邻训练元组。随机从训练元组中选用k个元组作为初始附近来邻元组,分别计算测试元组到这k个元组MJ距离,将训练元组标号和距离存入优先级队列5 .遍历训练元组集,计算目前训练元组与测试元组的距离,将所得距离L与优先级队列中的最大距离Lmax6 .进行比较。若L=Lmax,则舍弃该元组,遍历下一种元组。若LL
17、max,删除优先级队列中最大距离0元组,将目前训练元组存入优先级队列。7 .遍历完毕,计算优先级队列中k个元组的多数类,并将其作为测试元组的类别。8 .测试元组集测试完毕后计算误差率,继续设定不一样的k值重新进行训练,最终取误差率最小的Jk值长处:1.简朴,易于理解,易于实现,无需估计参数,无需训练;2 .适合对稀有事件进行分类;3 .尤其适合于多分类问题(multi-modal,对象具有多种类别标签),kNN比SVM的体现要好。缺陷:该算法在分类时有个重要的局限性是,当样本不平衡时,如一种类的样本容量很大,而其他类样本容量很小时,有也许导致当输入一种新样本时,该样本0K个邻居中大容量类的样本
18、占多数。该算法只计算“近来的”邻居样本,某一类的样本数量很大,那么或者此类样本并不靠近目的样本,或者此类样本很靠近目的样本。无论怎样,数量并不能影响运行成果。该措施的另一种局限性之处是计算量较大,由于对每一种待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个近来邻点。可理解性差,无法给出像决策树那样0规则。改善方略:kNN算法因其提出时间较早,伴随其他技术的不停更新和完善,kNN算法的诸多局限性之处也逐渐显露,因此许多kNN算法的改善算法也应运而生。针对以上算法B局限性,算法的改善方向重要提成了分类效率和分类效果两方面。分类效率:事先对样本属性进行约简,删除对分类成果影响较小的属性,
19、迅速的得出待分类样本的类别。该算法比较合用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较轻易产生误分。分类效果:采用权值的措施(和该样本距离小B邻居权值大)来改善,Han等人于2023年尝试运用贪心法,针对文献分类实做可调整权重Bk近来邻居法WAkNN(weightedadjustedknearestneighbor),以增进分类效果;而Li等人于2023年提出由于不一样分类的文献自身有数量上有差异,因此也应当根据训练集合中多种分类的文献数量,选用不一样数目的近来邻居,来参与分类。2.2K-means算法原理K-means算法是硬聚类算法,是经典0基于原型0目0函数
20、聚类措施0代表,它是数据点到原型0某种距离作为优化B目的函数,运用函数求极值0措施得到迭代运算B调整规则。K-means算法以欧式距离作为相似度测度,它是求对应某一初始聚类中心向量V最优分类,使得评价指标J最小。算法采用误差平方和准则函数作为聚类准则函数。K-means算法是很经典的基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象日勺距离越近,其相似度就越大。该算法认为簇是由距离靠近B对象构成B,因此把得到紧凑且独立B簇作为最终目的。(2. 2. 1)V=Zz(为-M)t=XjGSi2个初始类聚类中心点的选用对聚类成果具有较大的公式影响,由于在该算法第一步中是随机的选用任意&个
21、对象作为初始聚类的中心,初始地代表一种簇。该算法在每次迭代中对数据集中剩余的每个对象,根据其与各个簇中心的距离将每个对象重新赋给近来的簇。当考察完所有数据对象后,一次迭代运算完毕,新的聚类中心被计算出来。假如在一次迭代前后,J时值没有发生变化,阐明算法已经收敛。算法过程如下:D从N个文档随机选用k个文档作为质心2)对剩余的每个文档测量其到每个质心的距离,并把它归到近来的质心的类3)重新计算已经得到的各个类的质心4)迭代23步直至新0质心与原质心相等或不大于指定阈值,算法结束详细如下:输入:k,datan;(1)选择k个初始中心点,例如cO=dataO,ckT=datakT;(2)对于dataO
22、.datan,分别与c0ckT比较,假定与ci差值至少,就标识为i;(3)对于所有标识为i点,重新计算ci=所有标识为iBJdataj之和/标识为i0个数;(4)反复(2)(3),直到所有ci值的变化不大于给定阈值。算法长处:1.算法迅速、简朴;2 .对大数据集有较高0效率并且是可伸缩性B;3 .时间复杂度近于线性,并且适合挖掘大规模数据集。K-Means聚类算法的时间复杂度是O(nkt),其中n代表数据集中对象的数量,t代表着算法迭代的次数,k代表着簇的数目。算法缺陷:在K-means算法中K是事先给定的,这个K值0选定是非常难以估计Bo诸多时候,事先并不懂得给定的数据集应当提成多少个类别才
23、最合适。这也是K-means算法0一种局限性。有0算法是通过类的自动合并和分裂,得到较为合理的类型数目K,例如ISODATA算法。有关K-means算法中聚类数目K值确实定在文献中,是根据方差分析理论,应用混合F记录量来确定最佳分类数,并应用了模糊划分端来验证最佳分类数的对的性。在文献中,使用了一种结合全协方差矩阵0RPCL算法,并逐渐删除那些只包括少许训练数据0类。而文献中使用B是一种称为次胜者受罚B竞争学习规则,来自动决定类B合适数目。它0思想是:对每个输入而言,不仅竞争获胜单元B权值被修正以适应输入值,并且对次胜单元采用惩罚的措施使之远离输入值。在K-means算法中,首先需要根据初始聚
24、类中心来确定一种初始划分,然后对初始划分进行优化。这个初始聚类中心的选择对聚类成果有较大的影响,一旦初始值选择时不好,也许无法得到有效0聚类成果,这也成为kmeans算法的一种重要问题。对于该问题日勺处理,许多算法采用遗传算法(GA),例如文献中采用遗传算法(GA)进行初始化,以内部聚类准则作为评价指标。从K-means算法框架可以看出,该算法需要不停地进行样本分类调整,不停地计算调整后B新的聚类中心,因此当数据量非常大时,算法的时间开销是非常大的。因此需要对算法0时间复杂度进行分析、改善,提高算法应用范围。在文献中从该算法的时间复杂度进行分析考虑,通过一定的相似性准则来去掉聚类中心的侯选集。
25、而在文献中,使用的K-means算法是对样本数据进行聚类,无论是初始点的选择还是一次迭代完毕时对数据的调整,都是建立在随机选用时样本数据0基础之上,这样可以提高算法的收敛速度。3方案设计及仿真实现3.1 KNN部分主函数中包括两个子函数Data-Gen用于产生模拟数据,这里产生0数据一一种100O*3的矩阵,其中前两列代表数据,即数据是一种包括两个元素的向量,有效数据为OTO之间的随机数,最终一列为分类号,这里假设一共分为4类,分类号为1,2,3,4y,10分类号1234O5IOX图3.LI数据分类图KNNdatgingTest_2Wei子函数用于实现KNN算法1参数设置,这里选用0K值为4,
26、测试数据比例为0.1,也就是说100O组数据中有900组为样本,剩余日勺为测试数据,由于数据都是随机产生的,因此选定前100组数据位测试数据,其他的为样本数据;2导入数据后对数据做归一化处理;3按序遍历所有测试数据,每一种测试数据分别与所有测试样本求欧式距离;4对求得欧式距离按从小到大排序;5选用最小0K个,并选用分类号最多的成果作为测试数据的分类号。%该程序用于产生测试用的数据%functionData_Gen%num代表数据个数clear;cc;row=3;%数据维数+1COIUmn=IoO0;%数据个数format=1;数据格式选择,为0的时候产生类别明确的数,当为1时产生模糊的数Dat
27、a=ZerOS(COlUmn,row);%产生一种IOoO*3WJ矩阵,前两列为数据,最终列为类别if(format=0)forn=l:l:columna=round(3*rand(l)%产生0-3的证书作为类别ifa=0Data(n,:)=Wand*3+1Mrand*3+6),a+lJ%当a=0时,在左上角产生数,并归为1类elseifa=lData(n,:问(rand*3+6Mrand(I)*3+6),a+l%当a=l时,在左上角产生数,并归为2类elseifa=2Data(n)=(rand(l)*3+l)4rand(l)*3+l),a+lj%a=2时,在左上角产生数,并归为3类elseD
28、ata(n)=(rand(l)*3+6)4rand(l)*3+l),a+la=3时,在左上角产生数,并归为4类endendelseforn=Iilxolumna=round(3*rand);产生0-3的证书作为类别ifa=0Data(IV)=Hrand*5),(rand*5+5);%当a=0时,在左上角产生数,并归为1类elseifa=lDatan:)Mrand5+5),他门或1)*5+5)1+1;%当a=l时,在左上角产生数,并归为2类elseifa=2Datam)=(rand*5),(rand(l)*5),a+l%当a=2时,在左上角产生数,并归为3类elseData(n)=(rand(l
29、)5+5),(rand(l)*5),a+lj%a=3时,在左上角产生数,并归为4类endendendfid=fopen(Data-Test.tt,wt);forn=l:l:columnfork=l:l:(row-l)fprintf(fid,%d,Data(n,k);fprintf(fid,%s,);endfprintf(fid,%d,Data(n,row);fprintf(fid,n);endfclose(fid);functionrelustLabel=KNN(inx,data,labels,k)%i11为输入测试数据,data为样本数据,IabeIS为样本标签%datarow,dataco
30、l=size(data);%求两点间距离,这里使用欧式距离diffMat=repmat(inx,datarow,1)-data;distanceMat=sqrt(sum(diffMat.2,2);%按升序排列,IX为检索号B,IX=SortfdistanceMat,ascend);Ien=min(k,length(B);%找出出现频率最高的分类号作为最终的分类成果relustLabel=mode(labels(l(lden);end%functionKNNdatgingTest_2Wei%clcdeardoseall%导入数据data=load(,Data-Test.txt);dataMat=
31、data(:,l:2);labels=data(:,3);Ien=size(dataMat,l);k=4;%选用的点数error=0;%测试数据比例Ratio=0.1;nmTest=Ratio*len;%归一化处理maxV=max(dataMat);minV=min(dataMat);range=maxV-minV;newdataMat=(dataMat-repmat(minV,len,l).(repmat(range,len,l);%测试erjnum=%用于记录错误的数据检索号fori=IrnumTest%前I(X)个为测试数据,后900个为样本数据,并调用KNN分类器Classifyres
32、ult=KNN(newdataMat(i,:),newdataMat(numTest+l:len,:),labels(numTest+l:len,:),k);%假如发生分类错误,则记录错误数据索引号if(dassifyresult=labels(i)error=error+l;err_num=err_num,i;%更新分类号为判断I内成果,并打印错误号%data(i,3)=cassifyreslt;fprintf(,错误数据d测试成果为:%d真实成果为:%dn,iClassifyresultIabelsfi)endend%计算精确率fprintfC精确率为:%fn,l-error(numTes
33、t);%画出分类后的成果图%figure。;%画出样本数据以表达fori=numTest+l:l:lenif(data(i,3)=1)plot(data(bl),data(t2),-r)jholdon%红色elseif(data(i,3)=2)plot(data(i,l),data(i,2),-k,)jholdon%黑色elseif(data(i,3)=3)plot(data(i4),data(iz2)-b)jholdon%蓝色elseplot(data(tl)zdata(i,2),-g,)iholdon%绿色endend%画出测试数据以。表达fori=l:l:numTestif(data(i
34、,3)=1)plot(data(i,l),data(i,2),-rs)oldOn%红色elseif(data(i,3)=2)plot(data(i,l),data(i,2),-ks,)jholdon%黑色elseif(data(i,3)=3)plot(data(i,l),data(i,2),-bshholdon%蓝色elseplot(data(i,l),data(i,2),-gs,)jholdon%绿色endend%画出错误数据以X表达fori=l:l:lengtherr_num)if(data(err-num(i),3)=1)plot(data(err_num(i)/l),data(err_
35、num(i),2)/-rx,);holdon%红色elseif(data(err-num(i),3)=2)plot(data(err_num(i),lhdata(err_num(i),2)/-kx);holdOn%黑色elseif(data(err-num(i),3)=3)plot(data(err_num(i),l),data(err_num(i),2)/-bx);holdon%蓝色elseplot(data(err-num(i),l),data(err-num(i),2)-gx,)holdon%绿色endendgridon;运行成果:错误数据63测试成果为:1真实成果为:3精确率为:0.9
36、9000010987654321678910图KNN仿真成果图图中”.”代表样本数据,红色、黑色、蓝色、绿色分别代表第一、二、三、四类。图中方框代表测试数据,红色、黑色、蓝色、绿色分别代表鉴定为第一、二、三、四类。错号代表鉴别类别错误。本次鉴定只有一种错误,精确率到达99%o3.2K-means部分1KleEditViewIwertToobDesktopWindowHelpDCid)Q、-、。10QImputimage图测试图像此测试图像是由小组组员拍摄B平常教学楼B光学图片。我们所做的试验是将这张照片中的事物分为5类,以求得最真实的分类效果。functionkmeans_demol()cle
37、ar;closeall;clc;%读取测试图像im=imread(,IMG.jpg);imshow(im),title(,lmputimage);%转换图像的颜色空间得到样本cform=makecform(,srgb2lab,);lab=applycform(im,cform);ab=double(lab(:,:,2:3);nrows=size(lab,l);ncols=size(lab,2);X=reshape(ab,nrows*ncols,2),;figure,SCatter(X(I,J,X(2,:),3,filled);boxon;%显示颜色空间转换后的二维样本空间分布4)Fjur2-O
38、XFilEditViewlnsrtTooUDesktopWindowHelp口已dRXXOcJ0口目口图颜色空间转换后0二维样本空间分布图在图像由RGB转换到LAB色彩模式,LAB的空间互相分量有关性比较小,图像分割效果会更好。%对样本空间进行Kmeans聚类k=5;%聚类个数max_iter=100;%最大迭代次数(centroids,labels=run_kmeans(X,k,maJter);%显示聚类分割成果figure,SCatter(X(I,J,X(2R,3,labeITfiHed%显示二维样本空间聚类效果holdon;SCatter(CentrOidS(1,:),CentrOidS
39、(2,:),60,refilled)holdon;SCatter(CentrOidS(L:),CentroidS(2,:),30,g,filled)boxon;holdoff;%print-dpdf2D2.pdfPixeIJabeIs=reshape(labels,nrows,ncols);rgbjabels=Iabel2rgb(pieljabels);figure,imshow(rgb-labels),title(,SegmentedImage);%print-dpdf.Rgure3-Seg.pdfFileEditViewInsertToolsDesktopWindowHelpUU用Q、%踮
40、收4露end170I1o150三三HHHH三H*140:.;:;:130.*iHi:i::;H;HH11HHHHi120.H:HM:1101001115120125130135140145150图二维样本空间聚类效果图functioncentroids,labels=ru-kmeans(Xzk,maxjter)%该函数实现Kmeans聚类%输入参数:%X为输入样本集,dxN%k为聚类中心个数%max_iter为kemans聚类日勺最大迭代的次数%输出参数:%centroids为最终聚类中心%labels为样本B类别标识%采用K-means+算法初始化聚类中心centroids=X(rzl+ro
41、und(rand*(size(X,2)-l);labels=OneS(I,size(X,2);fori=2:kD=X-centroids(:,labels);D=CUmSUm(Sqrt(dot(D,D,l);ifD(ed)=Ozcentroids(:J:k)=X(:,ones(l,k-i+l);return;endcentroids(:J)=X(:zfind(randDD(end)zl);labels=ma(bsxfun()minusz2*real(centroids,*X)zdot(centroidszcentroidszl);end%原则Kmeans算法foriter=l:max_iter
42、fori=l:kzI=labels=i;Centroids(:,i)=SUm(X(:,1),2)/5Um(I);endlabels=max(bsxfun(minus,2*real(centroids*X),dot(centroids,centroids,1).),1);endend*rueXW)Ml(e)(V)JiA(I)IM(T)MakD)WC(W)W3D(三)DUU)kJXQSegmentedImage图K-means仿真成果图由于原始设定5个聚类中心,通过100次迭代,图像分别对应有5种色彩,黄色代表课桌,深蓝色代表地面,红色代表墙壁0窗户,浅蓝色代表天花板,绿色代表黑板,图像大体精确的
43、识别出重要目0,不过墙壁B分类效果不是很好,在仿真过程中,我们曾多次调图形大小,发现仿真成果精确性有较大差异,由于聚类初始值是随机的,以及图像以67%显示成果也有一定的影响。4总结与展望通过该次试验,我们纯熟掌握了光学遥感图像中地物可分性时原理,深入学习了KNN等常用光学遥感图像数据分类措施。运用MATLAB软件编写KNN等识别算法,并对光学遥感实现了经典地物目00分类。我们相信在很快B未来,光学遥感图像地物分类措施会愈加自动化和智能化。目前遥感图像分类趋向于把知识理解和记录相结合,此后还将向自动化、智能化方向发展。例如说纯像元提取措施将深入处理混合像元问题。怎样提高分类成果的J精度,一直是遥
44、感图像分类所关注的热点问题,假如分类的精度到达90%以上,成果就比较理想了。但由于地面自身的复杂性,地物类型的多样性,使得遥感图像上存在着同物异谱、同谱异物0现象,这时候就要多分析,多试验,例如把地物光谱分B愈加细致,多运用地物B其他有效B特性。并且从单一分类措施向复合分类措施发展。单一分类措施往往不能对所有类别进行有效识别,复合分类措施通过不一样分类措施的组合,可实现优势互补,明显提高分类的数目和精度。还要从老式分类向智能分类方向发展。以人工神经网络、专家系统等为代表时智能分类措施可以模拟人脑的构造和功能,组合多种带有因果关系的知识进行推理并得出结论,实现智能化0分类。怎样实现人工神经网络和
45、专家系统B有机结合将成为此后研究B热点问题山。5参照文献1冯婕.基于软计算和互信息理论0遥感图像地物分类J西安电子科技大学,20232杨鑫.浅谈遥感图像监督分类与非监督分类J.四川地质学报,20233王一达,沈熙玲,谢炯.遥感图像分类措施综述J.遥感信息,20234梅安新,彭望禄,秦其明,刘慧平.遥感导论M.北京:高等教育出版社,2023:6-10.5潘建刚,赵文吉,宫辉力.遥感图像分类措施B研究UL首都师范大学学6王小美,张红利.基于测地距离的KNN高光谱遥感图像分类J.山西煤炭管理干部学院学报,20237刘磊.基于bmeans的自适应聚类算法研究D.北京邮电大学20238郑丹,王潜平.K-means初始聚类中心0选择算法J.计算机应用.2023年08期张文君,顾行发,陈良富,余涛,许华.基于均值-原则差BK均值初始聚类中心选用算法J.遥感学报.2023年05期10袁利永,王基一.一种改善的半监督K-Means聚类算法J.计算机工程与科学.2023(06)11刘钦龙.基于人工神经网络模型0遥感图像分类措施研究D.秦皇岛:燕山大学,2023.