人工智能-集成学习报告.docx

上传人:小飞机 文档编号:5005821 上传时间:2023-05-29 格式:DOCX 页数:14 大小:109.33KB
返回 下载 相关 举报
人工智能-集成学习报告.docx_第1页
第1页 / 共14页
人工智能-集成学习报告.docx_第2页
第2页 / 共14页
人工智能-集成学习报告.docx_第3页
第3页 / 共14页
人工智能-集成学习报告.docx_第4页
第4页 / 共14页
人工智能-集成学习报告.docx_第5页
第5页 / 共14页
亲,该文档总共14页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《人工智能-集成学习报告.docx》由会员分享,可在线阅读,更多相关《人工智能-集成学习报告.docx(14页珍藏版)》请在三一办公上搜索。

1、人工智能实验报告(一)人工智能实验(一)Bagging算法【实验目的】熟悉Bagging算法原理、框架及应用场景,并在Matlab中采用Bagging算 法对数据集进行进行分类,分析在同一数据集下,不同的弱学习算法产生的结果。【算法思想】从大小为N的原始数据集D中,分别独立随机地抽取n个数据(nN)形 成自助数据集,并且将这个过程独立进行许多次,直到产生很多个独立的自助数 据集。然后,每一个自助数据集都被独立地用于训练一个“分量分类器”,最终 的分类判决将根据这些“分量分类器”各自的判决结果投票来决定。通常,这些 分量分类器的模型形式都是一样的,例如,他们可能是都是HMM分类器,或者 都是神经

2、网络分类器,或者都是判定树,等等。当然它们的具体模型参数可能不 同,这是由于各自的训练集的不同而引起的。Bagging算法是一个“多分类器系统”,其中,最后的分类结果取决于许多 分量分类器的输出。而Bagging算法中的最基本的判决规则,就是对各个分量分 类器的判决结果使用投票表决原则。【算法分析】Bagging方法中,各学习器的训练集由从原始训练集中随机选取若干示例组 成,训练集的规模通常与原始训练集相当,训练示例允许重复选取。这样,原始训练集中某 些示例可能在新的训练集中出现多次,而另外一些示例则可能一次也不出现。Bagging方 法通过重新选取训练集增加了集成学习的差异度,从而提高了泛化

3、能力。Breiman指出,稳定性是该算法能否发挥作用的关键因素,Bagging能提高 不稳定学习算法的预测精度,而对稳定的学习算法效果不明显,有时甚至使预测 精度降低。如果训练数据的较小变化,就能够导致分类器的显著改变,以及分类准确率 的较大变化,那么这种分类或学习算法就可以被非正式的称为“不稳定”。例如 使用“贪心算法”训练的判定树,就有可能是不稳定的一仅仅由于单个样本点的 位置微小变化,都有可能导致最后的判定树完全不同,一般说来,Bagging算法 能够提高“不稳定”分类器的识别率,因为它相当于对不连续处进行了平均化处 理。然而并没有理论推导或仿真实验表明它可以适用于所有的“不稳定”分类器

4、。【算法框架】for t=1,2,,T1、从数据集S中取样(放回选样)训练得到模型Ht。2、对未知样本X分类时,每个模型Ht都得出一个分类,得票最高的即为未 知样本X的分类。3、也可通过得票的平均值用于连续值的预测for end【仿真实验】采用diabetes数据集,分量分类器的构造分别采用决策树和KNN(K=10), 进行10次实验,比较分类结果如下表所示:实验次数Bagging-决策树Bagging-KNN10.2421880.30536020.2792740.28697030.2621880.28262240.2695790.34783850.2478400.33479560.22610

5、10.30870870.2261010.30001380.2521880.34349090.2304490.260883100.2488400.311751average0.2482740.308143【实验分析】由上表可知,采用不同的分量分类器构造算法将得到不同的分类性能且可能 差异较大,在本实验中,采用决策树比KNN性能更优,这可能与KNN算法本 身有关,因为KNN对K值的选取比较敏感。人工智能实验(二)Ada boost算法【实验目的】熟悉Ada boost算法原理、框架及应用场景,并在Matlab中采用Ada boost 算法对数据集进行进行分类,分析算法特性。【算法思想】针对同一个训

6、练集合训练出不同的分类器(弱分类器),然后把这些弱分类 器集合起来,构成一个性能更加强大的分类器(强分类器)。强分类器对数据进 行分类,是通过弱分类器采用加权投票机制进行的。【算法分析】每个样本都赋予一个权重,进行T次迭代。每次迭代后,对分类错误的样 本加大权重,使得下一次的迭代更加关注这些样本,每次迭代得到一个最优弱分 类器。每次迭代改变的是样本权重的分布,而不是重复采样。样本权重分布的改变 取决于样本是否被正确分类,总是分类正确的样本权值低,分类错误的样本权值 高。最终的结果是若分类器的加权组合,权值表示该弱分类器的性能。【算法框架】假设样本数m,特征维数n,S表示样本,A表示特征,D表示

7、样本权重, Y表示类标,总体矩阵信息如下所示:A1A2.AnDt(i)Y+1,-1S1S2.Sm给定样本(气,),.,(x,),苴中 *6 X y e Y = -1,+1 11m m ,i , i,初始化样本权重DtT/ m,其中Dt (i)表示第t次训练中第i个样本的权重,算法框架如下:For t=1.T进行T次训练,每次训练产生一个最优弱分类器将弱学习算法在当前的权重分布Dt进行训练,得到弱分类器ht:X T -1, +1计算该弱分类器在权值Dt下的错误率:t= D (1).(气) 七i=1a = 1ln(1 -t)计算该弱分类器的权重:2tD (i)=史 x更新样本权重:+1Zte-at

8、 I h (x ) = y t i ieq I h(x )。y.D (i)exp( -d y h (* ) ttit i 其中Zt是归一化使所有样本权重之和为1的归一化因子For end经过T轮训练,得到最终的分类器H (x) = sgn足 a h (*)t=1【仿真实验】为了便于画图,我们采用随机生成的数据集,具有两维特征,横坐标大于纵 坐标的为正类,反之为负类。共生成训练样本200个,测试样本200个,最大训 练次数20,即最多生成20个弱分类器,弱分类器的构造采用阈值分类算法。对1-20次训练分别计算训练集错误率和测试集错误率,从中简要的分析Ada boost 算法的特性。仿真结果如下图

9、所示:Testing set5101520weak classifier numberTesting Error10.50 5101520weak classifier number图2-1【实验分析】通过多组实验,我们得出Ada boost的两个特性:1、训练错误率的上界随着训练次数的增加(弱分类器的增多),会逐渐下降。 关于这个结论,我们在文献中有找到数学上的证明。2、即使训练次数很多,也不会出现过拟合的问题:通常说,过拟合是指随 着模型训练误差的下降,实际上,模型的泛化误差(测试误差)在上升。在上述 实验中,可以观察到Ada boost算法并没有出现这样的情况,即当训练误差小到 一定程度

10、后,继续训练,泛化误差仍然不会增加。【比较分析】与Bagging算法进行比较,它们之间思想基本相同,它们都主持一个观点: 任一个弱学习算法可以通过加强提升到一个任意正确率的强学习算法,并通过构 造一种多项式级的算法来实现这一加强的过程,它们的主要区别在于:Bagging 是随机选择、重复采样,各轮的训练集相互独立,每个个体分类器所采用的训练 样本都是从训练集中按等概率抽取的,因此Bagging的各子网能够很好的覆盖训 练样本空间,从而有着良好的稳定性;而Ada boost各轮的训练集不独立,它的 选择与上一轮的结果有关,它在每次弱学习之后调整样本空间分布,更新所有训 练样本的权重,把样本空间中

11、被正确分类的样本的权重降低,被错误分类的样本 权重提高,这样下一次弱学习算法更能关注这些被错误分类的样本。由于该算法 可能会将噪声样本或分类边界样本的权重过分累积,因此很不稳定,但其在通常 情况下,其泛化能力是最理想的集成算法之一。【总结】Ada boost算法是机器学习中一种比较重要的特征分类算法,已被广泛应用 人脸表情识别、图像检索等应用中,也已有人将它运用在交通管理信息系统中。 就目前而言,对Ada boost算法的研究以及应用大多集中于分类问题,在一些回 归问题上也有所应用。Ada boost主要解决的问题有:两类问题、多类单标签问 题、多类多标签问题、回归问题。人工智能实验(三)Ra

12、ndom Forest算法【实验目的】熟悉Random Forest算法原理、框架及应用。通过weka工具包的仿真并与 bagging方法和决策树J48的结果进行比较,分析Random Forest的性能。【算法思想】Random Forest( RF)是利用bootsrap重抽样方法从原始样本中抽取多个样本, 对每个bootsrap样本进行决策树建模,然后组合多棵决策树的预测,通过投票得 出最终预测结果。RF通过构造不同的训练集增加分类模型间的差异,从而提高 组合分类模型的外推预测能力。【算法性能】大量的理论和实证研究都证明了 RF具有很高的预测准确率,对异常值和噪 声具有很好的容忍度,且不

13、容易出现过拟合。可以说RF是一种自然的非线性建 模工具,是目前数据挖掘、生物信息学的最热门的前沿研究领域之一。【算法步骤】RFC的基本步骤:一、利用bootstrap抽样从原始训练集抽取k个样本,且每个样本的样本容量 都与原始训练集一样;二、对k个样本分别进行训练,建立k个决策树模型%(X),h2(X),.匕(X), 建立如下的多分类模型系统H (x) = a r m a Xk I (h (x) = Y)1其中,H(x)表示组合分类模型,hj是单个决策树分类模型,Y表示输出变量I() 为示性函数。最后,该系统的最终分类结果采用简单多数投票法。【实验结果】用weka工具进行分析,选择工具包自带的

14、segment-challenge.arff数据集 (1500条数据,20个特征变量,7分类问题)。通过与begging方法和决策树J48 进行比较分析。在仿真过程中选择数据集中的66%作为训练集,即其中的510个数据作为测 试集。(1)bagging分类的结果lime taken to build model: 0 4 seconds=Evialuation on test split =Summary =Correctly Classified Instances49396.6667 %Incorrectly Classified Instances173.3333 tKiappa sta

15、tistic0-.9611Mean absolute error00227Root mean squared error00933Relative absolute error92886 tRoot reliative squared error266635 %Total Number of Instiances510=Detailed Accutiacy By Cliass =TP RiateFF RateErecisionReciallF-MeasureROC AreaClass0.98400070.9550.9840.9690.998brickface101111sky0.9450009

16、0.9450.94509450.994foliage0899010.8990.9470.999cement0950020S640.9509050.99window100020.93810.9941path0.936010.9360.9931grassWeighted Avg0 9670.0050.9680.9670.9670.997Confusion Miatrix =abc de-classified as630001001 a=brickfiace0SI000001 b=sky10903001 c=foliage00-715101 d=cement10i057001 e=window000

17、008001 =path10000072I g=griass图3-1(2)决策树J48的分类结果=Evaluation on test split = Summary =48595.098 %254.902 %0.94280.0170.11526.958 %32.9088 %510Correctly Classified Instances Incorrectly Classified Instances Kappa statisticMean absolute errorRoot mean squared errorRelative absolute errorRoot relative s

18、quared error Total Number of Instances= Detailed Accuracy By Class =TP RateFP RatePrecisionRecallF-MeasureROC AreaClass0.9690.0090.9390.9690.9540.983brickface101111sky0.9040.0160.9040.9040.9040.949foliage0.8610.0020.9860.8610.9190.95cement0.9330.0270.8240.9330.8750.971window10.0020.98810.9940.999pat

19、h0.986010.9860.9931grassWeighted Avg.0.9510.0070.9540.9510.9510.979Confusion Matrix =abcd et g- classified62001 10 0 I1 a = brickface0SI00 00 0 I1 b = sky100 60 0 I1 c = foliage-0468 41 0 I1 d = cement1030 560 0 I1 e = window0000 080 0 I1 f = path0000 10 72 I1 g = grass图3-2(3) Random Forests 的分类结果A.

20、5棵树的情况=Evialuation on test split =Summary =49797.451 I132549 %097020.01510.07916.1772 %22.5945 蜀510Correctly Classified InstancesIncorrectly Classified InstancesKiappa statisticMean iabsolute errorRoot mean squared errorRelative absolute errorRoot relative squared errorTotal Number of Instances=Deta

21、iled Accuracy By Class =TF RateFF RatePrecisionReciallF-MeasureROC AreaClass0.9840109840.99.21brickfiace101111sky0-97300160-.910-9730940.992foliage0-93700050-9740-93709550.992cement0.9170009CL 932091709240997window101111path101111grassWeighted Avg.0-9750.0040-9750-97509750-997= Contusion Matrix =abc

22、def g-cliassified as6300010 0 Ia = brickface0810000 0 Ib = sky0071110 0 Ic = foliage00374-0 0 Id = cement0041550 0 Ie = window0000080 0 If = piath000000 73 1g = gtiass=Evialuation on test split =Summary =Correctly Classified Instances50298.4314%Incorrectly Classified Instancese1.56S6%ECappia statist

23、ic09S17Mean absolute error00151Root mean squared error00727Relative absolute err de?6.1772Root relative squared error20.7696%lotal Number of Instances510=Detailed Accuracy By Class =TP RateFF RatePrecision 1RecallF-MeiasureROC AreaClass0.984010.9840.99.21brickface101111sky0.98600090.9470.98609660.99

24、2foliage096200020.937096209740.993cement0.950.0070.950.950.950.997window101111path101111grassWeighted Avg0-98400020.9S50.98409340.997= Confusion Miatrix =abcdE fJ-classified63000100 Ia = brickface08100000 1b = sky00720100 1c = foliage00r 76100 Id = cement00i15700 1e = window00000800 1f = path0000007

25、3 |g = griass= Evaluation on test split =Summary =Correctly Classified Instances Incorrectly Classified InstancesKiappa statisticMean absolute errorRoot mean squared errorRelative absolute errorRoot relative squared error Total Number of Instances502898.43141.56S6%0.981700150m09S6.100519.9409510% t=

26、Detailed Accuracy By Class =IF RateFF RatePrecision :RecallF-MeiasureROC Areia.Class0.984010.9S40.9S21brickface101111sky0.98600090.9470.9860.9660.992foliage0.949010.94909740.999cement0.96700090.93509670.9510.997window101111path101111grassWeighted Avg0 984000209850.9840.9S40.998= Confusion Miatrix =a

27、bcde-classified3000100 11 a = brickface08100000 I1 b = sky00720100 11 c = foliage0075 00 I1 d = cement00-0se00 11 e = window00000800 I1 f = piath00000073 |1 g = grass图3-5【结果分析】结果对照表:分类器BaggingJ48RandomForests(5)RandomForests(10)RandomForests(20)误分率3.33%4.90%2.55%1.57%1.57%运行时间(s)0.400.130.220.420.81.由分类的结果得知,在对本数据segment-challenge.arff数据集进行分类时, Random Forests算法得到的组合模型的预测误差要小于Bagging模型和决策树 J48模型。由于结果是在测试集上产生,说明的Random Forests在泛化能力上具有更好的特性。2.当Random Forests树的数量由5增加到10时,误差率有一定的减小,但同 时运行时间也相应的增加,且当继续增加到20棵树的过程中误差率没有减小, 而运行时间也成倍的增加,所以选择适当的树的数量对分类的效果较为重要。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号