流形学习专题介绍ppt课件.ppt

上传人:小飞机 文档编号:1359717 上传时间:2022-11-13 格式:PPT 页数:71 大小:5.27MB
返回 下载 相关 举报
流形学习专题介绍ppt课件.ppt_第1页
第1页 / 共71页
流形学习专题介绍ppt课件.ppt_第2页
第2页 / 共71页
流形学习专题介绍ppt课件.ppt_第3页
第3页 / 共71页
流形学习专题介绍ppt课件.ppt_第4页
第4页 / 共71页
流形学习专题介绍ppt课件.ppt_第5页
第5页 / 共71页
点击查看更多>>
资源描述

《流形学习专题介绍ppt课件.ppt》由会员分享,可在线阅读,更多相关《流形学习专题介绍ppt课件.ppt(71页珍藏版)》请在三一办公上搜索。

1、1,流形学习专题介绍,王瑞平人脸识别课题组中国科学院计算技术研究所,2010/05/06 VMR Group Book Readinghttp:/,2,提纲,研究背景基本知识介绍经典方法概览总结讨论,3,提纲,研究背景基本知识介绍经典方法概览总结讨论,4,从降维问题说起,降维的动机原始观察空间中的样本具有极大的信息冗余样本的高维数引发分类器设计的“维数灾难”数据可视化、特征提取、分类与聚类等任务需求,5,从降维问题说起,降维的动机,解决办法:选取尽可能多的, 可能有用的特征, 然后根据需要进行特征/维数约简.,6,从降维问题说起,降维的动机,7,降维方法概述,线性降维通过特征的线性组合来降维本

2、质上是把数据投影到低维线性子空间线性方法相对比较简单且容易计算代表方法主成分分析(PCA)线性判别分析(LDA)多维尺度变换(MDS),8,线性降维方法,主成分分析(PCA) Jolliffe, 1986降维目的:寻找能够保持采样数据方差的最佳投影子空间求解方法:对样本的散度矩阵进行特征值分解, 所求子空间为经过样本均值, 以最大特征值所对应的特征向量为方向的子空间,9,线性降维方法,主成分分析(PCA) Jolliffe, 1986PCA对于椭球状分布的样本集有很好的效果, 学习所得的主方向就是椭球的主轴方向. PCA 是一种非监督的算法, 能找到很好地代表所有样本的方向, 但这个方向对于分

3、类未必是最有利的,10,线性降维方法,线性判别分析(LDA) Fukunaga, 1991降维目的:寻找最能把两类样本分开的投影直线,使投影后两类样本的均值之差与投影样本的总类散度的比值最大求解方法:经过推导把原问题转化为关于样本集总类内散度矩阵和总类间散度矩阵的广义特征值问题,11,降维方法概述,线性降维主成分分析 (PCA) Jolliffe, 1986线性判别分析 (LDA) Fukunaga, 1991,12,降维方法概述,线性降维主成分分析 (PCA) Jolliffe, 1986线性判别分析 (LDA) Fukunaga, 1991多维尺度变换 (MDS) Cox, 1994,di

4、j,Mapping,原始空间,可能非欧式,低维欧式空间,13,线性降维方法的不足,原始数据无法表示为特征的简单线性组合比如:PCA无法表达Helix曲线流形,1-D Helix曲线流形,14,线性降维方法的不足,真实数据中的有用信息不能由线性特征表示比如:如何获取并表示多姿态人脸的姿态信息比如:如何获取运动视频序列中某个动作的对应帧,15,降维方法概述,线性降维传统非线性降维核主成分分析 (KPCA) Scholkopf, 1998主曲线 (Principal Curves) Hastie, 1989 Tibshirani, 1992自组织映射 (SOM) Kohonen, 1995产生式拓扑

5、映射 (GTM) Bishop, 1998,16,降维方法概述,基于流形学习的非线性降维保距特征映射 (ISOMAP) Tenenbaum, 2000局部线性嵌入 (LLE) Roweis, 2000拉普拉斯特征映射 (LE, Laplacian Eigenmap) Belkin, 2001Hessian LLE (HLLE) Donoho, 2003局部切空间对齐 (LTSA, Local Tangent Space Alignment) Zhang, 2004最大方差展开 (MVU/SDE, Maximum Variance Unfolding) Weinberger, 2004局部保持映

6、射 (Locality Preserving Projections) He, 2003,17,提纲,研究背景基本知识介绍经典方法概览总结讨论,18,流形学习框架,什么是流形?流形是线性子空间的一种非线性推广拓扑学角度:局部区域线性,与低维欧式空间拓扑同胚微分几何角度:有重叠chart的光滑过渡黎曼流形就是以光滑的方式在每一点的切空间上指定了欧氏内积的微分流形,19,流形的数学定义设 是一个Hausdorff拓扑空间,若对每一点 都有 的一个开邻域 和 的一个开子集同胚, 则称 为 维拓扑流形, 简称为 维流形.,流形学习框架,20,一些基本数学概念拓扑,Hausdorff 空间,坐标卡,微分

7、结构光滑函数,光滑映射,切向量,切空间参考文献陈省身, 陈维桓, 微分几何讲义. 北京大学出版社, 1983M Berger, B Gostiaux. Differential Geometry: Manifolds, Curves and Surfaces, GTM115. Springer-Verlag, 1974陈维桓, 微分流形初步(第二版). 高等教育出版社, 2001,流形学习框架,21,流形学习的目的流形学习是一种非线性的维数约简方法高维观察数据的变化模式本质是由少数几个隐含变量所决定的如:人脸采样由光线亮度、人与相机的距离、人的头部姿势、人的面部表情等因素决定从认知心理学的角度

8、,心理学家认为人的认知过程是基于认知流形和拓扑连续性的,流形学习框架,22,流形学习的数学定义,设 是一个低维流形, 是一个光滑嵌入,其中 Dd . 数据集 是随机生成的, 且经过 f 映射为观察空间的数据 流形学习就是在给定观察样本集 的条件下重构 f 和 .V. de Silva and J. B. Tenenbaum. Global versus local methods in nonlinear dimensionality reduction . Neural Information Processing Systems 15 (NIPS2002), pp. 705-712, 20

9、03.,23,非线性降维,高维数据空间data / observation space,低维嵌入空间embedding / coordinate space,保持一定几何拓扑关系,如测地距离/邻域线性重构关系,流形学习示例,24,提纲,研究背景基本知识介绍经典方法概览总结讨论,25,经典流形学习方法一览,26,经典方法分类结构图,27,等距映射(ISOMAP)J.B. Tenenbaum, V. de Silva, and J. C. Langford. A global geometric framework for nonlinear dimensionality reduction. S

10、cience, vol. 290, pp. 2319-2323, 2000.局部线性嵌入(LLE)S. T. Roweis and L. K. Saul. Nonlinear dimensionality reduction by locally linear embedding. Science, vol. 290, pp. 2323-2326, 2000.拉普拉斯特征映射(Laplacian Eigenmap)M. Belkin, P. Niyogi, Laplacian Eigenmaps for Dimensionality Reduction and Data Representat

11、ion. Neural Computation, Vol. 15, Issue 6, pp. 1373 1396, 2003 .,重点介绍的几个方法,28,等距映射(ISOMAP)J.B. Tenenbaum, V. de Silva, and J. C. Langford. A global geometric framework for nonlinear dimensionality reduction. Science, vol. 290, pp. 2319-2323, 2000.局部线性嵌入(LLE)S. T. Roweis and L. K. Saul. Nonlinear dim

12、ensionality reduction by locally linear embedding. Science, vol. 290, pp. 2323-2326, 2000.拉普拉斯特征映射(Laplacian Eigenmap)M. Belkin, P. Niyogi, Laplacian Eigenmaps for Dimensionality Reduction and Data Representation. Neural Computation, Vol. 15, Issue 6, pp. 1373 1396, 2003 .,重点介绍的几个方法,29,代表性算法-1,ISOMA

13、P (Isometric feature mapping)保持全局测地距离测地距离反映数据在流形上的真实距离差异等距映射基于线性算法MDS,采用“测地距离”作为数据差异度量,欧式距离 vs.测地距离,最短路径近似测地距离,降维嵌入空间,30,多维尺度变换 (MDS),MDS 是一种非监督的维数约简方法. MDS的基本思想: 约简后低维空间中任意两点间的距离应该与它们在原高维空间中的距离相同. MDS的求解: 通过适当定义准则函数来体现在低维空间中对高维距离的重建误差, 对准则函数用梯度下降法求解,对于某些特殊的距离可以推导出解析解法.,31,MDS的准则函数,32,MDS的示意图,33,MDS

14、的失效,34,测地线: 流形上连接两个点的最短曲线例如:球面上的测地线就是球面上的大圆弧测地距离:测地线的长度,Figure from http:/,测地距离,35,ISOMAP算法流程,1 计算每个点的近邻点 (用K近邻或 邻域).2 在样本集上定义一个赋权无向图 如果 和 互为近邻点, 则边的权值为3 计算图中两点间的最短距离, 记所得的距离矩阵为 .4 用MDS求低维嵌入坐标 , 令低维嵌入是 的第1大到第 d大的特征值所对应的特征向量.,36,M. Bernstein, V. Silva, J.C. Langford, J.B. Tenenbaum 证明了如下的渐进收敛定理.假设采样点

15、是随机均匀抽取的, 则 渐进收敛定理 给定 则只要样本集充分大且适当选择K , 不等式 至少以概率 成立.,图距离逼近测地距离,37,ISOMAP实验结果,Figures from ISOMAP paper,38,Figure from http:/isomap.stanford.edu/handfig.html,ISOMAP实验结果,39,Figures from ISOMAP paper,ISOMAP实验结果,40,Interpolation on Straight Lines in the Projected Co-ordinates,Figures from ISOMAP paper,

16、41,代表性算法-1,ISOMAP (Isometric feature mapping)前提假设数据所在的低维流形与欧式空间的一个子集整体等距该欧式空间的子集是一个凸集思想核心较近点对之间的测地距离用欧式距离代替较远点对之间的测地距离用最短路径来逼近算法特点适用于学习内部平坦的低维流形不适于学习有较大内在曲率的流形计算点对间的最短路径比较耗时,42,ISOMAP - summary,Inherits features of MDS and PCA: guaranteed asymptotic convergence to true structurePolynomial runtimeNon

17、-iterativeAbility to discover manifolds of arbitrary dimensionalityPerform well when data is from a single well sampled clusterFew free parameters Good theoretical base for its metrics preserving properties,43,Problems with ISOMAP,Embeddings are biased to preserve the separation of faraway points, w

18、hich can lead to distortion of local geometryFails to nicely project data spread among multiple clustersWell-conditioned algorithm but computationally expensive for large datasets,44,Improvements to ISOMAP,Conformal Isomap capable of learning the structure of certain curved manifoldsLandmark Isomap

19、approximates large global computations by a much smaller set of calculationReconstruct distances using k/2 closest objects, as well as k/2 farthest objects,45,等距映射(ISOMAP)J.B. Tenenbaum, V. de Silva, and J. C. Langford. A global geometric framework for nonlinear dimensionality reduction. Science, vo

20、l. 290, pp. 2319-2323, 2000.局部线性嵌入(LLE)S. T. Roweis and L. K. Saul. Nonlinear dimensionality reduction by locally linear embedding. Science, vol. 290, pp. 2323-2326, 2000.拉普拉斯特征映射(Laplacian Eigenmap)M. Belkin, P. Niyogi, Laplacian Eigenmaps for Dimensionality Reduction and Data Representation. Neura

21、l Computation, Vol. 15, Issue 6, pp. 1373 1396, 2003 .,重点介绍的几个方法,46,代表性算法-2,LLE (Locally linear embedding)显式利用“局部线性”的假设保持局部邻域几何结构 重构权重权重对样本集的几何变换具有不变性,47,代表性算法-2,LLE (Locally linear embedding)前提假设采样数据所在的低维流形在局部是线性的每个采样点均可以利用其近邻样本进行线性重构表示学习目标低维空间中保持每个邻域中的重构权值不变在嵌入映射为局部线性的条件下,最小化重构误差最终形式化为特征值分解问题,48,L

22、LE算法示意图,49,LLE算法流程,1 计算每一个点 的近邻点, 一般采用K 近邻或者 邻域.2 计算权值 使得把 用它的K个近邻点线性表示的误差最小, 即通过最小化 来求出 .3 保持权值 不变, 求 在低维空间的象 , 使得低维重构误差最小.,50,LLE算法的求解,1 计算每一个点 的近邻点.2 对于点 和它的近邻点的权值 , 3 令 , 低维嵌入是 M 的最小的第 2到第 d1 个特征向量.,51,LLE实验结果,52,LLE实验结果,53,LLE实验结果,邻域参数的影响,54,Figure fromLLE paper,LLE实验结果,55,LLE实验结果,56,代表性算法-2,LL

23、E (Locally linear embedding)优点算法可以学习任意维的局部线性的低维流形算法归结为稀疏矩阵特征值计算,计算复杂度相对较小缺点算法所学习的流形只能是不闭合的算法要求样本在流形上是稠密采样的算法对样本中的噪声和邻域参数比较敏感,57,Numerical Issues,Covariance matrix used to compute W can be ill-conditioned, regularization needs to be usedSmall eigen values are subject to numerical precision errors and

24、 to getting mixedBut, sparse matrices used in this algorithm make it much faster then Isomap,58,等距映射(ISOMAP)J.B. Tenenbaum, V. de Silva, and J. C. Langford. A global geometric framework for nonlinear dimensionality reduction. Science, vol. 290, pp. 2319-2323, 2000.局部线性嵌入(LLE)S. T. Roweis and L. K. S

25、aul. Nonlinear dimensionality reduction by locally linear embedding. Science, vol. 290, pp. 2323-2326, 2000.拉普拉斯特征映射(Laplacian Eigenmap)M. Belkin, P. Niyogi, Laplacian Eigenmaps for Dimensionality Reduction and Data Representation. Neural Computation, Vol. 15, Issue 6, pp. 1373 1396, 2003 .,重点介绍的几个方

26、法,59,代表性算法-3,LE (Laplacian Eigenmap)基本思想:在高维空间中离得很近的点投影到低维空间中的象也应该离得很近.求解方法:求解图拉普拉斯算子的广义特征值问题.,60,拉普拉斯算子,设 M 是光滑的黎曼流形, f 是 M 上的光滑函数, 是 f 的梯度, 则称线性映射 为 M 上的拉普拉斯算子, 其中div是散度算子.,61,图上的拉普拉斯算子,设 G 是一个图, v 是它的顶点, 是 v 的自由度, w(u,v)是连接顶点u,v 的边的权值,令,其中 T 是对角矩阵,对角线的元素为 , 则称 L 为图 G 上的拉普拉斯算子.,62,Laplacian Eigenm

27、ap 算法流程,1 从样本点构建一个近邻图, 图的顶点为样本点, 离得很近两点用边相连 (K近邻或 邻域).2 给每条边赋予权值 如果第 个点和第 j 个点不相连,权值为0,否则 ; 3 计算图拉普拉斯算子的广义特征向量, 求得低维嵌入.令D为对角矩阵 L是近邻图上的拉普拉斯算子, 求解广义特征值问题 .,63,Laplacian Eigenmap实验结果(1),64,300 most frequent words of the Brown corpus represented in the spectral domain,Laplacian Eigenmap实验结果(2),65,Laplac

28、ian Eigenmap实验结果(2),The first is exclusively infinitives of verbs, the second contains prepositions and the third mostly modal and auxiliary verbs. We see that syntactic structure is well-preserved.,66,代表性算法-3,LE (Laplacian Eigenmap)优点算法是局部非线性方法,与谱图理论有很紧密的联系.算法通过求解稀疏矩阵的特征值问题解析地求出整体最优解,效率非常高算法使原空间中离得

29、很近的点在低维空间也离得很近, 可以用于聚类缺点同样对算法参数和数据采样密度较敏感不能有效保持流形的全局几何结构,67,提纲,研究背景基本知识介绍经典方法概览总结讨论,68,经典方法小结,优点非参数:不需要对流形的很多参数作假设非线性:基于流形内在几何结构,体现现实数据的本质求解简单:转化为求解优化问题,通常采用特征值分解,而不需要采用迭代算法缺点对观察数据存在流形结构的假设需要调节较多的算法参数,如k-NN的邻域参数k对数据采样稠密性、均匀性以及噪声数据的敏感性,69,研究难点与未来方向,如何进行统一有效的定量化评估真实数据 vs. 人工数据理论分析依据评估指标:一致性,收敛率,稳定性,复杂

30、度如何求解测试数据的out-of-sample问题线性近似回归方法如何确定低维目标空间的维数如何进行监督式推广应用于分类问题,70,参考文献,Roweis, S. T. and L. K. Saul (2000). Nonlinear dimensionality reduction by locally linear embedding Science 290(5500): 2323-2326.Tenenbaum, J. B., V. de Silva, et al. (2000). A global geometric framework for nonlinear dimensional

31、ity reduction Science 290(5500): 2319-2323.Vlachos, M., C. Domeniconi, et al. (2002). Non-linear dimensionality reduction techniques for classification and visualization. Proc. of 8th SIGKDD, Edmonton, Canada.de Silva, V. and Tenenbaum, J. (2003). “Global versus local methods for nonlinear dimensionality reduction”, Advances in Neural Information Processing Systems,15.Law, Martin. Nonlinear Dimensionality Reduction and Manifold Learning. 2005.Lin, Zhouchen. A Glance over Manifold Learning. 2008.杨剑. 流形学习问题. 2004.,71,感谢各位老师同学!,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号