理解机器学习算法的一点心得.doc

上传人:牧羊曲112 文档编号:4200022 上传时间:2023-04-09 格式:DOC 页数:6 大小:169KB
返回 下载 相关 举报
理解机器学习算法的一点心得.doc_第1页
第1页 / 共6页
理解机器学习算法的一点心得.doc_第2页
第2页 / 共6页
理解机器学习算法的一点心得.doc_第3页
第3页 / 共6页
理解机器学习算法的一点心得.doc_第4页
第4页 / 共6页
理解机器学习算法的一点心得.doc_第5页
第5页 / 共6页
点击查看更多>>
资源描述

《理解机器学习算法的一点心得.doc》由会员分享,可在线阅读,更多相关《理解机器学习算法的一点心得.doc(6页珍藏版)》请在三一办公上搜索。

1、理解机器学习算法的一点心得从Andrew ng的公开课开始,机器学习的算法我接触到的也越来越多,我觉得机器学习算法和传统算法的最大不同就是:不会要求一个问题被100%求解,也就意味着不会有完美的解法,这也是著名的“Essentially, all models are wrong, but some are useful.”所表达的意思。正因为如此,机器学习算法往往不会有一个固定的算法流程,取而代之的把问题转化为最优化的问题,无论是ML(maximum likelihood),MAP(Maximum a Posterior)和EM(Expectation Maximization),都是这样的

2、。 然后用不同的方法来优化这个问题,得到尽量好的结果,给人的感觉就像是一个黑盒,实际使用中需要不断地调参实验,但倘若你能理解好算法,至少能让这个盒子透明一点,这也是机器学习算法确实需要使用者去理解算法的原因,举个例子:传统算法比如一些高效的数据结构,我只需要知道一些接口就可以使用,不需要进行太多的理解,了解传统算法更多的是理解算法的思想,开阔思路,增强能力;而机器学习算法,你即使知道接口,也至少要调一些参数来达到实际使用的目的。 这样一来,阅读各类书籍和paper也就在所难免了,甚至去阅读代码以至于实现加深理解,对于实际使用还是有很大的好处的,因为不是100%求解问题,所以面对不同的应用场景,

3、想要达到最好的效果都需要加以变化。本文记录了一点自己学习的心得,私以为只要你能对算法有一种说得通的解释,就是OK的,不一定要去深挖其数学上的证明(表示完全挖不动啊_2),平方项【1】的要比绝对值【2】的惩罚大不少,这意味着【1】对于极端outlier的容忍能力更差,离太远了简直是没法承受的,对算法带来的影响就是要去满足这个outlier,从而带来一些问题。而在一定阀值以内的时候,平方项【1】的惩罚却比绝对值【2】还要小。综合来看,相对于绝对值,平方项的趋势就是去满足outlier,把绝大多数训练数据的loss降低到够小的范围即可。(略绕,但应该不难理解) Huber的优点就是既对outlier

4、有容忍力(大于阀值其增长是线性的),又不至于全是线性增长,对误差重要程度没有太大区分(小于阀值是二次的),所以Boyd在公开课上就说:对于绝大多数使用二次Loss function的地方来说,换用Huber基本上都会有更好的效果三. 一个复杂点的例子 前段时间组内读书会有大大分享了一片论文,开始读着无比顺畅,但就是到了其中一步无法理解,考虑了很久,就用我的“趋势”分析法_理解了下来,这里就不给上下文了,论文叫,有兴趣可以去看,我现在单把那一个公式提出来分析其目的(趋势) 其中的s()是表示传入参数的一个得分值,A( xi )表示对于xi来说所有可能的 y 结构,(y,yi) 是对结构 y 和

5、yi相异程度的惩罚项目,( yi , yi)=0 这个式子很难理解就在于maximize里还减去一个max,而且max里面还不是norm的结构,乍一看是和以前见过的有巨大差异 但仔细思考其实可以发现,A( xi )之中是有 yi 的,即训练数据。所以max() 那一项最小的取值就是 s( xi,yi ),不会比这个小,那这个式子的目的是什么呢? 作者坚定地认为训练数据就是最好最正确的,其得分就该是最高的,所以一旦max项里面选出来的是比 s( xi,yi )大的,就对其进行惩罚,最后该式的目的就是在所有 xi 可能对应的结构 y 中,训练数据 yi 应该是最好的。与此同时加入项,是为了使与 y

6、i 结构更接近的 y 得分更高( 这个这么理解:算法给所有结构加了一个上限在那,超过了就砍头,那么(y,yi)值越小,剩下的可喘息的部分就越大,也就是得分就越高) 这个式子和经验里看到的有很大差异,但通过分析他的目的和趋势,就可以较好地理解算法和里面一些参数的意义,从而到达我们学习算法的目的四. 尾巴 这是我理解算法的一点小心得,可能会有错的地方,求指正啊 【ref】:学习是成就事业的基石 【1】.Convex Optimization (Byod) 【2】.Machine Learning - A Probabilistic Perspective 【3】.TheElementsofStatisticalLearning 【4】:Learning Continuous Phrase Representations and Syntactic Parsing with Recursive Neural Networks

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号