《自然语言的处理.ppt》由会员分享,可在线阅读,更多相关《自然语言的处理.ppt(156页珍藏版)》请在三一办公上搜索。
1、1,第3章 自然语言的处理,2,3.1 基本概念,3,信息的主要载体语言语言的两种形式文字和声音 文字和声音作为语言的两个不同形式的载体,所承载的信息占整个信息组成的90以上。如何让计算机实现人们希望实现的语言处理功能?如何让计算机真正实现海量的语言信息的自动处理和有效利用?,4,自然语言处理(Natural Language Processing,简称NLP)是利用计算机为工具,对人类特有的书面形式和口头形式的自然语言的信息进行各种类型处理和加工的技术。冯志伟自然语言的计算机处理 NLP是用计算机通过可计算的方法对自然语言的各级语言单位(字、词、语句、篇章等)进行转换、传输、存储、分析等加工
2、处理的理论和方法。,5,其它名称 自然语言理解(Natural Language Understanding)计算语言学(Computational Linguistics)现代语言学的一大分支,它是用计算机理解、生成和处理自然语言,即它的研究范围不仅涵盖语言信息的处理,还包括语言的理解和生成。,6,研究语言的目的,7,不关注与所使用的特定媒介相关的问题,例如手写输入、键盘输入或语音输入的问题。关注在词语识别完成后理解和使用语言的过程。,NLP的历史,20世纪50年代起步提出机器翻译等重要问题50年代-60年代采用模式匹配法和文法分析方法对基于理解和基于统计方法的讨论60年代后期衰落70-80
3、年代采用了面向受限域的深入理解方法80年代后期至今统计方法占据主流大规模语料可用,计算机性能大幅提高互联网的迅速发展为NLP提供了实验数据来源和新的应用场景,8,9,3.2 自然语言处理技术可以为我们做什么?,1、信息检索http:/微软:106,000,000条(8年前2,060,000 条)微软,亚洲研究院:1,060,000条微软,亚洲研究院,研究方向:116,000条微软,亚洲研究院,自然语言处理:38,900 条 08年7月一万亿个网页,每天数十亿增加 获得的信息只有1被有效利用,“框”计算,“框计算”是2009年8月18日,百度董事长兼首席执行官李彦宏在2009百度技术创新大会上所
4、提出的全新技术概念。用户只要在“百度框”中输入服务需求,系统就能明确识别这种需求,并将该需求分配给最优的内容资源或应用提供商处理,最终精准高效地返回给用户相匹配的结果。这种高度智能的互联网需求交互模式,以及“最简单可依赖”的信息交互实现机制与过程,称之为“框计算”。,10,11,2、借助于语言信息处理的web智能,12,13,微软亚洲研究院人立方,输入“王菲”得到的人物关系图,15,Ex-1:The spirit is willing,but the flesh is weak.(心有余,而力不足。)译:精神是愿意的,但骨肉是微弱的。(Systran,现在已经能够正确翻译)Ex-2:,3、机器
5、翻译,16,在网络上输入“问句”,自动给出精确地答案。自动问答系统的结构三个模块:提问处理模块(Question-Processing);文献处理模块(Document-Processing);答案的提取和构造模块(Answer Extraction and Formulation)。冯志伟,4、自动问答系统,17,如“给我找出所有有关在1986年到1990年之间曾经尝试而最终失败且金额超过1亿美元的融资收买的文章。”处理方法:1、对数据库的每篇文章建立一种表示形式 2、这种表示形式能用于后续的推理,5、复杂的检索任务,18,输入:美欧贸易摩擦升级识别结果:美欧贸易摩擦生机输入:新技术的发展日
6、新月异识别结果:新纪录的发展日新月异,6、语音识别,19,信息过滤,信息安全文摘生成问答系统,人机交互语言教学文字输入,文字编辑与排版语音翻译网络内容管理与知识发现,20,1.3 关于“理解”的理解,他说:“她这个人真有意思(funny)”。她说:“他这个人怪有意思的(funny)”。于是人们以为他们有了意思(wish),并让他向她意思意思(express)。他火了:“我根本没有那个意思(thought)”!她也生气了:“你们这么说是什么意思(intention)”?事后有人说:“真有意思(funny)”。也有人说:“真没意思(nonsense)”。生活报1994.11.13.第六版,21,人
7、脑对语言的理解是一个复杂的思维过程。自然语言理解技术同多个学科有着千丝万缕的关系。,语言学:研究语言本身的结构语言心理学:研究人类生成和理解语言的过程逻辑学:计算机科学人工智能数学与统计学,22,一种测试机器是不是具备人类智能的方法。,图灵测试,23,1.4 自然语言理解研究的基本问题,研究的层次语法学:研究语句的组成结构,包括词和短语 在语句中的作用等。为什么一句话可以这么说也可以那么说?,24,研究的层次语义学:研究如何从一个语句中推导词的意义,以及这些词在该语句中句法结构中的作用来推导出该语句的意义。这句话说了什么?(1)今天中午我吃食堂。(2)这个人真牛。(3)这个人眼下没些什么,那个
8、人嘴不太好。,25,研究的层次语用学:研究在不同上下文中的语句的应用,以及上下文对语句理解所产生的影响。为什么要说这句话?(1)火,火!(2)A:看看鱼怎么样了?B:我刚才翻了一下。,自然语言理解的基本模型,汉语的特点:汉语是大字符集(GBK字符集)的意音文字(图形符号既代表语素,又代表音节的文字系统);汉语词与词之间没有空格,没有形态变化;汉语的同音词较多;字形复杂;汉语的语法研究尚未规范化;汉语的语言学知识的量化与形式化工作滞后。,27,1.5 汉语的自然语言理解,英语只有26 个字母,中文却有44 908 个汉字(中华大辞典)。英语有1500 年历史牛津英语辞典收词40 多万条。汉语长达
9、六千多年历史中华大辞典收词六十多万条,比英语多50%。这一特性为汉字的输入和计算机编码造成了极大的困难。,西方语言的形态对于计算机来说就是标记;汉语以字为基本单位,词之间没有明显的标记,需要词的切分,而分词本身有一定的错误率,降低了后续处理的实际效果。汉语词本身没有性、数、格、时态变化等形态标志,给语义分析增加了困难。,方块汉字由象形文字演化而来,汉字字形的信息量较大,给计算机的内部信息压缩和文字显示制造了困难。,汉语句子中词序虽同可能意义迥异;虚词并非非用不可,特别是在口语里,虚词更少,因此虚词只能是解决词与词、句与句关系问题的辅助手段;“意合”包含着许多语言环境、语言背景和语言风格知识以及
10、缺省问题,如何全面把握有关意义的诸项要素,并把它形式化,是最大的难题。,28,1、交集型切分歧义问题 乒乓球/拍卖/完/了 乒乓球拍/卖/完/了 美国/会通过对台售武法案 美/国会/通过对台售武法案,汉语自然语言理解的难点,29,2、未登录词(新词)问题汉语词典中未列入的词包括:专有名词:中文人名、地名、机构名称、外国译名、时间词重叠词:高高兴兴派生词:一次性用品专业术语:互联网,30,3、词性岐义问题 多词性和多词义是语言的一种普遍现象,汉语这种现象比西方语言严重得多。和 根据现代汉语词典,可以有五种读音:he2;he4;hu2;huo2;huo4 六种词性:名词、形容词、连词、动词、介词、
11、量词 十六种不同的词义,31,4、否定词和语义上的混乱 汉语上的否定词“不”有时并不表示否定。相反,反而会更肯定。如:“可不是”比“可是”更可是。,32,5、汉语的岐义结构(短语歧义)岐义结构是句子自生固有的,必须在整个语境环境下才可能消歧,自动消歧是很难的。彩色铅笔盒子 彩色铅笔盒子 彩色铅笔盒子 他在看病 他在给别人看病 大夫给他看病,6、汉语的词义岐义打乒乓球打电话打毛衣7、语用岐义 你真讨厌!,34,1.6 自然语言处理技术,自然语言处理的过程,如何描述一种语言?,穷举:给出语言中所有的句子;只适合含有有限多个句子的语言。文法:给出可以生成语言中所有句子的方法;当且仅当能够用该方法产生
12、的句子属于该语言。自动机:给出识别该语言中句子的机械方法;可以检验输入句子是否属于该语言。,按技术路线分为:基于语言学规则的语言处理技术基于统计的语言处理技术 两者结合,1、基于语言学规则的语言处理技术,通过对语言学知识的形式化、形式化规则的算法化,以及算法实现等步骤将语言学知识转化为计算机可以处理的形式。强调语言学家对语言现象的认识。采用非歧义的规则形式描述或解释歧义行为或歧义特性。,37,理性主义方法,语言学家:撰写“规则库”(包括“词典”)计算机学家:编写算法程序,对“规则库”进行解释和执行。,38,2、基于统计的语言处理技术,从大规模真实语料库中获得各级语言单位上的统计信息,并依据较低
13、级语言单位上的统计信息,用相关的统计推理技术计算较高级语言单位上的统计信息。注重用数学方法概率论与数理统计。能从代表自然语言规律的大规模真实文本中发现知识,抽取语言现象或统计规律(从大量的语言数据中获得语言的知识结构)。,39,经验主义方法,语言学家:建立“语料库”经科学取样和加工的大规模电子文本库。存放的是在语言的实际使用中真实出现过的语言材料;以电子计算机为载体承载语言知识的基础资源;真实语料需要经过加工(分析和处理),才能成为有用的资源。计算机学家:建立统计模型 利用语料库训练模型参数 编写算法解决问题,40,二者区别研究对象不同,基于规则的方法主要研究人的语言知识结构,实际的语言数据只
14、提供了这种内在知识的间接证据。基于统计的方法研究对象就是实际的语言数据。,41,二者区别理论基础不同,基于规则的方法是基于乔姆斯基的语言理论的。通过语言所必须遵守的一系列原则来描述语言,以此判断一个句子是正确的还是错误的。基于统计的方法基于香农的信息论。将语言事件赋予概率,作为其可信度,由此来判断一个句子是常见的还是罕见的。,42,二者区别范围不同,基于规则的方法通过对一些特定领域或范围内的语言现象的研究来得到对人的语言能力的认识,而这些语言现象在实际应用中可能并不常见。基于统计的方法偏重于对语料库中人们实际使用的普通语言现象的统计表述。,43,二者区别方法不同,基于规则的方法:符号处理系统。
15、基于统计的方法偏重于对语料库中人们实际使用的普通语言现象的统计表述。,44,1.7 基于语言学规则的语言处理技术,规则举例新词抽取的常规规则:1、If(pos(A)=N AND(pos(B)=V OR pos(B)=A or pos(B)=N OR pos(B)=Q)Then AB is new 该规则表示:如果由两个词构成的二元组中A为名词,而B为动词或形容词或名词或量词,则将该二元组做标记,认为是新词。2、If(pos(A)=V AND pos(B)=A)Then AB is new 例如:减肥,模仿秀,46,分词结果中含词数最少等价于在有向图中搜索最短路径方法:最小匹配算法分段;逐段统计
16、最短路径(dijkstra算法:用于计算一个节点到其他所有节点的最短路径);得到若干分词结果:发展/中/国家发展/中国/家;统计排歧。,最少分词问题,47,48,按处理对象的不同,可分为:1、字处理技术2、词处理技术 词是自然语言中最小的有意义的构成单位,是最基本的研究对象。词处理主要包括分词、词性标注、词义消歧。3、语句处理技术4、篇章处理技术,基于规则的句法分析理论和方法,Chomsky的形式语言理论上下文无关文法转移生成文法扩充转移网络,49,1、chomsky的形式语言理论,用G表示形式语法,G定义为四元组:G=(Vn,Vt,S,P)(1)Vt:终结符集合。是一个形式语言的基本符号。它
17、们能在一个形式语法的推导规则的输入或输出字符串存在,而且它们不能被分解成更小的单位。一个语法的规则不能改变终结符。下面的语法有两个规则:x xa x ax 在这种语法之中,a是一个终结符,因为没有规则可以把a变成别的符号。不过,有两个规则可以把x变成别的符号,所以x是非终结符。一个形式语法所推导的形式语言必须完全由终结符构成。,54,短语结构语法,(2)Vn:非终结符集合,是可以被取代的符号,不能处于生成过程的终点,即在实际句子中不出现。在上下文无关文法中,每个推导规则的左边只能有一个非终结符而不能有两个以上的非终结符或终结符。(3)S:起始符号。一个语法中必须有一个起始符号,这个起始符号属于
18、非终结符的集合。(4)P:重写规则,也叫做产生式规则集合(产生式的形式是P a)。,55,采用短语结构语法对英语子集语法的描述,G=(Vn,Vt,S,P)Vn=S,NP,VP,PP,N,V,Prep,Det;Vt=the,girl,letter,pencil,write,with a;S=s;P:SNP VP.该规则表示“句子”由“名词短语 动词短语”组成NPDet N.该规则表示“名词短语”由“冠词 名词”组成VPVP PP.该规则表示“动词短语”由“动词短语 介词短语”组成,56,VPV NP.该规则表示“动词短语”由“动词 名词短语”组成PPPrep NP.该规则表示“介词短语”由“介词
19、 名词短语”组成Detthe|a.该规则表示“冠词”由the 或 a 组成Ngirl|letter|pencil.该规则表示“名词”由girl 或 letter 或 pencil组成Vwrite.该规则表示“动词”由write组成Prepwith.该规则表示“介词”由with组成,57,在对一个句子分析过程中,如果把分析句子各成分间关系的推导过程用树形图表示出来的话,那么这种图称作句法分析树。对句子“the girl writes the letter with a pencil”进行分析的语法树如下:,58,句法分析树,语法树中的叶子结点即为分析的句子。,例:已知汉语句子的分词和词性标注结果
20、如下:他/PRON 教/V 我/PRON 学/V 日语/N请画出该句子的语法树,并给出上下文无关规则。G=(Vt,Vn,S,P)Vn=S,PRON,V,OBJECT,NVt=他,教,我,学,日语S=SP:SPRON V OBJECT OBJECTN|S PRON他|我 V教|学 N日语,59,PRON主语OBJECT宾语,0型文法(type 0 grammar),上下文有关文法(CSG),如果所有产生式都有右边部分长度大于等于左边部分,那么G是上下文有关文法,上下文无关文法(CFG),如果如果所有产生式的左边部分都是单个非终极符号,那么G是上下文无关文法,正则文法(RG),如果所有产生式的右边
21、部分都是以终极符号开始、含有至多一个非终极符号、如果有非终极符号则出现在最右边,那么G是正则文法。,请判断以下文法的类型,G1:SCDAbbACaCABaaBCbCB BbbBADaD CaBDbD DbAabDG1是上下文有关文法,请判断以下文法的类型,G2:SaB,AbAASbA,BbAa,BbSAaS,BaBBG2是上下文无关文法,请判断以下文法的类型,G3:S0A A1B S1B B1B S0 B1 A0A B0 A0SG3是正则文法,自动机,文法、语言和自动机,2、上下文无关文法,3、转换生成文法,4、扩充转移网络,(1)有限状态转移网络,以冠词“The”开头的一类名词短语NP的转移
22、网络,它可以拥有零个或多个形容词;最后以一个名词结尾。组成:一组状态(或称结点)和一组弧组成。例子:输入“the pretty picture”。从起始状态NP开始,只有一条标注着“the”的外射弧。由于输入串中的the能同它匹配,所以“the”从输入串中删除,过程进入图中的状态NP1。此时输入串是“pretty picture”,由于第一个“pretty”的词类是ADJ,同标注ADJ的弧匹配,于是“pretty”从输入串中删除,但沿着ADJ弧转移的结果是再次回到这个NP1状态。此时输入串只剩下“picture”,由于它是一个名词,因此发生了沿N弧前进到结束状态的转移。输入串成为空串,分析成功
23、。,这个句子的识别还可以在网络中走其它弧,如由状态c输入“swallow”也可以走弧cd,但接下来输入“flies”时就被拒绝识别了。由此可看出网络识别的过程应找出各种可能的路径,因此算法要采用并行算法或回溯算法。,96,(1)并行算法。并行算法的关键是在任何一个状态都要选择所有可以到达下一个状态的弧,同时进行试验。(2)回溯算法。回溯算法则是在所有可以通过的弧中选出一条往下走,并保留其他可能性,以便必要时可以回过来选择之。这种方式需要一个堆栈结构。,(2)递归转移网络(RTN),是对有限转移网络的一种扩展,在RTN中每条弧的标注不仅可以是一个终结符(词或词类),而且可以是一个用来指明另一个网
24、络名字的非终结符。例如,下面是一部上下文无关语法:S NP V NP PP*NP T ADJ*N PP*PP P NP X*表示符号X可以出现 零次或多次。,(3)扩充转移网络(ATN),ATN语法属于一种增强型的上下文无关语法,即用上下文无关文法描述句子文法结构,并同时提供有效的方式将各种理解语句所需要的知识加到分析系统中,以增强分析功能,从而使得应用ATN的句法分析程序具有分析上下文有关语言的能力。ATN主要是对转移网络中的弧附加了过程而得到的。当通过一个弧的时候,附加在该弧上的过程就会被执行。这些过程的主要功能是(I)对文法特征进行赋值;(II)检查数(number)或人称(第一、二或三
25、人称)条件是否满足,并据此允许或不允许转移。,ATN在三方面对RTN作了扩展和增强:(1)添置了一组寄存器,用来存储分析过程中得到的中间结果和有关信息。例如,“小王研究鲁迅的文章”可能先被分析为NPVP,但发现后面的词是“发表”,则要回到前面的某个转移点重新分析,选择另一条路。,(2)每条弧上除了用句法范畴来标注以外,可以附加任意测试,只有当弧上的这种测试成功之后才能用这条弧。,(3)每条弧上还可以附加某些动作,当通过一条弧时,相应的动作便被依次执行,这些动作主要用来设置或修改寄存器的内容。,例:一个简单的名词短语(NP)的扩充转移网 络,网络中弧上的条件和操作如下所示:,该网络主要是用来检查
26、NP中的数的一致值问题。特征是Number(数),有两个值:singular(单数)和plural(复数),缺省值是(空)。C是弧上的条件,A是弧上的操作,*是当前词,proper是专用名词,det是限定词,PP是介词短语,*.Number是当前词的“数”。该扩充转移网络有一个网络名NP。网络NP可以是其他网络的一个子网络,也可以包含其他网络,如其中的PP就是一个子网络,这就是网络的递归性。,弧NP-1将当前词的Number放入当前NP的Number中;而弧NP-4则要求当前noun的Number与NP的Number是相同时,或者NP的Number为空时,将noun作为NP的Number,这就
27、要求det的数和noun的数是一致的。因此this book,the book,the books,these books都可顺利通过这一网络,但是this books,或these book就无法通过。如果当前NP是一个代词(pron.)或者专用名词(proper),那么网络就从NP-5或NP-6通过,这时NP的数就是代词或专用名词的数。PP是一个修饰前面名词的介词短语,一旦到达PP弧就马上转入子网络PP.,例:一个句子的ATN,主要用来识别主、被动态的句子。S网络中所涉及的功能名和特征维包括:功能名:Subject(主语),Direct-Obj(直接宾语),Main-Verb(谓语动词),
28、Auxs.(助动词),Modifiers(修饰语)。特征维:Voice(语态):Active(主动态),Passive(被动态),缺省值是Active。Type(动词类型):Be,Do,Have,Modal,Non-Aux,缺省值是Non-AuxaForm(动词式):Inf不定式),Present(现在式),Past(过去式),Pres-part(现在分词),Past-part(过去分词),缺省值是Present。,Subject即把当前成分放入名为Subject的功能寄存器(当前成分作主语)。是一种添加操作,Auxs.Main-Verb就是将当前的谓语动词添加到Auxs功能寄存器中(原来Au
29、xs中可能已有内容)。在S网络中,当弧S-2遇到第一个动词时,就把它置入Main-Verb,但是在接下来的弧S-3中发现Main-Verb中刚才被置入的是助动词,网络操作就把Main-Verb中的内容添加到Auxs寄存器的尾部。若Auxs为空,添加操作与赋值是相同的,但是当Auxs非空时(有几个助动词),这即是一个添加操作。另外,网络中有一种dummy节点,这是一种空节点,用来表示一种形式上的或者预示的成分,如形式上的主语等。弧S-4和S-7就是对于被动态句子的分析和处理。弧S-4主要是识别被动态的谓语动词,一旦确认是被动态,则将当前的主语作为直接宾语,弧S-7用来处理被动态句子中by所引导的
30、介词短语,该介词的宾语就是实际上的主语。,1.8 基于统计的语言处理技术,统计语言模型:试图捕获自然语言的统计规律以改善各种自然语言应用系统的性能。广泛应用于语音识别、手写体文字识别、机器翻译、键盘输入、信息检索领域。统计语言建模相当于对各种语言单位如字、词、句子或整篇文章进行概率分布的估计。,113,概率,最大似然估计,现代汉语字频统计结果:前20个最高频汉字及其频率,条件概率,例,全概率公式,贝叶斯定理,先验概率、后验概率,例,解,定义,给定所有可能的句子s,统计语言模型是一个概率分布p(s)。假设一个句子S可以表示为一个序列S=w1w2wn,语言模型就是要求句子S的概率P(S):Wi是句
31、中的第i个词,hi=w1,w2,wn-1称为历史。p(我是一个学生)=p(我,是,一,个,学生)=p(我)p(是|我)p(一|我,是)p(个|我,是,一)p(学生|我,是,一,个),上述概率的计算量太大,解决问题的方法是将所有历史w1w2wi-1按照某个规则映射到等价类S(w1w2wi-1),等价类的数目远远小于不同历史的数目,即假定:,由于语言模型的训练文本T的规模及其分布存在着一定的局面性和片面性,许多合理的语言搭配现象没有出现在T中。例如:一个词串Wi-N+1Wi 没有出现在训练文本T中,该词串对应的上下文条件概率p(Wi|Wi-N+1Wi)=0,从而导致该词串所在的语句S的出现概率p(
32、S)=0。,127,当前主要语言模型,N-gram模型决策树模型指数模型(最大熵模型)整句模型文法模型概率上下文无关文法链文法概率依存文法自适应模型,N-gram模型,实际应用中,由于严重的数据稀疏和系统处理能力的限制,统计语言建模只能考虑有限长度的历史。数据稀疏问题可能会错误地推导出小概率事件是不重要的。当两个历史的最近的N-1个词(或字)相同时,映射两个历史到同一个等价类,在此情况下的模型称之为N-Gram模型。N-Gram模型被称为一阶马尔科夫链。N的值不能太大,否则计算仍然太大。根据最大似然估计,语言模型的参数:其中,C(w1w2wi)表示w1w2wi在训练数据中出现的次数。,通过将语
33、言模拟成N-1阶马尔科夫源,N-gram模型减少了参数估计的维数:N的选择要考虑参数估计的稳定性和描述能力的折衷。二元语法(Bigram)和三元语法Trigram是通常的选择。,129,Bigram Trigram,130,N的选择:可靠性 vs.辨别力,“我正在 _”讲课?图书馆?听课?学习?借书?“我正在 图书馆 _”学习?借书?,可靠性 vs.辨别力,更大的n:对下一个词出现的约束性信息更多,更大的辨别力;更小的n:在训练语料库中出现的次数更多,更可靠的统计结果,更高的可靠性。,构造方法,采用语言学家构造的词的语法分类体系,按词性进行词类划分,借助于词性标注技术,构造基于词性的N-POS
34、模型。采用词的自动聚类技术,自动构造基于词的自动聚类的类N-gram模型。,133,基于词类的N-gram模型,134,类模型提出的意义:降低模型参数的规模;数据稀疏问题的一种解决方式。,几种模型比较,基于词的N-gram模型对近邻语言约束关系的描述能力最强,应用程度最为广泛。一般N小于等于3,难以描述长距离的语言约束关系。N-POS模型的参数空间最小,一般不存在数据稀疏问题,可以构造高元模型,用于描述长距离的语言约束关系。但由于词性数目过少,过于泛化,因此限制了语言模型的描述能力。自动聚类生成的词类数量介于词和词性的数量之间,由此建立的类N-gram模型,既不存在严重的数据稀疏问题,又不存在
35、过于泛化的问题。,135,统计语言模型的参数,基于统计的方法基本上使用了隐马尔科夫模型,这样的模型使用了许多参数来参与消除歧义的决策机制,这些参数必须经过适当的语料进行训练来提取。统计模型需要有足够的训练数据来提取参数。,136,统计语言模型的参数学习,1、有指导的参数学习基于完全数据的极大似然估计 设Count(x)为模型所预测的一个事件x在训练语料中出现的次数,Count(y)为语料中所有入选的相应的条件事件y的观察数,则模型所描述的事件x的概率可以由下式估计:f(x)相对频度函数2、无指导的参数学习具有隐含变量的参数训练过程 所依赖的训练集可以是不完全数据,因而不需事先进行人工加工。,1
36、37,参数训练系统,138,N-gram模型的概率估计,数据稀疏,N-gram模型的数据稀疏,Zipf统计定律,相信你一定听过这样的说法:80%的财富集中在20%的人手中 80%的用户只使用20%的功能 20%的用户贡献了80%的访问量“二八原则”或“20/80原则”,142,143,如果把所有的单词(字)放在一起看呢?会不会20%的词(字)占了80%的出现次数?答案是肯定的。Zipf定律:如果把单词出现的频率按由大到小的顺序排列,则每个单词出现的频率与它的名次的常数次幂存在简单的反比关系。,降低已出现的n-gram条件概率分布,以使未出现n-gram条件概率分布非0;又可称为“折扣方法”(D
37、iscounting methods);,数据平滑(Smoothing),145,加法平滑,146,Good-Turning估计,回退平滑,数据平滑的效果,数据平滑的效果与训练语料库的规模有关数据平滑技术是构造高鲁棒性语言模型的重要手段训练语料库规模越小,数据平滑的效果越显著训练语料库规模越大,数据平滑的效果越不显著,甚至可以忽略不计,统计语言模型的不足之处,151,1.9 自然语言理解研究现状,近十几年来,统计方法成为了自然语言处理研究的主流方法;近年来,统计方法和规则方法融合的趋势,统计模型更加复杂,可以将一些复杂的语言学知识融入到统计模型中,克服了早期统计模型无法处理长距离依赖问题的缺陷
38、;统计模型的深入研究,更加需要合适的语言学理论的指导,需要大规模的适用于自然语言处理的语言资源的支持;,中文词语切分技术已经比较成熟,但中文切分的领域自适应技术、命名实体识别技术、多粒度切分技术等都还有深入研究的必要;中文的句法分析和语义角色标注距离英语都还有较大的差距,主要的困难在于中文缺乏明确的形态标记导致汉语句法分析的困难,句法语义一体化分析也许是下一步值得努力的方向;自然语言处理的应用技术,包括信息检索、信息提取、机器翻译、自动文摘、自动问答等等近年来也取得了非常大的进展,一些技术已经走向实用,甚至极大地影响着人们的生活。,152,可以预期:自然语言处理还将处于在一个比较长时期的快速发
39、展的轨道上,理论上的突破将给我们带来更多的惊喜,而在应用上也将为满足我们的需求作出更大贡献。,153,154,中文自然语言处理技术的主要科目,155,参考文献,1、宗成庆,统计自然语言处理,清华出版社2、王晓龙,关毅等,计算机自然语言处理,清华大学出版社2、姚天顺等,自然语言理解,清华大学出版社 3、王小捷,常宝宝,自然语言处理技术基础,北京邮电大学出版社4、江铭虎,自然语言处理,高等教育出版社,本章小结,1、自然语言处理的概念2、自然语言处理的应用3、自然语言理解研究的问题4、中文自然语言理解的难点5、自然语言处理的技术基于规则的自然语言处理基于统计的自然语言处理6、自然语言处理的研究现状,区别,技术,