马尔科夫模型.ppt

上传人:sccc 文档编号:5413764 上传时间:2023-07-05 格式:PPT 页数:101 大小:2.89MB
返回 下载 相关 举报
马尔科夫模型.ppt_第1页
第1页 / 共101页
马尔科夫模型.ppt_第2页
第2页 / 共101页
马尔科夫模型.ppt_第3页
第3页 / 共101页
马尔科夫模型.ppt_第4页
第4页 / 共101页
马尔科夫模型.ppt_第5页
第5页 / 共101页
点击查看更多>>
资源描述

《马尔科夫模型.ppt》由会员分享,可在线阅读,更多相关《马尔科夫模型.ppt(101页珍藏版)》请在三一办公上搜索。

1、隐马尔科夫模型和词性标注,大纲,隐马尔科夫模型隐马尔科夫模型概述任务1:计算观察序列的概率任务2:计算能够解释观察序列的最大可能的状态序列任务3:根据观察序列寻找最佳参数模型词性标注,隐马尔科夫模型概述,马尔科夫链,状态序列:X1,X2,X3,常常是“时序”的从Xt-1到Xt的转换只依赖于Xt-1,X2,X3,X4,X1,转移概率Transition Probabilities,假设一个状态Xt有N个可能的值Xt=s1,Xt=s2,.,Xt=sN.转移概率的数量为:N2P(Xt=si|Xt-1=sj),1 i,j N转移概率可以表示为NN的矩阵或者有向图,MM,Bigram MM(一阶MM),

2、MM,Trigram MM(二阶MM),有限状态自动机,状态:输入输出字母表中的符号弧:状态的转移仍然是VMM(Visible MM),HMM,HMM,从状态产生输出,HMM,HMM,不同状态可能产生相同输出,HMM,HMM,从弧产生输出,HMM,HMM,输出带有概率,HMM,HMM,两个状态间有多条弧,具有不同的概率,隐马尔可夫模型Hidden Markov Model,估算隐藏于表面事件背后的事件的概率观察到一个人每天带雨伞的情况,反过来推测天气情况,Hidden Markov Model,HMM是一个五元组(S,S0,Y,Ps,PY).S:s1sT 是状态集,S0是初始状态Y:y1yV

3、是输出字母表PS(sj|si):转移(transition)概率的分布,也表示为aijPY(yk|si,sj):发射(emission)概率的分布,也表示为bijk给定一个HMM和一个输出序列Y=y1,y2,yk)任务1:计算观察序列的概率任务2:计算能够解释观察序列的最大可能的状态序列任务3:根据观察序列寻找最佳参数模型,任务1:计算观察序列的概率,计算观察序列的概率,前提:HMM模型的参数已经训练完毕想知道:根据该模型输出某一个观察序列的概率是多少应用:基于类的语言模型,将词进行归类,变计算词与词之间的转移概率为类与类之间的转移概率,由于类的数量比词少得多,因此一定程度避免了数据稀疏问题,

4、Trellis or Lattice(栅格),发射概率为1的情况,Y=“toe”P(Y)=0.60.881+0.40.11=0.568,算法描述,从初始状态开始扩展在时间点t扩展得到的状态必须能够产生与观察序列在t时刻相同的输出比如在t=1时,观察序列输出t,因此只有状态A和C得到了扩展在t+1时刻,只能对在t时刻保留下来的状态节点进行扩展比如在t=2时,只能对t=1时刻的A和C两个状态进行扩展每条路径上的概率做累乘,不同路径的概率做累加直到观察序列全部考察完毕,算法结束,发射概率不为1的情况,0.236608就是在上述模型下“toe”出现的概率,Trigram的情况,以Bigram为状态,基

5、于类的Trigram模型,N-gram class LMp(wi|wi-2,wi-1)p(wi|ci)p(ci|ci-2,ci-1)C:Consonant(辅音),V:Vowel(元音),Class Trigram的Trellis,输出Y=“toy”,重叠(overlapping)的Class Trigram,“r”有时是元音,有时是辅音,因此p(r|C)和p(r|V)都不为零,重叠的类Trigram的Trellis,讨论,我们既可以从左向右计算,也可以从右向左计算,甚至可以从中间向两头计算Trellis的计算对于Forward-Backward(也称为Baum-Welch)参数估计很有用,任

6、务2:计算能够解释观察序列的最大可能的状态序列,Viterbi算法,用于搜索能够生成观察序列的最大概率的状态序列Sbest=argmaxSP(S|Y)=argmaxSP(S,Y)/P(Y)=argmaxSi=1kp(yi|si,si-1)p(si|si-1)Viterbi能够找到最佳解,其思想精髓在于将全局最佳解的计算过程分解为阶段最佳解的计算,示意,从D2返回Stage 1的最佳状态为C1因为p(A1-D2)=0.60.5=0.3而p(C1-D2)=0.40.8=0.32尽管搜索还没有完全结束,但是D2已经找到了最佳返回节点,Viterbi示例,argmaxXYZP(XYZ|rry),Vit

7、erbi计算,Viterbi算法,三重循环第一重:遍历每一个观察值第二重:遍历当前观察值所对应的每一个状态第三重:遍历能够到达当前观察值当前状态的上一时刻的每一个状态计算假设上一时刻为t,t时刻的的状态为i,t+1时刻的状态为j,t+1时刻的观察值为k,则计算:j(t+1)=max1iNi(t)aijbijkj(t+1)=argmax1iNi(t)aijbijkt+1时刻状态j的返回指针指向t时刻的状态j(t+1)输出三重循环都结束后,在最后时刻找到值最大的状态,并从该状态开始,根据返回指针查找各时刻的处于最佳路径上的状态,并反序输出。,N-best计算,保留n个最佳结果,而不是1个最优解:V

8、CV;次优解:CCV,N-Best Paths,以分词为例(MM模型)例句:“结合成分子”每条弧上的值是该弧所对应的词的Unigram概率的负对数,即-logp(w),结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分

9、子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分

10、子“.,结 合 成 分 子,N-Best Paths,A sampleThe sentence“结合成分子“.,结 合 成 分 子,结果,四条最佳路径为:1.结合/成/分子2.结合/成分/子3.结/合成/分子4.结合/成/分/子时间复杂度假设搜索图中共有k条边要求获得N条最佳路径则时间复杂度为O(k*N2),剪枝Pruning,在每一个时刻,如果Trellis上的状态过多,怎么办?答案是剪枝:1、按的阈值剪枝,太低的路径不再继续搜索2、按状态的数量剪枝,超过多少个状态就不再扩展了,任务3:根据观察序列寻找最佳参数模型,问题,给定一个观察值序列,但是没有标注每个观察值所对应的状态(无指导),在这

11、种条件下如何估计隐马尔可夫模型中的参数,包括转移概率的分布和发射概率的分布例如:给定一个语料库,语料库只是一个词的序列,没有词性标记,能否估计出词性标注的HMM模型?是EM算法的特例,象一个魔法(MAGIC)!找到一个能够最佳地解释观察值序列的模型,Baum-Welch算法也称为Forward-Backward算法,1.初始化PS,PY可能是随机给出的2.计算前向概率(Forward Probability)(s,i)=ss(s,i-1)p(s|s)p(yi|s,s)从左到右搜索过程中的累积值3.计算后向概率(Backward Probability)(s,i)=ss(s,i+1)p(s|s)

12、p(yi+1|s,s)从右到左搜索过程中的累积值,前向概率后向概率示意图,t-1,t,t+1,t+2,ai(t),bj(t+1),aijbijk,观察值为k,Baum-Welch算法(续),4.计数(pseudo count)c(y,s,s)=i=0k-1,y=yi+1(s,i)p(s|s)p(yi+1|s,s)(s,i+1)c(s,s)=yYc(y,s,s)c(s)=sSc(s,s)5.重新估算p(s|s)=c(s,s)/c(s),p(y|s,s)=c(y,s,s)/c(s,s)6.重复运行2-5,直至结果不再有较大变化,词性标注,词性(Part of Speech),词的句法类别名词、动词

13、、形容词、副词、介词、助动词分为开放词类(Open Class)和封闭词类(Closed Class)也成为:语法类、句法类、POS标记、词类等,POS举例,N nounbaby,toy V verb see,kiss ADJ adjective tall,grateful,alleged ADV adverb quickly,frankly,.P preposition in,on,near DET determiner the,a,that WhPronwh-pronounwho,what,which,COORD coordinatorand,or,开放类,替代性测试,两个词属于同一个词类

14、,当且仅当它们相互替换时不改变句子的语法特征The _ is angry.(名词)The _ dog is angry.(形容词)Fifi _.(不及物动词)Fifi _ the book.(及物动词),POS Tags,不存在标准的词性标注集有的是用比较粗糙的标记集,例如:N,V,A,Aux,.有的使用更细致的分类:(例如:Penn Treebank)PRP:personal pronouns(you,me,she,he,them,him,her,)PRP$:possessive pronouns(my,our,her,his,)NN:singular common nouns(sky,do

15、or,theorem,)NNS:plural common nouns(doors,theorems,women,)NNP:singular proper names(Fifi,IBM,Canada,)NNPS:plural proper names(Americas,Carolinas,),Penn Treebank词性集,PRP,PRP$,词性标注,词常常有多个词性,以back为例The back door=JJOn my back=NNWin the voters back=RBPromised to back the bill=VB词性标注问题就是针对确定词在一个特定实例中的词性,PO

16、S歧义(在Brown语料库中),无歧义的词(1 tag):35,340个有歧义的词(2-7 tags):4,100个,(Derose,1988),词性标注的应用,文语转换 怎样朗读”lead”动词一般形式:li:d过去式:led是句法分析的基础辅助词义消歧等,动词等待等,量词等级,目前的性能,容易评价,只需计算标注正确的词性数量目前准确率大约在97%左右Baseline也可以达到90%Baseline算法:对每一个词用它的最高频的词性进行标注未登录词全部标为名词,词性标注,P(T|W)=P(W|T)P(T)/P(W)argmaxTp(T|W)=argmaxTp(W|T)p(T)P(W|T)=i

17、=1dp(wi|w1,wi-1,t1,td)p(wi|w1,wi-1,t1,td)p(wi|ti)P(T)=i=1dp(ti|t1,ti-1)p(ti|t1,ti-1)=p(ti|ti-n+1,ti-1),有指导的学习,训练时事先对语料库进行了人工的词性标注,因此在训练时看到了状态(词性),属于VMM,在测试时,只能看到观察值(词序列),因此属于HMM。应用最大似然估计p(wi|ti)=cwt(ti,wi)/ct(ti)p(ti|ti-n+1,ti-1)=ctn(ti-n+1,ti-1,ti)/ct(n-1)(ti-n+1,ti-1)平滑p(wi|ti):加1平滑p(ti|ti-n+1,ti-

18、1):线性差值,用带标记的语料进行训练,Pierre/NNP Vinken/NNP,61/CD years/NNS old/JJ,/,will/MD join/VB the/DT board/NN as/IN a/DT nonexecutive/JJ director/NN Nov./NNP 29/CD./.Mr./NNP Vinken/NNP is/VBZ chairman/NN of/IN Elsevier/NNP N.V./NNP,/,the/DT Dutch/NNP publishing/VBG group/NN.Rudolph/NNP Agnew/NNP,/,55/CD years/

19、NNS old/JJ and/CC former/JJ chairman/NN of/IN Consolidated/NNP Gold/NNP Fields/NNP PLC/NNP,/,was/VBD named/VBN a/DT nonexecutive/JJ director/NN of/IN this/DT British/JJ industrial/JJ conglomerate/NN./.,c(JJ)=7 c(JJ,NN)=4,P(NN|JJ)=4/7,无指导的学习,语料库只是词的序列,没有人工标注词性,是Plain Text。完全无指导的学习是不可能的至少要知道:词性集每个词可能的

20、词性(据词典)使用Baum-Welch算法,无指导学习的秘诀,语料库(只有两个句子)A lion ran to the rockD N V P D N Aux VThe cat slept on the mat D N V P D N V R我们能够学习到什么?D,N,V的概率大于D,V,V,Cat应该标注为NV,P,D的概率大于V,Aux,D或V,R,D,因此to和on应标为P,未登录词,考虑所有词性只考虑开放类词性Uniform(平均分配概率)Unigram(考虑每个词性独立出现的概率)根据未登录词的前缀和后缀猜测其词性,运行词性标注器,无论是对有指导的学习,还是对无指导的学习,在搜索阶段

21、都一样:使用Viterbi算法!,n=2.52bn(人民)=7.37,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,bn(收入)=6.98ann=2.76,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,bnh(和)=20an nh=20,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,bc(和)=1.72an c=3.58,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,25.32,bn(生活)=5.75anh n=20,n,n,nh,c,p,v,n,

22、v,n,a,a,d,n,v,9.89,20.02,60.02,25.32,27.66,31.26,85.77,Viterbi算法举例,n=2.52bn(人民)=7.37,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,bn(收入)=6.98ann=2.76,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,bnh(和)=20an nh=20,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,bn(生活)=5.75anh n=20,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.

23、02,60.02,25.32,27.66,31.26,85.77,bn(生活)=5.75ac n=1.84,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,25.32,27.66,31.26,85.77,32.91,bn(生活)=5.75ap n=1.28,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,25.32,27.66,31.26,85.77,32.91,34.69,bn(生活)=5.75av n=1.92,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,

24、25.32,27.66,31.26,85.77,32.91,34.69,38.93,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,25.32,27.66,31.26,85.77,32.91,34.69,38.93,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,25.32,27.66,31.26,32.91,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,25.32,27.66,31.26,32.91,34.6,n,n,nh,c,p,v,n,v,n,a,a,d,

25、n,v,9.89,20.02,60.02,25.32,27.66,31.26,32.91,34.6,43.16,56.74,52.67,55.71,60.76,68.15,n,n,nh,c,p,v,n,v,n,a,a,d,n,v,9.89,20.02,60.02,25.32,27.66,31.26,32.91,34.6,43.16,56.74,52.67,55.71,60.76,68.15,人民/n 收入/n 和/c 生活/n 水平/n 进一步/d 提高/v,N-Best结果,N-Best Search结果,1)收入/n 和/c 生活/n 进一步/d 提高/v37.472)收入/n 和/p 生活/n 进一步/d 提高/v39.253)收入/n 和/c 生活/v 进一步/d 提高/v39.47,谢谢!,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 建筑/施工/环境 > 农业报告


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号