利用递归卷积神经网络进行文本分类.ppt

上传人:小飞机 文档编号:5244199 上传时间:2023-06-18 格式:PPT 页数:15 大小:538KB
返回 下载 相关 举报
利用递归卷积神经网络进行文本分类.ppt_第1页
第1页 / 共15页
利用递归卷积神经网络进行文本分类.ppt_第2页
第2页 / 共15页
利用递归卷积神经网络进行文本分类.ppt_第3页
第3页 / 共15页
利用递归卷积神经网络进行文本分类.ppt_第4页
第4页 / 共15页
利用递归卷积神经网络进行文本分类.ppt_第5页
第5页 / 共15页
点击查看更多>>
资源描述

《利用递归卷积神经网络进行文本分类.ppt》由会员分享,可在线阅读,更多相关《利用递归卷积神经网络进行文本分类.ppt(15页珍藏版)》请在三一办公上搜索。

1、循环卷积神经网络用于文本分类,问题:文本分类,特征表示:词袋方法(一元、两元、N元)其它方法:frequecy,MI,pLSA,LDA缺点:忽略了词语所在的语境和词语的顺序,不能有效获取词语的语义EX:A sunset stroll along the South Bank affords an array of stunning vantage points.(Bank 在这里是河岸,而不是银行),已有解决方法,1.增加词袋元素维度:比如扩展到“stroll along the South Bank”(5-gram)2.更复杂的特征表示方法:比如Tree Kernels 方法3.存在问题:数

2、据稀少(data sparsity),即有效的信息量太少,影响分类的准确度。,单词表示词向量,1.词向量(word embedding):传统的词向量:One-hot Representation“话筒”表示为 0 0 010 0 0 0 0 0 0 0 0 0 0 0.“麦克”表示为 0 0 0 0 0 0 0 010 0 0 0 0 0 0.缺点:“词汇鸿沟”;纬度高;数据稀疏改进的词向量:Distributed Representation即一种单词的分布式表示方法,能有效降低数据稀疏问题,经过训练的词向量可以表征句法和语义信息。Distributed Representation表示形

3、式:0.792,0.177,0.107,0.109,0.542,.。维度以 50 维和 100 维比较常见。这种向量的表示不是唯一的。特点是越相似的词距离越近。解决了One-hot Representation 表示词汇时不能表示两个词汇关系的问题。,文本表示-神经网络,神经网络结构:,基本的神经网络结构包含三部分:输入层、隐含层、输出层神经网络的特点:自学习、联想存储、高度并行性、容错性、鲁棒性。,文本表示,递归神经网络(Recursive NN):利用树结构对语句进行建模。时间复杂度:至少是O(n2),其中n是句子或者文本的长度,因此不适合长句子或者文本。另一方面,两个句子之间的关系很难通

4、过树结构进行表示。,文本表示,循环神经网络(Recurrent NN):对文本进行逐词分析,将已有的文本信息存储在固定大小的隐藏层。时间复杂度:(n)缺点:不公平性,后出现的单词比前出现的单词重要性更高。因此对于整个文本进行分类时会降低有效性。因为文本中重要的单词会在任何地方出现。,文本表示,卷积神经网络(Convolutional NN):卷积神经网络可以有效解决不公平性问题。时间复杂度O(n)已有的研究大多使用简单的卷积内核,比如固定窗口大小。这样窗口大小成为制约性能的关键因素:太小可能会丢失重要信息、太大会导致参数空间过大而难以训练。,本文解决方法,利用循环卷积神经网络(RCNN)解决文

5、本分类问题,即将循环神经网络和卷积神经网络结合,对文本进行表示。方法主要贡献:1.利用双向循环神经网络来表征单词的上下文信息2.利用最大池层自动判断哪个特征在文本分类中的作用更大,方法细节单词表示,利用单词和它的上下文信息共同表示一个单词:wi=cl(wi);e(wi);cr(wi)cl(wi):单词wi左边的文本内容cr(wi):单词wi右边的文本内容e(wi-1):单词wi-1的词向量W(l):将隐藏层传递到下一层的矩阵W(sl):将当前单词的语义和下一个单词左边的文本组合 起来的矩阵f:非线性激活函数,方法细节单词表示,利用循环神经网络对语句“A sunset stroll along

6、the South Bank affords an array of stunning vantage points”进行建模表示。,方法细节文本表示,得到单词wi的表示形式xi之后,利用双曲正切函数进行转换,将结果传递到下一层:Yi(2)=tanh(w(2)xi+b(2)利用卷积神经网络来表示文本,当所有的单词的表示都计算完成后,进行池化操作,这里采用的是最大池化:Y(3)=max yi(2)(i=1,2.n)最大池层将不同长度的文本转换为具有相同长度的向量。采用最大池层的好处是可以发现文本中最重要的语义信息。,方法细节输出结果,输出层:y(4)=W(4)y(3)+b(4)转换为概率:意义:表示文本属于某个类别的概率,参数训练,神经网络的参数:,将所有的参数都用来进行对 的训练,目标是使得对应的值使得下式最大,其中,D是待分类文本,ClassD是该文本的正确分类类别,训练过程中采用了梯度下降的方法,为学习速率:,参数训练,词向量训练:Skip-gram model.,目标:使得上式的值最大。其中,C是训练文本的长度。概率p的定义如下,用到了softmax函数:,对于单词w1,w2wT,计算下式的值:,其中,|V|是没有标记的文本中的单词。e(wi)是wi的另一个词向量。,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号