基于卷积神经网络的U-net模型的人像分离工具.docx

上传人:李司机 文档编号:6712919 上传时间:2024-01-08 格式:DOCX 页数:36 大小:320.96KB
返回 下载 相关 举报
基于卷积神经网络的U-net模型的人像分离工具.docx_第1页
第1页 / 共36页
基于卷积神经网络的U-net模型的人像分离工具.docx_第2页
第2页 / 共36页
基于卷积神经网络的U-net模型的人像分离工具.docx_第3页
第3页 / 共36页
基于卷积神经网络的U-net模型的人像分离工具.docx_第4页
第4页 / 共36页
基于卷积神经网络的U-net模型的人像分离工具.docx_第5页
第5页 / 共36页
点击查看更多>>
资源描述

《基于卷积神经网络的U-net模型的人像分离工具.docx》由会员分享,可在线阅读,更多相关《基于卷积神经网络的U-net模型的人像分离工具.docx(36页珍藏版)》请在三一办公上搜索。

1、摘要图像信息是人类视觉感知信息的重要部分,随着计算机、电子技术日益进步,大规模运算和信息的数-模转换走入现实,由此催生出分为图像识别、分割、重建等领域的数字处理技术蓬勃发展。作为图像分割的典型应用场景,人像分割是进行人像美化、背景处理、人脸识别等领域的重要前提。因此通过人像分割从图像中精确且完整地提取出人像目标,对后续处理有必要作用。本文以深度学习中的卷积神经网络为基础,研究如何利用U-Net模型在人像照片较有限的情况下达到人像分离合格的准确率。最终实现模型的IOU在92.K左右,Dice系数在95.7%左右。对比早期的分割方法,卷积神经网络U-Net模型通过类似编码器一解码器的型结构实现更简

2、便、稳定地提取数据的特征,且能更加有效的提高分割的准确度。关键词:深度学习;人像分割;U-Net模型AbstractImageinformationisanimportantpartofhumanvisualperceptioninformation.Withthedevelopmentofcomputerandelectronictechnology,large-scaleoperationanddigital-to-analogconversionofinformationcomeintoreality,Therefore,thedigitalprocessingtechnologyinc

3、ludingimagerecognition,segmentationandreconstructionhasbeendevelopedvigorously.Asatypicalapplicationsceneofimagesegmentation,isanimportantpremiseofimagebeautification,backgroundprocessing,facerecognitionandsoon.TherefbreJtisnecessarytoextracttheimageobjectaccuratelyandcompletelyfromtheimagebyportrai

4、tsegmentationInthispaper,basedontheconvolutionalneuralnetworkindeeplearning,westudyhowtousetheU-Netmodeltoachievethequalifiedaccuracyrateofhumanimageseparationunderthelimitedsituationofhumanimage.TheIOUofthefinalmodelisabout92.1%,andtheDicecoefficientisabout95.7%.Comparedwiththeearliersegmentationme

5、thods,TheconvolutionalneuralnetworkU-NetmodelextractsthefeaturesofdatamoreeasilyandstablythroughaU,-likestructureintheencoder-decoder,It,scanimprovethesegmentationaccuracymoreeffectively.Keywords:deepIearning;PortraitSegmentation;U-Netmodel目录第一章绪论1LI课题背景及国内外研究现状11.2 研究目的和意义11.3 研究主要内容21.4 本文章节安排2第二章

6、卷积神经网络、UNet模型及框架介绍32.1 人工神经网络简介32.2 卷积神经网络32.2.1 卷积42.2.2 池化52.2.3 激活函数62.3 U-Net模型72.3.1 U-Net网络结构与提出背景72.3.2 U-Net网络优点与创新性82.4 Tensorflow框架简介92.5 keras框架简介9第三章基于TenSOrfIOW的神经网络搭建113.1 系统环境配置113.2 数据集选择123.3 数据预处理123.3.1 Mask(掩膜)合并处理及转换数组形式123.3.2 训练集验证集划分143.4 搭建U-net卷积神经网络153.5 模型训练与结果16第四章人像分割的设

7、计与实现174.1 加载模型及测试集174.2 测试174.3 预测图片呈现17第五章总结与展望205.1 总结205.2 展望与不足20参考文献21致谢22第一章绪论1.1 课题背景及国内外研究现状人类从视觉感知的信息占整体感知信息的70%左右,除了文本信息、视频信息等,图像信息也占了视觉感知信息很大一部分。随着计算机、电子技术日益进步,大规模运算和信息的数-模转换走入现实,由此催生出分为图像识别、分割、重建等多个领域的数字处理技术蓬勃发展。图像分割是在图像处理众多领域中的重要分支。图像分割即把图像分割成若干不重叠的部分,这些部分图像之间要么存在需分割出来研究的目标物体,要么存在所需的物体部

8、分与整体之间的相互关系。早在1963年,为了分割出图像的不同部分RObeitS边缘检测器被提出。自此始,图像分割领域逐渐进入蓬勃发展期,涌现出了各种各样的分割方法。发展出了诸如基于区域、阈值、边缘检测以及重要的深度学习分割方法。而现有的图像分割理论主要发展为主要包括属于有监督分割算法的深度学习、属于无监督分割模型的模糊集理论、小波变换等几个大类。作为计算机视觉的重要部分,2014年图像分割在深度学习方向取得重要突破,被提出的FCN模型主要通过使用端对端的CNN,并在上采样部分使用反卷积。后来U-net模型(创造了一整套编码解码器)、SegNet模型(转换MaXimUmPoOling为解码器)、

9、DeePLab模型、PSPNet模型等被相继提出。在国内方面,人像分割前期的基础研究较少,来自重庆大学自拍乐照相系统团队的刘恒其毕业论文中提出了基于蓝色向量聚类特征的人像提取技术和基于先验知识的阈值获取技术,通过对人像与背景形成的不同聚类构成直方图,并根据先验知识的阈值获取算法进行图像分割,以提取人像。2016年来自香港中文大学的沈小勇等人发表DeePautomaticportraitmatting论文,在文中构造了两种函数,其一作用是将图像分为背景、人像、不确定标签三类,其二作用是通过前向传播和后像传播得到人像信息。区别于传统的分割方法即还需要用户手动提供tri-map,该模型会自动预测tr

10、i-map,只需用户提供图片即可。1.2 研究目的和意义图像分割是计算机视觉领域的重要组成部分,而人像分割是图像分割领域的重要分支。图像分割是模式识别和图像理解的研究热点,通过图像分割技术切割出图像中的目标信息,为下一步精确且有效率地对目标进行分析打好基础。就像人的眼睛一样,首先要通过锁定视觉中的目标物体,然后才能精准地进行下一步行动。图像分割现在常用于电子商务以图搜物、相片处理、医学CT检查、自动驾驶研究等领域。人像分割是进行人像美化、背景处理、人脸识别等领域的重要前提。例如人像分割及背景合成是照片处理的一个重要方面,常运用在单位、学校、公安的证件录入系统上。然而现在的人像背景替换合成还有不

11、少需进步的地方。第一点是图像分割功能的自动化程度不高且处理效率较低,因为大部分需要人工通过软件切割出人像区域。第二点是图像合成只是通过粘贴拼接在一起,在人像和背景交接处不太规则,以致得到的合成图像让人感觉不太真实、自然。因此通过人像分割从图像中精确且完整地提取出人像目标,对后续处理有必要作用。因为其分割效果的好坏会直接影响后面的输出结果,因此研究便捷精确的人像分割模型具有重要意义。1.3 研究主要内容本文以深度学习中的卷积神经网络为基础,研究如何利用U-Net模型在人像照片较有限的情况下达到人像分离合格的准确率。对比早期的分割方法,卷积神经网络U-Net模型通过类似编码器一解码器的“U”型结构

12、实现更简便、稳定地提取数据的特征,且能更加有效的提高分割的准确度。1.4 本文章节安排第一章:绪论。本章主要介绍了课题的研究背景与国内外研究现状,阐述了本课题的研究目的和意义及简述了本文研究的主要内容。第二章:卷积神经网络、U-Net模型及框架介绍。本章简单介绍了卷积神经网络的结构,介绍了时下主流的几种深度学习框架以及要用到的U-Net模型。第三章:基于TenSorfIOW的U-Net模型构建。这一章节主要描写了系统环境的配置,数据集的选择和预处理及U-Net模型的构建和训练。第四章:人像分割的设计与实现。这一章节编写了如何通过训练好的U-Net对测试集图片进行预测。第五章:总结与展望。总结回

13、顾论文与实验的各个部分,并说明了研究实验的不足之处及如何改进。第二章卷积神经网络、U-Net模型及框架介绍2.1人工神经网络简介人类大脑以计算机无法做到的方式来解释现实世界的环境和情况。人工神经网络是一种模拟人脑工作的方法,这样计算机就能像人脑一样学习和做决定。人工神经网络是一种用于分类、回归和聚类问题的机器学习算法。它是深层神经网络的基本组成部分,主要用于学习复杂的非线性假设。人工神经网络每层由儿个基本单位组成。一个单位就叫做一个神经元。外界的各种数据通过输入层输入,然后数据经处理进入隐藏单元,将数据转换为输出单元可以使用的形式。图2-1生物神经元与神经元网络神经元的输入值将乘以权重并加在一

14、起(wl、W2、w3)o权重是决定两个神经元之间强度的值。这些是在学习过程中会逐渐改变的值。然后将偏差值与前面的总和相加。在所有这些累加之后,神经元对这个值应用一个激活函数。这基本上就是神经元的工作。接收来自连接神经元的数值,将其乘以各自的权重,将它们相加,然后应用激活函数然后它把它传递给其他神经元。每个神经元从一个神经元层完成后,就会传递到下一个神经元层。最后,获得的最后一个值应该能够预测期望的输出。起初,神经网络的预测是随机的。但是,随着每个时期的进行,并按照输出应有的模型进行训练,预测值将越来越接近正确值。单个神经元的上述工作应该在整个网络中进行,并通过前向传递以及反向传播的过程以确定最

15、佳的参数。其中,权值优化,使神经网络可以学习如何正确地映射随机输入到输出。2.2卷积神经网络卷积神经网络是一种用于图像识别和处理的人工神经网络,是专门设计成处理大量的图像数据中使用。神经网络的神经元模拟了我们的神经细胞之间相互连接的通讯方式,CN具有类似的结构。使CNN与其他神经网络不同的是卷积运算,它将滤波器应用到前面输入的每个部分,以便特征提取和映射。图2-2一个卷积神经网络图CNN主要包含下面四个层级:卷积层:通过滤波器来进行特征提取及映射。在识别图像过程中,不是直接一次性识别出整幅图像,而是先提取局部图像中的特征,然后进入下一次层次的全局综合运算,来获取全局信息。非线性激活层:激活函数

16、对特征图进行非线性运算。激活功能是对输入体积进行逐个元素运算,因此输入和输出的尺寸相同。用于激活常见的函数有ReLU、Sigmoid函数等。池化层:池化层负责压缩数据和减少参数的数量级。通常,它们在其他层(即卷积和非线性层)的多个阶段之后使用,以便通过网络逐步降低计算要求,并最大程度降低过度拟合的可能性。全连接层:经多次卷积、激活和池化后,到达全连接层。卷积网络中的全连接层实际上是多层感知器,是仅次于卷积层的第二耗时层。此层主要作用是将样本从特征空间一一对应到标签中。2.2.1卷积卷积是用于特征提取的一种特殊类型的线性运算,其中在输入上应用一小串称为卷积核的数字数组,这是一组称为张量的数字数组

17、。在张量的每个位置计算卷积核的每个元素与输入张量之间的元素乘积,并将其求和以获得在输出张量的相应位置的输出值,称为特征图。重复此过程,应用多个卷积核以形成任意数量的特征图,这些特征图代表输入张量的不同特征;因此,不同的卷积核可以被认为是不同的特征提取器。定义卷积运算的两个关键超参数是卷积核的大小和数量。前者通常为3X3,但有时为5X5或7X7。后者是任意的。应该注意的是,步幅和滤波器大小是超参数,这意味著模型不会学习它们。所以必须应用科学思维来确定这些数量中的哪些值最适合实验的模型。, 000011012 Xxxxxxxxx (4e e e(0e(0(0(4kernel图2-3卷积运算示意图(

18、左输入,中过滤器,右输出)对于卷积,还需要理解的概念是填充。如果图像无法在整数次内与滤波器拟合(将步幅考虑在内),那么必须填充图像。可通过两种方式实现此操作:VALID填充和SAME填充。基本上讲,VALID填充丢弃了图像边缘的所有剩余值。也就是说,如果滤波器为2X2,步幅为2,图像的宽度为3,那么VALlD填充会忽略来自图像的第三列值。SAME填充向图像边缘添加值(通常为0)来增加它的维数,直到过滤器能够拟合整数次。这种填充通常以对称方式进行的(也就是说,会尝试在图像的每一边添加相同数量的列/行。2.2.2池化池化其实是降采样的一种形式,包括最大池化、平均池化、全局池化等。池化操作是在特征图

19、的每个通道上滑动二维滤波器,并对位于滤波器覆盖区域内的特征进行汇总比如经常见到的最大池化就是先把特征图分为很多个矩形单元,从过滤器覆盖的单元要素图区域中选择最大元素。因此,最大池化层之后的输出将是一个包含先前特征图最突出特征的特征图。224x224x64224图2-4最大池化样本图Singledepthslice1 124maxPoolwith2x2filters5678andstride26832103412三4池化的作用1 .用于减小要素图的尺寸。因此,它减少了要学习的参数的数量以及网络中执行的计算量;2 .通过减少空间信息,也意味着减少的参数,因此减少了过度拟合的机会池化层汇总了由卷积层

20、生成的特征图区域中存在的特征。因此,对摘要特征执行进一步的操作,而不是对卷积层生成的精确定位的特征进行操作。这使模型对输入图像中特征位置的变化更加具有鲁棒性。2. 2.3激活函数激活函数是卷积神经网络的必要组成部分。它用于创造卷积神经网络的非线性映射能力。假设没有激活函数,那么即便有更多的卷积池化层,网络层与层之间还是线性映射。也就是激活函数的加入有助于创建CNN的非线性模型能力。1 .ReLU激活函数图2-5ReLU激活函数在所有激活函数中,这是最类似于线性函数的函数:对于非负值,保持不变;对于负值,它返回0。用数学的话这意味着所有负值都将变为0,而其余值将保持原样。这是一种生物学启发的功能

21、,因为大脑中的神经元将“发射”(返回正值)或不发射(返回0)。注意,与偏置结合使用,就实际上过滤掉了某个阈值以下的任何值。假设我们的偏置为-b。加上偏置后,任何小于b的输入值都将变为负值。应用ReLU后,该值变为0。2 .Sigmoid函数Sigmoid函数采用任何实数作为输入,并返回0到1之间的值。由于它是连续的,因此可以有效地“模糊”值:如果将SigmOid应用于3,则得到0.95。将其应用至打0,您将获得0.999.并且它将一直逼近1而从未达到它。在负方向上也会发生同样的情况逐渐收敛到Oo这是Sigmoid函数的图像。图2-6Sigmoid函数图如图所示,当X接近无穷大时,它接近1;如果

22、X接近负无穷大,它接近0。它也是对称的,当输入为0时,其值为1/2。由于它的取值介于0到1之间,因此如果要对概率建模,此函数作为输出非常有用。2.3U-Net模型2.3.1U-Net网络结构与提出背景U-Net模型由经典的全卷积网络改进而来,从而变得更有效率,并且降低了所需标记数据的数目。与全卷积网络比较:用上层采样替换池化;通过通道数的增多,让网络中的特征信息映射到高分辨率的层。Fig.l.U-betarchitecture(examplefor32x32pixelsIuthelowestresolutiom).Eachblueboxcorrespondstoamulti-diannelfe

23、aturemap.ThenumberofClhannelsisdenotedontopufthebax.Thex-y-sizeisprovidedatthelowerleftedgeufthebox.WhiteIokesreprvsentcopiedfenturemaps.Thearrowsdenotethedifereutuperatios.图2-7U-Net模型结构图如UNet模型结构图所示,每个特征图用一个蓝色块显示,对特征图进行的不同的操作用五种不同颜色的箭头表示。顶部的数字代表该特征图的通道数,该特征图的尺寸表示在在蓝色块的左下角。整张图的左半部分是下采样的部分(特征提取部分),右半

24、部分是上采样部分。通过反复的卷积获得输入图像的特征信息,并且将其映射到高维。使得图像最丰富的特征信息存在于整个模型的高维。不同于FCN,u-net模型不直接对与原始图像大小相同的输出图像进行池化,反而通过反卷积,将特征从高纬重新映射到低维。在上采样过程中,将下采样网络中同一维度的图像进行融合,以增强分割的精度。为了解决融合过程中维度翻倍的问题,需要再进行卷积,使得与原维度相同以进行下一次反卷积,再进行下一次的卷积降维,直至输出与原维度相同的图像。2. 3.2U-Net网络优点与创新性(1)适用于小规模的数据集。这一点主要还是针对于医学数据来说的,对于图像分类任务或者去噪之类的任务数据集还是很充

25、足的。(2)不使用全连接层。搭建网络时,全连接层的应用始终受限,主要是由于其参数过多。假设输入是一张尺寸为(224,224,3)的彩色图片,并假设期望输出的特征图尺寸为(224,224,64)o如果采用全连接Linear,那么输入特征数量为224*224*3=150528,输出特征尺寸为224*224*64=3211264,参数的数量为150528*3211264=483,385,147,392,这甚至比很多大型网络参数都多;而如果使用卷积COnV(假设用3x3的卷积核),那么需要的卷积核为64个3x3x3的卷积核,总参数数量为64*3*3*3=1728,所以相比于全连接,卷积层大幅度减少了网

26、络的参数数量。2.4TenSOrflOW框架简介TensorFlow是一个开源机器学习库,它使用符号数学进行数据流编程和可微分编程。TensorFlow由GOOgle开发并于2015年发布,是ML的新来者,由于其易用的APl和与前代产品相比的简单性,已在全球范围内广受欢迎。TenSorFIoW最常用的ML应用是神经网络,它可以分析笔迹并识别人脸。尽管TenSOrFk)W是用PythOn编写的,但由于JaVaSCriPt的近期流行,可以使用JaVaSCriPt端口。TensorFlow的优势包括:1 .功能增强。尽管KeraS具有许多用于ML和深度学习的常规功能,但TF却更为先进,尤其是在诸如线

27、程,队列和调试之类的高级操作中。2 .控制增强。你并不总是需要很多的控制,但是一些神经网络可能需要这样的控制,这样你才能更好地理解和洞察,特别是在处理像权重或梯度这样的操作时。2. 5keras框架简介和TensorFlow一样,Keras也是一个用Python编写的开源ML库。然而,最大的区别在于KeraS包装了其他机器学习和数据库的功能,包TenSorFlow、Theano和CNTKo由于TF的流行,Keras与tensorflow库现在联系紧密。许多用户和数据科学家喜欢使用Keras,因为它使TensorFIow更容易操作,意味着用户不太容易制作出提供错误结论的模型。Keras构建和训练

28、神经网络是对用户友好及模块化的,所以可以更容易地进行深层神经网络的实验。Keras是从快速模型设计到最新研究再到生产的所有产品的最佳选择。使用Keras的主要优点,特别是与TensorFlow相比,包括:易于使用。在Keras中,对于大多数错误,可以得到清晰、可操作的反馈。模块化组合。Keras模型几乎可以没有限制地连接可配置的构建块。高度灵活性和可扩展性。用户可以为新的研究编写自定义块,并创建新的层、损失函数和整体模型。第三章基于Tensorflow的神经网络搭建3. 1系统环境配置3.1.1 配置tensorflow实验环境TF环境是进行本次课题研究的基础。3.1.1.1 安装tmsorf

29、lcw:下载安装好AnaConda。AnaCOnda是一个iDE及环境管理工具,可以按照IDE、配置环境、安装所需工具包等,大大减少了用户使用难度。配置好tensorflow环境。ApplicationsonF2+Jupytehetehouk(X)3WatnhateLmierNCinvecomutngOetebCottnwonmertEditendranhurravtcadsolcdocawAlicdcscnbngtcdatenelyia.QConsule4?:P)QCulthatUmpOniimimCfgurex,pronemuttilireedtingwithrtaN沁niceiing,g

30、rapiaialtipa,andn)te4. LiSolanUiCVthonDcvcinofncngEnvifonmentFosarfuiPytnonOeee)1ear_image=cv2.inread(os.path.join(mask_path.lsar(0+.png)ifnotos.path.exists(os.patn.join(mask-path,Lear0+,.pnz,):nosL湍鳄氤2曲默(那那凝器殿物/双01+邛曜)itnotos.path.exists(os.patn.join(mazk-path,noseO+.pngj):PI)32393435363?382940Skin

31、nO弗踪那畿榻献血MCin+W)ifnotos.path.exists(os.path.join(mask-path,skin0+,.png);skinJmage=np.zeros(image_dict(img.shae)cloth-image=cv2.imread(os.path.join(mask_path.cloth(0|+*.png)ifnotos.pa(h.exists(os,patuin(tiSkapthxlo(h0+4M,):cl(xh_image=npzcros(image_ici0,sstripe)neck-inagc=cv2.imread(os.path.join(mask

32、path.neckll+.png)ifnotos.path.exists(os.path.join(mask_patH,neck0+.png):J4艮一.PZerOs(image_.dic(Ilimnh.,.msk_dLcfctmrg=nar_inagctr_ear_magcl-car_11.naalnosc_inagctskin_imagctcloth_imagctncck_imagcretum(inage_dict,mask_dict)图3-5read_images函数代码将图片和掩膜转换成数组形式并作长久保存。41#转换图像及擅膜以ny文件保存42defto_npy(image_dict

33、,mask_dict):43image=44mask=45forimg,mskinzip(image_dict.values(),mask_dict.values()46imac.append(img)47mask,append(msk.astype(uint16)image=np.array(image)lmask=np.array(mask)51mask=mask:,:,:,1162mask=np.expanddms(mask,axis=-1)53print(Savingtheimagesas.npyfiles)54np.save(Images,image)65np.save(,Masks

34、,mask)图3-6to_npy函数代码3.3.2 训练集验证集划分训练集验证集按照8:2划分,也就是训练集验证集分别是1600和400张图像及对应掩膜。训练集的功能是通过设置分类器的参数来训练模型。当与验证集结合训练验证时,将选出同一参数的不同值以分别拟合出多个分类器。验证集:用训练集训练出的多个模型来对验证集进行预测,记录下各个模型的准确率,最后选出最好的模型及其对应的参数,用来逐渐调整模型参数。测试集:是模型在前面训练验证一直没接触过的数据,是用来测试训练出来的最佳模型的性能。设置训练集、验证集、测试集主要是防止训练的模型逐渐过拟合。1 M物光逐像叫PIit(X?yalidSPIit-0

35、,8);mum_images=X.shapeox_train=X:int(valid_split*nmjmages),:,:Gy_train=Yl:int(valid_split*nunjmages),:,:,0.6y_train=np.expand_dims(y_train,axis=-1)78x_valid=Xint(valid_split*num_images):,:,:,:9y_valid=Yint(valid_split*num_images):,:,:,0ioy_valid=np.expand_dims(y_valid,axis=-1)1112returnx_train,y_tra

36、in,x_valid,y_valid1 x_train,y_train,x_valid,y_valid=train_val_split(x,Y)2 defX3 delY图3-7训练集验证集划分代码3.4 搭建u-net卷积神经网络U-Net模型由FCN结构发展而来,因其整体结构似字母U而得名,在医学图像领域应用广泛。它由左半部分的下采样的部分(特征提取部分),右半部分的上采样部分组成。通过反复的卷积获得输入图像的特征信息,并且将其映射到高维使得图像最丰富的特征信息存在于整个模型的高维。不同于FCN,u-net模型不直接对与原始图像大小相同的输出图像进行池化,反而通过反卷积,将特征从高纬重新映射

37、到低维。啪小et陋defUneLmodel(inpuLSiZe=(512,512,3):inputs=Input(input_size)x:x/255)(inpuis)3=lumbda(lambda031323334353637383940c1=Conv2D(16,(3,3),aclivation=elukemel_initializer=he_normalpadding=same)(s)ci=v2(,fe1,(3,3),activation-elu,kemeljnitializer=he-normalpadding=,same)(c1)pl=MaxPooling2D(2,2)(c1)c2=C

38、onv2D(32,(3,3),activation=elukernelJnitializer=he-norma,padding=same)(pl)=?xJnv5(c(3,3)ctivation=elu,kerneUnitiaIizer=,he-norma,padding=same)(c2)p2=MaxPling2D(2,2)(c2)c3=Conv2D(64,(3,3),activation-elu,kemeUnitializer=,he-norma,padding-same,)(p2)e3=Dd3nvlfei,l3,3),activation=,elukernel_initializer=he

39、_normar,padding=same)(c3)p3=MaxPling2D(2,2)(c3)c4=Conv2D(128,(3,3),activation=elukemelJnitializehe-noa,padding=,same)(p3)a4=(on(l(3,3),activation-elu,kemeljnitializer=he-normal,padding=same,)(c4)p4=MaxPling2D(pool-size=(2,2)(c4)c5=Conv2D(256,(3,3),activation-elu,kemel_initializer=he_normar,padding=s

40、ame)(p4)e5=Conv0-ull(2te,3),activation=,elu,kemeLinitializer-,he-norma,padding=same)(cb)u6=COnV2DTranspose(128,(2,2),slrides-(2,2).padding-samet)(c5)c6寸瑞岗髅;,3),activation=klukemelinitializer-henormal1,padding=,same,)(u6)=Dropou-Mc6)c6=Conv2D(128,(3,3),activation=elu,kemeLinitializer=he-norma,padding=,same,)(c6)u7=Conv2DT

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号