计算机应用,2020,40(11):3280-3288文章编号:1001-9081(2020)11-3280-09
ISSN1001⁃9081
CODENJYIIDU2020⁃11⁃10
http://www.joca.cnDOI:10.11772/j.issn.1001-9081.2020030314
基于深度学习的图像边缘检测算法综述
2*
李翠锦1,,瞿
中2
(1.重庆工程学院电子信息学院,重庆400060;2.重庆邮电大学计算机科学与技术学院,重庆400065)
(∗通信作者电子邮箱190424278@qq.com)
摘要:边缘检测是将图像中的突变的重要信息提取出来的过程,是计算机视觉领域研究热点,也是图像分割、目标检测与识别等多种中高层视觉任务的基础。近几年来,针对边缘轮廓线过粗以及检测精度不高等问题,业内提出了谱聚类、多尺度融合、跨层融合等基于深度学习的边缘检测算法。为了使更多研究者了解边缘检测的研究现状,首先,介绍了传统边缘检测的实现理论及方法;然后,总结了近年来基于深度学习的主要边缘检测方法,并依据实现技术对这些方法进行了分类,对其涉及的关键技术进行分析,发现对多尺度多层次融合与损失函数的选择是重要的研究方向。通过评价指标对各类方法进行了比较,可知边缘检测算法在伯克利大学数据集(BSDS500)上的最优数据集规模(ODS)经过多年研究从0.598提高到了0.828,接近人类视觉水平。最后,展示了边缘检测算法研究的发展方向。
关键词:边缘检测;深度学习;卷积神经网络;损失函数;多尺度融合中图分类号:TP391.41文献标志码:A
Reviewofimageedgedetectionalgorithmsbasedondeeplearning
(1.CollegeofElectronicInformation,ChongqingInstituteofEngineering,Chongqing400060,China;
2.CollegeofComputerScienceandTechnology,ChongqingUniversityofPostsandTelecommunications,Chongqing400065,China)
2*
LICuijin1,,QUZhong2
Abstract:Edgedetectionistheprocessofextractingtheimportantinformationofmutationsintheimage.Itisa
researchhotspotinthefieldofcomputervisionandthebasisofmanymiddle-andhigh-levelvisiontaskssuchasimagesegmentation,targetdetectionandrecognition.Inrecentyears,inviewoftheproblemsofthickedgecontourlinesandlowdetectionaccuracy,edgedetectionalgorithmsbasedondeeplearningsuchasspectralclustering,multi-scalefusion,andcross-layerfusionwereproposedbytheindustry.Inordertomakemoreresearchersunderstandtheresearchstatusofedgedetection,firstly,theimplementationtheoryandmethodsoftraditionaledgedetectionwereintroduced.Then,themainedgedetectionmethodsbasedondeeplearninginresentyearsweresummarized,andthesemethodswereclassifiedaccordingtotheimplementationtechnologiesofthemethods.Andtheanalysisofthekeytechnologiesofthesemethodsshowthatthemulti-scalemulti-levelfusionandselectionoflossfunctionwastheimportantresearchdirections.Variousmethodswerecomparedtoeachotherthroughevaluationindicators.ItcanbeseenthattheOptimalDatasetScale(ODS)ofedgedetectionalgorithmontheBerkeleySegmentationDataSetandbenchmark500(BSDS500)wasincreasedfrom0.598to0.828,whichwasclosetothelevelofhumanvision.Finally,thedevelopmentdirectionofedgedetectionalgorithmresearchwasforecasted.
Keywords:edgedetection;deeplearning;ConvolutionalNeuralNetwork(CNN);lossfunction;multi-scalefusion
图像边缘检测是图像处理和计算机视觉领域中最关键的技术问题之一。已有的许多研究工作表明,边缘检测在图像高阶特征提取、特征描述、目标识别和图像分割等诸多领域都具有重要意义。如何快速准确地定位和提取图像边缘特征信息成为研究热点之一。针对这两个问题,研究者进行了大量的研究,提出了各种边缘检测方法,这些方法大致可以分为两类:传统方法和基于深度学习的方法,图1列出了图像边缘检测研究的经典传统方法(时间轴上方)和基于深度学习的方法(时间轴下方)。
由于图像边缘包含大量的背景信息和重要的结构信息,传统的边缘检测方法往往将手工制作的底层特征(如颜色、亮
0引言
度、纹理、梯度)作为边缘检测的优先级,比如:1)早期开拓性的方法,如Sobel算子[1]、Prewitt算子[2],以及广泛采用的Canny算子[3];2)基于信息理论人工设计得出特征的方法,如gPb-owl-ucm算法[4]、SCG(SparseCodeGradients)算法[5];3)结构化虽然利用低层次特征的边缘检测方法已经取得了很大的进步,但其局限性也是显而易见的。随着深度学习技术[7]的发展,尤其是卷积神经网络(ConvolutionalNeuralNetwork,CNN)的出现,CNN具有在自动学习自然图像的高级表示方面具有强大的能力等优势,利用CNN进行边缘检测已成为一种新的趋势。2015年,Xie等[8]提出了整体嵌套边缘检测(Holistically-nestedEdgeDetection,HED),用于以嵌套方式检边缘检测算法:如SE(StructuredforestsEdgedetection)算法[6]。
收稿日期:2020⁃03⁃19;修回日期:2020⁃06⁃23;录用日期:2020⁃06⁃29。
基金项目:重庆工程学院高科技人才计划项目(2019gckv04);重庆工程学院校内科研基金资助项目(2019xzky06,2018xzky12)。作者简介:李翠锦(1984—),女,河南濮阳人,副教授,博士研究生,主要研究方向:数字图像处理、数字媒体;瞿中(1972—),男,重庆人,教授,博士,CCF高级会员,主要研究方向:数字图像处理、数字媒体、云计算。
第11期李翠锦等:基于深度学习的图像边缘检测算法综述
3281测和提取自然图像的边缘;2015年,Bertasius等[9]将全卷积应
用在语义分割,从而为全卷积在轮廓检测中奠定了基础;2015年,Bertasius等[10]提出了一个端到端的卷积架构DeepEdge;2016年,Wang等[11]提出了基于卷积神经网络的深度条件随机域立体匹配方法;2017年,Yu等[12]提出了多尺度运动目标的边缘检测技术;2017年,Chadha等[13]提出了使用VLAD(VectorofLocallyAggregatedDescriptor)和基于深度学习的描述符进行高效兴趣区域检索的方法;2018年,Liu等[14]提出了基于五层特征多样性的更丰富的卷积特征图像边缘检测提取算法;2018年,Wang等[15]提出了一种基于快速R-CNN(Region-CNN)框架的端到端边缘保留神经网络(称为区域网),用于突出的目标检测;2019年,Fu等[16]提出了一种用于显著目标检测的细分网络。
上述算法需要相当多的专业知识、精细的处理算法和网络架构设计,才能把原始图像数据转换成合适的特征向量,以此来构造边缘检测模型和分类器。近几年,利用深度学习技[7]
术边缘检测任务有显著的性能提升。例如,在伯克利大学提出的数据集(BerkeleySegmentationDataSetandbenchmark
[17]
500,BSDS500)中,F-measure最优数据集规模(OptimalDatasetScale,ODS)的检测性能从0.598[18]提高到0.828[19]。尽管如此,边缘检测依旧是一个很有挑战性的技术问题,原因在于:
1)弱监督和无监督边缘检测:基于深度学习的边缘检测器的训练通常依赖于大量注释良好的图像。注释过程是耗时、昂贵和低效的。在弱监督检测技术中,只使用图像级的标注或部分使用包围盒标注对检测器进行训练,对于降低劳动成本和提高检测灵活性具有重要意义。
2)小目标边缘检测:在大场景中检测小目标一直是一个挑战。这一研究方向的一些潜在应用包括利用遥感图像对野生动物种群进行统计,以及检测一些重要军事目标的状态。
3)动态视频边缘检测:高清视频中的实时目标/跟踪边缘检测对于视频监控和自动驾驶具有重要意义。一般的边缘检测通常是针对图像而设计的,而忽略了视频帧之间的相关性。利用时空相关性进行改进检测是一个重要的研究方向。
1.1
1传统边缘检测方法
Fig.1Traditionalmethods(abovethetimeline)anddeeplearning-basedmethods(belowthetimeline)
图1传统方法(时间轴上方)和基于深度学习的方法(时间轴下方)研究历程
度和拉普拉斯的边缘检测采用了滤波对图像进行卷积计算,从而得出图像灰度变化情况,根据原理的不同,大致可分为两类:一阶边缘检测算子和二阶边缘检测算子。
表1列出了典型边缘检测算子及它们的优缺点。
边缘检测的本质是对图像中发生突变的部分进行识别和
表1
基于梯度和Laplacian边缘检测
定位,突变的部分表示图像的重要信息(灰度变化)。基于梯
Tab.1分类
算子名称
Robert算子[20]
一阶边缘Sobel算子[1]
检测算子IsotropicSobel算子[21]
Prewitt算子[2]
Laplacian算子[22]Canny算子[3]
Marri-Hildreth算子[23]
ComparisonofgradientbasedandLaplacebasededgedetectionoperators优缺点
对具有陡峭的低噪声图像处理效果较好,但利用提取边缘比较粗,定位不是很准确对灰度渐变和噪声较多的图像处理效果较好,对边缘定位较准确位置加权系数更为准确,检测不同方向的边沿时梯度的幅度一致对灰度渐变和噪声较多的图像处理效果较好,对边缘的定位不如Roberts算子对图像中的阶跃性边缘点定位准确,丢失一部分边缘的方向信息,造成一些不连续的检测边缘,但对噪声非常敏感不容易受噪声的干扰,能够检测到真正的弱边缘。该算子使用两种不同的阈值分别检测强边缘和弱边缘,并且仅当弱边缘与强边缘相连时,才将弱边缘包含在输出图像中,因此,该算法不容易被噪声“填充”,但编程较为复杂且运算较慢能够给出封闭的边缘边界,能够避免延后Threshold的递归计算经常出现双边缘像素边界,而且该检测方法对噪声比较敏感,因此,很少用LOG算子检测边缘,一般用来判断边缘像素是位于图像明区还是暗区增加高斯函数差分,从而增强去噪能力
基于梯度和拉普拉斯的边缘检测算子对比
二阶边缘检测算子
LOG(LaplacianofGaussian)算子[24]
1.2
基于人工特征提取的边缘检测
图像边缘检测算子虽然具有使用简单、效果良好的优点,但是这些算子都是通过将灰度图像与局部导数滤波器进行卷积来检测边缘,仅仅考虑了图像的梯度特性,忽视了图像纹理等变化,容易造成边缘模糊及噪声敏感等问题。通过对高阶
DOG(DifferenceofGaussian)算子[25]
统计量的显式定向分析来抑制以上问题,提出了基于人工特
征提取的边缘检测算法,如多尺度特征检测算法[26]、结构化边缘检测算法[27]。
1.2.1多尺度特征边缘检测算法
2011年,Arbeláez等[4]将多尺度局部亮度、颜色和纹理结
3282计算机应用第40卷
合应用到谱聚类框架中。在图像的每个位置应用直方图来计算x2值,定义了一个表示像素之间相似度的关联矩阵。从这个矩阵中得到一个特征值和编码轮廓信息的固定特征向量。使用分类器将卡方值与特征向量重新组合,获得全局Pb边缘检测算法(gPb-owl-ucm)。实验结果表明,在数据集BSDS500上ODS2012值为年,0.Ren71。
等[5]提出了一种新的算法(SCG),该算法使用稀疏编码,特别使用正交匹配追踪算法[28]和K-means字典训练方法[29]来学习patchs表示,直接取代patchs分类器[30],借鉴Pb的思想将像素上的稀疏编码在每个方向的多尺度半圆上SVM汇集,然极大值抑制,)分类,后最后,用线对性SVM支持输出进行平滑处理,向量机(SupportVector并对其进行非Machine,BSDS5001.2.2上ODS以生成最终的轮廓。实验结果表明,值为0.74。在数据集2015结构化边缘检测算法
年,Dollár等[6]将边缘检测问题转化为给定输入图像块的局部分割掩码的预测问题,提出了一种结构化森林快速边缘检测方法(SE),学习决策树的新方法是使用结构化的标签来确定树中每个分支的函数。结构标签被稳健地映射到一个离散空间,在这个空间上可以评估标准的信息增益度量。每个森林预测一个边缘像素标签patchs,这些标签聚集在整个图像上计算最终边缘映射,由于聚合的边缘映射可能是漫反射,BSDS500集[31]上展示了最新结果和使用了局部颜色和深度提示来锐化边缘映射。在NYUD(NewYorkUniversityDatasets)V2数据2015年,Hallman等(ODS值为0.75、ODS值为0.69)。
[32]采用非参数输出,将随机决策树的鲁棒机制应用在小图像块中,精确检测不同候选方向和位置的直线边界,提出了一种面向边缘森林的边界检测算法OEFOrientedEdgeForests)。尽管该算法忽略了大量感兴趣信息,如弯曲的边缘和连接处,但对于大而平滑的小块物体图像效果很好。在力Random的2016检测年,精度ZhangBSDS500,提出等数据集上ODS值为0.76。
[26]使用有限的训练数据获得具有竞争了一种基于结构随机森SemiContourForest),,该算法采用快速稀疏表示方式和紧凑低维子SRF)的半监督学习轮廓林检(Structured测方法空间表示嵌入到结构随机森林中,从而实现半监督学习。实验结果表明,在BSDS500数据集上ODS值为0.73。
2传统边缘检测技术已经取得了很大的进步,基于深度学习的边缘检测算法
但也存在很多局限性。深度学习与传统边缘检测方法的最大不同在于它所采用的特征是从大数据中自动学习得到,而非采用手工设计。深度模型具有强大的学习能力和高效的特征表达能力,更重要的优点是从像素级原始数据到抽象的语义概念逐层提取信息,这使得它在提取图像的全局特征和上下文信息方面具有突出的优势,为解决传统的计算机视觉问题(如图像识别和图像边缘检测)带来了新的思路。基于深度学习的边缘检测算法分类及典型算法如图2.1全监督学习边缘检测算法
2所示,下面将分别进行介绍。labeled全监督学习是利用已知类别的样本使其达到所要求性能,sample),调整分类器的参数,再利用这个训练后的模型,训练得到一个最优模型,(即有标记的样本将所有的输入映射为相应的输出,对输出进行简单的判断,从而实现边缘检测的目的。目前大部边缘检测算法都是基于全监督实现的,根据算法实现过程中采用的整体设计思想以及关键技术
不同,本文将其划分为6类:基于谱聚类边缘检测算法、多尺
度融合边缘检测算法、跨层融合边缘检测算法、网络重构边缘检测算法、基于编解码边缘检测算法和亚像素卷积边缘检测算法。基于谱聚类的边缘检测和亚像素边缘检测等方法检测精度高,但抗噪声性能较差;基于神经网络和基编解码边缘检测等方法解决了抗噪声性能差的问题,2但检测精度不够。表面对从算法优缺点、2.1.16种方法进行了归纳总结,基础网络、关键技术和测试数据集这几个方下面将详细介绍这6类方法。谱聚类算法是建立在谱图理论基础之上,基于谱聚类边缘检测算法
并利用数据的相似矩阵的特征向量进行聚类的方法。与其他方法相比具有明显的优势:思想简单、易于实现、具有识别非高斯分布的能力、可用于边缘检测算法中。
Convolutional2015年,Shen等[33]利用深卷积神经征[48-50],提出了NeuralDeepContourNetwork,DCNN边缘检测算法,)来学习轮廓检测的判别络(Deep该算法根据轮廓斑块的固有结构将其分割成紧凑的簇,通过这种聚类方式产生轮廓块的中层形状表示,形成的类由形状标签分配,再通过不同的模型参数拟合不同形状的轮廓数据,采用分治策略[51],降低多样性造成的训练难度。DeepContour算法还采用了结构化森林[52-53]BSDS5002.1.2多尺度就是对信号的不同粒度的采样,多尺度融合边缘检测算法
上取得了最新的结果作为深度特征的轮廓与非轮廓分类器,(ODS值为0.757)。在在不同的尺度下可观察不同的特征,从而完成不同的任务。研究者一直都在设计各种各样的多尺度模型架构,也是目前比较流行的边缘检测技术,具体可分为以下4种:多尺度输入、多尺度特征融合、多尺度特征预测融合和以上方法的组合。
2015年,Bertasius等[10]重用Ivan等的[34]网络的前五个卷积DeepEdge层计算得到的特征,提出了一个端到端的卷积架构局DeepEdge部和全,该架构在多个尺度上同时运行,架构将输入的局信息,从而4显个不同尺度的著提高了轮廓并结合来自图像的KNet检测的准确率。[34]的卷积层计算得到的特征与一个分岔成两个分支的学习子网连接起来。在分岔子网络中,优化了两个具有不同学习目标的分支。其中一个分支的权值通过边缘分类目标进行优化,另一个分支的权值则通过训练来预测与人类标记的一致比例,即回归准则。结果表明,分类分支的预测结果具有较高的边缘回忆率,而回归分支的预测结果具有较高的精度。因此,融合这两个输出获得优秀的结果,Precision2015)值为年,Bertasius0.807。
ODS值为0.753和mAP(meanAverage等[37]受到人类判断某个特定像素边界时会使用对象级别推理的启发,提出了一种精确、高效、适用于高级视觉任务的边界检测系统HFL(High-For-Low)。该系统展示了如何利用预先训练的对象分类网络、对象特征来预测边界。它是一个高对低的过程,其中高层次的对象特征通知低层次的边界检测过程。此外,HFL证明了使用边界的语义性质可以帮助一些高层次的视觉任务,可以把这个过程看作是一个“低对高”的方案,在这个方案中,低层次的边界帮助高级别的视觉任务。HFL模型在BSDS500数据集上实现了当时最先进的性能嵌套边缘检测2015年,Xie(ODS值为0.767)。
[8]
(HED等研究了一种新的边缘检测算法——整体),解决了视觉中长期存在的两个重要问题:1)基于整体图像的训练和预测;2)多尺度的特征学习。该算法通过深度学习模型执行图像到图像的预测,利用完全卷
((第11期李翠锦等:基于深度学习的图像边缘检测算法综述
3283积神经网络和深监督网络,BSDS5000.0.74s)),上数据集比最近的基于使用(该ODS技术值为0.自动学习丰富的层次表示。在
788)和NYUD数据集(ODS值为CNN,大幅提高了检测速度(每张图像Supervision错2016误地年,预测Liu为等[36]为了缓解边缘检测假阳性的边缘检测算法快几个数量级。
(非边缘像素被边缘)的困难,了高的性能,)算法,而且融合了网络的多样性,使用不同的深度监管,提出了RDS(RelaxedDeep更好地进行边缘检测。从粗到细,不仅保持该算法先在训练数据集中生成粗边注释,然后使用目标数据集对其进行微调,并且融合了Canny检测器和SE检测器。实验结果表明,BDCN2019在BSDS500数据集上ODS值为0.792。
个层由具有特定比例的标记边缘进行监督,(Bi-年,DirectionalHe等[45]Cascade利用多尺度提出了一种双向级联网络Network)结构,而不是直接对所在该结构中,单有CNN输出相同的监督。此外,为了丰富BDCN,还引入了尺度增强模块(ScaleEnhancementModule,SEM),以生成多尺度特征,而不是使用更深的CNN。通过结合SEM和BDCN,该方法在3个数据集(BSDS500、NYUDV2、Multicue)上实现了较好0.2.803的性能,ODS值达到0.828,优于人类感知(ODS值为1.3)。
跨层融合就是在同一网络结构中浅层特征和深层特征相跨层融合边缘检测算法
融合,深层特征具有高语义信息且感受野较大的特点,而浅层的特征具有位置信息且感受野较小的特点,融合两者特征可以达到增加深层特征的效果,让深层的特征具有较为丰富的目标边缘信息。
低层特征分辨率更高,包含更多位置、细节信息,但是由于经过的卷积更少,其语义性更低,噪声更多。高层特征具有更强的语义信息,但是分辨率很低,对细节的感知能力较差。因此把两者高效融合,2017年,Liu等是改善分割模型的关键。
[14]针对目前基于CNN的方法通常只利用了每个卷积阶段最后一层的特征,导致很多有用的信息丢失,提出一种全卷积网络来高效地利用每一个RCF用FPN(Richer(FeatureConvolutionalCNN层的特征PyramidNetworkFeature))思想结合高层和底层的特征。该网络贡献有两点:1)利映射进行边缘检测;2)优化损失函数,使其更具有一般性。实验结果表明,在BSDS500数据集ODS值为0.806(8FPS),得到20172018年最好边缘检测的效果。
年,Deng等[44]针对目前基于深度卷积神经网络的边界或边缘检测方法普遍存在预测边缘较粗的问题,CNN为了使的边界检测方法在没有后处理的情况下产生清晰的边界,LPCB(LearningtoPredictCrisp提出了一种新Boundaries),该方法采用自底向上/自顶向下体系结构的端到端网络结构,该网络有效地利用了层次特征,产生了像素精度高的边界掩码,是重构边缘图的关键。实验表明,直接进行Crisp预测不仅可以提高CNN的可视化结果,而且在BSDS500数据集(ODS
值为0.815)和NYUD数据集[49]
(ODS值为0.762)上都获得了更好的结果。
fast模板,feature2019年,embeddedQu等[46])基于框架和CaffeVGG16(Convolutional(VisualarchitectureforVCF层的参数降维和交叉融合来提取多层次结构特征,)网络的边缘检测方法。提出了一种基于视觉交叉融合VCF模型首先分别通过全连接(VisualGeometryCrossFusionGroup),从而实现端到端的图像边缘检测;其次,为了最大限度地利用图像像素集,自定义分级加权交叉熵损失函数;最后,利用跨网络融合
对BSDS500图像边缘特征进行细化。实验结果表明,VCF算法在
2.1.4经典数据集上ODS值为0.808。现在越来越多的网络重构边缘检测算法
CNN模型从巨型网络到轻量化网络一步步演变,准确率也越来越高。边缘检测不仅要求准确率,而且要AlexNet求速度,都希望模型又快又准。研究者通过重构[39]、VGGnet、Inception、ResNet[41]等网络架构追求速度与准确率。
2014年,Ganin等[38]针对自然边缘检测和稀疏目标分割等复杂的图像处理问题,提出了一种新的图像处理体系结构searchN4-Fields),该网络把CNN段N4)场将结合,Patch在网络最高层的输出使用最邻近搜索,与最邻近搜索(Nearestneighbor通过CNN,对于给定的每一个Patch在测试阶,都会输出一个低维的向量。该方法在BSDS500数据集中的性能达到或超过了当前的水平2016年,Maninis(等ODS值为0.753)。
[40]
提出了一种卷积定向边界结构COBConvolutionalOrientedBoundaries),该结构允许端到端学习多尺度定向轮廓,它从一般的图像分类卷积神经网络(CNN)开始,产生多尺度定向轮廓和区域层次,并且在层次分割中使用了一种新的稀疏边界表示,在性能上比最新技术有了显著的飞跃,并且很好地推广到未知类别和数据集。
Fig.图2
2
Classification基于深度学习的边缘检测算法分类
2017年,Xu等basedonofdeepedgelearning
detectionalgorithms
[42]受到深度学习架构中利用图形模型的文章Conditional启发[54-55],引入了注意门度的可用信息来学习每个尺度上的强特征图表示,RandomField,AG控-CRF条件),随它允许通过利用其他尺机场(AttentionGating这是通过将注意力机制[54]以gates[55]的形式无缝集成到多尺度学习过程中来实现的。直观的注意机制将进一步提高学习多尺度表示的质量,从而提高模型的整体性能。文章将提出的AG-CRF集成到一个两级层次的CNN模型中,定义了一种新的基于注意力引导的多尺度层次深度网scaleAMH-Net(Attention比,层次网络能够学习到更丰富的多尺度特征,HierarchicaldeepNet)用于边缘检测。与传统的-guidedMulti-而提出的CNNAG相-
((3284计算机应用第40卷
CRF模型进一步增强了网络的表示能力。实验结果表明,在两
[31]
个数据集(BSDS500和NYUDV2数据集)上该方法能够学习丰富和互补的特征,从而优于当时先进的边缘检测方法。2.1.5基于编解码边缘检测算法
编码器解码器(encoder-decoder)结构是利用对称网络结构对图像语析的机制,其本质是利用深度学习技术中的卷积、池化等操作所构成的编码器来编码被捕获的像素位置信息和图像特征,再利用反卷积(deconvolution)或上池化(unpooling)等操作所构成的解码器来对其进行解析,还原图像的空间维度和像素的位置信息。
2016年,Yang等[47]受全卷积网络[56]和反卷积网络[57]在语义分割上启发,提出了一个全卷积编解码网络(ConvolutionalEncoder-DecoderNetwork,CEDN)。CEDN可以在任意大小的图像上运行,用VGG16[35]初始化编码器,为了实现对图像大小的密集预测,解码器是通过交替的池化层和卷积层构建的,其中池化层采用最大池化。在训练过程中,修正了编码器的参数,优化了解码器的参数,使得编码器可以保持其泛化能
Tab.2分类基于谱聚类边缘检测算法多尺度融合边缘检测算法
代表算法
表2
力,以便学习解码器网络可以很容易地与其他任务相结合,如
边框回归或语义分割。
2.1.6亚像素边缘检测算法
亚像素技术就是在两个像素点之间进一步细分,从而得到亚像素级别边缘点的坐标,一般来说,现有的技术可以做到2细分、4细分,甚至更高,通过亚像素边缘检测技术的使用,可以节约成本,提高识别精度。
2017年,Wang等[19]为了解决卷积神经网络边缘检测输出模糊的难题,并试图提高HED[8]的定位能力,结合密集图像标记方面的最新进展[58-59],提出了一种新的细化架构CED(CrispEdgeDetector)。该方法是一个具有自顶向下的反向细化路径的边缘检测网络,该网络使用高效的亚像素卷积逐步提高特征图的分辨率。细化路径为网络增加了额外的非线性,进一步降低了相邻像素内边缘响应的相关性。CED算法在BSDS500数据集上取得了很好的结果,在标准条件下超过了人类的表现,在更严格的评价标准下大大超过了当时最先进的方法。
Comparisonofedgedetectionalgorithmsbasedonfullysupervisedlearning优缺点
基础网络
关键技术谱聚类、分治策略Canny检测器迁移学习、损失函数Canny和SE检测器边缘语义分割技术最邻近搜索技术
测试数据集BSDS500(0.757)BSDS500(0.753)BSDS500(0.788)NYUD(0.746)BSDS500(0.792)NYUD(0.674)BSDS500(0.767)BSDS500(0.753)BSDS500(0.793)BSDS500(0.798)NYUD(0.771)基于全监督学习的边缘检测算法对比
[33]
DeepContour缺点:谱聚类尺度参数的选择缺乏自适应性,都是根CNN
优点:思想简单,易实现,具有识别非高斯分布的能力
据经验设置
DeepEdge[10]HED[8]
[36]RDS
[37]
网络重构边缘检测算法
HFL[38]
N4-FieldsCOB[40]
优点:增大特征图的感受野,缓解特征图分辨率低的VGG16
问题
VGG16缺点:参数增加,计算量大
KNet优点:提高准确率和速度缺点:像素局部信息不连续
[42]
VGG16AlexNetVGG16、ResNetAMH-Net
稀疏边界表示方法
ResNetAlexNet、VGG16、使用注意门控
条件随机域
优点:可以节约成本,提高识别精度
亚像素卷积边缘检测算法
DeepCrisp
缺点:应用具有一定的前提条件:被检测目标不是由
组成,且这些像素点应具有一定的分布特性,如灰度分布、几何形状分布特性等
[19]
Boundaries
[43]
孤立的、单个的像素点组成,而是由多个像素点ConvNet
亚像素卷积
BSDS500(0.803)
RCF跨层融合边缘检测算法基于编解码边缘检测算法
[14]
LPCB[44]BDCN
[45]
VCF[46]CEDN[47]
优点:增大特征图的感受野,减少特征图分辨率低的VGG16问题
VGG16
缺点:边界信息容易丢失
VGG16优点:避免池化后特征图分辨率降低的问题缺点:参数过多,计算量大
VGG16
VGG16FPN、损失函数BSDS500(0.806)自底向上/自顶向下BSDS500(0.815)体系结构、Crisp预测NYUD(0.762)尺度增强模块BSDS500(0.828)加权交叉商BSDS500(0.808)损失函数
NYUD(0.786)NYUD(0.79)
编码-解码器
2.2
弱监督和无监督边缘检测算法
近几年,基于全监督学习的边界检测方法效果已达到人类视觉水平,但是全监督学习算法需要大量的训练数据,标注对象边界是最昂贵的原因之一。因此有必要放宽对图像进行仔细标注的要求,以使培训更容易负担,并扩展培训数据量。
2016年,Khoreva等[60]提出了一种生成弱监督约束条件的方法WSOB(WeaklySupervisedObjectBoundaries),并证明了仅使用边界框注释就可以达到高质量的对象边界,而不需要使用任何特定于对象的边界注释。该方法使用了一个决策森
林[26]和一个对流边缘探测器[61],利用所提出的弱监督技术,实现了对目标边界检测任务的最优执行,在很大程度上超过了当时先进的全监督方法。
2016年,Li等[62]提出了一种简单而有效的无监督边缘检测器来训练图像,该方法利用了帧之间的噪声半密集匹配。从边缘的基本知识(以图像梯度的形式)开始,然后依次在改进运动估计和边缘估计之间进行切换。利用大量的视频数据,证明了使用无监督方案训练的边缘检测器的性能接近于在完全监督下训练的方法。
第11期李翠锦等:基于深度学习的图像边缘检测算法综述
32853.1
卷积神经网络
CNN本质是一个多层感知机,优点是使得图像可以直接作为输入,避免了传统识别算法中复杂的特征提取和数据重建的过程,在二维图像的处理过程中有很大的优势,如网络能够自行抽取图像的特征包括颜色、纹理、形状及图像的拓扑结构,在处理二维图像的问题上,特别是识别位移、缩放及其他形式扭曲不变性的应用上具有良好的鲁棒性和运算效率等。CNN有三个关键的操作:一是局部感受野;二是权值共享;三3边缘检测关键技术
是pooling层,有效地减少了网络的参数个数,缓解了模型的过拟合问题。典型的卷积神经网络架构包括:LeNet5[63]、卷积神经网络典型结构对比如表3所示。
AlexNet[39]、VGGNet[35]、GoogleInceptionNet[]、ResNet[41]等。VGGNet是牛津大学VisualGeometryGroup在AlexNet基础上大池化,网络结果简单,参数较少,而且3×3卷积核能更好地保持图像特征,如图3所示。
边缘检测算法使用最多的卷积神经网络结构是VGGNet,
做了改进,整个网络都使用了同样大小3×3卷积核和2×2最
Fig.3Tab.3名称LeNet5AlexNetVGGNetGoogle
第一个卷积神经网络结构,共8层
VGG-16convolutionalneuralnetworkarchitecture表3
卷积神经网络典型结构对比
图3VGG-16卷积神经网络结构
Comparisonofclassicconvolutionalneuralnetworkarchitectures特点
引入ReLU、dropout、数据增强、池化相互之间有覆盖,三个卷积一个最大池化+三个全连接层。防止过拟合,提高泛化能力
VGGNet采用1×1和3×3的卷积核以及2×2的最大池化使得层数变得更深。常用VGG16和VGG19。VGGNet网络泛化性能很好,容易迁移到其他的图像识别项目上,也可以下载VGGNet训练好的参数进行很好的初始化权重操作,因此,近几年基于深度学习的边缘检测算法都以该网络为基础
控制了计算量和参数量,获得了比较好的分类性能,优点:1)去除最后全连接层,用一个全局平均池化来取代;2)引入InceptionModule,是4个分支结合的结构,所有的分支都用到了1×1卷积核,减少参数量;3)InceptionV2中5×5变成2个3×3,提出来著名的BatchNormalization;4)InceptionV3把二维卷积拆成两个一维卷积,加速运算、减少过拟合,同时还更改了InceptionModule结构1)引入高速公路结构,让神经网络变得非常深;2)ResNetV2将ReLU激活函数变成y=x的线性函数InceptionNet
3.2
损失函数
损失函数是为了衡量模型预测的好坏,即用来表现预测值与实际值的差距程度。它是一个非负实数函数,通常使用ℓ(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好。
ResNet其中:α=λ⋅
文献[8],HED为了抵消边缘和非边缘之间的不平衡,提出了类平衡交叉熵损失函数,如式(1)所示:
(m)side
ℓ(m)(W,w)=-β∑logPr(yj=1|X;W,w(m))-(1-β)
j∈Y+
β=|Y-|/|Y|,1-β=|Y+|/|Y|,|Y+|和|Y-|表示边缘和非边缘其中:
∑logPr(y
j∈Y-
j
=0|X;W,w(m))
(m)
j
(1)
|Y|+|Y||Y|+|Y|样本数据集;超参数λ用来平衡正负样本。
文献[46],VCF在HED和RCF的基础上提出了分级加权交叉熵损失函数,进一步提高了网络的性能,如式(3)所示:
ìε⋅t⋅ln(1-qe(αi;W)),yi=∂ïï
yi=uℓp(αi;W)=í(1-t)⋅lnqe(αi;W),(3)
ïï
其他î0,
+-+-|Y+|,β=
|Y-|;|Y+|和|Y-|表示正负
t=|Y+||Y|表示正Y+和Y-表示边缘和非边缘数据集;其中:
1-t=γg|Y-||Y|表示负样本比重,γ是优化参样本比重,
标注数据集。Pr(yj=1|X;W,w)=σ(a
(m)Sigmoid函数σ(·)在像素j上的值计算的。
∈[0,1])是使用
文献[14],RCF为了提高性能提出了一个新的损失函数,
该损失函数增加了一个参数,在正负样本比例基础上加权,如式(2)所示:
ìα⋅log(1-P(Xi;W)),yi=0ï
0 其他îβ⋅logP(Xi;W), 数,平衡正负样本。 以上三种边缘检测算法用的都是交叉熵损失函数,该函数只跟输出值和真实值的差值成正比,收敛较快,反向传播连乘,使整个权重矩阵的更新都会加快。3.3数据集 深度学习的另一个关键就是用富有挑战和典型的数据集来测试算法的可靠性。经过几年的研究,大量的数据集已被提出用来测试和评估计算机视觉算法。边缘检测常用数据集 3286计算机应用第40卷 包括BSDS500、NYUDV2、Pascal-VOC[65]、Pascal-Context[66]等,为了提高检测精度,边缘检测算法训练的数据集数量越来越大[67],数据集详细内容如表4所示。 表4 边缘检测常用数据集 Tab.4Datasetscommonlyusedforedgedetection数据集 分类 图像 图像 训练 验证测试 BSDS500大小数量数量数量数量NYUDPASCALV2—40481×321480×01500449200100200PASCAL--VOCContext540(2159)——192913740101795410316544499637边缘检测算法使用最多的数据集BSDS500,该数据集可以用来图像分割和物体边缘检测,包含200张训练图,100张验segmentation证图,200人标注的真值,和张boundaries测试图;所训练时真值可采用平均值或者用来扩充数据, ,每张图片对应真值有有真值用.mat文件5保个,存为,包5含个评测代码中会依次对这5个真值都做对比。最近很多边缘检测算法,如BDCN [45] 、CRF [14] 、HED[8]、VCF [41] 等为了提高检测 精度,对BSDS500训练集和验证集进行了数据扩充,包括旋转、翻转、尺度缩放。 4 边缘检测算法的结果需要统一的量化标准,性能分析 即评价指标 来说明。本章讲述F⁃measure(F⁃measure= 2×了边缘检测4个标准评估: PrecisionPrecision+×RecallRecall)最优数据集规模(ODS)、最佳图像规模(OptimalImageSize,OIS)、每秒帧数FramesPerSecond,FPS)和PR曲线。ODS为具有固定轮廓阈值的F-measure值,当每幅图像的F-measure值具有最优阈值时,得到OIS。P-R(Precision-Recall)曲线是应用最广泛的,它是对分类器的预测结果按照置信度进行降序排列,然后按此顺序对样例进行预测,计算出当前的查全率(Recall)作为x轴、精准率(Precision)作为y轴,以此作图,绘制出P-R曲线。在BSDS500中边缘检测算法ODS对比,如图4所示。边缘检测算法的P-R曲线,如图5所示。 图Fig.44 BSDS500ODSperformance数据集上的边缘检测算法的developmenttrendsODS性能发展趋势从图5可以看出,algorithms基于深度学习的边缘检测算法onBSDS500dataset ofedgedetection ODS值基本上都高于传统边缘检测算法,VCF、RCF、LPCB、BDCN4个算法超出人类视觉(Human0.803)值,因此,基于深度学习的边缘检测算法具有很好的研究前景,尤其是多尺度多层次融合技术和损失函数选择和设置。 图5BSDS5005P-Rcurves数据集上的onBSDS500P-R目前,结语 Fig.5 dataset 曲线 深度学习技术已广泛应用在边缘检测领域。本文 主要对基于深度学习的边缘检测的经典方法进行了较为详细的分类、梳理与总结,并对每类方法和代表性算法进行了研究、分析和对比,概括每类技术优缺点。对边缘检测关键技术进行了研究。在现有研究成果的基础上,该领域还存在如下一些具有挑战性的研究方向: 难创建。尽管已经有一些工作基础,1)3D(3Dimensional)数据集:3D但仍有更多、数据集比低维数据集更更多样化数据空间,义分割与多尺度融合取得了显著进展,2)信息融合检测:更重要的是要注意现实世界数据的重要性。 通过上下文建模,但仍存在检测精度不可以提高准确性。语高、边缘模糊等问题,用图像级的标注或部分使用包围盒标注对检测器进行训练,3)弱监督和无监督边缘检测:需要进一步研究。 在弱监督检测技术中,只使对于降低劳动成本和提高检测灵活性具有重要意义。 检测对于视频监控和自动驾驶具有重要意义。4)动态视频边缘检测:高清视频中的实时目标/跟踪边缘[1]参考文献(KITTLERReferencesandJ.Onthe) accuracyoftheSobeledgedetector[J].[2]TORREVisionTransactionsVComputing,,1983,1(1):37-42. Image[3]PAMIonPOGGIOPatternAnalysisTA.OnandMachineedgedetectionIntelligence[J].IEEECANNY-8(2TransactionsJ.):,1986,A147computational-163. approachtoedgedetection[J].IEEE[4] PAMIonPatternAnalysisandMachineIntelligence,1986,ARBELÁEZ-8(6):679andP,-MAIRE698. M,FOWLKESC,Patternhierarchical[5] 8AnalysisimageandMachinesegmentationIntelligence[J].etIEEEal.Contour,2011Transactionsdetection,33(5)onREN-916. :contourX,BOL.ConferencedetectionDiscriminativelyon[C]//Proceedingstrainedofsparsethe25thcodegradientsInternationalfor[6] NYDOLLÁR:CurranAssociatesNeuralInformationInc.,2012Processing:593-601. Systems.RedHook,forestsIntelligence[J]P.,,IEEEZITNICK2015,TransactionsCL.Fastedgedetectionusingstructured37(8):1558on-1570. PatternAnalysisandMachine(第11期 李翠锦等:基于深度学习的图像边缘检测算法综述 3287[7] ZHENGreidentificationL,International:SHENabenchmarkL,TIAN[C]//LProceedings,etal.ofScalablethe2015person IEEE[8]2015XIE:ConferenceonComputerVision.Piscataway:IEEE,ofS,1116TU-Z.1124. Holistically-nested[9] Piscatawaythe2015BERTASIUS:IEEEIEEEedgedetection[C]//Proceedings,International2015:1395ConferenceonComputerVision.networksIEEEforsemanticG,SHIsegmentationJ,TORRESANI-1403. [C]//ProceedingsL.Fullyconvolutionalof[10] IEEEInternationalConferenceonComputerVision.Piscatawaythe2015:BERTASIUS,2015:318bifurcatedG,-330. SHIJ,Proceedingsdeep[11] PatternofthenetworkTORRESANIfortop-downL.contourDeepEdgedetection:amultiscale[C]//WANGRecognition.2015basedZ,ZHUSPiscatawayIEEEConference:IEEE,2015onComputer:4380-43. VisionandJournaldeepconditional,LIYrandom,etal.fieldsConvolutionalforstereoneuralmatchingnetwork[J].[12] 2016YUsemanticZ,,40FENG(ofPtVisualB)CommunicationandImageRepresentation,C:739-750. Conferenceedge,detectionLIUMY[,Cet]//al.ProceedingsCASENet:deepofcategory-aware[13] PiscatawayonComputerVisionandPatterntheRecognition.2017IEEECHADHA:imageAIEEE,ANDREOPOULOS,2017:1761-1770. and[14] Multimediadeepdescriptors-learning:efficientbasedregion-of-Y.interestVoronoiretrieval-basedwithcompactVLADLIUforY,,2017,19(7):descriptors1596-1608. [J].IEEETransactionsononedgeCHENGdetection[MC,]HU//ProceedingsX,etal.Richerofthe2017convolutionalfeatures[15]2017ComputerVisionandPatternRecognition.PiscatawayIEEEConference:IEEEWANG:5872scaleX,-MA5881. ,H,[16]IEEEcontextualneuralCHENnetworkX,etforal.salientEdgepreservingobjectdetectionandmulti[J].-FUassistedK,TransactionsZHAOQ,GUonImageProcessing,2018,27(1):121-134.[17] TransactionsrefinementnetworkIYH,foretsaliental.Refinetobject:adetectiondeepsegmentation[J].LUOlearningJF,MAonMultimediaJW.Image,2019,21(2):457-469. IEEEInternationalbased[18]2015ConferenceMSmodelon[ImageC]segmentation//ProceedingswiththecompetitiveProcessing.ofPiscatawaythe2015:IEEEIEEE,COMANICIU:182-186. feature[19]andspaceD,MEERP.Meanshift:arobustapproachtowardWANGMachineIntelligenceanalysis[J],.2002IEEE,24Transactions(5):603onPatternAnalysisboundariesY,[20]ProcessingtoZHAOhigherX-,levelHUANGtasks[K.JDeepcrisp-619. boundaries:fromMARRProceedingsD,,2019HILDRETH,28(3):1285-1298. ].IEEETransactionsonImage[21]207(oftheRoyalSocietyE.TheoryB:BiologicalofedgeSciencesdetection,1980[J].,[HARRIS1167)[22]DurhamC]//ProceedingsC:,187STEPHENS-217. M.AcombinedcornerandedgedetectorLECUN:learningYBMVA,BOTTOUPressofthe,19881988BritishMachineVisionConference.L,:147-152. [23]IEEETRAJKOVIĆ,1998applied,86todocumentBENGIOrecognitionY,[Jet].al.ProceedingsGradient-ofbasedthe[24] andM(,11HEDLEY):2278-2324. M.Fastcornerdetection[J].ImageLOWEVisionDComputingG.Distinctive,1998,image16(2)features:75-87. fromscale(keypoints2):91-[110. J].InternationalJournalofComputerVision,-2004invariant,60[25][RENX.Multi-scale[26] VisionC]//Proceedingsimprovesboundarydetectioninnaturalimages ZHANG,LNCSofthe2008EuropeanConferenceonComputersupervisedZ,XING5304.FBerlin,SHI:SpringerX,et,2008:533-545. ProceedingsPatternoflearningthe2016approachIEEEforal.contourSemiContourdetection:a[semiC]//-[27]DOLLÁRRecognition.forestsP,ZITNICKPiscatawayConference:IEEE,2016onComputer:251-259. Visionand[28] Intelligence[J].CL.FastedgedetectionusingstructuredPATI,IEEETransactionsonPatternAnalysisandMachinematchingYC,REZAIIFAR2015,37(8)R:,1558KRISHNAPRASAD-1570. PS.applicationspursuitAsilomartowavelet:recursivedecompositionfunction[C]//ProceedingsapproximationOrthogonalofthe27thwith[29] PiscatawayConferenceAHARON:MIEEEonSignals,SystemsandComputers.,ELAD,1993M,:BRUCKSTEIN40-44. A.K-SVD:analgorithm[for[30] 4311J].designingIEEETransactionsovercompleteondictionariesSignalProcessingforsparse,2006representation,54(MAIRAL-4322. 11):sparseJ,LEORDEANUMinterpretationimage[31] on[models,BACHF,etal.DiscriminativeCforclass-specificedgedetectionandimageSILBERMANComputerVision]//,ProceedingsLNCS5304.ofBerlinthe2008:SpringerEuropean,2008Conference:segmentationProceedingsandN,supportHOIEMinferenceD,KOHLI43-56.fromRGBDP,etal.Indoor[32] VisionHALLMAN,LNCSof7576.theBerlin2012:Europeanimages[C]//Springer,ConferenceonComputerdetectionComputer[CS],//FOWLKESCC.Oriented2012edge:746forests-760.forboundary[33] 2015SHEN:1732VisionProceedings-andPatternofRecognition.the2015IEEEPiscatawayConference:IEEEon,convolutionalW,WANG1740. detectionfeatureX,learnedWANGbyYpositive,etal.DeepContour:adeepComputer[[34] 2015VisionC]//Proceedings-sharinglossforcontourandofthe2015IEEEConferenceonIVAN:3982-PatternRecognition.Piscataway:IEEE,dermatologistsGD.3991. DermaKNet:Incorporatingtheknowledgeofdiagnosis[35]2019[J].IEEEtoconvolutionalJournalofBiomedicalneuralnetworksandHealthforInformaticsskinlesion,SIMONYAN,23(2):547-559. networks[36] 20forlargeK,ZISSERMANA.VerydeepconvolutionalLIU].https://arxiv.org/pdf/1409.-scaleimagerecognition[EB/OL].[2020-01-edgeYComputerdetection,LEW[MC]S.//ProceedingsLearningrelaxed1556.pdf. deepsupervisionforbetter[37] 2016BERTASIUS:231-Vision240. andPatternRecognition.ofthe2016IEEEPiscatawayConference:IEEEon,highapplications:efficient,SHIboundaryJ,TORRESANIL.High-for-lowandlow-for-IEEEtohigh-leveldetectionvision[fromC]//deepProceedingsobjectfeaturesoftheandits[38] IEEEInternationalConferenceonComputerVision.Piscataway2015:GANIN,2015neighborY,:LEMPITSKY504-512. V.AsianfieldsforimagetransformsN4-fields[C]://neuralProceedingsnetworkofthenearest[39] SpringerConferenceonComputerVision,LNCS9004.Cham12thKRIZHEVSKY,2015::classificationA536,-551. ProceedingsInformationofwithSUTSKEVERthedeepI,HINTONGE.ImageNet25thconvolutionalneuralnetworks[C]//AssociatesInc.Processing,2012:1097Systems.International-1105. RedConferenceHook,NYon:NeuralCurran3288计算机应用 第40卷 [40] MANINISConvolutionalKK,PONT-EuropeanSpringerConferenceorientedboundariesTUSET[CJ,]//ARBELÁEZProceedingsofP,theet2016al. [41] HEimageK,,onComputerVision,LNCS9905.Cham:onrecognitionZHANG2016:580[XC,-596. ]//RENProceedingsS,etal.ofDeepthe2016residualIEEElearningConferencefor[42] 2016ComputerVisionandPatternRecognition.Piscataway:IEEE,XUdeepD:,770OUYANG-778. W,contourstructuredmulti-scaleALAMEDAfeatures-usingPINEDAattentionX,et-gatedal.CRFsLearningforConferenceprediction[C]//Proceedingsofthe31stInternational[43]HookFUKUSHIMA,NY:CurranonNeuralAssociatesInformationInc.,2017Processing:3961-3970. Systems.RedmodelpositionforK.Neocognitron:aself-organizingneuralnetwork[44] DENG[boundariesRJ]a,.mechanismSHENBiologicalC,CyberneticsofpatternrecognitionLIUS,et,al.1980Learning,36unaffected(4):byshiftinto193predict-202. crispComputer[[45] 570VisionC]//Proceedings,LNCSof11210.the2018ChamEuropean:SpringerConference,onHE-forJ586.2018:,ZHANGS,YANGM,etal.Bi-directionalcascadenetworkCVFperceptual[46]PiscatawayConferenceedgeondetectionComputer[C]Vision//ProceedingsandPatternoftheRecognition.2019IEEE/QUdeepZ,WANG:IEEES,,LIU2019L:,3823etal.-3832. Visual[47] 2019YANG,neural7networksforimageedgedetectioncross[-imageJ].IEEEfusionAccessusing,withProceedingsaJ:,57604fullyPRICE-57615. convolutionalB,COHENS,encoderetal.-decoderObjectcontournetworkdetection[C]//[48] PatternRUMELHARTRecognition.ofthe2016PiscatawayIEEEConference:IEEE,2016onComputer:193-202. VisionandinternalDrepresentationsDE,HINTONG,WILLIAMSR.LearningDistributedE,MCCLELLANDbyerrorpropagation[M]//RUMELHARTCognitionProcessingJL,PDPResearchGroup.Parallel[49]1986LECUN:318,-Volume1::Foundations.ExplorationsinCambridgetheMicrostructure:MITPressof,appliedY362. [50] Computationto,BOSERhandwrittenB,DENKERzipcodeJSrecognition,etal.Backpropagation[BARRONRGBJ,L,19MALIK,1(4):541-551. J].NeuralComputer-Dimage[C]//ProceedingsJ.Intrinsicofthescene2013propertiesIEEEConferencefromasingle[51] 2013VisionandPatternRecognition.Piscataway:IEEEon,DOLLÁR:17-24. andP,TUZ,ConferenceobjectboundariesBELONGIE[52]PiscatawayonComputer[C]//ProceedingsS.Supervisedoflearningthe2006ofedgesIEEEDOLLÁRforestsP:,IEEEZITNICK,2006C:VisionandPatternRecognition.L.19Fast-1971. edge[53] Intelligence[J].CHUstructuredX,OUYANG,IEEE2015,Transactionsdetectionusingstructured37(onPatternAnalysisandMachineW8),:LI1558H-,1570. etal.CRF-CNN:ofinformationinhumanposeestimation[C]modelingProcessingthe30thInternationalConferenceonNeural//ProceedingsInformation[54] 2016Systems.RedHook,NY:CurranAssociatesInc.,XUD:,1-10. RICCIE,[CRFsOUYANGW,etal.Multi-scalecontinuousVisionC]//asProceedingssequentialdeepnetworksformonoculardepthestimation161-169. andPatternofRecognition.the2017IEEEPiscatawayConference:IEEEonComputer,2017:[55] MINKAInternationalT,WINNProcessingConferenceJ.Gatesand[WorkshopC]//Proceedingsonofthe22nd[56] 2008Systems.RedHook,NY:CurranNeuralInformationLONG:1073AssociatesInc.,networksJ,-1080. IEEEforSHELHAMERsemanticsegmentationE,DARRELL[C]//ProceedingsT.Fullyconvolutionalofthe2015[57] PiscatawayConferenceNOHsemanticH,HONG:IEEE,on2015Computer:3431-3440. VisionandPatternRecognition.InternationalsegmentationS,HAN[C]B.//LearningProceedingsdeconvolutionofthe2015networkIEEEfor[58] 2015PINHEIRO:1520-ConferenceonComputerVision.Piscataway:IEEE,refineP1528. O,LINTY,Conferenceobjectsegments[C]//COLLOBERTProceedingsofR,theetal.2016LearningEuropeanto[59] 2016onComputerVision,LNCS9905.Cham:Springer,SHI:imageW75,-CABALLERO91. J,convolutionalandvideosuper-resolutionHUSZÁRusingF,etanal.efficientReal-timesubsingle-Conference[60] PiscatawayonneuralComputernetwork[VisionC]//ProceedingsandPatternofthepixelRecognition.2016IEEEKHOREVA:IEEEsupervisedA,BENENSON,2016:1874-R1883. ,OMRANM,etal.Conferenceobjectboundaries[C]//ProceedingsofWeakly[61]PiscatawayonComputerVisionandPatterntheRecognition.2016IEEEXIEofS,TU:Z.IEEEHolistically,2016:-183nested-192. edgedetection[C[62] Piscatawaythe2015LI:IEEEIEEE,International2015:1395-1403. ConferenceonComputer]//ProceedingsVision.edgesY,Vision[CPALURI]//M,REHGJM,etal.Unsupervisedlearningof[63]1627. andProceedingsPatternRecognition.ofthe2016PiscatawayIEEEConference:IEEE,2016onComputer:1619-LECUNlearning[] IEEEappliedY,BOTTOUtodocumentL,BENGIOrecognitionY,[etal.Gradient-basedSZEGEDY,1998,J].ProceedingsoftheconvolutionsC86(11):2278-2324. Computer[,C]//LIUProceedingsW,JIAofY,theetal.Goingdeeperwith[65]2015VisionandPatternRecognition.2015IEEEPiscatawayConferenceonEVERINGHAM:1-9. :IEEE,pascalM,[66] InternationalvisualobjectESLAMIclassesSMchallengeA,VAN:aGOOLretrospectiveL,etal.TheMOTTAGHIJournalofComputerVision,2015,111(1):98-[136.J].objectProceedingsdetectionR,CHENandsemanticX,LIUXsegmentation,etal.Theroleofcontextfor[67] Pattern苏松志,Recognition.ofthe2014inthewild[C]//PiscatawayIEEEConference:onComputerVisionand报,A2012李绍滋,,40(4):陈淑媛,814-820.等(.SU行人检测技术综述IEEE,2014:1-8.SZ,LISZ,CHEN[J]S.电子学2012survey,40(on4):pedestrian814-820.) detection[J].ActaElectronicaY,Sinicaetal.,ChongqingThisworkofChongqingInstituteispartiallyInstituteofofEngineeringsupportedEngineering(2019gckv04bytheHigh(2019xzky06)-,techtalentProgramof,the2018xzky12Research)Program.HerresearchLICuijin,bornin1984,interestsQUZhonginterests,bornincludein1972digitalPh.,Ph.imageD.candidateD.processing,associate,professor.,digitalHismediaprofessor.research. computing. includedigitalimageprocessing,digitalmedia,cloud
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- baoaiwan.cn 版权所有 赣ICP备2024042794号-3
违法及侵权请联系:TEL:199 18 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务