Journal of Electronics & Information TechnologyVol. 41No. 10
Oct. 2019
基于目标紧密性与区域同质性策略的图像显著性检测
唐红梅* 王碧莹 韩力英 周亚同
(河北工业大学电子信息工程学院 天津 300401)
摘 要:针对基于图模型的显著性检测算法中节点间特征差异描述不准确的问题,该文提出一种目标紧密性与区域同质性策略相结合的图像显著性检测算法。区别于常用的图模型,该算法建立更贴近人眼视觉系统的稀疏图结构与新颖的区域同质性图结构,以便描述图像前景内部的关联性与前景背景间的差异性,从而摒弃众多节点的冗余连接,强化节点局部空间关系;并且结合聚类簇紧密性采取流形排序的方式形成显著图,利用背景区域簇的相似性,引入背景置信度进行显著性优化,最终得到精细的检测结果。在4个基准数据集上与4种基于图模型的流行算法对比,该算法能清晰地突出显著区域,且在多种综合指标评估中,具备更优越的性能。关键词:图模型;目标紧密性;区域同质性;流形排序;显著性检测中图分类号:TP391.41DOI: 10.11999/JEIT190101
文献标识码:A
文章编号:1009-56(2019)10-2532-09
Image Saliency Detection Based on Object Compactness
and Regional Homogeneity Strategy
TANG Hongmei WANG Biying HAN Liying ZHOU Yatong
(School of Electronics and Information Engineering, Hebei University of Technology, Tianjin 300401, China)Abstract: Considering the inaccurate description of feature differences between nodes in the graph-basedsaliency detection algorithm, an image saliency detection algorithm combining object compactness and regionalhomogeneity strategy is proposed. Different from the commonly used graph-based model, a sparse graph-basedstructure closer to the human visual system and a novel regional homogeneity graph-based structure areestablished. They are used to describe the correlation within the foreground and the difference betweenforeground and background. Therefore, many redundant connections of nodes are eliminated and the localspatial relationship of nodes is strengthened. Then the clusters are combined to form a saliency map by meansof manifold ranking. Finally, the background confidence is introduced for saliency optimization by the similarityof the background region clusters and the final detection result is obtained. Compared with 4 popular graph-based algorithms on the four benchmark datasets, the proposed algorithm can highlight the salient regionsclearly and has better performance in the evaluation of multiple comprehensive indicators.
Key words: Graph-based model; Object compactness; Regional homogeneity; Manifold ranking; Saliencydetection
1 引言
据神经科学和认知心理学研究,人类视觉系统通过选择注意机制能够迅速准确地捕捉场景中最有吸引力的区域。图像的显著性检测旨在模拟视觉系统,选择性地忽略冗余背景信息,保留信息量丰富的前景信息。显著性检测技术对机器视觉领域的发
收稿日期:2019-02-21;改回日期:2019-05-28;网络出版:2019-06-04*通信作者: 唐红梅 hmtang2005@163.com基金项目:教育部春晖计划项目(Z2017015)
Foundation Item: Chunhui project of the Ministry of Education(Z2017015)
展有重要意义,广泛应用在图像的压缩、图像目标识别与分割、基于内容的图像检索[1,2]中。按照信息处理的形式将图像显著性检测算法分为两大类:自下而上模型和自上而下模型[3]。自下而上模型一般是无监督且高效的,通过对比度等底层信息以数据驱动的方式构建数学模型;自上而下的模型一般是有监督的,利用人类高级感知知识通过任务驱动的形式执行显著性检测。近些年,全卷积、循环卷积网络等基于深度学习的研究也取得新的进展,然而,训练集真值图的边缘划分需要密集的人力作支撑,时间成本较高[4,5]。本文主要研究自下而上的算法。
第10期唐红梅等:基于目标紧密性与区域同质性策略的图像显著性检测2533
近些年,关于显著性检测的研究仍在向前发展。文献[6]提出了通过贝叶斯模型和超像素多尺度融合计算显著值的MSS(Multi-Scale Superpixels)算法,时间复杂度较高;文献[7]打破了传统显著性检测算法的,将目标检测、去卷积模块、注意力残差模块引入框架中,但仍然会出现训练时间消耗较多的问题。由于图论算法的简洁高效性,图模型逐渐被应用到显著性检测中,最具代表性的算法是基于图的流行排序(Graph-Based Manifold Rank-ing, GBMR)算法[8]。GBMR算法考虑图的流形结构,将图像节点分别按照与前景节点和背景节点的相似性进行显著性等级排序;Wei等人[9]基于背景线索,提出一种测地显著性(Geodesic Saliency,GS)算法;2017年,文献[10]对GBMR算法做出改进,将低级颜色特征和中级图像特征的4个尺度线索与流形排序结合起来,并采取3级级联的方式生成显著图,执行过程繁冗复杂;文献[11]提出一种标签传播(Label Propagation, LP)算法,该算法提取特定背景和目标区域的标签,依据超像素之间的相似性传播有效信息;文献[12]的算法应用恢复矫正和正则化随机游走(Reversion Correction andRandom Walk, RCRW)技术进行图模型的显著性估计;Zhou等人[13]提出一种稀疏图(Sparse Graph,SG)算法,该算法设计两层稀疏图,利用聚类和扩散获得更优良的结果。一般情况下,仅使用单个图的显著性框架不能完整描述复杂场景的结构信息,而多个图结构和超图模型能有效地提高检测质量[14]。文献[15]中的多个超图模型构造了节点间的高阶关系,该算法具有较强的鲁棒性。
简单连接时,传统的图构造方式容易引进误差,削弱背景与前景的差异;(2)在节点显著性传播过程中,给予查询节点或初始种子传播节点相同的显著性置信度或传播贡献量,没有考虑节点间的相对显著性。为解决上述问题,在文献[13]的框架基础上,本文提出一种基于目标紧密性与区域同质性策略的显著性检测算法,整体框架如图1所示。首先,为契合图模型的结构特点并且降低图模型构造的时间复杂度,对图像进行超像素分割,利用已有框架中的步骤构造去除部分冗余节点的两层稀疏图结构,计算聚类簇紧凑性从而划分前景和背景区域块,并对所有节点流形排序以获得初步显著值。其次,为增强图像节点显著与否的异质差异,根据初步显著值建立反映前景一致性、背景一致性、潜在节点邻接性的新图结构,筛选可靠的前景种子以扩散显著性。最后,添加背景概率作为置信度,利用最小化目标函数进行显著性优化,得到精细的显著结果。
3 基于目标紧密性与区域同质性策略的显
著性检测
由于单一图结构描述节点的特征信息不够全面,故本文提出一种目标紧密性和区域同质性相结合的图像显著性检测算法,引入聚类簇紧密性,并强化图结构中潜在前景节点、背景节点的内在同质属性,有效抑制背景,提升检测准确度。3.1 构建基于目标紧密性的显著性模型3.1.1 建立稀疏图结构
首先建立节点连接关系较为稀疏的无向图结构1(1;1)以生成粗略显著图。为使计算简洁高效,将输入图像像素点阵简单线性迭代聚类(SimpleLinear Iterative Clustering, SLIC)成n个超像素节点1=[v1v2¢¢¢vn]。根据以下3个规则设置图结构1节点间的边缘1:(1)每个节点都与其相邻节点连接,此连接视为1阶连接;(2)每个节点与其相
2 显著性检测整体框架
尽管基于图模型的显著性检测算法在图结构描述方面取得不错的进展,但仍然存在不足之处:(1)构建的图结构仅考虑相邻节点的一致性,而忽视了局部区域一致性和前景背景区域间的整体区分度。当显著目标边缘节点与其相邻节点使用正则图
图 1 基于目标紧密性与区域同质性策略的显著性检测整体框架
2534电 子 与 信 息 学 报
nXi=1
第 41 卷
邻节点在CIELab颜色特征空间中最相近的共享公
共边界的节点相连,此连接视为2阶连接;(3)图中任意边界超像素节点两两相连。节点vi与节点vj之
1
间的边缘权重大小wij(vi;vj)计算如式(1)所示,其中
Lab
和Lab表示节点vi与节点vj内部所有像素在ij
sv(j)=
hij¢ni¢kbi¡ujk
nXi=1
(4)
hij¢ni
Lab
j的空间分
CIELab颜色空间的均值,¾为控制节点间权重差异的常量。稀疏图结构1的节点连接性如图2(b)所示,“太阳花”上的深色节点、“太阳花”上的浅色节点、图片边缘深色节点分别展示规则(1), (2),(3),每个节点都以连接2阶最相似节点的方式增强节点间的颜色约束。
ð°!Lab°°Lab
i¡j1
wij(vi;vj)=exp¡(1)
¾
sv(j)表示所有节点对于第j个聚类中心
布方差,ni为超像素i内包含的小像素数,bi=[xi;yi]
y
为节点vi内像素的位置均值。¹j=[¹xj;¹j]为所有节点对于聚类中心均值
nXi=1
nXi=1
Lab
的水平、竖直方向空间分布j
¹xj=
hij¢ni¢xihij¢ni
(5)
¹j=
图 2 稀疏图结构相关节点处理
y
nX3.1.2 依据紧密性归类区域块
将上述每个节点内部所有像素在CIELab颜色空间的3维均值进行K-means聚类,定义聚类簇中
£¤LabLab
¢¢¢心为C且包含k个分量,即=Lab,12k节点与聚类簇中心的相似性矩阵定义为=[sij]n£k,节点vi和第j个聚类中心
Lab
的相似性sij的计算如j
式(2)所示,利用流形排序[8]的方式细化图结构内部
相似关系,则扩散后n个节点和k个聚类中心间的相似性矩阵=[hij]n£k具体计算如式(3)所示
ð°!Lab°°Lab¡ji
sij=exp¡(2)
¾
=(
G1
¡®
G1¡1
)(3)
G1
定义聚类中心的紧密性概率cl,第j个聚类簇中心的紧密性概率具体计算如式(7)所示。Norm(¢)是归一化[0, 1]的函数,cl值越大,该区域块越紧密,成为显著目标的可能性越大,图3(b)是为每个超像素赋值对应的聚类中心紧密性概率的灰度图。
紧密性概率的数值零散地分布在[0, 1]之间,并且考虑到K-means聚类算法初值的选择具有随机性,因此以众多紧密性概率值的均值作为阈值,将k个聚类簇划分为前景和背景种子区域FG, BG。图4(a),图4(b),图4(c),图4(d)是将原图像按节点的形式利用均值划分并归类前景背景区域,进而生成多种随机初值下K-means聚类的二值图。以均值作为阈值可在一定程度下降低误差,并且在后续算法的归一化和传播扩散过程中,此误差会进一步缩小。
cl(j)
i=1
nXi=1
hij¢ni¢yihij¢ni
(6)
=1¡Norm(sv(j))
(7)
其中,节点之间边缘权重由关联矩阵=
£1¤11wijn£n表示,定义对角矩阵G1=diag[d11d2¢¢¢dn],
X
11
且di=jwij, j=1;2;¢¢¢;n。®控制节点相对于扩散初始值和连接节点的相似性依赖程度。利用扩散后的相似性矩阵H 和节点的空间位置信息计算所有节点对于聚类中心的空间分布方差sv
3.1.3 节点显著值流形排序
根据节点与前景区域块内所有聚类簇中心的相似性,得到较为粗略的节点显著值fg如式(8)所示,图3(c)为计算式(8)后的前景紧密性图。再将
¤
fg进行扩散即可得到更高置信度的显著值fg,如式(9)所示。将n维向量
¤
fg依次赋给对应小像素,
图 3 算法重要步骤结果图
第10期
唐红梅等:基于目标紧密性与区域同质性策略的图像显著性检测2535
图 4 聚类簇前景背景区域划分多种情况示意图
得到初步显著图示例。
fg(i)
G1
,图3(d)为前景紧密性扩散图X
=¡
cl(j)¢sij
Lab
2FGj
(8)(9)
¤
fg
=
G1
¡®
3.2 构建基于区域同质性的显著性模型
基于目标紧密性的显著性模型能够大致定位显著目标区域,但目标区域较为暗淡,与背景区分度小,因而通过建立新颖的区域同质性图结构进一步增强前景背景的差异,获得更准确的显著性检测结果。
3.2.1 建立区域同质性新图结构
为使显著目标和背景区别标记,应尽可能将目标节点和背景节点异质划分,构建一种能够整合节点空间分组关系的新颖区域同质性图结构2。2图上节点分为3大类:潜在前景节点、潜在背景节点和不确定节点。区别于图结构1,节点的分类属性以节点显著值¤fg作为划分依据。设置两个较为苛刻的自适应阈值确保动态筛选更符合真实场景的种子,减少G1图引入较大误差的可能性,定义两个阈值thigh和tlow
)¤
thigh=2£mean(fg)
(10)
tlow=0:8£mean(¤)fg其中,mean(¢)为求向量均值的函数。大于thigh的
节点划分为潜在前景种子,小于tlow的节点划分为潜在背景种子,介于两个阈值之间的节点视为不确定种子,分别如图5(b),图5(c),图5(d)所示。为契合人类感知原则,将任何一对潜在的前景种子节点相互连接,任何成对的潜在背景节点也相互连接,如图5(e)所示,浅色圆点和深色圆点分别代表潜在前景种子、潜在背景种子。区别于其他检测算法仅考虑节点的邻域关系,区域同质性图结构使前
¢G1¡1
景区域和背景区域具备各自的相似属性。针对众多
不确定节点无法明确归类的问题,并且防止出现孤立节点,计算每个节点在距离测度dist上最相近的K1个邻近节点,最大程度凸显不确定节点的属性。则vi和vj间的距离测度dist(vi;vj)计算如式(11)所示,其中d1表示颜色特征所占的距离权重。利用颜色和位置共同加权计算dist,可有效防止目标节点与空间上较远而又颜色近似的背景节点相连,如图5(f)所示,黑色节点连接了与其最相近的5个节点。图
2
模型2中节点vi和vj的边缘wij仍然用式(12)中的指数函数表示dist(vi;vj)=d1k
k+(1¡d1)kbi¡bjk(11)
ð°!Lab°°Lab¡ij2
wij(vi;vj)=exp¡(12)
¾
Lab
¡Labij
fg
3.2.2 前景种子筛选与流形排序
为改善显著图G1中目标灰度值较低的问题,将显著值¤fg中大于等于阈值Thre的节点设为前景查询节点
Thre=
mean(
¤
fg)
+max(2
¤fg)
(13)
max()为求取向量最大值的函数。一旦前景查询确定,便可对图像所有节点流形排序,如式(14)和式(15)所示,得到n维向量的节点显著值¤,其中指示向量Y 中前景查询节点标记为¤fg中相应节点的显著值,其他未被查询节点赋值为0。关联
£2¤©2G2G2
矩阵,对角矩阵=wij=diagd1
n£nXª2
22
, j=1;2;¢¢¢;n。将n维向d2¢¢¢dwij2n, di=j量
依次赋给对应小像素,得到更准确的显著图
G2,如图3(e)所示。
¤
¤
4 显著性优化
(i)=(G2¡®
8<¤
fg(i);
(i)=
:0;
G2¡1
)(14)
¤fg(i)¤fg(i)
¸Thre 在以上检测过程中,仍有一些前景区域未被突出显示,并且一些背景区域被错误标记为前景,因 图 5 区域同质性图结构的相关节点处理 2536电 子 与 信 息 学 报第 41 卷 此本文提出一种利用关联矩阵的显著性扩散优化过程。该过程能增强前景与背景的整体对比度,提高算法的鲁棒性。优化结果n维向量opt的最小化目标函数包含背景置信度加权约束、前景置信度加权约束、图节点间梯度平滑约束3个组成部分,如式(16)所示,其中背景置信度¤bg根据节点与背景区域块的相似性计算得出 opt =argmin s ÃX n¤bg(i)s2i i=1 + XN¤(i)(1¡si)2+i=1 X w2 2 ij(sii;j ¡sj) ! (16) ¤ bg(i) = sij (17) Lab j Y 2BG显著图 G2中大部分被误检的孤立背景区域和 孤立目标区域,经优化后得到n维显著结果 opt 如 式(18)所示。以背景概率和细化的前景显著值作为置信度增强了显著目标和背景间差异,其中对角矩阵 fg, bg分别fg=diag(¤ (1)¤(2)¢¢¢¤(n))和bg=diag¡为 ¤bg(1)¤bg(2)¢¢¢¤ bg (n)¢。opt = G2 ¡ G2 +fg+ bg ¡1 ¤ (18) 将n维向量 ¡ opt 的显著值依次赋给¢n个超像素内 的所有小像素,即可得到性能更好的显著图¯nal,图3(f)和图3(g)分别为式(17)计算后的背景概率效果图和最终的显著性优化图。 5 实验与分析 5.1 显著性数据集与衡量指标 为综合评估本文算法性能,将本文算法在ASD, ECSSD, MSRA-10K, DUT-OMRON 4个基准数据库上进行测试,并且4个数据库均提供了人工标注的真值图(Ground-Truth, GT)。引入以下几个评价指标:准确率(Precision, P)、召回率(Recall,R)、F测度(F-measure, F)和平均绝对误差(MeanAbsolute Error, MAE)。利用两种分割方式将结果二值化:一是阈值在[0, 255]之间隔5取一个阈值;二是以结果均值的2倍作为阈值。对于分割后的二值图seg和对应真值图GT,定义TP为seg前景与GT前景的重合像素数,FP为seg前景但对应于GT背景的像素数,FN为seg背景但对应于GT前景的像素数。P和R具体计算为 P= TPTP+FP (19) R= TPTP+FN(20) P值和R值越大,检测效果越好。在多阈值分 割方式中,以R值、P值分别为横轴、纵轴绘制P-R曲线,曲线越靠右上方算法性能越好。F测度作为综合指标计算如式(21)所示,F值越高,算法性能越好。其中¯2=0:3,旨在强调准确率。多阈值分割方式同样可绘制F曲线,曲线越靠上,性能越好。MAE描述了灰度显著图¯nal和GT图的差距,如式(22)所示,MAE越小,算法性能越好。F= (1+¯2)£P£R¯2£P+R (21) MAE=1 W£HXWXHj ¯nal(x;y) ¡(x;y)j(22) x=1y=1 5.2 参数设置与分析 为平衡实验复杂度和有效性,将超像素个数n设为200。本文算法所有®值均代表扩散过程中相似性约束常数,取0.99,所有¾取经验值0.1,聚类簇数k取36。图结构2中近邻节点个数K1若取值太大,会造成过多非同质性节点连接,若取值太小则影响图模型建立,当K1取5时,检测效果最好。在式(11)中,d1取0.5能更好地平衡颜色和位置约束。5.3 实验结果分析与对比5.3.1 定性评价 本文算法与GBMR[8], LP[11], RCRW[12],SG[13]4种基于图模型的流行算法进行对比,图6展示了4个数据库上5幅具有代表性图像的各算法结果:显著目标是单个对象(第1幅)、多个对象(第2幅),图像背景复杂(第3幅),前景背景对比度低(第4幅),显著目标接触图像边界(第5幅)。本文算法在上述情况下均能实现良好的检测效果,目标均匀高亮,背景抑制良好,而其他4种对比算法检测效果与本文算法仍有一定差距。LP算法检测效果最差,尤其在背景复杂和显著目标接触图像边界的情况下,LP算法能检测出目标轮廓却引入过多背景。对于多目标检测4种对比算法结果均较为模糊,检测结果的目标部分远小于真值图中的前景区域,如第2幅图所示。当目标与背景对比度低时,4种对比算法目标区域亮度仍有待提高,影响了算法的准确性。SG算法效果虽然较好,但检测第3幅图时引入了众多背景杂质,目标区域较暗、目标边缘也不够清晰,而本文算法前景背景边界明显。本文算法能达到如此检测效果是由于图结构2在较为粗略的显著图基础上定性划分种子、同类种子连接、边缘种子强化。 第10期 唐红梅等:基于目标紧密性与区域同质性策略的图像显著性检测2537 图 6 部分图片各算法结果对比示例 5.3.2 定量评价 图7—图10分别展示了4个数据库上各算法多阈值分割下的P-R曲线和F曲线、自适应阈值分割下的P, R, F值,平均MAE值。从4个图的(a)(c)图中可以看出,本文算法在多阈值分割下的P-R曲线整体集中在较高的召回率部分,曲线最为平稳,且综合指标F值在很宽的范围内处于领先地位。对于自适应阈值分割,SG算法在4个库上的综合指标F值处于第1的位置,本文算法在所有数据库上同样处于前列。由于本文算法结果中前景和背景区域像素值差异大,在多阈值和单阈值分割下,本文算法整体性能仍然高于包括SG算法在内的其他算法。本文算法MAE值在3个数据库上最小,说明所提算法最接近真值图,并且在DUT-OMRON库上与最优 结果LP算法相差不大。综上所述,从整体角度衡量,本文算法最具优越性。5.3.3 时间分析 本文算法在MATLAB R2014b软件上编程实现,系统环境为i5 Windows8, 2.6 GHz CPU, 4 GBRAM。为进一步评估算法效率,在该环境下将本文算法在ASD库的平均运行时间与4种算法对比。表1显示,本文算法平均运行时间为1.77 s,执行2个图的构建、聚类以及优化过程后,仍比LP,RCRW, SG算法耗时少。因此,综合考虑算法复杂度与检测性能,本文算法具有较大优越性。 6 结束语 针对基于图模型的显著性检测算法中节点间特征差异描述不准确的问题,本文提出了一种基于目 图 7 ASD数据库定量评价指标对比 2538 电 子 与 信 息 学 报第 41 卷 图 8 ECSSD数据库定量评价指标对比 图 9 MSRA-10K数据库定量评价指标对比 标紧密性与区域同质性策略的图像显著性检测算法。依次建立稀疏图结构和区域同质性图结构,并且利用一种非常重要的感知线索—紧密性,大幅降低背景的干扰。另外,利用背景概率加权约束目标函数,以获得优化后的最佳检测结果。在4个数据集上进行了大量实验和分析,与4种基于图模型的流行算法相比,本文算法具有较大优势。在未来,将探索更多与图结构节点底层特征差异性相关的度量方法,以便构建更多有效的图模型改善检测效果。 第10期 唐红梅等:基于目标紧密性与区域同质性策略的图像显著性检测2539 图 10 DUT-OMRON数据库定量评价指标对比 表 1 各算法运行时间对比(s) 方法时间 本文算法1.77 GBMR0.28 LP3.40 RCRW2.80 SG1.92 [6]TONG Na, LU Huchuan, ZHANG Lihe, et al. Saliencydetection with multi-scale superpixels[J]. IEEE SignalProcessing Letters, 2014, 21(9): 1035–1039. doi:10.1109/LSP.2014.2323407. 参 考 文 献 [1] CONG Runmin, LEI Jianjun, FU Huazhu, et al. Co-saliencydetection for RGBD images based on multi-constraintfeature matching and cross label propagation[J]. IEEETransactions on Image Processing, 2018, 27(2): 568–579.doi: 10.1109/TIP.2017.2763819.[2] WANG Songtao, ZHEN Zhou, WEI Jin, et al. Visualsaliency detection for RGB-D images under a Bayesianframework[J]. IPSJ Transactions on Computer Vision andApplications, 2018, 10: 1. doi: 10.1186/S41074-017-0037-0.[3] LIU Nian and HAN Junwei. A deep spatial contextual long-term recurrent convolutional network for saliencydetection[J]. IEEE Transactions on Image Processing, 2018,27(7): 32–3274. doi: 10.1109/TIP.2018.2817047.[4] WU Xiyin, JIN Zhong, ZHOU Jingbo, et al. Saliencypropagation with perceptual cues and background-excludedseeds[J]. Journal of Visual Communication and ImageRepresentation, 2018, 54: 51–62. doi: 10.1016/J.JVCIR.2018.04.006.[5] LI Guanbin and YU Yizhou. Contrast-oriented deep neuralnetworks for salient object detection[J]. IEEE Transactionson Neural Networks and Learning Systems, 2018, 29(12):6038–6051. doi: 10.1109/TNNLS.2018.2817540. [7]余春艳, 徐小丹, 钟诗俊. 面向显著性目标检测的SSD改进模型[J]. 电子与信息学报, 2018, 40(11): 2554–2561. YU Chunyan, XU Xiaodan, and ZHONG Shijun. Animproved SSD model for saliency object detection[J].Journal of Electronics & Information Technology, 2018,40(11): 2554–2561. [8]YANG Chuan, ZHANG Lihe, LU Huchuan, et al. Saliencydetection via graph-based manifold ranking[C]. 2013 IEEEConference on Computer Vision and Pattern Recognition,Portland, USA, 2013: 3166–3173. doi: 10.1109/CVPR.2013.407. [9]WEI Yichen, WEN Fang, ZHU Wangjiang, et al. Geodesicsaliency using background priors[C]. The 12th EuropeanConference on Computer Vision, Florence, Italy, 2012:29–42. doi: 10.1007/978-3-2-33712-3_3. [10]ZHANG Lihe, YANG Chuan, LU Huchuan, et al. Ranking saliency[J]. IEEE Transactions on Pattern Analysis andMachine Intelligence, 2017, 39(9): 12–1904. doi:10.1109/TPAMI.2016.2609426. [11]LI Hongyang, LU Huchuan, LIN Zhe, et al. Inner and inter label propagation: salient object detection in the wild[J].IEEE Transactions on Image Processing, 2015, 24(10):3176–3186. doi: 10.1109/TIP.2015.2440174. [12]YUAN Yuchen, LI Changyang, KIM J, et al. Reversion 2540电 子 与 信 息 学 报第 41 卷 correction and regularized random walk ranking for saliencydetection[J]. IEEE Transactions on Image Processing, 2018,27(3): 1311–1322. doi: 10.1109/TIP.2017.2762422.[13] ZHOU Li, YANG Zhaohui, ZHOU Zongtan, et al. Salientregion detection using diffusion process on a two-layersparse graph[J]. IEEE Transactions on Image Processing,2017, 26(12): 5882–54. doi: 10.1109/TIP.2017.2738839.[14] ZHANG Zizhao, XING Fuyong, WANG Hanzi, et al.Revisiting graph construction for fast imagesegmentation[J]. Pattern Recognition, 2018, 78: 344–357.doi: 10.1016/J.PATCOG.2018.01.037. [15]ZHANG Jinxia, FANG Shixiong, EHINGER K A, et al. Hypergraph optimization for salient region detection basedon foreground and background queries[J]. IEEE Access,2018, 6: 26729–26741. doi: 10.1109/ACCESS.2018.2834545.唐红梅:女,1968年生,副教授,研究方向为数字图像处理、模式 识别. 王碧莹:女,1993年生,硕士生,研究方向为数字图像处理、模式 识别. 韩力英:女,1977年生,讲师,研究方向为图像处理、机器学习.周亚同:男,1973年生,教授,研究方向为机器学习、模式识别.
因篇幅问题不能全部显示,请点此查看更多更全内容