《SalientObjectDetection:ASurvey》作者:AliBorji、Ming-MingCheng、HuaizuJiangandJiaLi
一、L.Itti,C.Koch,andE.Niebur,“Amodelofsaliency-basedvisualattentionforrapidsceneanalysis,”IEEETPAMI,1998.
一个用于快速场景分析的基于显著性的视觉注意模型【1】。目前(2018-07-06),这篇shortpaper被引量9000+,有点吓人O(∩_∩)O哈哈~
①、亮度提取,用r,g,b分别表示图像红、绿、蓝三个通道的值,因此亮度I可以表示为I=(r+g+b)/3,由于输入图片是9个尺度的高斯金字塔图片,所以I也对应于9个尺度高斯金子塔亮度图。
②、颜色提取,r,g,b通道采用I进行归一化以从亮度中解耦色调。产生了四个宽调谐(broadly-tuned)的颜色通道,从这些颜色通道中产生四个高斯金字塔R,G,B,Y。
R=r-(g+b)/2,G=g-(r+b)/2,B=b-(r+g)/2,Y=(r+g)/2-|r-g|/2-b,如果为负数则设为0。
③、方向特征,方向特征主要是使用Gabor滤波器对图像的亮度特征在0°,45°,90°,135°四个主要方向上进行滤波得到的。因此,Gabor滤波器可以很好地模拟人类视皮层简单细胞的信号处理特点,其结果直接体现了图像局部方向特征的信息。在Gabor滤波器某个方向的滤波结果中,给定区域的能量可以反映该区域灰度图在该方向的特征是否强烈,即反映了区域内的该方向的直线或者规则纹理的朝向特征是否明显。因此方向特征的提取可以直接使用几个方向的Gabor滤波器进行滤波获得。
I(c,s)=|I(c)ΘI(s)|c∈(2,3,4),s=s+δ,δ∈(3,4)
RG(c,s)=|(R(c)-G(c))Θ(G(s)-R(s))|
BY(c,s)=|(B(c)-Y(c))Θ(Y(s)-B(s))|
第三组特征图集:采用方向Gabor金字塔得到局部方向信息,采用4角度和6尺度来表示角度和方向。最后得到方向特征图:O(c,s,θ)=|O(c,θ)ΘO(s,θ)|
二、接下来的计算研究开始用显著图来进行固定预测(fixationprediction)以及理解人类的视觉注意机制。
1、T.Liu,J.Sun,N.Zheng,X.Tang,andH.-Y.Shum,“Learningtodetectasalientobject,”inCVPR,2007,pp.1–8.
提出了一系列新颖的特征,包括多尺度对比度,中心环绕直方图和颜色空间分布,以在本地,区域和全局描述显著性目标。
引入了条件随机场用于高效地将这些新颖的特征组合起来,以服务于后续的显著性目标检测。
创建了一个大型的精心标注的图像数据库。
2、T.Liu,Z.Yuan,J.Sun,J.Wang,N.Zheng,X.Tang,andH.-Y.Shum,“Learningtodetectasalientobject,”IEEETPAMI,vol.33,no.2,pp.353–367,2011.
3、R.Achanta,F.Estrada,P.Wils,andS.Süsstrunk,“Salientregiondetectionandsegmentation,”inComp.Vis.Sys.,2008.