网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

回归拟合NR函数及GPDR先验的图像雾浓度检测  PDF

  • 温立民 1,2
  • 王会峰 1,2
  • 巨永锋 1
1. 长安大学,电控学院,西安 710064; 2. 长安大学,电工电子教学中心,西安 710064

中图分类号: TP391.9

最近更新:2025-04-25

DOI:10.11835/j.issn.1000-582X.2025.04.010

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

针对图像去雾领域缺乏有效雾浓度的检测方法,通过引入Naka-Rushton(NR)拟合函数,提出基于广义灰度差-比散点图先验的图像雾浓度检测算法。首先,提取不同条件下标准图像集灰度散点图的广义灰度差-比先验(generalized pixel difference ratio,GPDR);其次,引入符合先验约束的Naka-Rushton拟合函数,通过计算标准图像集拟合NR函数的参数(nk),建立(nk)与视场雾浓度对应的查找表;再次,采用回归分析法计算真实有雾图像拟合参数(n',k'),并计算标准参数(nk)与真实拟合参数(n',k')间的综合相关系数,通过搜索(nk)查找表2评定雾浓度等级。通过不同浓度有雾图像测试,证明算法测试结果符合浓度变化趋势:经过同场景不同浓度、不同场景不同浓度样本测试,算法测试结果与PM2.5相关系数达0.95,表明算法能够作为视场雾浓度等级评定;经过横向对比测试表明研究算法测试误差小于4.8%,可以用于视场雾浓度检测。

雾是生活中常见的自然现象,其存在会影响人们的生产和生活,通常这种影响是负面的,需要减缓或消除。中国是雾的多发区,特别是在南方很多山区,雾给人们生活带来的隐患到了不容忽视的地[

1]。因此,研究如何预警和预报雾是当前亟待解决的问题。然而预警和预报的前提是正确评定雾浓度的等级,目前有多种用于雾浓度等级评定方法,如基于激光、红外技术检测[2⁃3],但该类方法是通过研究传播介质布朗运动对激光或红外光路的遮断或衰减特性来实现,通常在较长物距且需要主动发射或接收装置才能实现,适合特定场合,因此,研究基于机器视觉或图像处理的雾浓度检测具有现实意义。

目前国内外很多学者从事基于机器视觉或图像处理技术雾浓度检测研究,并取得了丰硕成果,Miital[

4]是较早开展相关研究的学者,其主要是采用归一化亮度系数法(mean subtracted contrast normalized,MSCN)实现图像对比度的评定,虽然该方法只是针对图像对比度评价,并未与视场雾浓度检测联系起来,但为雾浓度检测评价提供了参考依据。温立民[5]采用对比度、信息熵建立多维向量,通过求解空间马氏距离的方法映射视场雾浓度,取得较好效果,但检测精度略显不足。Cui[6]利用暗盒方法,通过控制盒内水蒸气(代替雾)浓度,采集视场图像并研究影响雾浓度的参数因素,但其测试是在限定背景参数的条件下获得,不具有一般性。李春明[7]通过统计雾浓度与图像色度、亮度和饱和度之间的关系,建立回归方程并求解视场雾浓度指数,虽然该方法在特定环境下的雾浓度检测具有较高精度,但因对浓度、色度、亮度及饱和度之间的统计具有片面性,使其在应用上不具有通用性。Guo[8]基于暗原色先验方法建立边缘信息索引并利用索引值解算雾浓度参数,虽在中低浓度检测中取得较好效果,但因其是采用暗原色先验方法实现雾浓度检测,难以避免该方法的弊端,即在高浓度或高亮背景下失效。Ling[9]将暗原色先验、统计离差、随机深林等作为雾图像相关统计参量,构建线性组合方程求解视场雾浓度。Jiang[10]研究了视场景深与图像色彩、色度等参数之间的关系,通过回归分析实现雾浓度计算,虽取得一定效果,但需要大量能反映现场景深的参考雾图。因此,研究提出基于标准图像[5]的广义灰度差-比(generalized pixel difference-ratio,GPDR)先验,建立基于Naka-Rushton(NR)函[11]的3段拟合曲线,计算标准图像散点GPDR值的拟合NR函数参数(nk)与真实图像拟合(n',k')的相关系数,建立参数(nk)与雾浓度对应查找表和阈值门限,通过遍历查找表并判断综合相关系数是否高于门限来确定视场雾浓度等级。经相同场景不同浓度雾图像测试,证明图像集拟合Naka-Rushton函数(nk)与真实雾图像(n',k')高度相关,可以作为视场雾浓度等级评定。

1 基于标准图像库灰度差-比散点先验

1.1 影响图像对比度的因素

通常雾的浓度是反映在图像的对比度和信息熵上,对比度和信息熵随着雾浓度增高而降[

9]。雾浓度大小不仅与视场中传播的介质有关,还与光照条件有关,传播介质是匀质的还是非匀质的,光照条件是各向同性还是各向异性都会影响雾浓度的大[12⁃13]。要通过图像实现视场雾浓度检测,首先要研究对比度和信息熵随雾的变化规律,这需要以获得具有不同属性的有雾和无雾图像样本为前提,而现实中获得各种不同性质、不同光照条件的图像较为困难,本文在标准图像数据库(LIVE)中选取参考图像作为测试样本,建立参照标准实现雾浓度检测。当前通用标准图像库有LIVE、FRIDA和O_HAZE[14⁃15]。其中,LIVE库拥有丰富的资源,收集了各种图片资源,仅有雾图像就分为各向同性、各向异性介质和光照等不同条件下图像,适合各种图像处理和机器视觉应用,具有权威性。

1.2 基于标准有雾和无雾图像的GPDR先验

研究选取4组标准图像集(记为I)如图1(a)~(d)所示,每组图像集场景和光照条件相同或相近,每个场景包括有雾(下排)和无雾图像(上排),图1(a)为雾和光照都是各向异性,PM2.5=35 μg/m3图1(b)为雾是各向异性,光照是各向同性,PM2.5= 67 μg/m3图1(c)为雾是各向同性,光照为各向异性,PM2.5= 80 μg/m3图1(d)为雾和光照均为各向同性,PM2.5=120 μg/m3。每个场景有雾和无雾图像各100张,其雾浓度(a)<(b)<(c)<(d)(以每组标准图像的PM2.5值为准)。图1(e)~(h)分别为(a)~(d)对应的散点图,散点图以图像灰度级[0,255]作为x轴,以同场景有雾图像与无雾图像归一化广义灰度差-比(GPDR)作为y轴(广义灰度差-比为有雾图像灰度值与对应的无雾图像灰度值的差与广义有雾图像灰度值之比,其中广义有雾图像灰度值为有雾图像灰度与天空光的差值),蓝色曲线为100幅图像对应的散点分布,红色直线表示过渡阶段对应的线性区域。由图1(e)~(h)知,无论是各向同性还是各向异性的雾图,其GPDR都呈S形曲线,即在低灰度区其值较低且缓慢上升,呈现下凹型态;在高灰度区却是呈现缓慢上凸形态(如图红色箭头所示),且随着雾浓度的增大,下凹和上凸越明显。中间段为近似的线性,随着雾浓度的增加,线性度越明显,通常下凹与上凸之间存在过渡点,且过渡点的斜率随着雾浓度的增加呈上升趋势(如图1(e)~(h)φ1<φ2<φ3<φ4)。

  

  

  

图1  有雾和无雾散点图统计先验

Fig. 1  Statistical prior of fog and fog-free scatterplots

从以上分析可以得到一个关于散点图先验:雾的浓度与S型的散点图一一对应,即一定形状的S型散点图对应一定的视场雾浓度。因此,根据此散点图先验,可通过改变凹凸及线性度等参数确定一个S型函数,表征视场雾浓度大小。为此研究引入Naka-Rushton函数来表征这种S型散点形状,确定对应标准图像的雾浓度。

对于真实的图像1(j),同样可绘制有雾图像与无雾图像间GPDR值S型曲线,如图1(i)所示。根据标准图像集获得的S型函数可确定一个浓度的参照标准,比如某参数下确定的S型函数对应PM2.5=50 μg/m3,如果真实雾图对应的S曲线与之匹配程度达到一定级别时,则认为此时的真实雾图的浓度即为PM2.5=50 μg/m3

1.3 广义灰度差-比先验证明

广义灰度差-比的先验是通过统计200幅标准图像得出的先验规律,对该先验证明其具有一般性。在图像去雾领域中,应用较为广泛的为Narasimhan、Nayar[

16]提出的大气散射模型,如下所示

I(x,λ)=I0(x,λ)e-kβ(x,λ)d(x)+A(λ)(1-e-kβ(x,λ)d(x)) (1)

其中:I(x,λ)为采集器采集到的有雾图像;λ为入射光波长;I0(x,λ)为同场景下的无雾图像;A(λ)为天空光,对于摄像头采集到的图像,天空光可用最大像素值或最高10%的像素均值代替,对于式(1)可认为A(λ)为已知常数;β(x,λ)为传播介质的衰减系数;d(x)为视场景深函数;k为常数。对式(1)整理得

I(x,λ)=(I0(x,λ)-A(λ))e-kβ(x)d(x)+A(λ) (2)

进一步有

|I(x,λ)-I0(x,λ)||I(x,λ)-A(λ)|=ekβ(x)d(x)-1 (3)

若定义式(3)等号左边为灰度差-比函数,则由式(3)等号右边可知,该函数等价于过原点的超越函数(或称类指数函数),该函数与指数函数类似,这是散点图出现类线性的原因。而式(3)与指数函数不同的是随着x的增大而不是无限增大,是有界函数。证明如下:由文献[

14]知

β(x,λ)=13d(x)λ550-q (4)

衰减系数是波长与景深的函数,衰减系数与景深成反比,则有

limxkβ(x)d(x)=k (5)

因此式(3)等号右边ekβ(x)d(x)-1为有界函数,广义灰度差-比函数为S型函数。若令

f(d(x))=|I(x,λ)-I0(x,λ)||I(x,λ)-A(λ)| (6)

其中,f(d(x))即为广义像素灰度差-比函数,可表示为有雾图像灰度I(x,λ)与无雾图像灰度I0(x,λ)的差比与广义有雾图像灰度差|I(x,λ)-A(λ)|(等价于有雾图像灰度与常数之差,称为广义灰度)。因为式(3)是个超越方程,所以笔者采用拟合分析方法计算雾浓度,即首先建立广义灰度散点图,选取合适的参数点建立拟合函数。因为图像灰度值与景深存在正相关,所以图1以图像灰度值为横轴,广义像素灰度-比为纵轴建立散点图。由于衰减系数的幂指数是景深的函数,致使在景深较小(灰度较低)时曲线出现不同程度的下凹,在景深较大(灰度较高)时出现不同程度的上凸。

2 改进的Naka-Rushton函数拟合

2.1 基本Naka-Rushton拟合函数

从分析可知,S型散点图为100幅图像在灰度级上的GPDR分布,由于这种散点图分布呈现如图1(e)~(h)粗线条轨迹,而研究是采用回归分析法拟合曲线,在每个灰度级上选择的回代样本将影响最终拟合结果,不同的回代样本点将拟合出不同曲线,本文以每个灰度级GPDR均值作为回代样本,拟合NR函数表征视场雾浓度的S型曲线,计算雾浓度等级。而拟合曲线的选择,需要满足以下约束条件:

1)拟合曲线需整体呈现S形状,并存在大范围的近似线性区域;

2)中间线性区过渡点可调整,且过渡点的切线斜率可调整;

3)在低值区域函数值很小或近似为0且呈现下凹特性,在高值区域近似满幅且呈现上凸特性。

引入Naka-Rushton(NR)拟合函数如图2所示,一是因为NR函数曲线图形为S型;二是因为该函数满足上述3条约束。如图2(a)所示,该函数可分为3段区间,即低值区,线性区和满幅区。低值区幅值可近似为0,在这段区域内,是靠近采集设备区域;满幅值区间是灰度值最高的区间,是无穷远端或天空光区域(满足约束条件3));函数存在大范围线性区,且线性区范围和斜率可根据需要调整(满足约束条件1),2))。基于上述2点原因,采用NR函数拟合标准图集GPDR散点图估计视场雾浓度。

图2  NR拟合曲线

Fig. 2  Fitting curves of NR

Naka-Rushton(NR)函数形如

Y(x)=Ymaxxnxn+kn (7)

式中:Ymax,n,k为NR函数参数,Ymax为NR函数上界;k可实现对凹凸过渡点的调整;n为速降因子,用于调整凹凸的幅[

9]。当用NR函数拟合散点图时,不同雾浓度可计算出不同的n,k值。如果通过回归分析法计算出n,k,也就确定了当前雾图像对应的视场雾浓度大小,即一个(n,k)对应一个视场浓度,不同(n,k)对应不同的雾浓度(如图2(b)所示),图2(b)x轴为图像灰度级,y轴为归一化广义灰度差-比(GPDR),其中的蓝、黑、绿、红色曲线表示在保持k为定值时,改变n值为2.5,3,5,7时的NR曲线,由图可知随着n值的增大,曲线的过渡区域增加,上凸和下凹的幅度增大。

若将式(7)等号两边同除xn,有

Y=Ymax11+(kx)n (8)

变形后

(kx)n=(Ymax-YY) (9)

将等号两边取对数

n^=log(Y^max-Y^Y^)log(k^x) (10)

式(10)中,Y^maxY^分别为散点图中灰度样本值,该样本值可从散点图中直接获得,若将样本值代入式(10)即可估计出参数(n^,k^)

2.2 Naka-Rushton拟合函数的改进

根据式(1)估计出的(n,k)值对应的拟合NR函数与散点区在局部上有时会存在较大偏差,主要表现在2个方面:①当灰度x<k时,呈下凹特性;当x>k时呈现上凸特性。因为,x是在灰度[0,255]范围内变化,导致曲线下凹和上凸的变化趋势过快,这不符合视场雾浓度的变化规律;②如果Ymax取图像像素的最大差值,将导致GPDR值整体偏高,需要对Naka-Rushton函数作以改进。对于问题①,改进如下

Y(x)=Ymaxxn(x2)n+kn45<x90,Y(x)=Ymaxxnxn+kn91<x200,Y(x)=Ymaxxn(2x)n+kn,200<x<245, (11)

改进方法如式(11)所示,将整个灰度区域[0,255]分为3段区间,分别为:低值区x[45,90]、近似线性区x(90,200]和高值区x(200,245],如式(11)所示在低值区将分母中的x变为x/2;在近似线性区保持不变;在高值区将x变为2倍。经此改进后在低值区的下凹和高值区的上凸变缓,更符合灰度散点的变化规律。

对于问题②,需要对Ymax根据下式进行补偿。

Y^max=Ymax-ε (12)

式(12)中:Ymax为图像的最大GPDR值点;ε为补偿量,该值需根据当前散点图所处的灰度级范围确定,补偿经验公式如下

ε=50x>21013x<11060xmax(x)110x210 (13)

式(13)中:x为灰度;ε为补偿量,则改进后NR函数为

n^=log((Y^max-ε)-1Y^)log(2k^x)45<x90n^=log(Y^max-1Y^)log(k^x)90<x200n^=log(Y^max-1Y^)log(k^2x)200<x<240 (14)

当确定修正量ε后,可根据式(12)计算最终Y^max,并将Y^max代入公式(14),可实现(n^,k^)参数估计。

图3为改进前后的对比测试结果,红色线为浓度PM2.5=135 μg/m3的散点图,绿色线为改进前拟合生成的NR函数,由图3可知拟合函数GPDR值在低值区下凹处幅值过低,而在高值区上凸处幅值过高,导致这2段拟合误差较大。改进后的拟合曲线为蓝色线,由图3可知,红色线和蓝色线基本重合,表明拟合曲线与散点图具有较高的重合度,消除了下凹处幅值过低和上凸处过高的不足。因此,经过改进的NR函数,符合S型散点图拟合约束要求。

图3  改进NR函数效果

Fig. 3  Result of improving the NR function

3 NR函数雾浓度的参数估计

由Naka-Rushton函数拟合GPDR均值散点图曲线原理可知,拟合的关键是如何确定参数(nk)。由式(14)和参数(nk)通过回归分析法估计出来,即在标准图像散点中选取关键点坐标代入式(14)中,估计参数(nk)。具体步骤如下,流程如图4所示。

图4  参数估计流程

Fig. 4  Flow of parameter estimation

1)计算每个灰度级对应的标准散点的GPDR均值(x,y¯x),x为灰度级,y¯x为灰度级对应的GPDR均值。遍历整个灰度级范围,找到y¯x中最大均值y¯max,将此最大均值按公式(12)(13)进行补偿,得到最大估计Y^max

2)在步骤1)均值坐标(x,y¯x)中确定关键坐标样本点。因为研究采用回归分析法估计参数(nk),则选择代入公式(14)的散点坐标十分重要,如果坐标样本点选择不合适,估计的参数(nk)偏差大,则拟合出的Naka-Rushton函数就不能正确反映视场散点规律,因此,散点样本坐标应该在下凹处、上凸处和过渡点处选取。

3)将步骤1)2)确定的Y^max和散点均值坐标(x,y¯x)分别代入公式(14)计算(nk),进一步计算标准图像集散点拟合NR函数。不同浓度的图集散点对应不同的拟合函数和(n,k),即雾浓度等级与(nk)一一对应,如果将每个浓度所对应的(nk)通过上述方法全部估计出来,可建立一个查找表(如表1所示,表1只给出部分(nk)值),以这个查找表作为尺度衡量真实有雾图像的雾浓度。表1是在标准图像集中选取一定数量的雾图,并将雾图按PM2.5值等间隔分组,间隔值约为0.5,分别计算出每组的(nk)值,建立PM2.5与(nk)查找表。

表1  (n,k)估计与浓度对应表
  Tabble 1 correspondence table of(n,k)estimation and concentration
(n,k)PM2.5/(μg·m-3(n,k)PM2.5/(μg·m-3(n,k)PM2.5/(μg·m-3(n,k)PM2.5/(μg·m-3(n,k)PM2.5/(μg·m-3

(2.0,123)

(2.4,123)

(2.8,123)

1.20

1.84

2.79

(3.2,125)

(3.6,125)

(4.0,125)

3.12

3.85

4.38

(4.4,126)

(4.8,126)

(5.2,126)

4.75

5.28

5.77

(5.6,124)

(6.0,124)

(6.4,124)

6.45

6.93

8.32

(6.8,124)

(7.2,124)

(7.8,124)

8.93

9.81

10.46

4)查找表建立后,可以将查找表作为标尺衡量真实图像雾浓度,步骤如下:

a.参照步骤1)建立真实图像(记为I')有雾和无雾图像GPDR散点图如图1(i)(j)所示;

b.采用回归分析法计算I'的Naka-Rushton拟合曲线,并计算相应的参数估计,记为(n',k')

c.分别计算标准图像集(n,k)和真实图像参数(n',k')的相关系数

ρn=cov(n,n')D(n)D(n') (15)
ρk=cov(k,k')D(k)D(k') (16)

式(15)(16)中,ρ*nk各自的相关系数,cov(*,*')为协方差,D(*)D(*')为标准差;

d.计算综合相关系数ρ

ρ=ωnρn+ωkρk (17)

式(17)ωnωk为权重系数,因为在Naka-Rushton函数中,决定曲线形状的参数n起的作用要大些,所以经实验测试ωn=0.85ωk=0.15

e.建立遍历参照表1搜索进程,搜索综合相关系数ρ大于门限的(nk);

f.查找表1确定当前雾浓度指数。

4 仿真实验

4.1 实验条件

研究实验仿真上位机平台为CPU Intel 酷睿i7内存16 G,独立显卡,64位Microsoft Windows7;测软件:Matlab 2016。选取的测试图像为标准LIVE图像和实际随机采集的雾图,图像大小从400×300~1 024×768不等。

4.2 雾浓度与NR函数相关性测试

为验证基于NR函数拟合能否用于视场雾浓度计算,需要对标准图像NR函数拟合的(nk)与真实图像拟合(n',k')进行相关性测试。研究选择某地连续14 d采集的相同场景不同雾浓度图像作为测试样本,将这14幅采集样本按PM2.5值由低到高的顺序排列(如图5所示[

17⁃18]。以气象预报的PM2.5浓度归一化值为横坐标,将图像按PM2.5由小到大的顺序排列,从左至右从上到下编号1~14。因为视场雾浓度大小在图像上体现在对比度上,以对比度归一化值作为纵坐标。对比度计算公[19⁃20]

C=i=1hmaxj=1vmax[δ(i,j)]2Pδ(i,j) (18)

式(18)中:δ(i, j)=|i-j|,即相邻元素幅度差值;Pδ(i, j)=|i-j|为幅度差值为δ的概率;hmaxvmax为行列最

图5  同场景不同浓度图

Fig. 5  Image of different concentrations for the same scene

测试数据如表2所示,PM2.5和测试结果都是归一化值,若以PM2.5为x轴,对比度值为y轴做散点图,如图6所示。14 d的PM2.5和测试结果整体上呈现线性,经计算二者的综合相关系数可达0.95,说明散点斜率与视场浓度高度相关,因此,算法可以作为视场雾浓度的度量。

表2  相同场景测试值
Table 2  Test value of the same scene
序号1234567891011121314
PM2.5/(μg·m-3 1.25 1.5 1.75 3.4 3.95 4.15 4.3 4.5 6.5 7.1 7.5 8.45 10.1 11.5
本文对比度 2.50 2.6 2.90 3.5 3.80 4.00 4.7 5.7 6.6 7.0 9.0 10.10 12.2 13.7

图6  同场景PM2.5与研究散点

Fig. 6  The scattered plots and PM2.5 in the same scene

4.3 不同场景不同浓度雾测试

为测试算法在不同场景下的检测效果,随机选取了8组不同浓度的场景图像(如图7所示),包括无雾(上排)和有雾(下排)图像,采用研究算法对有雾和无雾图像分别进行计算。从左至右按有雾浓度由小到大顺序排列,分别编号为场景序号1~8,测试浓度(PM2.5)如表3所示。图8中为不同浓度不同场景对比曲线,图8 x轴为场景序号,y轴为PM2.5。无雾图像的测试结果通常较低,浓度值大都在70以下,按PM2.5空气质量标准都在优和良,这一点从无雾图像也能反映出来,图像质量清晰;而有雾图像测试值则随着对比度减小(雾浓度增大)呈递增趋势,因此,实验证明算法对不同浓度、不同场景同样适用。

图7  不同场景雾图

Fig. 7  Foggy image of different scenes

表3  不同场景测试值
Table 3  Test value of different scenes
场景序号12345678

无雾PM2.5/(μg·m-3

有雾PM2.5/(μg·m-3

30

94

65

125

43

132

34

148

23

165

45

185

57

192

35

231

图8  不同场景有雾和无雾对比

Fig. 8  Comparison between fog and fog-free scenes

4.4 横向比较

当前,采用图像处理的方法实现雾浓度检测的途径是基于图像对比度的评价,为更好地评估算法有效性,将对比度评价较好的成果与研究作对比。目前用于对比度或雾浓度评价效果较好的有MSCN[

7]、文献[9]和[15],文献[9]是基于自然统计特性实现雾浓度检测,文献[15]是基于空间距离计算视场雾浓度。为比较时具有共同的衡量尺度,采用图像的MOS(mean opinion scores)[9,13]作为参照标准。MOS法是对比度评价中普遍采用的图像主观评价[9],其值能较为准确反映图像对比度大小,因此,以MOS值作为标准尺度。由于MSCN和文献[15]针对的是图像对比度,在比较时统一化为对比度。

众所周知,不同背景、不同纹理信息对于雾浓度检测结果会产生影响,为消除干扰,保证测试一致性,选用同场景、同光照、同大小不同浓度的雾图作为测试样本,将测试样本从左到右从上到下按浓度由小到大的顺序排列1~14#(如图9所示),分别采用文献[

915]、MSCN及研究方法进行计算,测试结果如图10(a)所示。图10(a)中:x轴为测试样本序号;y轴为测试对比度值;黑色十字星型曲线为标准MOS测试结果;红色星型曲线为文献[15]测试结果;紫色曲虚线为MSCN的测试结果;蓝色点划画线为文献[9]的测试结果;绿色叉实线为测试结果。从图10(a)可知MSCN和文献[15]相比于MOS测试结果相差较大,整个测试时间段内对比度值都小于MOS方法,表明MSCN与文献[15]对比度评价结果相比文献[9]和研究结果要差些;比较研究与文献[9],从整体上看研究波动小些,文献[9]波动范围较大,如1~10幅图,偏离MOS值较大,特别是第10幅达到最大,因此,研究测试结果要优于文献[9]。

图9  同场景不同雾图

Fig. 9  Fog images in the same scene

图10  研究与MSCN等对比

Fig. 10  Comparison between this method and other methods

图10(b)为文献[

9]与研究测量误差对比,x轴为样本序号,y轴为对比误差。为保证一致性,测试样本与文献[9]相同,测试结果为连续14 d某地PM2.5值(以当天天气预报为准)。其中:红色星线为文献[9]的误差;绿色的叉实线为研究的测试误差。由图10(b)可知,文献[9]与研究误差都随着浓度增而有所增加,但各点的误差文献[9]要高于研究结果。在浓度最大时误差也达到最大,研究结果只有4.8%,而文献[9]误差达10%,因此,无论是从检测效果上还是误差上对比,研究都要优于其他方法。

5 结 论

研究提出无雾图像集与有雾图像集灰度差-比散点先验原理,引入NR函数拟合散点图,建立雾浓度查找表,实现视场雾浓度等级评定。仿真实验表明:研究算法测试结果与视场浓度高度相关,相关系数达0.95,通过同场景、不同浓度,不同场景、不同浓度样本测试,及与现有的测试效果较好的MSCN、文献[

9]等对比,误差小于5%,结果表明所提算法能够用于视场雾浓度检测。

研究采用的是基于图像散点斜率先验作为对比度测量,采用有参图像统计估计,使检测误差较大,特别是在高浓度检测中测试精度不能满足要求,在恶劣气象环境中(如雨、雪),检测精度也会受到影响。另外本算法存在的另一个不足是需要同场景的有雾和无雾图像才能解算,上述不足需要进一步研究。

参考文献

1

高涛,刘梦尼,陈婷,.结合暗亮通道先验的远近景融合去雾算法[J]. 西安交通大学学报, 2021, 55(10): 78-86. [百度学术] 

Gao T,Liu M N,Chen T,et al. A far and near scene fusion defogging algorithm based on the prior of dark-light channel[J]. Journal of Xi’an Jiaotong University, 2021, 55(10): 78-86.(in Chinese) [百度学术] 

2

俞任姣,李振华,来建成, .雨雾共存天气1.55μm波长激光动态传输特性[J].中国激光, 2021, 48(13): 153-160. [百度学术] 

Yu R J, Li Z H, Lai J C, et al. Dynamic propagation characteristics of 1.55-μm wavelength laser in rain and fog coexisting weather[J]. Chinese Journal of Lasers, 2021, 48(13): 153-160. (in Chinese) [百度学术] 

3

王亚平,周裕丰,张宝华.基于去雾增强和张量恢复的红外小目标检测[J].红外与激光工程, 2022, 51(4): 429-437. [百度学术] 

Wang Y P, Zhou Y F, Zhang B H. Infrared small target detection based on dehazing enhancement and tensor recovery[J]. Infrared and Laser Engineering, 2022, 51(4): 429-437.(in Chinese) [百度学术] 

4

Mittal A, Moorthy A K, Bovik A C. No-reference image quality assessment in the spatial domain[J].IEEE Transactions on Image Processing, 2012, 21(12): 4695-4708. [百度学术] 

5

温立民,巨永锋,闫茂德.基于自然统计特征分布的交通图像雾浓度检测[J].电子学报, 2017, 45(8): 1888-1895. [百度学术] 

Wen L M, Ju Y F, Yan M D. Inspection of fog density for traffic image based on distribution characteristics of natural statistics[J]. Acta Electronica Sinica, 2017, 45(8): 1888-1895. (in Chinese) [百度学术] 

6

Cui G G, Tang L Y, Liu M Q, et al. Quantitative response of subjective visual recognition to fog concentration attenuation based on image standard deviation[J]. Optik, 2021,232: 166446. [百度学术] 

7

李春明,姜雨彤,宋海平,.基于光学厚度代理模型的雾浓度估计及图像去雾[J].兵工学报, 2019, 40(7): 1425-1433. [百度学术] 

Li C M, Jiang Y T, Song H P, et al. Research on optical depth surrogate model-based method for estimating fog density and removing fog effect from images[J]. Acta Armamentarii, 2019, 40(7): 1425-1433. (in Chinese) [百度学术] 

8

Guo H, Wang X C, Li H J. Density estimation of fog in image based on dark channel prior[J]. Atmosphere,2022, 13(5): 710. [百度学术] 

9

Ling Z G, Gong J W, Fan G L, et al. Optimal transmission estimation via fog density perception for efficient single image defogging[J]. IEEE Transactions on Multimedia, 2018, 20(7): 1699-1711. [百度学术] 

10

Jiang Y T, Sun C M, Zhao Y, et al. Fog density estimation and image defogging based on surrogate modeling for optical depth[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3397-3409. [百度学术] 

11

Duminil A, Tarel J P, Brémond R. Single image atmospheric veil removal using new priors for better genericity[J]. Atmosphere, 2021, 12(6): 772. [百度学术] 

12

Liu D, Sun J F, Gao S, et al.Single-parameter estimation construction algorithm for Gm-APD ladar imaging through fog[J]. Optics Communications, 2021, 482: 126558. [百度学术] 

13

Wang T, Zhao L, Huang P C, et al. Haze concentration adaptive network for image dehazing[J]. Neurocomputing, 2021, 439: 75-85. [百度学术] 

14

贾之娟.激光在雾环境下的传输衰减特性研究[D].西安:西安理工大学,2021. [百度学术] 

Jia Z J.Study on transmission attenuation characteristics of laser in fog environment[D].Xi’an: Xi’an University of Technology,2021.(in Chinese) [百度学术] 

15

陈勇, 帅锋, 樊强. 基于自然统计特征分布的无参考图像质量评价[J]. 电子与信息学报, 2016, 38(7): 1645-1653. [百度学术] 

Chen Y, Shuai F, Fan Q. A No-reference image quality assessment based on distribution characteristics of natural statistics[J]. Journal of Electronics & Information Technology, 2016, 38(7): 1645-1653. (in Chinese) [百度学术] 

16

Narasimhan S G, Nayar S K. Contrast restoration of weather degraded images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(6): 713-724. [百度学术] 

17

Hautière N,Tarel J P,Halmaoui H,et al.Enhanced fog detection and free-space segmentation for car navigation[J].Machine Vision and Applications,2014,25(3):667-679. [百度学术] 

18

付晓薇, 代芸, 陈黎, . 基于局部熵的量子衍生医学超声图像去斑[J]. 电子与信息学报, 2015, 37(3): 560-566. [百度学术] 

Fu X W, Dai Y, Chen L, et al. Quantum-inspired despeckling of medical ultrasound images based on local entropy[J]. Journal of Electronics & Information Technology, 2015, 37(3): 560-566. (in Chinese) [百度学术] 

19

Wang C J, Zhang Q Y, Sun Y, et al. A new numerical correction method for gamma spectra based on the system transformation theory of random signals[J]. Applied Radiation and Isotopes, 2021, 172: 109671. [百度学术] 

20

杨爱萍, 杨苏辉, 田鑫, . 基于统计特性和亮度估计的夜晚图像去雾[J].天津大学学报, 2018, 51(3): 299-307. [百度学术] 

Yang A P, Yang S H, Tian X, et al. Nighttime image fog removal based on statistical properties and intensity estimation[J]. Journal of Tianjin University (Science and Technology), 2018, 51(3): 299-307. (in Chinese) [百度学术]