CN106709888B - 一种基于人眼视觉模型的高动态范围图像产生方法 - Google Patents
一种基于人眼视觉模型的高动态范围图像产生方法 Download PDFInfo
- Publication number
- CN106709888B CN106709888B CN201710012948.2A CN201710012948A CN106709888B CN 106709888 B CN106709888 B CN 106709888B CN 201710012948 A CN201710012948 A CN 201710012948A CN 106709888 B CN106709888 B CN 106709888B
- Authority
- CN
- China
- Prior art keywords
- image
- dynamic range
- high dynamic
- brightness
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于人眼视觉模型的高动态范围图像产生方法,首先将低动态范围图像分解为亮度图像和色度图像,对亮度图像进行双边滤波得到像素点的局部亮度图像,并计算出对应的高动态范围局部亮度图像;然后,根据局部人眼视觉感知模型对低动态范围图像的亮度图像及高动态范围局部亮度图像进行处理,得到高动态范围图像的亮度图像;最后,将获得的高动态范围亮度图像和低动态范围图像的色度图像合并产生高动态范围图像。本发明通过人眼视觉系统成像的逆过程即构建的局部人眼视觉感知模型来获得高质量的高动态范围图像,同时利用各像素点周边的局部亮度信息对像素亮度扩展的局部处理,从而解决现有方法引入细节伪像或轮廓效应的问题。
Description
技术领域
本发明属于图像处理技术领域,更为具体地讲,涉及一种基于人眼视觉模型的高动态范围图像产生方法。
背景技术
由于高动态范围图像能更好地表示实际场景的真实色彩范围,近年来受到了图像处理相关领域的高度关注。与之相对应的高动态范围显示设备,由于其能够提供更宽的动态范围及更优质的画面,也受到了研究人员的青睐。高动态范围显示设备已经在一些研究机构和实验室使用,虽然现在还没有普及,但是它是下一代显示设备的发展趋势。高动态范围显示设备的出现以及高动态范围图像的优越性能,引发了研究人员对从目前普及的单帧低动态范围图像获取高动态范围图像,即基于单帧图像的高动态范围图像获取技术的研究。
现有的单帧图像的高动态范围图像产生方法可以分为两类,一类是全局变换,另一类是局部变换。
全局变换是对一帧图像中的所有像素采用同一个变换函数,不考虑图像的局部特性。全局变换大多要求低动态范围图像是曝光均匀的高质量图像,而在实际应用中,由于成像设备和真实场景的动态范围差别以及成像过程中的环境光照条件等因素的影响,往往会导致图像中无法避免地存在过曝光区域以及欠曝光区域。因此,全局变换方法的适用范围有限。
局部变换是针对图像中不同区域采用不同的变换函数。局部变换对图像中的不同曝光、纹理区域采用不同的变换函数,虽然考虑了图像的局部特性,但是带来了两个问题:一、由于采用不同的变换函数,使得局部区域与其周围交接的边缘看起来不连续,会导致轮廓效应的出现;二、这种分区处理的方式会使得整个技术实现的复杂度增加,同时可能带来令人讨厌的伪像,使得动态范围扩展后的图像质量有可能比原图像的质量还要差。
为了解决全局变换和局部变换存在的问题,需要研究一种既能考虑图像中不同区域特性信息,又能用同一个数学模型对整个图像处理的方法,在获得高质量动态范围图像的同时,避免轮廓效应以及伪像,并减少技术实现的复杂度。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于人眼视觉模型的高动态范围图像产生方法,在获得高质量的高动态范围图像的同时,避免轮廓效应以及伪像,并减少技术实现的复杂度。
为实现上述发明目的,本发明基于人眼视觉模型的高动态范围图像产生方法,其特征在于,包括以下步骤:
(1)、图像分解
将输入的低动态范围图像Il进行分解,得到亮度图像Ll以及色度图像Il/Ll;
(2)、获取低动态范围局部亮度图像Ls,l
对亮度图像Ll进行迭代双边滤波后得到低动态范围局部亮度图像Ls,l;
(3)、获取高动态范围局部亮度图像Ls,h
对低动态范围局部亮度图像Ls,l进行以下计算,得到高动态范围局部亮度图像Ls,h:
Ls,h=Ls,l*Lmax,h/255 (1);
其中,Lmax,h为高动态范围图像Ih的最大亮度值,根据高动态范围显示器的最大亮度值确定;
(4)、获取高动态范围亮度图像Lh
通过以下局部视觉感知模型,获得高动态范围亮度图像Lh:
其中,Lmax,l为低动态范围图像Il的最大亮度值,n是依赖于捕捉图像时的测试闪光时间的参数,n的取值在0.7(长测试闪光)到1(短测试闪光)之间,参数σ根据以下公式计算:
σ=σl*Lmax,h/255 (3);
其中:
其中,N为低动态范围亮度图像Ll的像素点个数,L(x,y)为低动态范围亮度图像Ll中位于(x,y)位置像素点的亮度值,θ为一个大于0.1小于1的正数;
(5)、合并获取高动态范围图像Ih
根据以下公式对高动态范围亮度图像Lh与色度图像Il/Ll进行合并,得到高动态范围图像Ih:
本发明的目的是这样实现的。
本发明基于人眼视觉模型的高动态范围图像产生方法,首先将低动态范围图像分解为亮度图像和色度图像,对亮度图像进行双边滤波得到像素点的局部亮度图像,并计算出对应的高动态范围局部亮度图像;然后,根据局部人眼视觉感知模型对低动态范围图像的亮度图像及高动态范围局部亮度图像进行处理,得到高动态范围图像的亮度图像;最后,将获得的高动态范围亮度图像和低动态范围图像的色度图像合并产生高动态范围图像。本发明通过人眼视觉系统成像的逆过程即构建的局部人眼视觉感知模型来恢复更接近自然场景的亮度信息,获得高质量的高动态范围图像,同时利用各像素点周边的局部亮度信息对象素亮度扩展的局部处理,从而解决现有局部变换的高动态范围图像生成方法带来的细节伪像或轮廓效应问题。
附图说明
图1是本发明基于人眼视觉模型的高动态范围图像产生方法一种具体实施方式流程框图;
图2是图1所示的迭代双边滤波实验测试结果图。
图3是本发明中输入的低动态范围图像与生成的高动态范围图像的对照图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
图1是本发明基于人眼视觉模型的高动态范围图像产生方法一种具体实施方式流程框图。
在本实施例中,如图1所示,本发明基于人眼视觉模型的高动态范围图像产生方法包括以下步骤:
步骤S1:图像分解
本发明中,如图1所示,对低动态范围图像的处理是基于图像亮度进行的,因此,首先先将输入的低动态范围图像Il分解为亮度图像Ll以及色度图像Il/Ll。
步骤S2:获取低动态范围局部亮度图像Ls,l
对亮度图像Ll进行迭代双边滤波后得到低动态范围局部亮度图像Ls,l,这样获取每个象素点的局部亮度信息。本发明采用迭代双边滤波算法获取低动态范围局部亮度图像Ls,l,该算法能够有效地平滑图像并且保持边缘的完整性。具体来讲第j次迭代输出的像素点q的局部亮度信息如式(4):
其中,和为像素点q的0阶和j阶迭代值,初始值为亮度图像Ll在像素点q的像素值Ll,q,p为亮度图像Ll中像素点q以外任意一个像素点,Ω为亮度图像Ll中像素点q以外所有像素点的集合,σm是高斯函数的标准差,高斯函数表达式如式(8),为像素点q的归一化权值,如公式(9)所示。
迭代双边滤波为现有技术,在此不再赘述。此外,也可以采用其他现有的方法对亮度图像Ll进行处理,获得低动态范围局部亮度图像Ls,l。
在具体实施过程中,进行了两次迭代,像素点q的局部亮度信息为:
在本实施例中,通过求解得到实验测试结果如图2所示,其中,图2(a)为输入的低动态范围图像Il,图2(b)为分解得到的亮度图像Ll,图2(c)为经过迭代双边滤波处理的低动态范围局部亮度图像Ls,l。
步骤S3:获取高动态范围局部亮度图像Ls,h
由于已知信息为低动态范围局部亮度图像Ls,l,因此,在实际实施过程中,我们假设低动态范围图像的最大亮度值255将会映射到高动态范围图像的最大亮度值Lmax,h。这样对低动态范围局部亮度图像Ls,l按照公式(1)进行计算,就可以得到高动态范围局部亮度图像Ls,h,具体为:
Ls,h=Ls,l*Lmax,h/255
其中,Lmax,h为高动态范围图像Ih的最大亮度值,根据高动态范围显示器的最大亮度值确定,通常取为3000cd/m2。
步骤S4:获取高动态范围亮度图像Lh
本发明通过人眼视觉系统成像的逆过程即构建的局部人眼视觉感知模型来恢复更接近自然场景的亮度信息。
当空间独立的光脉冲照射到整个眼睛时,视网膜先产生一个大幅度的响应信号,然后衰减到一个较低的稳定区域。这意味着视网膜首先适应某一个亮度值,然后在这个亮度值附近的较小动态范围内感知图像。因此,视觉系统是以对整个场景进行全局色调映射为基础。这个全局色调映射函数被定义为视网膜响应和激励光强度之间的关系,如下:
其中R表示视网膜响应,Rmax表示最大响应,I表示光强度,σ表示全局自适应尺度,它代表产生二分之一最大响应所需的光强度。参数n为灵敏度控制因子。已经证明,绝对亮度信息对视觉系统响应的影响是次要的,往往在视觉处理早期阶段根据亮度恒定机制已经被大幅度地丢弃。而大量的场景信息是通过局部对比度来传递的。因此,用局部色调映射模型来描述视觉响应模型更为合理。
实验证明,在人眼视觉的整个感知过程中,局部对比度起主要作用。因此,用局部色调映射来描述视觉感知模型更为合理。本发明通过改变全局自适应尺度σ,使其取值依赖于像素点的局部亮度信息,来构建局部视觉感知模型。即:
其中Ip表示像素点p的光强度,Δσp是随空间位置而变的微小值。
如果我们将(σ+Δσp)n项展开为σn+nσn-1(Δσp)+nσ(Δσp)n-1+...+(Δσp)n,且用替换第二项到最后一项的和,则有:
此时用表示全局自适应尺度σ的偏移,它可以通过象素点的强度和其局部范围的像素强度之差来获得。即,带入公式(13)即可得到局部人眼视觉感知模型,用Ip和Is,p分别表示像素点p的光强度及其局部像素光强度,则局部感知模型可以表示为:
由于通常图像动态范围扩展只对图像的亮度信息进行,本发明将局部人眼视觉感知模型作用于图像的亮度通道,可以得到:
其中,Ll和Lh分别为低动态范围图像和高动态范围图像的亮度图像。
依据公式(15),可以得到本发明的局部视觉感知模型即公式(2),从而高动态范围图像亮度Lh:
公式(2)中,Ll和Lmax,l可以从低动态范围图像Il中获取,即步骤(1)获得;Ls,h通过步骤(2)、(3)获得,这样只需设定参数n,σ即可。
参数n是依赖于捕捉图像时的测试闪光时间的一个参数,一般情况下n的取值在0.7(长测试闪光)到1(短测试闪光)之间。通过大量实验测试n取值从0.7向1逐渐靠近,我们发现n=0.86是较为理想的值,可以适用于长测试闪光到短测试闪光的各种情形。
参数σ根据以下公式计算:
σ=σl*Lmax,h/255
其中:
其中,N为低动态范围亮度图像Ll的像素点个数,L(x,y)为低动态范围亮度图像Ll中位于(x,y)位置像素点的亮度值,θ为一个大于0.1小于1的正数,其目的是防止出现像素点亮度值为0无法进行计算,表示低动态范围亮度图像Ll中所有像素点进行累加。
步骤S3:合并获取高动态范围图像Ih
在对图像亮度信息进行动态范围扩展之后,将扩展后的亮度信息和原色度信息进行融合生成高动态范围图像,即根据以下公式(5)对高动态范围亮度图像Lh与色度图像Il/Ll进行合并,得到高动态范围图像Ih:
在本实施例中,我们采用了一组图像集进行实验,这里只列出对其中一小部分实验图像的处理结果。我们将所得的高动态范围图像进行色调映射后进行显示。图3中第一行为输入的低动态范围图像即测试图像,第二行为生成的高动态范围图像,其中(a)~(e)分别为夕阳、楼、海、地下室、教堂的图像,从图3,我们可以看出,本发明获得了高质量的高动态范围图像。
与此同时,采用一个图像质量评价软件对图3中低动态范围图像以及对其进行动态范围扩展后得到即依据本发明生成的高动态范围图像进行评价,在评价过程中,该软件生成了只包含红、绿、蓝的图像,这样方便分别对输入的低动态范围图像以及生成的的高动态范围图像进行统计,得到红、绿、蓝像素发生变化的比例,从而得出本发明对测试图像在处理过程中带来的对比度反转(红色像素百分比)、对比度丢失(绿色像素百分比)以及对比度增强(蓝色像素百分比)的情况。
在本实施例中,评价结果如表1所示。
表1
从表1中我们可以看出,本发明基于人眼视觉模型的高动态范围图像产生方法,在进行图像处理过程中导致的使图像降质的对比度翻转和对比度丢失的比例都很小,一百个像素里面最多只有几个像素会出现对比度翻转或者丢失,因此不容易被人眼发觉;而带来的对比度增强的像素比例很大,一百个像素里面会有几十个甚至达到六十个以上的像素的对比度被增强,因此,本发明获得了高质量的高动态范围图像。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (2)
1.一种基于人眼视觉模型的高动态范围图像产生方法,其特征在于,包括以下步骤:
(1)、图像分解
将输入的低动态范围图像Il进行分解,得到亮度图像Ll以及色度图像Il/Ll;
(2)、获取低动态范围局部亮度图像Ls,l
对亮度图像Ll进行迭代双边滤波后得到低动态范围局部亮度图像Ls,l;
(3)、获取高动态范围局部亮度图像Ls,h
对低动态范围局部亮度图像Ls,l进行以下计算,得到高动态范围局部亮度图像Ls,h:
Ls,h=Ls,l*Lmax,h/255 (1);
其中,Lmax,h为高动态范围图像Ih的最大亮度值,根据高动态范围显示器的最大亮度值确定;
(4)、获取高动态范围亮度图像Lh
通过以下局部视觉感知模型,获得高动态范围亮度图像Lh:
其中,Lmax,l为低动态范围图像Il的最大亮度值,n是依赖于捕捉图像时的测试闪光时间的参数,n的取值在0.7到1之间,参数σ根据以下公式计算:
σ=σl*Lmax,h/255 (3);
其中:
其中,N为低动态范围亮度图像Ll的像素点个数,L(x,y)为低动态范围亮度图像Ll中位于(x,y)位置像素点的亮度值,θ为一个大于0.1小于1的正数;
(5)、合并获取高动态范围图像Ih
根据以下公式对高动态范围亮度图像Lh与色度图像Il/Ll进行合并,得到高动态范围图像Ih:
2.根据权利要求1所述的高动态范围图像产生方法,其特征在于,所述参数n的取值为0.86。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710012948.2A CN106709888B (zh) | 2017-01-09 | 2017-01-09 | 一种基于人眼视觉模型的高动态范围图像产生方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710012948.2A CN106709888B (zh) | 2017-01-09 | 2017-01-09 | 一种基于人眼视觉模型的高动态范围图像产生方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106709888A CN106709888A (zh) | 2017-05-24 |
CN106709888B true CN106709888B (zh) | 2019-09-24 |
Family
ID=58907077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710012948.2A Active CN106709888B (zh) | 2017-01-09 | 2017-01-09 | 一种基于人眼视觉模型的高动态范围图像产生方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106709888B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451970A (zh) * | 2017-07-28 | 2017-12-08 | 电子科技大学 | 一种基于单帧图像的高动态范围图像生成方法 |
CN109785263B (zh) * | 2019-01-14 | 2022-09-16 | 北京大学深圳研究生院 | 一种基于Retinex的逆色调映射图像转换方法 |
CN111311524B (zh) * | 2020-03-27 | 2023-04-18 | 电子科技大学 | 一种基于msr的高动态范围视频生成方法 |
CN112785504B (zh) * | 2021-02-23 | 2022-12-23 | 深圳市来科计算机科技有限公司 | 一种昼夜图像融合的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901475A (zh) * | 2010-06-12 | 2010-12-01 | 北京理工大学 | 基于视网膜自适应模型的高动态范围图像色调映射方法 |
CN102722868A (zh) * | 2012-05-23 | 2012-10-10 | 西安理工大学 | 一种高动态范围图像色调映射方法 |
CN103400342A (zh) * | 2013-07-04 | 2013-11-20 | 西安电子科技大学 | 基于混合色阶映射及压缩系数的高动态范围图像重构方法 |
CN104408752A (zh) * | 2014-12-11 | 2015-03-11 | 西安电子科技大学 | 一种基于混合色调映射算法的高动态范围图像压缩方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885978B2 (en) * | 2010-07-05 | 2014-11-11 | Apple Inc. | Operating a device to capture high dynamic range images |
-
2017
- 2017-01-09 CN CN201710012948.2A patent/CN106709888B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901475A (zh) * | 2010-06-12 | 2010-12-01 | 北京理工大学 | 基于视网膜自适应模型的高动态范围图像色调映射方法 |
CN102722868A (zh) * | 2012-05-23 | 2012-10-10 | 西安理工大学 | 一种高动态范围图像色调映射方法 |
CN103400342A (zh) * | 2013-07-04 | 2013-11-20 | 西安电子科技大学 | 基于混合色阶映射及压缩系数的高动态范围图像重构方法 |
CN104408752A (zh) * | 2014-12-11 | 2015-03-11 | 西安电子科技大学 | 一种基于混合色调映射算法的高动态范围图像压缩方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106709888A (zh) | 2017-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110047051B (zh) | 一种非均匀照明彩色图像增强方法 | |
CN104408752B (zh) | 一种基于混合色调映射算法的高动态范围图像压缩方法 | |
CN105279746B (zh) | 一种基于双边滤波的多曝光图像融合方法 | |
CN103593830B (zh) | 一种低照度视频图像增强方法 | |
CN105046663B (zh) | 一种模拟人类视觉感知的自适应低照度图像增强方法 | |
WO2016206087A1 (zh) | 一种低照度图像处理方法和装置 | |
CN110428379B (zh) | 一种图像灰度增强方法及系统 | |
WO2014169579A1 (zh) | 一种色彩增强方法及装置 | |
CN103714520B (zh) | 基于fpga实现数字视频图像增强系统及其方法 | |
CN107045715A (zh) | 一种单幅低动态范围图像生成高动态范围图像的方法 | |
TWI520101B (zh) | 美化影像中人體膚色的方法、美化影像中人體膚色的裝置、調整影像中人體膚色亮度的方法及調整影像中人體膚色亮度的裝置 | |
CN106709888B (zh) | 一种基于人眼视觉模型的高动态范围图像产生方法 | |
CN103886565B (zh) | 基于目的性优化及直方图均衡化的夜间彩色图像增强方法 | |
CN106897981A (zh) | 一种基于引导滤波的低照度图像增强方法 | |
CN103400342A (zh) | 基于混合色阶映射及压缩系数的高动态范围图像重构方法 | |
CN104240194A (zh) | 一种基于抛物线函数的低照度图像增强算法 | |
CN104700365B (zh) | 一种图像对比度增强方法 | |
CN111311524A (zh) | 一种基于msr的高动态范围视频生成方法 | |
CN107895350B (zh) | 一种基于自适应双伽玛变换的hdr图像生成方法 | |
CN107437239A (zh) | 一种图像增强方法和装置 | |
CN107392879B (zh) | 一种基于参考帧的低照度监控图像增强方法 | |
CN111105359A (zh) | 一种高动态范围图像的色调映射方法 | |
US11089234B2 (en) | Systems and methods of image enhancement | |
JP2016171445A (ja) | 画像処理装置および画像処理方法 | |
CN110807735A (zh) | 图像处理方法、装置、终端设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |