CN102289795B - 基于融合思想的视频时空联合增强方法 - Google Patents
基于融合思想的视频时空联合增强方法 Download PDFInfo
- Publication number
- CN102289795B CN102289795B CN 201110215674 CN201110215674A CN102289795B CN 102289795 B CN102289795 B CN 102289795B CN 201110215674 CN201110215674 CN 201110215674 CN 201110215674 A CN201110215674 A CN 201110215674A CN 102289795 B CN102289795 B CN 102289795B
- Authority
- CN
- China
- Prior art keywords
- sigma
- alpha
- interest
- center dot
- fuse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于融合思想的视频时空联合增强方法,首先通过学习的方法得到理想图像的特征信息,再利用融合的思想,结合分段拟合、最优化等方法,将原本针对不同方面增强的多个映射函数融合为一个全局映射函数,从而对原视频序列在空域和时域两方面同时进行增强。通过调查打分的试验方式得到,本发明对视频序列的增强效果要优于现有的增强方法。
Description
技术领域
本发明涉及图像处理技术领域的方法,具体地涉及一种基于融合思想的视频时空联合增强方法。
背景技术
随着互联网和多媒体通信设备的快速发展,视频服务的应用越来越广泛。在实际应用中,一方面视频本身受光照条件、曝光程度等条件的影响,其质量难以保证;另一方面视频在传输、存储过程中受传输带宽、存储容量等方面的限制,其质量还可能会下降。因此,视频增强是保证高质量视频服务的主要方法,在实际应用中至关重要。视频增强的方法可以从多个不同的角度对视频质量予以提高。这些方法大致可以分为两类:空域增强和时域增强。空域增强是针对视频序列的每一帧分别进行增强,而时域增强是在不同帧之间进行增强,主要目的是使帧与帧之间具有较强的连续性。现有方法主要针对上述两种增强类型中的一种,很难使视频的空域质量和时域连续性同时得到增强。有些方法在对某一领域进行增强时,还可能破坏视频在另一领域的质量。在这种情况下,如果能够结合视频序列在空域和时域中的不同特征,从而对两个领域同时增强,则可以使视频增强方法的效果显著提高。
经过对现有技术的文献检索发现,Z. Liu等人在2007年“IEEE International Conference on Multimedia and Expo”(国际电子电气工程师协会国际多媒体会议暨博览会)第1035至第1038页上发表的“Learning-Based Perceptual Image Quality Improvement for Video Conferencing”(用于视频会议的基于学习的图像增强)文章中提出了一种基于学习的空域图像增强方法。该方法先利用一组已有的图像事先训练出质量较好的视频的特征信息,然后再待增强的视频中选定人脸区域,针对该区域,Liu建立了一种映射关系使待增强的视频的特征信息尽可能地接近训练得到的特征信息,并将这种映射关系作用于全局,从而达到增强效果。该方法仅能针对图像中的某一特定兴趣区域的特征进行增强,可能会使图像中其它一些兴趣区域的质量下降。基于一种融合的思想,可以提出一种针对两个兴趣区域的空域增强方法。同时将这一思想扩展到时域上,可以得到一种时空联合增强的视频增强方法。
发明内容
本发明针对现有方法存在的上述不足,提出了一种基于融合思想的视频时空联合增强方法。所述方法可以同时对视频序列的空域质量和时域连续性进行增强,在选定兴趣区域时可以处理两个兴趣区域的情况。
根据本发明的一个方面,提供一种基于融合思想的视频时空联合增强方法,其特征在于,包括如下步骤:第一步:选定视频中的兴趣区域,对各所述兴趣区域分别进行训练,得到各个兴趣区域理想图像的特征,其中,所述兴趣区域是指:在特定的场景下,图像中包含关键信息的区域;第二步:对当前帧图像进行预处理,通过映射函数f(x)使当前帧图像的像素平均值与前一帧图像的像素平均值相一致;第三步:对当前帧图像中各所述兴趣区域的像素平均值进行比较,若满足选择标准,就利用基于分段的融合方法得到相应的空域增强映射关系;若不满足选择标准,则利用基于参数的融合方法得到相应的空域增强映射关系;第四步:对当前帧的空域增强映射关系和前一帧的空域增强映射关系进行融合,通过比较两帧图像的熵值来确定两种映射关系在融合过程中的权重。
优选地,在所述第一步中,对各所述兴趣区域分别进行训练的方法,是以图像三个颜色通道的直方图的均值m和方差σ作为特征进行类聚,将类聚得到的特征向量作为理想的特征。
优选地,在所述第二步中,所述映射函数f(x)是指:
其中,a和b可由f(L)=L’及f(255)=255两式联合求得,L指代原图像的像素平均值,L ’ 指代期望的像素平均值,L ’ 可由下式求得:
其中,Lavg_past指代前一帧平均的像素平均值,β用来平衡L和Lavg_past的权重。
优选地,在所述第三步中,所述选择标准是指:两个所述兴趣区域的像素平均值之差若在一给定范围内,即认为满足标准,在范围之外即不满足标准。
优选地,在所述第三步中,所述基于分段的融合方法是指:构造一个函数ffuse,j(x),根据两个所述兴趣区域的像素平均值,将所述函数ffuse,j(x)分为两段,使其在第一段中的直方图更接近第一个所述兴趣区域的理想直方图,在第二段中的直方图更接近第二个所述兴趣区域的理想直方图,同时保证所述函数ffuse,j(x)的平滑性。
优选地,所述函数ffuse,j(x)由下式表示:
其中,P c 可由下式求得:
其中,mRA,j 和mRB,j 分别指代两个所述兴趣区域的像素平均值,σRA,j和σRB,j分别指代两个所述兴趣区域的像素方差,nA和nB分别指代两个所述兴趣区域像素值重叠的部分相对于其像素方差的比值,
为使ffuse,j(x)满足上述特性,需要添加以下几个限制条件:
为使所述函数ffuse,j(x)满足上述特性,需要添加以下几个限制条件:
其中,fA,j(x)和fB,j(x)是两个所述兴趣区域待融合的映射函数;
K3的值取决于fA,j(Pc)和 fB,j(Pc)的大小;
条件3:
。
优选地,参数α=3,k1=0.9,k2=0.5;如果fA,j(Pc)> fB,j(Pc),k3=0.5,如果fA,j(Pc)<fB,j(Pc),k3=1.5;k4=0.1。
优选地,在所述第三步中,所述基于参数的融合方法是指:
优选地,在所述第四步中,所述融合的方法如下式所示:
其中fpre(x)是前一帧图像对应的融合后的映射函数。λEA可由下式得到:
其中,p(k)是图像直方图中灰度值为k所对应的值。
优选地,在所述第二步中,β=1.5。
与现有技术相比,本发明的优点主要体现在三个方面:
1、 本发明将视频的空域增强和时域增强结合在一起,同时对两方面予以增强;
2、 本发明是对Liu的方法的一个重要扩展。本方法可以处理图像中包含两个兴趣区域的情景,应用的范围较为广泛;
3、 现有的一些方法将图像分割为多个区域分别增强,已达到更好的效果,但现有的分割方法分割的精确度有限,往往会产生虚假的边缘。本发明最终对图像进行变换的操作是一个针对全局图像的变换,不会产生虚假边缘,更具实用性。
附图说明
图1是本发明方法的流程图;
图2是基于分段的融合方法对映射函数融合的示意图。
具体实施方式
下面对本发明的实施例作详细说明,各实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
在本发明的一个实施例中,如图1所示,所述时空联合进行视频增强的方法包括如下步骤:
第一步:选定视频中的兴趣区域,对各所述兴趣区域分别进行训练,从而得到各个兴趣区域理想图像的特征,其中,所述兴趣区域是指:在特定的场景下,图像中包含关键信息的区域,例如在视频会议中,所述兴趣区域往往是指人脸部分和用于讲解的屏幕等。
用于训练的图像集须事先手动选定。对各所述兴趣区域分别进行训练的方法,是以图像三个颜色通道的直方图的均值m和方差σ作为特征进行类聚,将类聚得到的特征向量作为理想的特征。
第二步:对当前帧图像进行预处理,通过映射函数f(x)使当前帧图像的像素平均值与前一帧图像的像素平均值相一致,其中,所述映射函数f(x)是指:
其中,a和b可由f(L)=L’及f(255)=255两式联合求得,L指代原图像的像素平均值,L ’ 指代期望的像素平均值,L ’ 可由下式求得:
其中,Lavg_past指代前一帧平均的像素平均值,β用来平衡L和Lavg_past的权重。
在本实施例的一个优选例中,β=1.5。所述第二步使得当前帧图像在平均意义上与之前的一帧图像相接近,便于接下来进一步增强视频的时间连续性。
第三步:对当前帧图像中各所述兴趣区域的像素平均值进行比较,若满足选择标准,就利用基于分段的融合方法得到相应的空域增强映射关系;若不满足选择标准,则利用基于参数的融合方法得到相应的空域增强映射关系。
其中,所述选择标准是指:两个所述兴趣区域的像素平均值之差若在一给定范围内,即认为满足标准,在范围之外即不满足标准。
所述基于分段的融合方法是指:构造一个函数ffuse,j(x),根据两个所述兴趣区域的像素平均值,将所述函数ffuse,j(x)分为两段,使其在第一段中的直方图更接近第一个所述兴趣区域的理想直方图,在第二段中的直方图更接近第二个所述兴趣区域的理想直方图,同时保证所述函数ffuse,j(x)的平滑性。具体可由下式表示:
其中,P c 可由下式求得:
其中,mRA,j 和mRB,j 分别指代两个所述兴趣区域的像素平均值,σRA,j和σRB,j分别指代两个所述兴趣区域的像素方差,nA和nB分别指代两个所述兴趣区域像素值重叠的部分相对于其像素方差的比值。参数α在本实施例的一个优选例中取值为3。
为使所述函数ffuse,j(x)满足上述特性,需要添加以下几个限制条件:
其中,fA,j(x)和fB,j(x)是两个所述兴趣区域待融合的映射函数。在本实施例的一个优选例中,k1=0.9,k2=0.5。
条件2:
K3的值取决于fA,j(Pc)和 fB,j(Pc)的大小。在本实施例的一个优选例中,如果fA,j(Pc)> fB,j(Pc),k3=0.5,如果fA,j(Pc)<fB,j(Pc),k3=1.5。
条件3:
在本实施例的一个优选例中,k4=0.1。
所述基于参数的融合方法是指:
第四步:对当前帧的空域增强映射关系和前一帧的空域增强映射关系进行融合,通过比较两帧图像的熵值来确定两种映射关系在融合过程中的权重。
所述融合的方法如下式所示:
其中fpre(x)是前一帧图像对应的融合后的映射函数。λEA可由下式得到:
其中,p(k)是图像直方图中灰度值为k所对应的值。
该方法以图像熵值的变化来衡量视频时域的特征,熵值变化越大说明时域上的变化越大,因此在融合函数中时域增强的权重也会相应增大。
实施效果
依据上述步骤,对实验室自行拍摄的几组视频进行了增强处理。待增强的视频序列都存在光照不足、光线忽明忽暗等问题。我们将实验结果与Liu等人的方法进行了比较,所有试验均在PC计算机上实现。
由于图像视觉效果的评价倾向于一种主观的感受,我们通过调查打分的方法对实验结果进行评价。下述的实验结果是由二十个志愿者对两种不同的方法所得结果的打分组成的。
原始视频:2.38
经Liu的方法增强后:3.02
经本发明的方法增强后:3.86
实验表明,较之于现有的视频增强方法,本实施例的增强效果更加明显。
Claims (2)
1.一种基于融合思想的视频时空联合增强方法,其特征在于,包括如下步骤:
第一步:选定视频中的兴趣区域,对各所述兴趣区域分别进行训练,得到各个兴趣区域理想图像的特征,其中,所述兴趣区域是指:在特定的场景下,图像中包含关键信息的区域;
第二步:对当前帧图像进行预处理,通过映射函数f(x)使当前帧图像的像素平均值与前一帧图像的像素平均值相一致;
第三步:对当前帧图像中各所述兴趣区域的像素平均值进行比较,若满足选择标准,就利用基于分段的融合方法得到相应的空域增强映射关系;若不满足选择标准,则利用基于参数的融合方法得到相应的空域增强映射关系;
第四步:对当前帧的空域增强映射关系和前一帧的空域增强映射关系进行融合,通过比较两帧图像的熵值来确定两种映射关系在融合过程中的权重;
其中,在所述第一步中,对各所述兴趣区域分别进行训练的方法,是以图像三个颜色通道的直方图的均值m和方差σ作为特征进行类聚,将类聚得到的特征向量作为理想图像的特征,
在所述第二步中,所述映射函数f(x)是指:
其中,x为像素平均值,常数a和常数b可由f(L)=L’及f(255)=255两式联合求得,L指代原图像的像素平均值,L’指代期望的像素平均值,L’可由下式求得:
其中,Lavg_past指代前一帧平均的像素平均值,β用来平衡L和Lavg_past的权重,
在所述第三步中,所述选择标准是指:两个所述兴趣区域的像素平均值之差若在一给定范围内,即认为满足标准,在范围之外即不满足标准,
在所述第三步中,所述基于分段的融合方法是指:构造一个函数ffuse,j(x),根据两个所述兴趣区域的像素平均值,将所述函数ffuse,j(x)分为两段,使其在第一段中的直方图更接近第一个所述兴趣区域的理想直方图,在第二段中的直方图更接近第二个所述兴趣区域的理想直方图,同时保证所述函数ffuse,j(x)的平滑性,
所述函数ffuse,j(x)由下式表示:
其中,fPA,j(x)和fPB,j(x)分别指代函数fuse,j(x)的不同段的代式,Pc可由下式求得:
其中,α为参数,mRA,j和mRB,j分别指代两个所述兴趣区域的像素平均值,σRA,j和σRB,j分别指代两个所述兴趣区域的像素方差,nA和nB分别指代两个所述兴趣区域的像素值重叠部分相对于该兴趣区域的像素方差的比值,其中,像素值重叠部分,即两个区域的像素值分布所对应的区间的交集,,
为使所述函数ffuse,j(x)满足上述特性,需要添加以下几个限制条件:
条件1:
其中,fA,j(x)和fB,j(x)是两个所述兴趣区域待融合的映射函数,α为参数;
条件2:
其中,f'PA,j(x)和f'PB,j(x)分别指代,参数α=3,k1=0.9,k2=0.5时的代式fPA,j(x)和fPB,j(x),f'A,j(x)和f'B,j(x)分别指代,参数α=3,k1=0.9,k2=0.5时的映射函数fA,j(x)和fB,j(x),
参数α=3,k1=0.9,k2=0.5,k3的值取决于fA,j(Pc)和fB,j(Pc)的大小;
其中,α,k1,k2,k3,k4均为参数,
如果fA,j(Pc)>fB,j(Pc),k3=0.5,如果fA,j(Pc)<fB,j(Pc),k3=1.5;k4=0.1,
在所述第三步中,所述基于参数的融合方法是指:
ffuse,j(x)=λj·fA,j(x)+(1-λj)·fB,j(x),其中,λj可以通过解下述的最优化方程得到:
在所述第四步中,所述融合的方法如下式所示:
其中fpre(x)是前一帧图像对应的融合后的映射函数,ffuse(x)指代融合函数,常数λEA可由下式得到:
λEA=max(arg(min|E(t)-E(t-1)|),LB),其中E即为所述熵值,E(t)即第t帧图像的熵值,LB为一下限值,图像的熵值可由下式求得:
其中,p(k)是图像直方图中灰度值为k所对应的值。
2.根据权利要求1所述的基于融合思想的视频时空联合增强方法,其特征在于,在所述第二步中,β=1.5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110215674 CN102289795B (zh) | 2011-07-29 | 2011-07-29 | 基于融合思想的视频时空联合增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110215674 CN102289795B (zh) | 2011-07-29 | 2011-07-29 | 基于融合思想的视频时空联合增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102289795A CN102289795A (zh) | 2011-12-21 |
CN102289795B true CN102289795B (zh) | 2013-05-22 |
Family
ID=45336187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110215674 Active CN102289795B (zh) | 2011-07-29 | 2011-07-29 | 基于融合思想的视频时空联合增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102289795B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599789B (zh) * | 2016-07-29 | 2019-10-11 | 北京市商汤科技开发有限公司 | 视频类别识别方法和装置、数据处理装置和电子设备 |
CN108447040A (zh) * | 2018-02-09 | 2018-08-24 | 深圳市朗驰欣创科技股份有限公司 | 直方图均衡化方法、装置及终端设备 |
CN112842348B (zh) * | 2021-02-07 | 2021-09-14 | 山东省人工智能研究院 | 一种基于特征提取与深度学习的心电信号自动分类方法 |
CN113469924A (zh) * | 2021-06-18 | 2021-10-01 | 汕头大学 | 一种保持亮度一致的快速图像拼接方法 |
CN113450280A (zh) * | 2021-07-07 | 2021-09-28 | 电子科技大学 | 一种由粗到细地融合时空信息的压缩视频质量增强方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101626454B (zh) * | 2009-04-10 | 2011-01-05 | 黄宝华 | 一种增强视频可视性的方法 |
-
2011
- 2011-07-29 CN CN 201110215674 patent/CN102289795B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN102289795A (zh) | 2011-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guadarrama et al. | Pixcolor: Pixel recursive colorization | |
Sharma et al. | Nighttime visibility enhancement by increasing the dynamic range and suppression of light effects | |
Faridul et al. | Colour mapping: A review of recent methods, extensions and applications | |
CN105741328B (zh) | 基于视觉感知的拍摄图像质量评价方法 | |
CN104079925B (zh) | 基于视觉感知特性的超高清视频图像质量客观评价方法 | |
WO2021115242A1 (zh) | 一种超分辨率图像处理方法以及相关装置 | |
CN102289795B (zh) | 基于融合思想的视频时空联合增强方法 | |
CN105488812A (zh) | 一种融合运动特征的时空显著性检测方法 | |
CN107580186B (zh) | 一种基于缝合线时空优化的双摄像机全景视频拼接方法 | |
Zuo et al. | Screen content image quality assessment via convolutional neural network | |
CN104994375A (zh) | 一种基于立体视觉显著性的立体图像质量客观评价方法 | |
CN102158712A (zh) | 一种基于视觉的多视点视频信号编码方法 | |
US10445865B1 (en) | Method and apparatus for converting low dynamic range video to high dynamic range video | |
Chen et al. | Automatic colorization of images from Chinese black and white films based on CNN | |
CN107545570B (zh) | 一种半参考图的重构图像质量评价方法 | |
CN113327234A (zh) | 基于空时显著性分类和融合的视频重定向质量评价方法 | |
CN110503049B (zh) | 基于生成对抗网络的卫星视频车辆数目估计方法 | |
Qian et al. | Fast color contrast enhancement method for color night vision | |
JP4369308B2 (ja) | 代表画像選択装置,代表画像選択方法および代表画像選択プログラム | |
CN109167988B (zh) | 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法 | |
Qian et al. | Effective contrast enhancement method for color night vision | |
CN109672874B (zh) | 一种时空一致的立体视频颜色校正方法 | |
CN108898566B (zh) | 一种利用时空照度图的低照度彩色视频增强方法 | |
CN107509074B (zh) | 基于压缩感知的自适应3d视频压缩编解码方法 | |
Boujut et al. | No-reference video quality assessment of H. 264 video streams based on semantic saliency maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C53 | Correction of patent for invention or patent application | ||
CB03 | Change of inventor or designer information |
Inventor after: Lin Weiyao Inventor after: Chen Yuanzhe Inventor after: Xu Ning Inventor after: Xie Jun Inventor before: Lin Weiyao Inventor before: Chen Yuanzhe Inventor before: Xu Ning |
|
COR | Change of bibliographic data |
Free format text: CORRECT: INVENTOR; FROM: LIN WEIYAO CHEN YUANZHE XU NING TO: LIN WEIYAO CHEN YUANZHE XU NING XIE JUN |
|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |