[go: up one dir, main page]

JP2010193180A - Image processing unit, and image processing program - Google Patents

Image processing unit, and image processing program Download PDF

Info

Publication number
JP2010193180A
JP2010193180A JP2009035598A JP2009035598A JP2010193180A JP 2010193180 A JP2010193180 A JP 2010193180A JP 2009035598 A JP2009035598 A JP 2009035598A JP 2009035598 A JP2009035598 A JP 2009035598A JP 2010193180 A JP2010193180 A JP 2010193180A
Authority
JP
Japan
Prior art keywords
video signal
frequency
low
image processing
frequency video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009035598A
Other languages
Japanese (ja)
Inventor
Masao Sanhongi
將夫 三本木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009035598A priority Critical patent/JP2010193180A/en
Publication of JP2010193180A publication Critical patent/JP2010193180A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit capable of improving image quality by expanding a dynamic range even if positional misalignment occurs in a plurality of images when obtaining a composite image by capturing the plurality of images. <P>SOLUTION: A plurality of video signals, where an exposure value and a focal length to a main subject are different each, are obtained. A low-frequency component is extracted from the plurality of video signals to generate a plurality of low-frequency video signals, and the plurality of low-frequency video signals are composited to generate a composite low-frequency video signal. Also, a first video signal, which has a first exposure value and focuses on the main subject, is selected from the plurality of video signals, and a high-frequency component is extracted from the first video signal to generate a high-frequency video signal. Then, the composite low-frequency video signal is composited to the high-frequency video signal, thus generating a composite video signal. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、映像信号のダイナミックレンジを拡大する画像処理装置に関する。   The present invention relates to an image processing apparatus that expands the dynamic range of a video signal.

一般に、電子カメラに用いられるCCDイメージセンサやCMOS型イメージセンサ等種々の固体撮像素子のダイナミックレンジは、被写体の持つダイナミックレンジに比べて狭く、高輝度部においては白飛びが発生したり、低輝度部においては黒つぶれが発生したりすることがあった。このため、露光量の異なる複数枚の映像信号を1枚の映像信号に合成することで、ダイナミックレンジを拡大させた画像を生成する手法が提案されている。しかしながら、複数枚の画像を撮影して合成画像を得る場合には、撮影時にカメラぶれや被写体ぶれ等が原因で合成時の映像信号に二重像等のアーティファクトが起きるという問題があった。   In general, the dynamic range of various solid-state image sensors such as CCD image sensors and CMOS image sensors used in electronic cameras is narrower than the dynamic range of the subject. In some cases, black crushing may occur. For this reason, there has been proposed a method of generating an image with an expanded dynamic range by combining a plurality of video signals having different exposure amounts into one video signal. However, when a composite image is obtained by photographing a plurality of images, there has been a problem that artifacts such as a double image occur in the video signal at the time of synthesis due to camera shake or subject blur.

特開平7−75026号公報(特許文献1)には、2枚の画像の第1の明度値および第2の明度値に対する重みを何れか一方を基準にして定めることにより、カメラの特性変化、照明強度の変動及び撮像素子上の位置ずれがある場合でも適切な広ダイナミックレンジ画像を生成させる手法が開示されている。また、特開平5−7336号公報(特許文献2)では複数枚の撮像時の経時的な位置ずれに対応して、複数の画像に対して座標変換を行った後に合成を行う手法が開示されている。   In Japanese Patent Laid-Open No. 7-75026 (Patent Document 1), the weight of the first lightness value and the second lightness value of two images is determined based on either one of them, thereby changing the characteristics of the camera. A technique for generating an appropriate wide dynamic range image even when there is a variation in illumination intensity and a positional shift on the image sensor is disclosed. Japanese Patent Application Laid-Open No. 5-7336 (Patent Document 2) discloses a method of performing composition after performing coordinate conversion on a plurality of images in response to positional shifts at the time of imaging a plurality of images. ing.

特開平7−75026号公報Japanese Patent Laid-Open No. 7-75026 特開平5−7336号公報JP-A-5-7336

しかしながら、上記した特許文献1及び特許文献2のいずれの手法においても複数枚の映像信号間の複雑な位置ずれ、例えば、三次元的な動きに起因した位置ずれ等に関しては完全に位置あわせを行うことは困難である。   However, in any of the methods of Patent Document 1 and Patent Document 2 described above, complete alignment is performed with respect to a complicated positional shift between a plurality of video signals, for example, a positional shift caused by a three-dimensional motion. It is difficult.

本発明は、上記問題に鑑みてなされたもので、複数枚の画像を撮像して合成画像を得る場合において、例えば、複数枚の画像に三次元的な動きに起因した位置ずれが存在する場合であっても、ダイナミックレンジを拡大させ画質を向上させることが可能な画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and in the case where a composite image is obtained by capturing a plurality of images, for example, when there is a positional shift due to a three-dimensional motion in the plurality of images. Even so, an object of the present invention is to provide an image processing apparatus capable of expanding the dynamic range and improving the image quality.

上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、複数の映像信号を合成することでダイナミックレンジを拡大する画像処理装置であって、露光量及び主被写体との焦点距離がそれぞれ異なる複数の映像信号を取得する映像信号取得手段と、前記複数の映像信号から低周波数成分を抽出して複数の低周波映像信号を生成する低周波映像信号生成手段と、前記複数の低周波映像信号を合成し、合成低周波映像信号を生成する合成低周波信号生成手段と、前記複数の映像信号から第1の露光量で且つ主被写体に合焦した第1の映像信号を選択する選択手段と、前記第1の映像信号から高周波数成分を抽出して高周波映像信号を生成する高周波映像信号生成手段と、前記合成低周波映像信号と前記高周波映像信号とを合成することにより合成映像信号を生成する画像合成手段と、を供えたことを特徴とする画像処理装置を提供する。
In order to solve the above problems, the present invention employs the following means.
The present invention is an image processing device that expands a dynamic range by combining a plurality of video signals, a video signal acquisition unit that acquires a plurality of video signals having different exposure amounts and focal lengths from a main subject, and Low frequency video signal generating means for extracting low frequency components from the plurality of video signals to generate a plurality of low frequency video signals, and synthesis for synthesizing the plurality of low frequency video signals to generate a combined low frequency video signal A low-frequency signal generation means; a selection means for selecting a first video signal having a first exposure amount and focused on the main subject from the plurality of video signals; and a high-frequency component is extracted from the first video signal And a high frequency video signal generating means for generating a high frequency video signal, and an image synthesizing means for generating a composite video signal by synthesizing the synthesized low frequency video signal and the high frequency video signal. To provide an image processing apparatus according to claim and.

また、本発明は、複数の映像信号を合成することでダイナミックレンジを拡大する画像処理プログラムであって、露光量及び主被写体との焦点距離がそれぞれ異なる複数の映像信号を取得するステップと、前記複数の映像信号から低周波数成分を抽出して複数の低周波映像信号を生成するステップと、前記複数の低周波映像信号を合成し、合成低周波映像信号を生成するステップと、前記複数の映像信号から第1の露光量で且つ主被写体に合焦した第1の映像信号を選択するステップと、前記第1の映像信号から高周波数成分を抽出して高周波映像信号を生成するステップと、前記合成低周波映像信号と前記高周波映像信号とを合成することにより合成映像信号を生成するステップと、をコンピュータに実行させる画像処理プログラムを提供する。   Further, the present invention is an image processing program for expanding a dynamic range by synthesizing a plurality of video signals, the step of acquiring a plurality of video signals having different exposure amounts and focal lengths from a main subject, Extracting a low frequency component from a plurality of video signals to generate a plurality of low frequency video signals; synthesizing the plurality of low frequency video signals to generate a combined low frequency video signal; and the plurality of videos Selecting a first video signal having a first exposure amount and focusing on a main subject from the signal, extracting a high frequency component from the first video signal, and generating a high frequency video signal; An image processing program for causing a computer to execute a step of generating a synthesized video signal by synthesizing a synthesized low frequency video signal and the high frequency video signal is provided. That.

このように、映像信号のうち位置ずれが目立ちにくい低周波数成分については複数枚の画像について画像合成処理の対象とする一方で、位置ずれの目立ちやすい高周波数成分については任意の一枚のみを画像合成処理の対象とすることで、ブレのある複数枚の映像信号に対しても二重線等のアーティファクトがないダイナミックレンジの広い合成信号を生成することができる。   As described above, the low-frequency component in which the positional deviation is less noticeable in the video signal is the target of the image synthesis process for a plurality of images, while only one arbitrary image is taken for the high-frequency component in which the positional deviation is noticeable. By making it a subject of synthesis processing, it is possible to generate a synthesized signal having a wide dynamic range free from artifacts such as double lines even for a plurality of blurred video signals.

本発明の実施の形態に係る画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の実施の形態に係る画像処理装置の低周波数成分生成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the low frequency component production | generation part of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置における重み付け係数に関する説明図である。It is explanatory drawing regarding the weighting coefficient in the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置の高周波数成分生成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the high frequency component production | generation part of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置の画像合成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image synthetic | combination part of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置における画像合成処理の過程を示すフローチャートである。It is a flowchart which shows the process of the image synthesis process in the image processing apparatus which concerns on embodiment of this invention.

以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の実施の形態に係る画像処理装置の概略構成を示したブロック図である。
本実施の形態にかかる画像処理装置は、図1に示すように、レンズ系100、絞り101、AFモータ102、カラーフィルタ103、CCD104、A/D変換部105、バッファ106、撮影制御部107、画像処理部120、圧縮部115、出力部116、制御部117、外部I/F部118を備えている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention.
As shown in FIG. 1, the image processing apparatus according to the present embodiment includes a lens system 100, an aperture 101, an AF motor 102, a color filter 103, a CCD 104, an A / D conversion unit 105, a buffer 106, an imaging control unit 107, An image processing unit 120, a compression unit 115, an output unit 116, a control unit 117, and an external I / F unit 118 are provided.

レンズ100系は絞り101を介して被写体の像を結像し、カラーフィルタ103を介して撮像素子であるCCD104上に像を結像するように配置されている。AFモータ102は、後述する撮影制御部107によって駆動制御され、撮影制御部107からの制御信号に基づいて、被写体に対してレンズ系100を合焦させるように駆動される。CCD104は、レンズ系100により結像された被写体の像に基づいて電気的な画像情報を生成し、この電気的な画像情報をA/D変換部105に出力する。なお、本実施の形態においては、CCD104はRGB原色系の単板CCDを用いるものとして説明する。A/D変換部105では、CCD104で生成された画像情報を画像処理部120において所定の処理が可能な離散化されたデジタルデータとしての映像信号に変換し、変換された映像信号を一旦バッファ106に記憶し、バッファ106から画像処理部120へ出力する。圧縮部115は、後述する画像処理部120で所定の処理がなされた映像信号を圧縮し、出力部116へ出力する。   The lens 100 system is arranged so as to form an image of a subject through a diaphragm 101 and form an image on a CCD 104 which is an image pickup device through a color filter 103. The AF motor 102 is driven and controlled by a shooting control unit 107 described later, and is driven to focus the lens system 100 on the subject based on a control signal from the shooting control unit 107. The CCD 104 generates electrical image information based on the subject image formed by the lens system 100, and outputs this electrical image information to the A / D conversion unit 105. In this embodiment, the description will be made assuming that the CCD 104 uses an RGB primary color single-plate CCD. The A / D conversion unit 105 converts the image information generated by the CCD 104 into a video signal as discrete digital data that can be subjected to predetermined processing in the image processing unit 120, and temporarily converts the converted video signal into the buffer 106. And output from the buffer 106 to the image processing unit 120. The compression unit 115 compresses the video signal that has been subjected to predetermined processing by the image processing unit 120 described later, and outputs the compressed video signal to the output unit 116.

撮影制御部107は、撮影時の合焦条件および露光条件を決定するものであり、撮影時の情報は制御部117へ出力される。映像信号のAFエリア内のコントラスト情報を検出し、コントラストが最大となるように、もしくは、プリ撮影時に映像信号を取得せずに、例えば、図示しない外部赤外線センサを用いて主要被写体との距離を測定し、この距離に応じてAFモータ102を駆動制御する。また、撮影制御部107は、映像信号中の輝度レベルや図示しない輝度センサを用いて入射光量の調整のため絞り101およびCCD104の電子シャッタ速度などを制御する。撮影制御部107による制御は本撮影における撮影回数と同じ回数だけ行われる。すなわち、上記した処理が複数回行われ、撮影された複数枚分の画像の映像信号がバッファ106に一旦記憶され、バッファ106から映像信号が一枚分ずつ順次画像処理部120へ出力される。   The shooting control unit 107 determines a focusing condition and an exposure condition at the time of shooting, and information at the time of shooting is output to the control unit 117. The contrast information in the AF area of the video signal is detected, so that the contrast is maximized or the video signal is not acquired at the time of pre-photographing, for example, the distance from the main subject is determined using an external infrared sensor (not shown). The AF motor 102 is driven and controlled according to this distance. Further, the photographing control unit 107 controls the electronic shutter speeds of the diaphragm 101 and the CCD 104 for adjusting the amount of incident light using a luminance level in the video signal or a luminance sensor (not shown). The control by the photographing control unit 107 is performed as many times as the number of times of photographing in actual photographing. That is, the above-described processing is performed a plurality of times, and video signals of a plurality of captured images are temporarily stored in the buffer 106, and the video signals are sequentially output from the buffer 106 to the image processing unit 120 one by one.

また、撮影制御部107は映像取得手段としても機能し、適正な露光量をB、主要被写体までの距離をDと定義した場合に、露光量がBで距離Dに合焦した映像信号S1と、露光量がBと異なり、かつ、主要被写体に合焦していない映像信号S2、すなわち、ぼけた映像信号とをそれぞれ少なくとも1枚取得するようにレンズ系100、絞り101及びAFモータ102などを制御する。   The photographing control unit 107 also functions as a video acquisition unit. When the appropriate exposure amount is defined as B and the distance to the main subject is defined as D, the exposure signal is B and the video signal S1 is focused on the distance D. The lens system 100, the aperture 101, the AF motor 102, and the like are acquired so that at least one video signal S2 that is different from the exposure amount B and is not focused on the main subject, that is, a blurred video signal, is acquired. Control.

制御部117は、撮影制御部117、後述する画像処理部120の信号処理部108、変換部109、低周波数成分生成部110、選択部111、高周波数成分生成部112、画像合成部113、階調変換部114および圧縮部115と双方向に接続され、夫々を駆動制御する。外部I/F部118は、電源スイッチ、シャッターボタン、撮影時の各種モードの切り替えを行うためのインターフェースを備えている。   The control unit 117 includes a shooting control unit 117, a signal processing unit 108 of the image processing unit 120 described later, a conversion unit 109, a low frequency component generation unit 110, a selection unit 111, a high frequency component generation unit 112, an image synthesis unit 113, a floor. The key conversion unit 114 and the compression unit 115 are bidirectionally connected to drive and control each of them. The external I / F unit 118 includes a power switch, a shutter button, and an interface for switching various modes during shooting.

画像処理部120は、信号処理部108、低周波映像信号生成手段としての変換部109、合成低周波映像信号生成手段としての低周波数成分生成部110、選択手段としての選択部111、高周波映像信号生成手段としての高周波数成分生成部112、画像合成手段としての画像合成部113、及び階調変換部114を備えている。   The image processing unit 120 includes a signal processing unit 108, a conversion unit 109 as a low frequency video signal generation unit, a low frequency component generation unit 110 as a combined low frequency video signal generation unit, a selection unit 111 as a selection unit, and a high frequency video signal. A high frequency component generation unit 112 as a generation unit, an image synthesis unit 113 as an image synthesis unit, and a gradation conversion unit 114 are provided.

信号処理部108は、制御部117の制御に基づきバッファ106から入力された単板状態の映像信号を読み込み、補間処理、ホワイトバランスの調整処理、電子ズーム処理、ノイズ抑制処理等の所定の画像処理を行い、各画素RGBの三板状態の映像信号を生成し、変換部109へ出力する。さらに、以下の数1式を用いてRGB信号をYCbCr信号に変換してもよい。   The signal processing unit 108 reads a single-panel video signal input from the buffer 106 based on the control of the control unit 117, and performs predetermined image processing such as interpolation processing, white balance adjustment processing, electronic zoom processing, and noise suppression processing. To generate a three-plate video signal of each pixel RGB and output it to the conversion unit 109. Further, the RGB signal may be converted into a YCbCr signal using the following equation (1).

Figure 2010193180
Figure 2010193180

変換部109は、複数枚の映像信号の合焦位置の情報を撮像制御部117から取得し、主要被写体に合焦した映像信号に対してのみ平滑化フィルタ等の変換処理を行い低周波映像信号を生成する。一方、主要被写体以外に合焦した、すなわち、ぼけた映像信号に対しては何も処理を行わない。本実施の形態においては、映像信号S1に対しては変換処理を行いS1の低周波映像信号を生成し、映像信号S2に対しては処理を行わず、低周波数成分生成部110及び高周波成分生成部112へ転送する。   The conversion unit 109 acquires information on the focus positions of a plurality of video signals from the imaging control unit 117, performs a conversion process such as a smoothing filter only on the video signal focused on the main subject, and the low-frequency video signal. Is generated. On the other hand, no processing is performed for a focused video signal other than the main subject, that is, a blurred video signal. In the present embodiment, conversion processing is performed on the video signal S1 to generate a low-frequency video signal of S1, and processing is not performed on the video signal S2, and the low-frequency component generation unit 110 and high-frequency component generation are performed. Forward to the unit 112.

低周波数成分生成部110は、変換部109から入力された低周波映像信号を合成することで合成低周波映像信号を生成する。このため、低周波数成分生成部110は、図2に示すように、バッファ300、重み付け係数算出部301および加算部302を備えている。   The low frequency component generation unit 110 generates a synthesized low frequency video signal by synthesizing the low frequency video signal input from the conversion unit 109. For this reason, the low frequency component generation unit 110 includes a buffer 300, a weighting coefficient calculation unit 301, and an addition unit 302 as shown in FIG.

バッファ300は、変換部109から転送された複数枚の映像信号を記憶する。本実施の形態においては、バッファ300に記憶された映像信号は低周波の映像信号S1と、ぼけた映像信号S2の2枚である。加算部302は、バッファ300から転送された複数枚の映像信号に対して、同じ座標の信号値を合成する。合成方法は単純加算でもよいし、以下の数2式のように重み付け係数算出部301から転送される重み付け係数αを用いて加算してもよい。   The buffer 300 stores a plurality of video signals transferred from the conversion unit 109. In the present embodiment, two video signals stored in the buffer 300 are a low-frequency video signal S1 and a blurred video signal S2. The adder 302 synthesizes signal values of the same coordinates with a plurality of video signals transferred from the buffer 300. The combining method may be simple addition, or may be added using the weighting coefficient α transferred from the weighting coefficient calculation unit 301 as shown in the following equation (2).

Figure 2010193180
Figure 2010193180

ここで、Iは合成後の映像信号を表し、(x,y)は映像信号の座標を表す。また、Iは適正露光で主要被写体に合焦した1枚の映像信号S1、Iは入射光量と焦点距離とが異なる映像信号S2にそれぞれ対応している。加算する映像信号はRGB信号の各チャンネルでもYCbCr信号でもよい。重み付け係数算出部303は、図3のように重み付け係数αを算出する。重み付け係数αは映像信号S1に対する関数として表されている。図3における関数は映像信号S2が映像信号S1より露光量が少ない場合を示している。すなわち、映像信号が飽和する可能性のある閾値Thより大きな信号値に対しては暗く撮像された映像信号S2の重みを大きくし、閾値Th以下の信号値に対しては適正露光で撮像された映像信号S1の重みを大きくする。このような重み係数を用いることによって、信号の飽和部を考慮した加算が可能となる。また合成前の映像信号は全てぼけた映像信号、すなわち、低周波映像信号となっている。加算後の低周波映像信号は画像合成部113へ転送される。 Here, I represents the combined video signal, and (x, y) represents the coordinates of the video signal. Further, I 1 is one of the video signal S1 focused on the main subject in the proper exposure, I 2 respectively correspond to the video signal S2 and the incident light quantity and the focal length is different. The video signal to be added may be an RGB signal channel or a YCbCr signal. The weighting coefficient calculator 303 calculates the weighting coefficient α as shown in FIG. The weighting coefficient α is expressed as a function with respect to the video signal S1. The function in FIG. 3 shows the case where the video signal S2 has a smaller exposure amount than the video signal S1. That is, the weight of the video signal S2 that is captured darkly is increased for a signal value larger than the threshold Th that may cause the video signal to be saturated, and the signal value that is equal to or less than the threshold Th is captured with appropriate exposure. The weight of the video signal S1 is increased. By using such a weighting factor, it is possible to add in consideration of the saturated portion of the signal. Further, the video signals before synthesis are all blurred video signals, that is, low-frequency video signals. The added low frequency video signal is transferred to the image composition unit 113.

選択部111は、は信号処理部108から転送された複数枚の映像信号のうち、撮像制御部の情報を用いて適正露光で主要被写体に合焦した映像信号を1枚選択する。   The selection unit 111 selects one video signal focused on the main subject by appropriate exposure using the information of the imaging control unit from among a plurality of video signals transferred from the signal processing unit 108.

高周波数成分生成部112は、選択部111で選択された適正露光で主要被写体に合焦した1枚の映像信号から低周波映像信号を差し引くことで高周波映像信号を生成するものであり、図4に示すように、バッファ400,401、及び差分信号算出部402を備えている。バッファ400は変換部109から入力される複数枚の低周波映像信号が記憶される。バッファ401は選択部111により入力された1枚の映像信号が記憶される。差分信号算出部402は制御部117による制御に基づいてバッファ400から低周波映像信号を読み出し、バッファ401の1枚の映像信号からこの低周波映像信号を差し引くことで、すなわち、次の数3式で表されるような各座標(x,y)における差分処理を行うことで高周波映像信号を生成する。   The high frequency component generation unit 112 generates a high frequency video signal by subtracting the low frequency video signal from one video signal focused on the main subject by the appropriate exposure selected by the selection unit 111. FIG. As shown in FIG. 4, buffers 400 and 401 and a differential signal calculation unit 402 are provided. The buffer 400 stores a plurality of low frequency video signals input from the conversion unit 109. The buffer 401 stores one image signal input by the selection unit 111. The difference signal calculation unit 402 reads out the low frequency video signal from the buffer 400 based on the control by the control unit 117, and subtracts the low frequency video signal from one video signal in the buffer 401. A high-frequency video signal is generated by performing difference processing at each coordinate (x, y) as represented by:

Figure 2010193180
Figure 2010193180

ここで、H(x,y)は差分処理後の高周波映像信号、S1は選択部111により入力された適正露光で主要被写体に合焦した1枚の映像信号S1、S1´は選択部111により抽出された映像信号S1に相当する低周波映像信号を示す。   Here, H (x, y) is a high-frequency video signal after difference processing, S1 is a single video signal S1, S1 ′ focused on the main subject by proper exposure input by the selection unit 111, and the selection unit 111 A low-frequency video signal corresponding to the extracted video signal S1 is shown.

画像合成部113は、高周波数成分生成部112の高周波映像信号および低周波数成分生成部111にて合成された合成低周波映像信号に対して同じ座標の信号値を加算し、階調変換部114へ転送する。高周波映像信号はノイズが含まれている可能性があるため、ノイズ低減の後に加算処理を行うことが好ましい。このため、画像合成部113は、図5に示すようにバッファ500,501、ノイズ低減部502および加算部503を備えている。バッファ500は、高周波数成分生成部112から転送された高周波映像信号を一旦記憶し、これをノイズ低減部502に転送する。ノイズ低減部502は、高周波映像信号に対して平滑化フィルタや、メディアンフィルタ等を用いてノイズを低減する。加算部503は、ノイズ低減後の高周波映像信号およびバッファ501から転送される合成された合成低周波映像信号との同じ座標における加算処理を行い合成映像信号を生成し、階調変換部114へ転送する。   The image synthesizing unit 113 adds the signal values of the same coordinates to the high frequency video signal of the high frequency component generating unit 112 and the synthesized low frequency video signal synthesized by the low frequency component generating unit 111, and the gradation converting unit 114 Forward to. Since the high-frequency video signal may contain noise, it is preferable to perform addition processing after noise reduction. Therefore, the image composition unit 113 includes buffers 500 and 501, a noise reduction unit 502, and an addition unit 503 as shown in FIG. The buffer 500 temporarily stores the high frequency video signal transferred from the high frequency component generation unit 112 and transfers the high frequency video signal to the noise reduction unit 502. The noise reduction unit 502 reduces noise using a smoothing filter, a median filter, or the like for the high-frequency video signal. The adder 503 performs addition processing at the same coordinates of the high-frequency video signal after noise reduction and the synthesized low-frequency video signal synthesized from the buffer 501, generates a synthesized video signal, and transfers it to the gradation converter 114. To do.

階調変換部114は、画像合成部113から転送された合成映像信号に対して、ガンマ変換やトーンカーブによる階調変換処理を行い、圧縮部115に転送する。   The tone conversion unit 114 performs gamma conversion and tone conversion processing using a tone curve for the synthesized video signal transferred from the image synthesis unit 113, and transfers it to the compression unit 115.

以下、このように構成された本実施の形態の画像処理装置における画像合成処理の過程について図6のフローチャートを用いて説明する。   Hereinafter, the process of image composition processing in the image processing apparatus of the present embodiment configured as described above will be described with reference to the flowchart of FIG.

以下、説明の便宜上、撮影回数を2回、すなわち映像信号をS1及びS2の2枚の映像信号を取得することして説明する。また、本撮像における適正な露光量をB、主要被写体までの距離をDと定義し、S1は、露光量がBで距離Dに合焦した映像信号であり、S2は、露光量がBの半分で、無限遠の距離に合焦した映像信号、すなわち、主要被写体に焦点があっておらず、ぼけた映像信号として説明する。   Hereinafter, for convenience of explanation, it is assumed that the number of times of shooting is two, that is, the video signal is acquired as two video signals S1 and S2. Further, an appropriate exposure amount in the main imaging is defined as B, a distance to the main subject is defined as D, S1 is a video signal focused on the distance D with the exposure amount B, and S2 is an exposure amount of B. A half-way video signal focused on an infinite distance, that is, a blurred video signal in which the main subject is not focused.

なお、映像信号S2を取得するための合焦位置は主要被写体から遠ければどこでもよく、AFモータ102を制御して撮像システムの最短撮像距離に合焦位置をあわせても良い。また、絞り101を適正露光時に比べて開放にし、図示しないメカシャッタや電子シャッタのシャッタースピードを適正露光時に比べて早くすることで映像信号S2を撮像してもよい。おのおのの撮像時の情報は制御部117へ転送される。なお、これ以降撮像される複数枚の映像信号はS1、S2の2枚として説明する。また、本撮像の際に装置が自動的に複数枚の撮像を行う代わりに、撮影者が本撮像のたびに絞り101やAFモータ102を制御して撮像してもよい。   The in-focus position for acquiring the video signal S2 may be anywhere as long as it is far from the main subject, and the in-focus position may be adjusted to the shortest imaging distance of the imaging system by controlling the AF motor 102. Alternatively, the image signal S2 may be imaged by opening the aperture 101 compared to that at the time of proper exposure and by increasing the shutter speed of a mechanical shutter or electronic shutter (not shown) as compared with that at the time of proper exposure. Information at the time of each imaging is transferred to the control unit 117. In the following description, a plurality of video signals to be imaged are described as two images S1 and S2. In addition, instead of the apparatus automatically taking a plurality of images at the time of actual imaging, the photographer may control the aperture 101 and the AF motor 102 every time the actual imaging is performed.

画像処理装置では、外部I/F部118を介してISO感度、露出などの撮影条件を設定した後、図示しないシャッターボタンを半押しにすることでプリ撮影モードに入る。そして、本撮影における撮影回数と同じ回数のプリ撮影が終了すると、外部I/F部118を介して図示しないシャッターボタンを全押しすることにより本撮影が行われる。本撮影は、撮影制御部107にて求められた合焦条件および露光条件に基づき行われ、これらの撮影時の情報は制御部117へ転送される。例えば、本撮影における撮影回数が2回の場合、入射光量が適正な映像信号S1およびS1に対して入射光量と焦点距離とが異なる映像信号S2の2回の撮影が行われ,各々の撮影時の情報は制御部117へ転送される。   In the image processing apparatus, after setting shooting conditions such as ISO sensitivity and exposure via the external I / F unit 118, a pre-shooting mode is entered by pressing a shutter button (not shown) halfway. When the pre-shooting of the same number of times as the number of shootings in the main shooting is completed, the main shooting is performed by fully pressing a shutter button (not shown) via the external I / F unit 118. The actual photographing is performed based on the focusing condition and the exposure condition obtained by the photographing control unit 107, and information at the time of photographing is transferred to the control unit 117. For example, when the number of times of photographing in the actual photographing is two times, the photographing of the video signal S2 having a different incident light amount and focal length is performed with respect to the video signals S1 and S1 having the appropriate incident light amount. Is transferred to the control unit 117.

ステップS11では、CCD104からの映像信号をRawデータとして、ISO感度情報や映像信号サイズなどをヘッダー情報として読み込み次のステップS2に進む。ステップS12では、レンズ系100、絞り101、カラーフィルタ103、CCD104を介して撮影されたS1及びS2の映像信号が、A/D変換部105にてデジタルの映像信号へ変換されてバッファ106へ入力される。ステップS13では、信号処理部108により補間処理、ホワイトバランスの調整処理、Y/C信号生成処理、電子ズーム処理、ノイズ抑制処理等の信号処理を行い、ステップS14に進む。   In step S11, the video signal from the CCD 104 is read as Raw data, and ISO sensitivity information, video signal size, and the like are read as header information, and the process proceeds to the next step S2. In step S12, the S1 and S2 video signals photographed through the lens system 100, the aperture 101, the color filter 103, and the CCD 104 are converted into digital video signals by the A / D converter 105 and input to the buffer 106. Is done. In step S13, signal processing such as interpolation processing, white balance adjustment processing, Y / C signal generation processing, electronic zoom processing, and noise suppression processing is performed by the signal processing unit 108, and the process proceeds to step S14.

ステップS14では、変換部109により複数枚の映像信号の合焦位置の情報を撮像制御部117から取得し、主要被写体に合焦した映像信号S1に基づいて低周波映像信号を生成し、ぼけた映像信号であるS2に対しては何らの処理も行わずにステップS15に進む。なお、生成された低周波映像信号S1´及び処理がなされなかった映像信号S2はともに、低周波数成分生成部110及び高周波成分生成部112へ出力される。
ステップS15では、選択部111により、信号処理部108から転送されたS1及びS2の映像信号のうち、撮像制御部の情報を用いて適正露光で主要被写体に合焦した映像信号である映像信号S1を選択し、この一枚の映像信号S1を高周波数成分生成部112に出力する。
In step S14, the conversion unit 109 acquires information on the focus positions of a plurality of video signals from the imaging control unit 117, generates a low-frequency video signal based on the video signal S1 focused on the main subject, and is blurred. The process proceeds to step S15 without performing any processing for S2, which is a video signal. The generated low-frequency video signal S1 ′ and the unprocessed video signal S2 are both output to the low-frequency component generator 110 and the high-frequency component generator 112.
In step S15, among the video signals of S1 and S2 transferred from the signal processing unit 108 by the selection unit 111, the video signal S1 that is a video signal focused on the main subject by appropriate exposure using information of the imaging control unit. The single video signal S1 is output to the high frequency component generation unit 112.

ステップS17では、高周波数成分生成部112により、変換部109から入力された低周波映像信号S1´と選択部111から入力された映像信号S1との差分を取ることで高周波映像信号を生成する。そして、生成された高周波映像信号を画像合成部113へ出力する。   In step S <b> 17, the high frequency component generation unit 112 generates a high frequency video signal by taking the difference between the low frequency video signal S <b> 1 ′ input from the conversion unit 109 and the video signal S <b> 1 input from the selection unit 111. Then, the generated high-frequency video signal is output to the image composition unit 113.

ステップS16では、低周波数成分生成部110により変換部109から入力された低周波映像信号S1´と映像信号S2とを合成して、合成低周波映像信号を生成し、この合成低周波映像信号を画像合成部113へ出力して次のステップS18へ進む。   In step S16, the low frequency component generation unit 110 combines the low frequency video signal S1 ′ input from the conversion unit 109 and the video signal S2 to generate a composite low frequency video signal. The image is output to the image composition unit 113 and proceeds to the next step S18.

ステップS18では、画像合成部113により適正露光で主要被写体に合焦した映像信号である映像信号S1および合成された合成低周波映像信号に対して加算処理、すなわち画像合成を行い、合成映像信号を生成する。合成映像信号は階調変換部114へ出力され、ステップS19へ進む。ステップS19では、階調変換部114により、入力された合成映像信号に対して、所定の階調変換処理を行い、本ルーチンを終了する。なお、階調変換処理がなされた合成映像信号は圧縮部115へ出力され、圧縮部115において、JPEG圧縮等の圧縮処理を施し、出力部116へ出力される。   In step S18, the image synthesis unit 113 performs addition processing, that is, image synthesis, on the video signal S1 that is a video signal focused on the main subject by appropriate exposure and the synthesized low-frequency video signal, and the synthesized video signal is converted into a synthesized video signal. Generate. The synthesized video signal is output to the gradation converting unit 114, and the process proceeds to step S19. In step S19, the gradation conversion unit 114 performs a predetermined gradation conversion process on the input composite video signal, and the routine ends. Note that the synthesized video signal that has been subjected to the gradation conversion process is output to the compression unit 115, the compression unit 115 performs compression processing such as JPEG compression, and the output is performed to the output unit 116.

このように、映像信号のうちブレが目立ちにくい低周波数成分については複数枚の画像について合成処理の対象とする一方で、ブレの目立ちやすい高周波数成分については適正露光で主要被写体に合焦した1枚の映像信号のみを合成処理の対象とすることで、ブレのある複数枚の映像信号に対しても二重線等のアーティファクトがないダイナミックレンジの広い合成信号を生成することができる。   As described above, a low frequency component in which blurring is not noticeable in the video signal is subjected to synthesis processing for a plurality of images, while a high frequency component in which blurring is noticeable is focused on the main subject by appropriate exposure. By using only one video signal as a target of synthesis processing, it is possible to generate a synthesized signal having a wide dynamic range without artifacts such as double lines even for a plurality of blurred video signals.

なお、上述した実施形態では、ハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。この場合、画像処理装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を備えている。そして、CPUが上記記憶媒体に記録されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の画像処理装置と同様の処理を実現させる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
In the embodiment described above, processing by hardware is assumed, but it is not necessary to be limited to such a configuration. For example, a configuration in which processing is performed separately by software is also possible. In this case, the image processing apparatus includes a main storage device such as a CPU and a RAM, and a computer-readable recording medium on which a program for realizing all or part of the above processing is recorded. Then, the CPU reads out the program recorded in the storage medium and executes information processing / calculation processing, thereby realizing processing similar to that of the above-described image processing apparatus.
Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

109 変換部
110 低周波数成分生成部
111 選択部
112 高周波数成分生成部
113 画像合成部
301 重み付け係数算出部
302 加算部
402 差分信号算出部
502 ノイズ低減部
503 加算部
109 Conversion unit 110 Low frequency component generation unit 111 Selection unit 112 High frequency component generation unit 113 Image composition unit 301 Weighting coefficient calculation unit 302 Addition unit 402 Difference signal calculation unit 502 Noise reduction unit 503 Addition unit

Claims (9)

複数の映像信号を合成することでダイナミックレンジを拡大する画像処理装置であって、
露光量及び主被写体との焦点距離がそれぞれ異なる複数の映像信号を取得する映像信号取得手段と、
前記複数の映像信号から低周波数成分を抽出して複数の低周波映像信号を生成する低周波映像信号生成手段と、
前記複数の低周波映像信号を合成し、合成低周波映像信号を生成する合成低周波信号生成手段と、
前記複数の映像信号から第1の露光量で且つ主被写体に合焦した第1の映像信号を選択する選択手段と、
前記第1の映像信号から高周波数成分を抽出して高周波映像信号を生成する高周波映像信号生成手段と、
前記合成低周波映像信号と前記高周波映像信号とを合成することにより合成映像信号を生成する画像合成手段と、
を供えたことを特徴とする画像処理装置。
An image processing apparatus that expands a dynamic range by combining a plurality of video signals,
Video signal acquisition means for acquiring a plurality of video signals having different exposure amounts and focal lengths from the main subject;
Low frequency video signal generating means for extracting a low frequency component from the plurality of video signals to generate a plurality of low frequency video signals;
A combined low-frequency signal generating means for combining the plurality of low-frequency video signals and generating a combined low-frequency video signal;
Selecting means for selecting a first video signal focused on a main subject from the plurality of video signals with a first exposure amount;
High-frequency video signal generating means for extracting a high-frequency component from the first video signal and generating a high-frequency video signal;
Image synthesizing means for generating a synthesized video signal by synthesizing the synthesized low frequency video signal and the high frequency video signal;
An image processing apparatus characterized by comprising:
前記映像信号取得手段は、前記第1の映像信号と、第2の露光量で且つ主被写体に合焦しない第2の映像信号を夫々少なくとも1枚取得し、
前記低周波映像信号取得手段は、前記第1の映像信号から低周波数成分を抽出して映像信号を生成するとともに、前記第2の映像信号を低周波映像信号とする、
ことを特徴とする請求項1に記載の画像処理装置。
The video signal acquisition means acquires at least one first video signal and at least one second video signal having a second exposure amount and not focusing on the main subject,
The low-frequency video signal acquisition unit generates a video signal by extracting a low-frequency component from the first video signal, and sets the second video signal as a low-frequency video signal.
The image processing apparatus according to claim 1.
前記第1の露光量は、被写体に対するいわゆる適正露光に相当する露光量であることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the first exposure amount is an exposure amount corresponding to so-called appropriate exposure for the subject. 前記低周波映像信号生成手段は、前記映像信号に対して平滑化フィルタによりフィルタリングすることで低周波映像信号を生成することを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。   4. The low frequency video signal generation unit generates the low frequency video signal by filtering the video signal with a smoothing filter. 5. Image processing device. 前記低周波映像信号の画素値に基づいて、前記複数の低周波映像信号の合成割合である重み付け係数を算出する重み付け算出手段を備え、
前記合成低周波映像信号生成手段は、前記重み付け係数に基づいて、前記低周波映像信号を重み付けして合成を行うことを特徴とする請求項1乃至請求項4の何れか1項に記載の画像処理装置。
Weighting calculating means for calculating a weighting coefficient that is a composite ratio of the plurality of low frequency video signals based on the pixel value of the low frequency video signal,
5. The image according to claim 1, wherein the synthesized low-frequency video signal generating unit performs synthesis by weighting the low-frequency video signal based on the weighting coefficient. Processing equipment.
記高周波映像信号生成手段は、前記第1の映像信号と前記低周波映像信号との差分を算出することにより、高周波映像信号を生成することを特徴とする請求項1乃至請求項5の何れか1項に記載の画像処理装置。   6. The high-frequency video signal generating unit generates a high-frequency video signal by calculating a difference between the first video signal and the low-frequency video signal. The image processing apparatus according to item 1. 前記画像合成手段は、前記合成低周波映像信号と前記高周波映像信号を加算することを特徴とする請求項1乃至請求項6の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image synthesizing unit adds the synthesized low-frequency video signal and the high-frequency video signal. 前記画像合成手段が、前記高周波映像信号に対してノイズ低減処理を行うノイズ低減手段を備え、
前記合成低周波数映像信号と前記ノイズ低減手段によりノイズが低減された高周波映像信号とを加算することを特徴とする請求項1乃至請求項7の何れか1項に記載の画像処理装置。
The image synthesizing means includes noise reduction means for performing noise reduction processing on the high-frequency video signal;
8. The image processing apparatus according to claim 1, wherein the synthesized low-frequency video signal and the high-frequency video signal whose noise is reduced by the noise reduction unit are added. 9.
複数の映像信号を合成することでダイナミックレンジを拡大する画像処理プログラムであって、
露光量及び主被写体との焦点距離がそれぞれ異なる複数の映像信号を取得するステップと、
前記複数の映像信号から低周波数成分を抽出して複数の低周波映像信号を生成するステップと、
前記複数の低周波映像信号を合成し、合成低周波映像信号を生成するステップと、
前記複数の映像信号から第1の露光量で且つ主被写体に合焦した第1の映像信号を選択するステップと、
前記第1の映像信号から高周波数成分を抽出して高周波映像信号を生成するステップと、
前記合成低周波映像信号と前記高周波映像信号とを合成することにより合成映像信号を生成するステップと、
をコンピュータに実行させる画像処理プログラム。
An image processing program for expanding a dynamic range by combining a plurality of video signals,
Acquiring a plurality of video signals having different exposure amounts and focal lengths from the main subject; and
Extracting a low frequency component from the plurality of video signals to generate a plurality of low frequency video signals;
Combining the plurality of low frequency video signals to generate a combined low frequency video signal;
Selecting a first video signal having a first exposure amount and focused on a main subject from the plurality of video signals;
Extracting a high frequency component from the first video signal to generate a high frequency video signal;
Generating a synthesized video signal by synthesizing the synthesized low frequency video signal and the high frequency video signal;
An image processing program for causing a computer to execute.
JP2009035598A 2009-02-18 2009-02-18 Image processing unit, and image processing program Withdrawn JP2010193180A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009035598A JP2010193180A (en) 2009-02-18 2009-02-18 Image processing unit, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009035598A JP2010193180A (en) 2009-02-18 2009-02-18 Image processing unit, and image processing program

Publications (1)

Publication Number Publication Date
JP2010193180A true JP2010193180A (en) 2010-09-02

Family

ID=42818744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009035598A Withdrawn JP2010193180A (en) 2009-02-18 2009-02-18 Image processing unit, and image processing program

Country Status (1)

Country Link
JP (1) JP2010193180A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9635340B2 (en) 2013-03-19 2017-04-25 Hyundai Motor Company Stereo image processing apparatus and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9635340B2 (en) 2013-03-19 2017-04-25 Hyundai Motor Company Stereo image processing apparatus and method thereof

Similar Documents

Publication Publication Date Title
US8325268B2 (en) Image processing apparatus and photographing apparatus
JP4567593B2 (en) Imaging apparatus and imaging method
CN102131056B (en) Image-capturing device and image-capturing method
TWI422219B (en) Photography device and photography method, and computer readable recording medium
JP5220657B2 (en) Imaging apparatus and image processing program
JP4916378B2 (en) Imaging apparatus, image processing apparatus, image file, and gradation correction method
JP5468930B2 (en) Image processing apparatus and image processing program
JP2010147786A (en) Imaging device and image processing method
JP4606486B2 (en) Image processing apparatus and photographing apparatus
JP6706167B2 (en) Imaging device, image synthesizing method, and program
JP2011171842A (en) Image processor and image processing program
US9420223B2 (en) Image recording device that records moving image, method of controlling the same, and storage medium
JP2018148512A (en) Imaging device, control method of imaging device, and program
JP2008271024A (en) Image processing apparatus and method and program
US9282257B2 (en) Image apparatus and imaging method
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP6278729B2 (en) Imaging apparatus, control method thereof, and program
JP2006245999A (en) Imaging apparatus and program
JP2012134745A (en) Image signal processing device
JP5423201B2 (en) Image processing apparatus and image processing program
JP2008182486A (en) Photographing device, and image processing method
JP5310331B2 (en) Imaging apparatus and imaging method
JP2008072501A (en) Imaging apparatus, imaging method, program, and recording medium
JP2010193180A (en) Image processing unit, and image processing program
JP2008252242A (en) Imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120501