[go: up one dir, main page]

JP2018074363A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2018074363A
JP2018074363A JP2016211524A JP2016211524A JP2018074363A JP 2018074363 A JP2018074363 A JP 2018074363A JP 2016211524 A JP2016211524 A JP 2016211524A JP 2016211524 A JP2016211524 A JP 2016211524A JP 2018074363 A JP2018074363 A JP 2018074363A
Authority
JP
Japan
Prior art keywords
image
images
interpolation
subject
exposure time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016211524A
Other languages
Japanese (ja)
Other versions
JP6808446B2 (en
Inventor
裕紀子 久保
Yukiko Kubo
裕紀子 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016211524A priority Critical patent/JP6808446B2/en
Publication of JP2018074363A publication Critical patent/JP2018074363A/en
Application granted granted Critical
Publication of JP6808446B2 publication Critical patent/JP6808446B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve such a problem of conventional method that since the number of interpolation images is determined according to the time width of unexposed section, the unexposed section becomes longer as the exposed section becomes shorter, and thereby the number of interpolation images increases thus causing increase in processing load.SOLUTION: An image processing apparatus for generating a composite image, corresponding to an image obtained by shooting of second exposure time longer than first exposure time, by synthesizing multiple images obtained by continuous shooting of first exposure time, includes synthesis means for synthesizing multiple images, interpolation means for interpolating image information, corresponding to the unexposed section between shooting, according to movement of a subject in the synthesis by the synthesis means, and control means for controlling the processing content of interpolation means by the interpolation means according to the characteristics of the subject.SELECTED DRAWING: Figure 2

Description

本発明は複数枚の短秒露光画像を合成することで長秒露光画像を擬似的に生成する技術に関する。   The present invention relates to a technique for artificially generating a long second exposure image by combining a plurality of short second exposure images.

長秒露光で撮影したような画像(長秒露光画像)を複数枚の短秒露光画像を合成して実現する場合、短秒撮影の撮影間の露光がされてない区間(非露光区間)が発生するため、短秒撮像画像をそのまま合成すると非露光区間が残る。従って、たとえば車のテールランプを撮影した場合には、非露光区間に対応してテールランプの光の軌跡が部分的に途切れた粗のある画像が生成される。   When an image that has been shot with long-second exposure (long-second exposure image) is realized by compositing multiple short-second exposure images, there is an interval (non-exposure interval) during which exposure is not performed during shooting of short-second shooting. Therefore, when the short second captured image is synthesized as it is, a non-exposure section remains. Therefore, for example, when a tail lamp of a car is photographed, a rough image in which the trajectory of the tail lamp light is partially interrupted corresponding to the non-exposure section is generated.

特許文献1は、所定の時間間隔で撮像された複数枚の画像を合成する際に、非露光区間の時間幅から非露光区間を補間するための補間画像の枚数を決定し、撮像画像と補間画像を合成している。   Patent Document 1 determines the number of interpolated images for interpolating a non-exposure section from the time width of the non-exposure section when combining a plurality of images captured at a predetermined time interval, and interpolates the captured image and the interpolated image. The image is synthesized.

国際公開第2009/098749号International Publication No. 2009/098749

非露光区間を補間する画像を生成して合成する場合、撮影する移動体の移動量が多くなるにつれて、非露光区間を補間する画像の枚数が増加し処理に時間がかかるという課題がある。 特許文献1は、非露光区間の時間幅に応じて補間画像の枚数を決定しているため、露光されている区間(露光区間)が短くなるにつれて非露光区間が長くなるため、生成する画像の枚数が増加して処理負荷が増加する。   When an image that interpolates the non-exposure section is generated and combined, there is a problem that the number of images that interpolate the non-exposure section increases and the processing takes time as the moving amount of the moving object to be photographed increases. Since Patent Document 1 determines the number of interpolated images according to the time width of the non-exposure section, the non-exposure section becomes longer as the exposed section (exposure section) becomes shorter. The number of sheets increases and the processing load increases.

本発明の一実施態様は、第1露光時間の撮影を連続的に行って得られた複数の画像を合成することによって、第1露光時間よりも長い第2露光時間の撮影で得られる画像に相当する合成画像を生成する画像処理装置であって、前記複数の画像を合成する合成手段と、前記画像手段による合成において撮影間の非露光区間に対応する画像情報を被写体の動きに応じて補間する補間手段と、前記被写体の特性に応じて前記補間手段による補間の処理内容を制御する制御手段と、を備えることを特徴とする。   In one embodiment of the present invention, by combining a plurality of images obtained by continuously performing photographing at the first exposure time, an image obtained by photographing at a second exposure time longer than the first exposure time is obtained. An image processing apparatus for generating a corresponding composite image, wherein the plurality of images are combined, and image information corresponding to a non-exposure section between shots in the combination by the image unit is interpolated according to the movement of the subject And an interpolating unit for controlling the processing contents of the interpolation by the interpolating unit according to the characteristics of the subject.

本発明は、被写体の特性に応じて非露光区間に対応する画像情報を補間する補間処理を行うので、補間処理の負荷が増加するのを抑制することができる。   According to the present invention, the interpolation process for interpolating the image information corresponding to the non-exposure section is performed according to the characteristics of the subject, so that an increase in the load of the interpolation process can be suppressed.

本発明の実施形態の概念を示す図である。It is a figure which shows the concept of embodiment of this invention. 第1の実施形態の構成を示す図である。It is a figure which shows the structure of 1st Embodiment. 第1の実施形態における処理を示すフローチャートである。It is a flowchart which shows the process in 1st Embodiment. 第1の実施形態における移動体検出の処理を説明する図である。It is a figure explaining the process of the mobile body detection in 1st Embodiment. 第1の実施形態における補間処理を説明する図である。It is a figure explaining the interpolation process in 1st Embodiment. 第1の実施形態における補間処理で使用する調節パラメータを算出する処理を説明する図である。It is a figure explaining the process which calculates the adjustment parameter used by the interpolation process in 1st Embodiment. 第1の実施形態における補間画像の生成処理とフィルタ処理を説明する図である。It is a figure explaining the production | generation process and filter process of the interpolation image in 1st Embodiment.

(第1の実施形態)
以下、本発明の実施形態について図面を用いて説明する。なお。デジタルカメラを用いて説明を行うが、これに限らず、画像データを処理できる画像処理装置であればよい。すなわち、画像処理装置としては、パーソナルコンピュータ等の情報処理装置であってもよいし、携帯型の情報端末、プリンタ等の画像形成装置などでもよい。
(First embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that. The description will be made using a digital camera. However, the present invention is not limited to this, and any image processing apparatus that can process image data may be used. That is, the image processing apparatus may be an information processing apparatus such as a personal computer, or an image forming apparatus such as a portable information terminal or a printer.

本実施形態は、連続的に撮影して得られた複数枚の画像に対して位置合わせを行い、位置合わせ後の画像から移動体を検出して取得した移動体情報から、補間処理で使用するパラメータを算出して非露光区間部分を生成する。非露光区間部分に相当する画像情報と撮像画像とを合成することで長秒露光画像(合成画像)を生成する。   In the present embodiment, alignment is performed on a plurality of images obtained by continuously capturing images, and the moving object information obtained by detecting the moving object from the image after alignment is used in the interpolation process. A parameter is calculated to generate a non-exposure section. A long-second exposure image (synthesized image) is generated by synthesizing the image information corresponding to the non-exposure section and the captured image.

まず、ここで使用する非露光区間について図1を用いて説明する。図1は撮影時の撮影時間と撮影間隔を示した図であり、S0は撮影開始位置、S1〜S7は短秒で複数枚連写した際の撮影間隔、101は長秒撮影時の露光時間、102は短秒撮影時の露光区間、103は短秒撮影時の露光されていない区間を示している。   First, the non-exposure section used here will be described with reference to FIG. FIG. 1 is a diagram showing a photographing time and a photographing interval at the time of photographing, S0 is a photographing start position, S1 to S7 are photographing intervals when a plurality of continuous shots are taken in a short time, and 101 is an exposure time at the time of long-time photographing. , 102 indicates an exposure interval during short-second shooting, and 103 indicates an unexposed interval during short-second shooting.

長秒露光した際の露光区間では、撮像時間の間はシャッターを開いたままにしておくので、101のように露光が途切れることなく撮影が行われる。一方、本件で想定しいている処理では、実際に長秒露光して撮影する露光時間よりも短秒となる102のような露光時間で2枚以上の複数枚画像の撮影を行う。そのため、シャッターが開放されていない時間が発生し、その期間は露光が行われていない区間103が発生するため、撮像された複数枚画像の合成を行うと、露光されていない区間(非露光区間)ができ、長秒露光で撮影した際とは異なる結果となる。そこで、本実施形態では非露光区間を撮像画像と移動体検出結果を用いて補間処理で生成することで、実際の長秒露光に近い画像の生成を行う。   In the exposure section when the long exposure is performed, the shutter is kept open during the imaging time, so that shooting is performed without interruption as in 101. On the other hand, in the processing assumed in this case, two or more images are shot with an exposure time such as 102, which is shorter than the exposure time for shooting with a long exposure. For this reason, a time during which the shutter is not released occurs, and a section 103 in which exposure is not performed occurs during that period. Therefore, when a plurality of captured images are combined, an unexposed section (non-exposure section) ), And results are different from those obtained when shooting with long-second exposure. Therefore, in the present embodiment, the non-exposure section is generated by interpolation processing using the captured image and the moving object detection result, thereby generating an image close to actual long-second exposure.

図2は、本実施形態の画像処理装置のシステム図である。   FIG. 2 is a system diagram of the image processing apparatus according to the present embodiment.

図2において、201は撮像画像取得部であり、本画像処理において使用する2枚以上の撮像画像を取得する。   In FIG. 2, reference numeral 201 denotes a captured image acquisition unit that acquires two or more captured images used in the main image processing.

202は移動体検出部であり、撮像した2枚以上の画像情報を使用して、画像の中から移動体の検出を行う。   Reference numeral 202 denotes a moving body detection unit that detects a moving body from an image using two or more pieces of captured image information.

203は調節パラメータ算出部であり、移動体検出部202から入力された移動体情報を基に、補間処理部で使用するパラメータの算出を行う。つまり、調節パラメータ算出部は、補間処理部による補間処理の処理内容を制御する制御部としての機能を有する。   Reference numeral 203 denotes an adjustment parameter calculation unit that calculates parameters used in the interpolation processing unit based on the moving body information input from the moving body detection unit 202. That is, the adjustment parameter calculation unit has a function as a control unit that controls the processing content of the interpolation processing by the interpolation processing unit.

204は補間処理部であり、調節パラメータ算出部204から入力されたパラメータ情報を用いて、撮像画像取得部201で撮影した2枚以上の画像から非露光区間部分を生成する補間処理を行う。   Reference numeral 204 denotes an interpolation processing unit that performs interpolation processing for generating a non-exposure section portion from two or more images captured by the captured image acquisition unit 201 using the parameter information input from the adjustment parameter calculation unit 204.

205は合成部であり、補間処理部204で生成した非露光区間部分と撮像画像取得部201から取得した2枚以上の撮像画像を合成することで、長秒露光画像を生成する。   A combining unit 205 combines the non-exposure section portion generated by the interpolation processing unit 204 and two or more captured images acquired from the captured image acquisition unit 201 to generate a long-second exposure image.

以上の動作を処理の流れに従ったものが図3のフローチャートであり、処理の詳細を図4〜図6を用いて説明する。   FIG. 3 is a flowchart of the above operation according to the flow of processing, and details of the processing will be described with reference to FIGS.

S301では、長秒露光をしたいシーンに対して、本画像処理装置で使用する2枚以上の撮像画像を撮像画像取得部201で取得し、移動体検出部102に入力する。   In step S <b> 301, two or more captured images used in the image processing apparatus are acquired by the captured image acquisition unit 201 and input to the moving body detection unit 102 for a scene that is desired to be exposed for a long second.

S302では、撮像画像取得部201から入力された2枚以上の撮像画像に対して、手持ちで撮影した際の手振れを吸収するために位置合わせを行う。まず、撮像した画像の中から基準となる画像を1枚選択し、基準画像とその他の画像との位置を合わせるため変換係数を算出する。具体的には、画像間で対応する4点以上の特徴点の組み合わせを用いて、射影変換式を算出する。そして、算出した射影変換式を用いて画像を変形し、基準画像と位置合わせを行った画像を移動体検出部202に出力する。   In step S <b> 302, alignment is performed on two or more captured images input from the captured image acquisition unit 201 in order to absorb camera shake when handheld. First, one image serving as a reference is selected from the captured images, and a conversion coefficient is calculated in order to align the position of the reference image with other images. Specifically, a projective transformation equation is calculated using a combination of four or more feature points corresponding between images. Then, the image is deformed using the calculated projective transformation formula, and an image that has been aligned with the reference image is output to the moving object detection unit 202.

S303では、2枚以上の位置合わせを行った画像を使用して、撮像画像の中から移動体の検出を行う。移動体検出処理について図4を用いて説明する。図4は撮像画像取得部201で撮像した2枚以上の画像のNフレーム目の撮像画像401、N+1フレーム目の撮像画像411、Nフレーム目をブロック分割した421、移動体検出結果431を示している。   In S303, the moving body is detected from the captured image using two or more aligned images. A moving body detection process is demonstrated using FIG. FIG. 4 shows an N-th frame captured image 401, an (N + 1) -th frame captured image 411, an N-th frame captured block 421, and a moving object detection result 431 of two or more images captured by the captured image acquisition unit 201. Yes.

まず、撮像画像401と撮像画像411に対して任意のサイズ(M×N)のブロックに分割(421)し、各領域間の差分として相関値を算出する。画像間の相関値を算出するために、着目画素を中心とする任意の範囲の評価枠に対してSAD(Sum of Absolute Difference)が算出され、評価枠内のデータ値の差分絶対値が積算される。具体的には、評価枠内における一対のデータ値をf(i,j)、g(i,j)(i、jは座標)と表した場合に、下記式(1)を用いてデータ値の差分の積算を評価値RSADとして算出する。 First, the captured image 401 and the captured image 411 are divided into blocks of an arbitrary size (M × N) (421), and a correlation value is calculated as a difference between the regions. In order to calculate a correlation value between images, a sum of absolute difference (SAD) is calculated for an evaluation frame in an arbitrary range centered on the pixel of interest, and an absolute value difference of data values in the evaluation frame is integrated. The Specifically, when a pair of data values in the evaluation frame is expressed as f (i, j) and g (i, j) (i and j are coordinates), the data value is expressed by the following equation (1). Is calculated as an evaluation value R SAD .

Figure 2018074363

f(i,j):画像401の評価枠内の画素値
g(i,j):画像402の評価枠内の画素値
SAD:相関値
Figure 2018074363

f (i, j): Pixel value in the evaluation frame of the image 401 g (i, j): Pixel value in the evaluation frame of the image 402 R SAD : Correlation value

本実施形態では、画素の差分絶対値であるSADを用いた評価値の算出方法の例を説明したが、これに限定されるものではなく、他の方式を使用してもよい。   In the present embodiment, an example of a method for calculating an evaluation value using SAD that is an absolute difference value of pixels has been described, but the present invention is not limited to this, and other methods may be used.

そして、この算出した差分の評価値が小さくなる部分が類似している被写体となるので、その領域を探索し、そのブロックの位置関係から移動体の動きベクトルを算出する(404)。また、この移動体検出部202では、動きベクトル情報に加えて移動体の大きさ情報、コントラスト情報の取得も行う。   Since the portion where the calculated evaluation value of the difference becomes smaller is a similar subject, the region is searched, and the motion vector of the moving object is calculated from the positional relationship of the block (404). In addition to the motion vector information, the moving body detection unit 202 also acquires moving body size information and contrast information.

まずは移動体の大きさ情報として、画素値が類似する領域の画素数を算出し、移動体の候補となる領域の大きさとする。ここで、移動体の候補となる領域を算出するために、クラスタリング処理を用いる。つまり、輝度や色情報の分布解析を行い、隣接するブロックの類似性を判定して、類似していると判定された場合は同一ブロックであると判定を行う方法である。   First, as the size information of the moving object, the number of pixels in a region having similar pixel values is calculated and set as the size of the region that is a candidate for the moving object. Here, a clustering process is used to calculate a region that is a candidate for a moving object. That is, this is a method of analyzing the distribution of luminance and color information, determining the similarity of adjacent blocks, and determining that they are the same block if they are determined to be similar.

この方法を用いて、同一のクラスタを移動体の候補となる1領域と判定する。なお、これらの手法は一例であり、本実施例ではこの手法に限ったものではない。そして、この移動体領域に含まれるブロックの動きベクトルの平均値を、移動体の動きベクトルv(431)として紐づけておく。   Using this method, the same cluster is determined as one region that is a candidate for a moving object. Note that these methods are merely examples, and the present embodiment is not limited to these methods. And the average value of the motion vector of the block contained in this mobile body area | region is linked | related as the motion vector v (431) of a mobile body.

次に、移動体のコントラスト情報として、被写体内のエッジ強度特性を取得する。これは、画像に対してバンドパスフィルターをかけることでエッジ信号を検出し、任意のブロックサイズのエッジ信号の積分値を算出する。この算出した評価値は、エッジ信号の積分値が大きい場合、すなわち、テクスチャが多い場合に評価値が大きくなる。この評価値は下記式(2)を用いて算出する。   Next, edge strength characteristics in the subject are acquired as contrast information of the moving body. In this method, an edge signal is detected by applying a band pass filter to an image, and an integral value of an edge signal having an arbitrary block size is calculated. The calculated evaluation value is large when the integral value of the edge signal is large, that is, when there are many textures. This evaluation value is calculated using the following formula (2).

Figure 2018074363

fr(i,j):任意のブロックサイズ内の各座標におけるエッジ強度値
Fr:任意のブロックサイズにおけるエッジ強度の積分値
Figure 2018074363

fr (i, j): edge strength value at each coordinate in an arbitrary block size Fr: integrated value of edge strength at an arbitrary block size

S304では、移動体検出部202で検出された移動体の情報と画像の撮影に用いたカメラ情報を基に、補間処理部204で使用するパラメータの算出を行う。   In step S304, parameters used by the interpolation processing unit 204 are calculated based on the information on the moving body detected by the moving body detection unit 202 and the camera information used to capture the image.

本実施形態では、2枚以上の撮像画像の間にある非露光区間を補間するために補間画像の生成と、移動体の動き方向に方向性をもったフィルタをかける処理を補間処理として行う。   In the present embodiment, in order to interpolate a non-exposure section between two or more captured images, generation of an interpolation image and processing for applying a filter having directionality to the moving direction of the moving body are performed as interpolation processing.

図5は補間処理を示しており、NフレームとN+1フレームを用いて、非露光区間にあたる部分の補間画像を生成する。そして、撮像画像と補間画像に対して方向性を持ったフィルタ処理を行う。具体的には、Nフレーム501と補間画像502、補間画像502と503、補間画像503と504、補間画像504とN+1フレーム505に対して方向性をもったフィルタをかける。この処理で使用する補間画像の枚数とフィルタのタップ数を調節パラメータとして算出する。   FIG. 5 shows an interpolation process, and an interpolated image corresponding to a non-exposure section is generated using N frames and N + 1 frames. Then, filter processing having directionality is performed on the captured image and the interpolated image. Specifically, a filter having directionality is applied to the N frame 501 and the interpolation image 502, the interpolation images 502 and 503, the interpolation images 503 and 504, and the interpolation image 504 and the N + 1 frame 505. The number of interpolation images and the number of filter taps used in this process are calculated as adjustment parameters.

調整パラメータ算出処理について図6を用いて説明する。図6は移動体の情報に応じて使用するフィルタのタップ数を示したグラフ601、602であり、グラフの横軸は各情報、縦軸はフィルタのタップ数、各情報の優先度重みを603で表している。ここで使用する優先度重みは0〜1の範囲で表される値であり、各情報でのタップ数の結果に対して優先度の値が割り振られている。   The adjustment parameter calculation process will be described with reference to FIG. FIG. 6 is graphs 601 and 602 showing the number of filter taps to be used according to the information of the moving body. The horizontal axis of the graph represents each piece of information, the vertical axis represents the number of filter taps, and the priority weight of each piece of information 603. It is represented by The priority weight used here is a value expressed in the range of 0 to 1, and a priority value is assigned to the result of the number of taps in each information.

移動体検出部202から移動体の情報として、移動体の動きベクトル、移動体の大きさ、コントラスト情報などの移動体の特性が取得される。まず、動きベクトルとして撮像画像NフレームからN+1フレームまでの移動量vを使用する。非露光区間を補うための補間画像は、移動体の移動量vに応じて決定される。   As the moving object information, the moving object characteristics such as the motion vector of the moving object, the size of the moving object, and contrast information are acquired from the moving object detection unit 202. First, the movement amount v from the captured image N frame to the N + 1 frame is used as a motion vector. An interpolation image for compensating for the non-exposure section is determined according to the moving amount v of the moving body.

次に、フィルタ処理のタップ数を算出する。フィルタのタップ数は、カメラのメモリ量を考慮し、処理できるタップ数を上限として算出を行う。補間画像の生成枚数は、フィルタのタップ数を考慮して調整してもよい。   Next, the number of taps for filtering is calculated. The number of taps of the filter is calculated with the upper limit of the number of taps that can be processed in consideration of the memory amount of the camera. The number of interpolated images generated may be adjusted in consideration of the number of filter taps.

次に、取得した移動体の大きさ、コントラスト情報に応じたフィルタのタップ数を決定する処理について図6を用いて説明する。   Next, processing for determining the number of filter taps according to the acquired size of the moving body and contrast information will be described with reference to FIG.

まず、コントラスト情報を取得した場合について説明する。   First, a case where contrast information is acquired will be described.

S303で検出されたコントラストの評価値を使用し、グラフ601を用いてフィルタのタップ数を決定する。ここでは、テクスチャが多い被写体、すなわちコントラストの評価値が所定値よりも高い場合、その被写体に対してテクスチャを残すような補間処理を行いたいため、フィルタ処理よりも補間画像を生成する処理の優先度を上げる。   Using the contrast evaluation value detected in step S303, the number of filter taps is determined using the graph 601. Here, when the subject has many textures, that is, when the contrast evaluation value is higher than the predetermined value, it is desirable to perform an interpolation process that leaves a texture on the subject. Therefore, priority is given to the process of generating an interpolated image over the filter process. Raise the degree.

そこで、補間画像の枚数を多くするようにパラメータになるように、フィルタのタップ数が小さくなる値で設定される。一方で、テクスチャが少ない被写体、すなわちコントラストの評価値が所定値よりも低い場合、その被写体に対しては補間画像を生成するよりもフィルタ処理の優先度を上げるようにするため、補間画像の枚数が少なくなるような、フィルタのタップ数が大きくなる値で設定される。   Accordingly, the number of filter taps is set to a small value so that the number of interpolation images becomes a parameter. On the other hand, if the subject has few textures, that is, if the contrast evaluation value is lower than the predetermined value, the number of interpolated images is set to increase the priority of the filtering process rather than generating an interpolated image for that subject. Is set to a value that increases the number of filter taps.

次に、移動体の大きさ情報が得られた場合について説明する。S303で検出された領域の大きさの値を使用し、グラフ602を用いてフィルタのタップ数を決定する。移動体の領域が所定値よりも大きい場合、その移動体は目立つ領域となるため、被写体のテクスチャ情報を残す補間画像を生成する処理の優先度を上げる。そこで、補間画像の枚数を多くするようにパラメータになるように、フィルタのタップ数が小さくなる値で設定される。   Next, a case where the size information of the moving body is obtained will be described. Using the value of the size of the area detected in S303, the number of filter taps is determined using the graph 602. When the area of the moving object is larger than the predetermined value, the moving object becomes a conspicuous area, so that the priority of the process for generating the interpolation image that leaves the texture information of the subject is increased. Accordingly, the number of filter taps is set to a small value so that the number of interpolation images becomes a parameter.

一方で、移動体の領域が所定値よりも小さい場合、その移動体は目立ちにくい領域となり、その被写体に対してはフィルタ処理の優先度を上げるようにするため、補間画像の枚数が少なくなるような、フィルタのタップ数が大きくなる値で設定される。   On the other hand, when the area of the moving object is smaller than the predetermined value, the moving object becomes an inconspicuous area, and the number of interpolated images is reduced in order to increase the priority of filter processing for the subject. It is set at a value that increases the number of taps of the filter.

取得された被写体特性に関する情報毎にフィルタのタップ数の算出について説明したが、情報毎のタップ数と、情報毎の優先度を考慮して、最終的に使用するフィルタのタップ数を決定する。算出方法としては、下記式(3)を用いて各情報に対応するタップ数Tを算出する。   Although the calculation of the number of taps of the filter for each piece of information related to the acquired subject characteristic has been described, the number of taps of the filter to be finally used is determined in consideration of the number of taps for each piece of information and the priority for each piece of information. As a calculation method, the number of taps T corresponding to each information is calculated using the following equation (3).

ここでのαは情報毎の優先度に設定された重み、nは取得された情報の数を表している。αとしては、表603のように被写体のコントラスト情報である被写体のテクスチャの有無がフィルタのタップ数を決定するために重要となるため、重みを大きくする。また、これらの重みをユーザーが指定して決めてもよい。 Here, α n represents the weight set for the priority for each information, and n represents the number of pieces of information acquired. As α n, as shown in Table 603, since the presence / absence of the texture of the object, which is the contrast information of the object, is important for determining the number of taps of the filter, the weight is increased. These weights may be specified by the user.

Figure 2018074363

:情報毎に決定した優先度
Figure 2018074363

a n Priority determined for each information

次に補間処理で使用する補間画像の枚数を算出する。算出方法としては下記式(4)を用いて、移動体の移動量を基に、算出したフィルタのタップ数を考慮して補間画像の枚数Mを決定する。
M=v÷T・・・(4)
v:検出した動きベクトル
Next, the number of interpolated images used in the interpolation process is calculated. As a calculation method, the following equation (4) is used to determine the number M of interpolation images in consideration of the calculated number of filter taps based on the moving amount of the moving body.
M = v ÷ T (4)
v: detected motion vector

S305では、算出したパラメータを使用して、撮像画像における非露光区間部分を生成するための補間処理を行う。補間処理について図7を用いて説明する。図7は補間画像を生成する際に使用する補間枚数と動きベクトルの関係を示した701、補間画像に使用するゲインをかけた後の動きベクトルを説明する711、動きベクトルを用いたフィルタ処理721を示している。   In step S305, interpolation processing for generating a non-exposure section portion in the captured image is performed using the calculated parameters. The interpolation process will be described with reference to FIG. FIG. 7 shows the relationship between the number of interpolations used when generating an interpolated image and the motion vector 701, the motion vector after applying the gain used for the interpolated image 711, and the filter processing 721 using the motion vector. Is shown.

補間処理では、2枚以上の撮像画像の間にある非露光区間を補間するために補間画像の生成と、方向性をもったフィルタをかける処理を行う。まずは撮像画像のNフレームとN+1フレームにおける補間画像の生成を行う。この補間画像の生成では、移動体検出部202と調整パラメータ算出部203から取得された情報を用いる。   In the interpolation processing, in order to interpolate a non-exposure section between two or more captured images, processing for generating an interpolation image and applying a filter having directionality is performed. First, interpolation images are generated in N frames and N + 1 frames of the captured image. In the generation of this interpolation image, information acquired from the moving object detection unit 202 and the adjustment parameter calculation unit 203 is used.

調節パラメータ算出部203から調節パラメータとして生成する補間画像の枚数Mが取得される。そして、701のように生成するNフレームとN+1フレームの間の補間画像となるM枚の画像が時間的に等間隔になるように補間画像の生成を行う。701においてnは生成する補間画像の位置を示しており、1〜M枚目まで生成を行う。まず、移動体情報として取得した移動体の動きベクトルに対して下記式(5)を用いて生成する補間画像の位置に対応するゲインをかける。   The number M of interpolated images to be generated as adjustment parameters is acquired from the adjustment parameter calculation unit 203. Then, an interpolation image is generated so that M images as interpolation images between N frames and N + 1 frames generated as in 701 are equally spaced in time. In 701, n indicates the position of the interpolation image to be generated, and the first to Mth images are generated. First, a gain corresponding to the position of the interpolation image generated using the following equation (5) is applied to the motion vector of the mobile object acquired as the mobile object information.

Figure 2018074363

Vm:生成する補間画像位置に対応する動きベクトル
v:検出した動きベクトル
m:補間画像を生成する位置(1≦m≦M)
Figure 2018074363

Vm: motion vector corresponding to the position of the interpolated image to be generated v: detected motion vector m: position where the interpolated image is generated (1 ≦ m ≦ M)

たとえば、n=1の位置に補間画像を生成する場合は、動きベクトルに対して1/(M+1)のゲインをかけることになる。そして、このゲインをかけた動きベクトルを使用し、Nフレームの移動体が算出された動きベクトルの示す位置に来るように補間画像を生成する。712の移動体に対して、動きベクトルv/(M+1)だけ移動させたものを補間画像とする。そして、最終的にM枚目まで処理を行い、必要な枚数の補間画像を生成する。   For example, when an interpolation image is generated at a position of n = 1, a gain of 1 / (M + 1) is applied to the motion vector. Then, using the motion vector multiplied by the gain, an interpolation image is generated so that the moving body of N frames comes to the position indicated by the calculated motion vector. The interpolated image is obtained by moving the moving object 712 by the motion vector v / (M + 1). Then, the process is finally performed up to the Mth sheet, and a necessary number of interpolated images are generated.

次に、撮像したNフレーム、N+1フレームの画像と、生成したM枚の補間画像に対しいて、方向性をもったフィルタ処理として、動きベクトルの移動方向に対応したフィルタを撮像画像と補間画像に対してかける。たとえば、721で示している撮像画像Nフレームと補間画像(n=1)の2枚の画像に対してフィルタ処理を行う場合、補間画像(n=1)を生成した際に使用したゲインをかけた後の動きベクトルv/(M+1)を用いてフィルタを生成する。   Next, a filter corresponding to the moving direction of the motion vector is applied to the captured image and the interpolated image as a filtering process having directionality for the captured N frame and N + 1 frame images and the generated M interpolated images. Call against. For example, when the filter processing is performed on two images of the captured image N frame indicated by 721 and the interpolation image (n = 1), the gain used when the interpolation image (n = 1) is generated is applied. Then, a filter is generated using the motion vector v / (M + 1).

このフィルタ処理では、被写体の動きベクトルを基に2フレーム間に対してフィルタ処理を行う。ここでは、動きベクトルを基に補間画像(n=1)目の画像に対して動きベクトルと逆方向に下記式(6)を用いて必要なタップ数Tの画素値に対して処理を行う。   In this filtering process, a filtering process is performed between two frames based on the motion vector of the subject. Here, based on the motion vector, an interpolation image (n = 1) -th image is processed for the pixel value of the necessary number of taps T using the following equation (6) in the opposite direction to the motion vector.

Figure 2018074363

In:nフレーム目の画像データ
α:重み係数
Figure 2018074363

In: nth frame image data α: weighting coefficient

式(6)を用いることで、動きベクトルに基づく方向に対して、ベクトルに応じた度合いのフィルタ処理を行う。なお、このフィルタ処理は一例であり、この手法に限ったものではない。   By using Expression (6), filter processing with a degree corresponding to the vector is performed on the direction based on the motion vector. This filtering process is an example and is not limited to this method.

S306では、撮像画像取得部101で取得した撮像画像と、上記の処理により生成された非露光区間部分を補間する画像情報を使用して長秒露光画像を生成する。合成方法としては、同じ画素位置にある画素値の加重合成を行う。加重合成では、画像の輝度値に応じて重みを変更する。たとえば、同じ位置にある各画素に対して最終的に合成を行う枚数Rを用いて、各画素に対して1/Rの重みを持たせて合成処理を行うことで長秒露光画像を生成する。   In step S306, a long-second exposure image is generated using the captured image acquired by the captured image acquisition unit 101 and image information that interpolates the non-exposure section portion generated by the above processing. As a synthesis method, weighted synthesis of pixel values at the same pixel position is performed. In the weighted composition, the weight is changed according to the luminance value of the image. For example, a long-second exposure image is generated by performing a combining process with a weight of 1 / R for each pixel, using the number of sheets R to be finally combined for each pixel at the same position. .

本実施形態では、S304においてNフレームからN+1フレームへの動きベクトルを用いて補間画像の枚数を決定していたが、これに限定されるものではなく、使用機器のメモリ容量を基に補間画像の最大枚数を決定しても良い。具体的には、生成する補間画像の容量から保存できる枚数が決定するので、その最大枚数を記録し、本実施例でS304において算出したフィルタのタップ数を使用して、最終的に生成する補間画像の枚数を決定する。   In this embodiment, the number of interpolated images is determined using the motion vector from the N frame to the N + 1 frame in S304. However, the present invention is not limited to this, and the number of interpolated images is determined based on the memory capacity of the device used. The maximum number may be determined. Specifically, since the number of images that can be stored is determined from the capacity of the interpolation image to be generated, the maximum number of images is recorded, and the interpolation that is finally generated by using the number of filter taps calculated in S304 in this embodiment. Determine the number of images.

本実施形態では、S304においてNフレームからN+1フレームへの動きベクトルを用いて補間画像の枚数を決定していたが、これに限定されるものではなく、撮影間隔とシャッタースピードを基に枚数を決定しても良い。具体的には、撮影間隔の時間(Tvfps)のうち、撮影しているシャッタースピード(露光区間:Tv)の割合を算出する。 In the present embodiment, the number of interpolated images is determined using the motion vector from the N frame to the N + 1 frame in S304. However, the present invention is not limited to this, and the number is determined based on the shooting interval and the shutter speed. You may do it. Specifically, the ratio of the shooting shutter speed (exposure section: Tv) in the shooting interval time (Tv fps ) is calculated.

Figure 2018074363
Figure 2018074363

その中で、非露光区間の割合は1−Pから算出することができる。そして、各割合を用いて、補間画像を生成する枚数を算出する。   Among them, the ratio of the non-exposure section can be calculated from 1-P. Then, the number of interpolation images to be generated is calculated using each ratio.

Figure 2018074363
Figure 2018074363

次に、本実施例でS304において算出したフィルタのタップ数を算出し、S304で算出した補間画像の枚数とフィルタのタップ数を補間処理部104に出力する。   Next, the number of filter taps calculated in S304 in this embodiment is calculated, and the number of interpolated images and the number of filter taps calculated in S304 are output to the interpolation processing unit 104.

本実施形態では、S306の合成処理において、加重合成する方法を用いたが、対象画像に対して比較明合成を行って長秒露光画像を生成する方法を行っても良い。具体的には、撮像画像と生成した非露光区間部分の中から、着目画素位置に対して最も明るい画素値を選択し、その画素位置に格納することで、長秒露光画像を生成する。   In the present embodiment, the weighted synthesis method is used in the synthesis process of S306. However, a method of generating a long second exposure image by performing comparatively bright synthesis on the target image may be performed. Specifically, the longest exposure image is generated by selecting the brightest pixel value with respect to the target pixel position from the captured image and the generated non-exposure section and storing the selected pixel value in the pixel position.

(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 撮像画像取得部
102 移動体検出部
103 調節パラメータ算出部
104 補間処理部
105 合成処理部
DESCRIPTION OF SYMBOLS 101 Captured image acquisition part 102 Moving body detection part 103 Adjustment parameter calculation part 104 Interpolation process part 105 Compositing process part

Claims (7)

第1露光時間の撮影を連続的に行って得られた複数の画像を合成することによって、第1露光時間よりも長い第2露光時間の撮影で得られる画像に相当する合成画像を生成する画像処理装置であって、
前記複数の画像を合成する合成手段と、
前記画像手段による合成において撮影間の非露光区間に対応する画像情報を被写体の動きに応じて補間する補間手段と、
前記被写体の特性に応じて前記補間手段による補間の処理内容を制御する制御手段と、を備えることを特徴とする画像処理装置。
An image that generates a composite image corresponding to an image obtained by shooting at a second exposure time longer than the first exposure time by combining a plurality of images obtained by continuously performing shooting at the first exposure time. A processing device comprising:
Combining means for combining the plurality of images;
Interpolating means for interpolating image information corresponding to a non-exposure section between photographing in the composition by the image means according to the movement of the subject;
An image processing apparatus comprising: control means for controlling processing contents of interpolation by the interpolation means in accordance with characteristics of the subject.
前記補間手段は、前記複数の画像間を補間する補間画像を生成するとともに、前記複数の画像と前記補間画像に対して被写体の動き方向にフィルタ処理を行うことを特徴とする請求項1に記載の画像処理装置。   The interpolating unit generates an interpolated image for interpolating between the plurality of images, and performs a filtering process on the plurality of images and the interpolated image in a moving direction of a subject. Image processing apparatus. 前記制御手段は、前記被写体の動き量に応じて補間画像の生成枚数を決定することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the control unit determines the number of generated interpolated images according to the amount of movement of the subject. 前記制御手段は、前記補間画像の生成枚数と前記フィルタ処理に用いるタップ数を制御することを特徴とする請求項2または請求項3に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the control unit controls the number of generated interpolation images and the number of taps used for the filter processing. 前記制御手段は、前記被写体の大きさが所定値よりも大きい場合は、前記補間画像の生成枚数が優先されるように制御することを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the control unit performs control so that the number of generated interpolated images is prioritized when the size of the subject is larger than a predetermined value. 前記制御手段は、前記被写体のコントラストの評価値が所定値よりも大きい場合は、前記補間画像の生成枚数が優先されるように制御することを特徴とする請求項4または請求項5に記載の画像処理装置。   6. The control unit according to claim 4, wherein when the evaluation value of the contrast of the subject is greater than a predetermined value, the control unit performs control so that the number of generated interpolated images is prioritized. Image processing device. 第1露光時間の撮影を連続的に行って得られた複数の画像を合成することによって、第1露光時間よりも長い第2露光時間の撮影で得られる画像に相当する合成画像を生成する画像処理方法であって、
前記複数の画像を合成する合成ステップと、
前記合成ステップにおいて撮影間の非露光区間に対応する画像情報を被写体の動きに応じて補間する補間ステップと、
前記被写体の特性に応じて前記補間ステップにおける補間の処理内容を制御する制御ステップと、を備えることを特徴とする画像処理方法。
An image that generates a composite image corresponding to an image obtained by shooting at a second exposure time longer than the first exposure time by combining a plurality of images obtained by continuously performing shooting at the first exposure time. A processing method,
A combining step of combining the plurality of images;
An interpolation step of interpolating image information corresponding to a non-exposure section between photographing in the combining step according to the movement of the subject;
And a control step for controlling the processing content of the interpolation in the interpolation step according to the characteristics of the subject.
JP2016211524A 2016-10-28 2016-10-28 Image processing equipment, image processing methods and programs Active JP6808446B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016211524A JP6808446B2 (en) 2016-10-28 2016-10-28 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016211524A JP6808446B2 (en) 2016-10-28 2016-10-28 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018074363A true JP2018074363A (en) 2018-05-10
JP6808446B2 JP6808446B2 (en) 2021-01-06

Family

ID=62115841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016211524A Active JP6808446B2 (en) 2016-10-28 2016-10-28 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6808446B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053835A1 (en) * 2022-09-08 2024-03-14 삼성전자주식회사 Electronic device and method for obtaining image on basis of synthesis of frames

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053835A1 (en) * 2022-09-08 2024-03-14 삼성전자주식회사 Electronic device and method for obtaining image on basis of synthesis of frames

Also Published As

Publication number Publication date
JP6808446B2 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
CN103493473B (en) Image processing apparatus, image processing method, image processing program and recording medium
US8023000B2 (en) Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP5687553B2 (en) Image composition apparatus, image composition method, and image composition program
JP6270413B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5645450B2 (en) Image processing apparatus and method
CN103503436A (en) Image processing apparatus, image processing method, and image processing program
JP4210954B2 (en) Image processing method, image processing method program, recording medium storing image processing method program, and image processing apparatus
KR20070097550A (en) Electronic device for image data processing and method in electronic device
CN110661977A (en) Subject detection method and apparatus, electronic device, computer-readable storage medium
JP2008077501A (en) Image processing device and image processing control program
US20160078598A1 (en) Image processor and image processing method
US20090079836A1 (en) Image processing apparatus, method, and computer program product
JP6261205B2 (en) Image processing device
JP6808446B2 (en) Image processing equipment, image processing methods and programs
JP2021097351A (en) Image processing device, imaging device, image processing method, program, and recording medium
US20220318958A1 (en) Image processing apparatus and image processing method
CN113807124B (en) Image processing method, device, storage medium and electronic equipment
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP6120632B2 (en) Image processing apparatus, image processing method, and image processing program
JP5541956B2 (en) Image composition method, image composition program, and image composition apparatus
JP6742823B2 (en) Image processing apparatus, image processing method, and program
JP7143191B2 (en) Image processing device
JP2015148965A (en) Image processing apparatus, imaging apparatus, and image processing method
JP2015055988A (en) Image processor, image processing method, and program
JP2020047979A (en) Image processing system and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201209

R151 Written notification of patent or utility model registration

Ref document number: 6808446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151