JP2008294785A - Image processor, imaging apparatus, image file, and image processing method - Google Patents
Image processor, imaging apparatus, image file, and image processing method Download PDFInfo
- Publication number
- JP2008294785A JP2008294785A JP2007138599A JP2007138599A JP2008294785A JP 2008294785 A JP2008294785 A JP 2008294785A JP 2007138599 A JP2007138599 A JP 2007138599A JP 2007138599 A JP2007138599 A JP 2007138599A JP 2008294785 A JP2008294785 A JP 2008294785A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- unit
- imaging
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims description 81
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000012545 processing Methods 0.000 claims abstract description 154
- 238000000034 method Methods 0.000 claims description 101
- 238000012937 correction Methods 0.000 claims description 89
- 230000008569 process Effects 0.000 claims description 79
- 238000001514 detection method Methods 0.000 claims description 54
- 235000019557 luminance Nutrition 0.000 description 129
- 230000006835 compression Effects 0.000 description 21
- 238000007906 compression Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000006243 chemical reaction Methods 0.000 description 18
- 230000008859 change Effects 0.000 description 15
- 230000001419 dependent effect Effects 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 13
- 230000006837 decompression Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 10
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 9
- 238000003702 image correction Methods 0.000 description 9
- 239000000203 mixture Substances 0.000 description 9
- 230000007423 decrease Effects 0.000 description 8
- 230000001965 increasing effect Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は画像中の被写体の輪郭のぼかし度合いの補正が可能な画像処理装置及びその画像処理方法に関し、特に撮像装置からの距離が異なる複数の被写体を含む画像のぼかし処理に関する。 The present invention relates to an image processing apparatus capable of correcting the degree of blurring of a contour of a subject in an image and an image processing method thereof, and more particularly to blurring processing of an image including a plurality of subjects having different distances from an imaging device.
現在広く普及しているデジタルカメラやデジタルビデオなどといった撮像装置では、CCD(Charge Coupled Device)やCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子の画素数の向上により高精細な画像が撮影できるようになっている。さらに、撮影した画像の階調を自動的に補正して、記録される画像を見栄えのよいものとする撮像装置も既に提案されている。従来の一般的な階調補正は、例えば、撮影画像の全体に鮮明な画像にするため、近景も遠景も同じように鮮明な画像とするものである。 Imaging devices such as digital cameras and digital videos that are currently widely used can capture high-definition images by increasing the number of pixels in solid-state imaging devices such as CCD (Charge Coupled Device) and CMOS (Complimentary Metal Oxide Semiconductor) sensors. It is like that. In addition, an imaging apparatus that automatically corrects the gradation of a captured image to make the recorded image look good has already been proposed. The conventional general tone correction is, for example, to make clear images in the near view and the distant view in order to make the entire captured image clear.
ところで、撮影者に実際に見えている光景では、撮影者からの距離が近い物体ほど鮮明であり、距離が遠い物体ほどぼやけている。つまり、撮影者の肉眼には奥行き感のある立体的な画像が見えている。一眼レフカメラのように、レンズの口径及び撮像素子の大きな撮像装置では、被写界深度の浅い画像を撮影できるため、ボケ味のある、奥行き感のある画像を撮影することができる。しかし、コンパクトサイズのデジタルカメラのような小型の撮像装置においてはレンズの口径及び撮像素子が小さいため、撮影された画像は被写界深度が深く、焦点が近景から遠景まで全体に合ったものとなり、ボケ味のある、奥行き感のある画像を撮影することは難しい。 By the way, in a sight actually seen by a photographer, an object closer to the photographer is clearer and an object farther away is more blurred. That is, a stereoscopic image with a sense of depth is visible to the naked eye of the photographer. An imaging apparatus having a large lens aperture and imaging element, such as a single-lens reflex camera, can capture an image with a shallow depth of field, and thus can capture a blurred and deep image. However, in a small imaging device such as a compact digital camera, the aperture of the lens and the imaging element are small, so the captured image has a deep depth of field, and the focus is suitable for the entire range from near view to distant view. It is difficult to shoot a blurred image with a sense of depth.
そこで、特許文献1では、画像中の被写体が人物であることを検出すると、その画像の人物以外の部分をぼかす方法が提案されている。これによって、人物から背景まで全体に焦点が合った画像でも、人物が浮き上がった画像とすることができる。 Therefore, Patent Document 1 proposes a method of blurring a part other than the person in the image when it is detected that the subject in the image is a person. Thereby, even an image in which the whole object is focused from the person to the background can be an image in which the person is raised.
又、特許文献2では撮影レンズの焦点距離又は被写体の撮影距離の少なくとも一方を利用して階調の変換を変化させる方法が提案されている。マクロ撮影のように焦点距離が長く、撮影距離が短い場合は中間域の階調変化を強調して白とびや黒つぶれを抑制して画面全体の階調表現を視覚的に滑らかなものとし、一方、風景撮影のように焦点距離が短く、撮影距離が長い場合は中間域の階調変化を弱めて階調を変換し、中間域に集中した階調変化域を拡げてメリハリのある画像に変換させている。
しかし、特許文献1で提案された画像補整方法では、ぼかし度合いを使用者が設定することができるものの、1個の画像中におけるぼかし度合いは一定であるため人物に比較的近い被写体も比較的遠い被写体もぼけ具合が同じになってしまい、不自然な画像となる。 However, in the image correction method proposed in Patent Document 1, although the blurring degree can be set by the user, the blurring degree in one image is constant, so an object relatively close to a person is also relatively far away. The subject will also have the same blur, resulting in an unnatural image.
又、近景、遠景が混在し、焦点が全体に合った画像に対して特許文献2で提案された階調の変換方法を適用する場合、上述のマクロ撮影用の変換方法又は風景撮影用の変換方法のいずれかが適用されることとなる。マクロ撮影用の変換方法では画面全体の階調表現が視覚的に滑らかなものとなり、風景撮影用の変換方法では画面全体がメリハリのあるものとなる。しかし、いずれにしても、近景、遠景の区別なく画面全体に同一の変換条件を適用するため、画面内では近景が遠景に埋もれてしまい、実際に撮影者に見えているような奥行き感は得られない。
In addition, when the gradation conversion method proposed in
そこで、本発明は、近景から遠景まで焦点が全体に合った画像でも、対象となる被写体に焦点が合い、それ以外の被写体がぼけた、奥行き感のある立体的なものとする画像処理装置及び画像処理方法を提供することを目的とする。又、焦点が全体にあった画像を、上述のような奥行き感のある立体的なものとするための被写体までの距離情報を、その画像とともに関連づけて記録できる撮像装置を提供することを目的とする。 Therefore, the present invention provides an image processing device that is a three-dimensional image with a sense of depth, in which an object in focus is in focus, and other objects are blurred, even in an image in which the entire focus is from near to far An object is to provide an image processing method. Another object of the present invention is to provide an imaging apparatus capable of recording distance information to a subject in association with the image in order to make the image having the entire focus into a three-dimensional image with a sense of depth as described above. To do.
上記目的を達成するために本発明は、入力された信号の信号値を変更して画像を補正する画像補正装置において、被写体を含む画像を単数又は複数の画素からなる領域に区分し、前記領域の各々を前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施すことを特徴とする。 In order to achieve the above object, according to the present invention, in an image correction apparatus that corrects an image by changing a signal value of an input signal, an image including a subject is divided into regions each including one or more pixels, and the region Each of these is subjected to a blurring process by applying a blurring degree set according to the distance to the subject.
又、前記ぼかし処理がローパスフィルタによって行われ、前記ローパスフィルタのカットオフ周波数を変更することにより前記ぼかし度合いを設定するものとしても構わない。 The blurring process may be performed by a low-pass filter, and the blurring degree may be set by changing a cutoff frequency of the low-pass filter.
又、前記被写体までの距離が長いほど前記領域に適用する領域前記ぼかし度合いを高く設定するものとしても構わない。 Further, as the distance to the subject is longer, the blur applied to the area may be set higher.
又、前記被写体までの距離が所定の距離以下である前記領域にはぼかし処理を施さないものとしても構わない。 Further, the area where the distance to the subject is equal to or less than a predetermined distance may not be subjected to the blurring process.
又、前記領域を前記被写体までの距離に基づいて複数の距離グループに区分し、前記距離グループの各々に前記ぼかし度合いを設定し、前記領域の各々は、属する前記距離グループに設定されたぼかし度合いによってぼかし処理を施すものとしても構わない。 Further, the area is divided into a plurality of distance groups based on the distance to the subject, the blurring degree is set for each of the distance groups, and each of the areas has a blurring degree set for the distance group to which it belongs. The blur processing may be performed.
又、前記領域の前記被写体までの距離が所定の距離よりも離れるほど前記ぼかし度合いを高く設定するものとしても構わない。 Further, the blurring degree may be set higher as the distance of the area to the subject is larger than a predetermined distance.
又、前記所定の距離が、特定部分を有する前記被写体までの距離であるものとしても構わない。 Further, the predetermined distance may be a distance to the subject having a specific portion.
又、前記領域の各々を前記被写体までの距離に応じた階調補正特性によって階調補正するものとしても構わない。 Further, each of the areas may be subjected to gradation correction by gradation correction characteristics corresponding to the distance to the subject.
又、本発明の電子機器は、上記構成の画像補正装置を備えるものとする。 An electronic apparatus according to the present invention includes the image correction apparatus having the above-described configuration.
上記電子機器において、レンズと焦点制御手段とを有するレンズ部と、前記レンズ部から入射した光を電気信号に光電変換する固体撮像素子と、前記固体撮像素子で取得した前記被写体を含む画像の電気信号から前記被写体まで距離を検出する距離検出部と、前記固体撮像素子で取得したままの状態の前記画像の電気信号からなる本体部と、前記距離検出部で検出した前記本体部の画像を区分した各領域の前記被写体までの距離の情報を有するヘッダ部とを備える画像ファイルを記憶する記憶部と、を備え、前記記憶部に記憶された前記本体部の前記画像の電気信号を前記ヘッダ部に記憶された前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施すものとしても構わない。 In the electronic apparatus, a lens unit including a lens and a focus control unit, a solid-state image sensor that photoelectrically converts light incident from the lens unit into an electric signal, and an electric image including the subject acquired by the solid-state image sensor. A distance detection unit that detects a distance from a signal to the subject, a main body unit that includes an electrical signal of the image as obtained by the solid-state imaging device, and an image of the main body unit that is detected by the distance detection unit A storage unit that stores an image file including a header unit that includes information on a distance to the subject in each region, and the header unit receives an electrical signal of the image of the main body stored in the storage unit The blurring process may be performed by applying a blurring degree set in accordance with the distance to the subject stored in the screen.
又、前記固体撮像素子で、前記被写体を含み合焦距離の異なる複数の画像からなる距離検出用画像を、前記レンズ部の合焦距離を変化させて取得し、前記距離検出部では、前記合焦距離の異なる複数の画像の前記領域の各々の高周波成分の強度を測定し、前記領域の各々の高周波成分の強度が最も高い画像の合焦距離を検出し、前記距離検出部で検出した、前記高周波成分の強度が最も高い画像の合焦距離を、前記領域の各々の前記被写体までの距離として用いるものとしても構わない。 In addition, the solid-state imaging device obtains a distance detection image including a plurality of images including the subject and having different focus distances by changing the focus distance of the lens unit. Measure the strength of each high-frequency component of the regions of the plurality of images with different focal distances, detect the focal distance of the image with the highest strength of each high-frequency component of the region, detected by the distance detection unit, The focus distance of the image with the highest intensity of the high-frequency component may be used as the distance to the subject in each of the regions.
又、本発明の画像補正方法は、被写体を含む前記画像の信号と、前記画像を区分した単数又は複数の画素からなる領域の各々の前記被写体までの距離情報とを有する画像ファイルを記憶した外部メモリから前記画像ファイルの読み出しを行う第1ステップと、前記第1ステップで読み出された前記領域の各々に含まれる前記被写体までの距離に応じたぼかし度合いによって、前記被写体を含む画像にぼかし処理を施す第2ステップと、を備えることを特徴とする。 The image correction method according to the present invention further includes an external image file storing an image file including a signal of the image including a subject, and distance information to the subject in each of a region composed of a single pixel or a plurality of pixels dividing the image. A first step of reading the image file from the memory, and a blurring process on the image including the subject according to a blurring degree according to the distance to the subject included in each of the areas read in the first step And a second step of applying.
本発明によると、画面を区分した領域に含まれる被写体までの距離に基づいて、領域毎にぼかし処理の度合いを設定するため、近景から遠景まで焦点が全体に合った画像でも、対象となる被写体に焦点が合い、それ以外の被写体がぼけた、奥行き感のある立体的なものとすることができる。 According to the present invention, since the degree of blurring processing is set for each area based on the distance to the object included in the area where the screen is divided, even in an image in which the entire focus is from the foreground to the distant view, the target object It can be a three-dimensional object with a sense of depth in which the other subjects are blurred.
〈第1の実施形態〉
本発明の第1の実施の形態について、図面を参照して説明する。尚、以下では、本発明における撮影方法を行うデジタルカメラやデジタルビデオなどの撮像装置を例に挙げて説明する。撮像装置は静止画を撮影できるものであれば、動画撮影が可能なものであっても構わない。
<First Embodiment>
A first embodiment of the present invention will be described with reference to the drawings. In the following description, an imaging apparatus such as a digital camera or a digital video that performs the shooting method of the present invention will be described as an example. The imaging device may be capable of capturing a moving image as long as it can capture a still image.
(撮像装置の構成)
まず、撮像装置の内部構成について、図面を参照して説明する。図1は、第1の実施形態に係る撮像装置の内部構成を示すブロック図である。
(Configuration of imaging device)
First, the internal configuration of the imaging apparatus will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an internal configuration of the imaging apparatus according to the first embodiment.
図1の撮像装置は、入射される光を電気信号に変換するCCD又はCMOSセンサなどの固体撮像素子(イメージセンサ)1と、被写体の光学像をイメージセンサ1に結像させるズームレンズとズームレンズの焦点距離すなわち光学ズーム倍率を変化させるモータとズームレンズの焦点を被写体に合わせるためのモータとを有するレンズ部2と、イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog Front End)3と、外部から入力された音声を電気信号に変換するマイク4と、AFE3からのデジタル信号となる画像信号に対して、ぼかし処理及び階調補正を含む各種画像処理を施す画像処理部5と、画像処理部5から入力された画像信号から被写体までの距離を検出する距離検出部23と、マイク4からのアナログ信号である音声信号をデジタル信号に変換する音声処理部6と、静止画を撮影する場合は画像処理部5からの画像信号に対してJPEG(Joint Photographic Experts Group)圧縮方式など、動画を撮影する場合は画像処理部5からの画像信号と音声処理部6からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す圧縮処理部7と、圧縮処理部7で圧縮符号化された圧縮符号化信号をSDカードなどの外部メモリ22に記録するドライバ部8と、ドライバ部8で外部メモリ22から読み出した圧縮符号化信号を伸長して復号する伸長処理部9と、伸長処理部9で復号されて得られた画像信号をアナログ信号に変換するビデオ出力回路部10と、ビデオ出力回路部10で変換された信号を出力するビデオ出力端子11と、ビデオ出力回路部10からの信号に基づく画像の表示を行うLCD等を有するディスプレイ部12と、伸長処理部9からの音声信号をアナログ信号に変換する音声出力回路部13と、音声出力回路部13で変換された信号を出力する音声出力端子14と、音声出力回路部13からの音声信号に基づいて音声を再生出力するスピーカ部15と、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)16と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)17と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ18と、静止画撮影用のシャッターボタンを含むユーザからの指示が入力される操作部19と、CPU17と各ブロックとの間でデータのやりとりを行うためのバス回線20と、メモリ18と各ブロックとの間でデータのやりとりを行うためのバス回線21と、を備える。レンズ部2は、画像処理部5で検出した画像信号に応じてCPU17が、モータを駆動して焦点、絞りの制御を行うものである。
The imaging apparatus of FIG. 1 includes a solid-state imaging device (image sensor) 1 such as a CCD or CMOS sensor that converts incident light into an electrical signal, and a zoom lens and a zoom lens that form an optical image of a subject on the image sensor 1. A
(撮像装置の基本動作 静止画撮影時)
次に、この撮像装置の静止画撮影時の基本動作について図2のフローチャートを用いて説明する。まず、ユーザが撮像装置の電源をONにすると(STEP201)、撮像装置の撮影モードつまりイメージセンサ1の駆動モードがプレビューモードに設定される(STEP202)。続いて撮影モードの入力待ち状態となり、後述するぼかしモード等が選択される。撮影モードが入力されない場合はプレビューモードが選択されたものとする(STEP203)。プレビューモードでは、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE3においてデジタル信号に変換されて、画像処理部5で画像処理が施され、圧縮処理部7で圧縮された現時点の画像に対する画像信号が外部メモリ22に一時的に記録される。この圧縮信号は、ドライバ部8を経て、伸長処理部9で伸長され、現時点で設定されているレンズ部18のズーム倍率での画角の画像がディスプレイ部12に表示される。
(Basic operation of the imaging device)
Next, the basic operation of the image pickup apparatus at the time of still image shooting will be described with reference to the flowchart of FIG. First, when the user turns on the power of the imaging apparatus (STEP 201), the imaging mode of the imaging apparatus, that is, the driving mode of the image sensor 1 is set to the preview mode (STEP 202). Subsequently, the camera enters a shooting mode input waiting state, and a blur mode and the like to be described later are selected. If the shooting mode is not input, the preview mode is selected (STEP 203). In the preview mode, an image signal that is an analog signal obtained by the photoelectric conversion operation of the image sensor 1 is converted into a digital signal by the
続いてユーザが、撮影の対象とする被写体に対して所望の画角となるように、光学ズームでのズーム倍率を設定する(STEP204)。その際、画像処理部5に入力された画像信号を基にCPU17によってレンズ部2を制御して、最適な露光制御(Automatic Exposure;AE)・フォーカス制御(Auto Focus;AF)が行われる(STEP205)。
Subsequently, the user sets the zoom magnification with the optical zoom so that the desired angle of view is obtained with respect to the subject to be imaged (STEP 204). At this time, the
ユーザが撮影画角、構図を決定し、操作部19のシャッターボタンを半押しすると(STEP206)、AEの調整を行い(STEP207)、AFの最適化処理を行う(STEP208)。AFの最適化処理では、例えば撮影画像エリアを複数の領域に分割し、その一部の領域をAF評価エリアと設定する。そして、レンズ部2の合焦距離(フォーカス位置)を近点から遠点又は遠点から近点へ変化させながら、距離情報検出部23でAF評価エリアの重み付けを高く設定した全領域の輝度信号の高周波成分を検出し、高周波成分が最大値となるフォーカス位置を撮影に用いるフォーカス位置に設定する。図3は撮影画像エリアを縦8列、横8行の64個の領域に分割し、その中央の16個の領域をAF評価エリアと設定した画像の例である。図4は図3の画像のAF評価エリアの重み付けを高く設定した全領域及び他の個々の領域の輝度信号の高周波成分と合焦距離との関係を示すグラフである。太線で示すAF評価エリアの重み付けを高く設定した全領域のグラフの矢印で示した位置が撮影に用いるフォーカス位置である。
When the user determines the shooting angle of view and composition and presses the shutter button of the
撮影用のAE・AFが設定されると、イメージセンサ1の駆動モードについてぼかし処理モードが選択されているかどうかを検出する(ステップ209)。ぼかし処理モードが選択されていない場合、シャッターボタンが全押しされると(STEP220)、TG16より、イメージセンサ1、AFE3、画像処理部5及び圧縮処理部7それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させ、イメージセンサ1の駆動モードを静止画撮影モードに設定し(STEP221)、イメージセンサ1から出力されるアナログ信号である画像信号(生データ)をAFE3でデジタル信号に変換して一旦画像処理部5内のフレームメモリに書き込む(STEP222)。このデジタル信号がこのフレームメモリから読み込まれ、画像処理部5において輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施され、画像処理が施された信号が圧縮処理部7においてJPEG(Joint Photographic Experts Group)形式に圧縮された(STEP223)後、外部メモリ22に圧縮画像を書き込み(STEP213)、撮影を完了する。その後、プレビューモードに戻る(STEP202)。
When AE / AF for photographing is set, it is detected whether or not the blurring processing mode is selected for the drive mode of the image sensor 1 (step 209). When the blur processing mode is not selected, when the shutter button is fully pressed (STEP 220), a timing control signal is given from the
(撮像装置の基本動作 動画撮影時)
動画撮影時の動作について説明する。この撮像装置において、撮像動作を行うことが操作部19によって指示されると、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE3に出力される。このとき、イメージセンサ1では、TG16からのタイミング制御信号が与えられることによって、水平走査及び垂直走査が行われて、画素毎のデータとなる画像信号が出力される。そして、AFE3において、アナログ信号である画像信号(生データ)がデジタル信号に変換されて、画像処理部5に入力されると、輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施される。
(Basic operation of the imaging device)
The operation during movie shooting will be described. In this imaging apparatus, when the
そして、画像処理部5で画像処理が施された画像信号が圧縮処理部7に与えられる。このとき、マイク4に音声入力されることで得られたアナログ信号である音声信号が、音声処理部6でデジタル信号に変換されて、圧縮処理部7に与えられる。これにより、圧縮処理部7では、デジタル信号である画像信号及び音声信号に対して、MPEG圧縮符号方式に基づいて、圧縮符号化してドライバ部8に与えて、外部メモリ22に記録させる。又、このとき、外部メモリ22に記録された圧縮信号がドライバ部8によって読み出されて伸長処理部9に与えられて、伸長処理が施されて画像信号が得られる。この画像信号がディスプレイ部12に与えられて、現在、イメージセンサ1を通じて撮影されている被写体画像が表示される。
Then, the image signal subjected to the image processing by the image processing unit 5 is given to the
このように撮像動作を行うとき、TG16によって、AFE3、画像処理部5、音声処理部6、圧縮処理部7、及び伸長処理部9に対してタイミング制御信号が与えられ、イメージセンサ1による1フレームごとの撮像動作に同期した動作が行われる。
When the imaging operation is performed in this way, a timing control signal is given to the
又、外部メモリ22に記録された動画を再生することが、操作部19を通じて指示されると、外部メモリ22に記録された圧縮信号は、ドライバ部8によって読み出されて伸長処理部9に与えられる。そして、伸長処理部9において、MPEG圧縮符号方式に基づいて、伸長復号されて、画像信号及び音声信号が取得される。そして、画像信号がディスプレイ部12に与えられて画像が再生されるとともに、音声信号が音声出力回路部13を介してスピーカ部15に与えられて音声が再生される。これにより、外部メモリ22に記録された圧縮信号に基づく動画が音声とともに再生される。
When the
画像を再生することが指示された場合は、外部メモリ22に記録された圧縮信号が伸長処理部9において、JPEG圧縮符号方式に基づいて、伸長復号されて、画像信号が取得される。そして、画像信号がディスプレイ部12に与えられて画像が再生される。
When it is instructed to reproduce an image, the decompression processing unit 9 decompresses and decodes the compressed signal recorded in the
(ぼかし処理モード)
次にぼかし処理モードについて説明する。本発明の撮像装置では、画像処理部5に、画像中の被写体の距離情報を算出してそれに基づいたぼかし処理を撮影した画像に施すことができるぼかし処理部30を備え、このような撮影モードをぼかし処理モードと呼ぶ。ぼかし処理部30の構成及びそのぼかし処理モードにおける動作について以下に説明する。
(Blur processing mode)
Next, the blur processing mode will be described. In the imaging apparatus of the present invention, the image processing unit 5 includes the
図5はぼかし処理部30の構成を示すブロック図である。ぼかし処理部30は、シャッターボタンを半押した際にAFE3でデジタル信号とされた距離検出用画像及びシャッターボタンを全押しした際にAFE3でデジタル信号とされた記録用画像を一時的に記憶するフレームメモリ31と、距離情報記憶部17aに記憶された各領域の被写体までの距離に基づいてフレームメモリ31から読み込んだ記録用画像信号(デジタル信号)に対してぼかし処理を施すローパスフィルタ部34と、ローパスフィルタ部34でぼかし処理が施された記録用画像信号より輝度信号及び色差信号を生成する信号処理部35と、を備える。距離検出部23は、フレームメモリ31に記憶された距離検出用画像(デジタル信号)を所定の領域に区分し、TG16から発信された画像中のアドレス情報であるHポジション及びVポジションに対応した水平同期信号(以下Hsyncとする)及び垂直同期信号(Vsync)を受けて各領域における撮像装置から被写体までの距離を検出し、CPU17の内部に設けられた距離情報記憶部17aではHsync及びVsync信号を受け距離検出部23で検出した各領域の被写体までの距離を記憶する。尚、距離情報記憶部17aはCPU17の内部に設けられたものに限られず、撮像装置の内部又は外部に設けられた記憶装置を用いても構わない。
FIG. 5 is a block diagram illustrating a configuration of the
次にこのように構成されるぼかし処理部30の動作について説明する。図2のSTEP203でぼかし処理モードが選択されていることを検出し、シャッターボタンが半押しにされていることを検出する(STEP204)と、距離検出用画像を撮影し、フレームメモリ31に記憶させる。距離検出部23ではフレームメモリ31に記憶された距離検出用画像を所定の領域に区分し各領域の撮像装置から被写体までの距離を検出し、距離情報記憶部17aでは距離検出部23で検出した各領域における被写体までの距離(以下距離情報とする場合もある)を記憶する(STEP205)。
Next, the operation of the
ここで、距離検出部23の構成及び動作の一例について図を用いて説明する。図6は距離情報検出部の構成を示すブロック図、図7は距離情報を検出する動作を説明するためのフローチャートである。距離検出部23は、図6に示すように、合焦距離を変化させて撮影された複数枚の画像からなる距離検出用画像(デジタル信号)をフレームメモリ31から合焦距離の長いものの順に読み込んで所定の領域に区分し各領域の輝度信号の高周波成分の強度を検出する高周波成分検出部23aと、高周波成分検出部23aで検出されたある合焦距離での画像信号の各領域での高周波成分の強度とそれより長い合焦距離での画像信号の各領域での高周波成分の最高強度とを比較する高周波成分比較部23bとを備える。
Here, an example of the configuration and operation of the
次に距離検出部23の動作について説明する。まず、ステップ208のAF制御について説明する。AE設定(ステップ207)後、図7に示すように、レンズ部2の全合焦範囲のうち、最短距離である最近点に合焦距離(フォーカス位置)を設定する(ステップ701)。そして、そのフォーカス位置で距離検出用画像を撮影し、AFE3でデジタル信号に変換してフレームメモリ31に書き込む。高周波成分検出部23aでは、フレームメモリ31に記憶された最近点の距離検出用画像のデジタル信号を読み込んで所定の領域に区分し、各領域の輝度信号の高周波成分の強度を検出する(STEP702)。そして、AF評価エリアの重み付けを高く設定した全領域の輝度信号の高周波成分の強度から、AF評価値を算出する(STEP703)。
Next, the operation of the
続いてフォーカス位置が無限遠であるかどうかを検知し、無限遠でない場合(STEP704でNo)、フォーカス位置を所定の間隔(1ステップ)遠くに設定する(STEP705)。そしてVsync信号を受ける(STEP706でYes)とそのフォーカス位置でのAF評価値を算出する(STEP703)。 Subsequently, it is detected whether or not the focus position is at infinity. If the focus position is not at infinity (NO in STEP 704), the focus position is set far by a predetermined interval (one step) (STEP 705). When the Vsync signal is received (YES in STEP 706), an AF evaluation value at the focus position is calculated (STEP 703).
STEP704でフォーカス位置が無限遠であることを検知すると(STEP704でYes)、レンズ部12のフォーカス位置をAF評価値が最大となった位置に移動する。このフォーカス位置で画像を撮影することとなる。
When it is detected in STEP 704 that the focus position is infinite (YES in STEP 704), the focus position of the
さらに、STEP209でぼかし処理モードであることを検出した場合、高周波成分比較部23bでは、フレームメモリ31に記憶された最近点から無限遠までの各フォーカス位置での画像の各領域の高周波成分の強度を最近点のものから順に高周波成分検出部23aから読み込む。、最初に最近点の画像と1ステップフォーカス位置の長い画像の各領域での高周波成分の強度を比較し、各領域について高い方の強度及びその合焦距離を記憶する。ある領域について、無限遠での高周波成分の強度をg1、1段階短い合焦距離での高周波成分の強度をg2とするとき、g1≧g2であればg1、g1<g2であればg2を、その合焦距離範囲での最高の強度Gとして合焦距離とともに記憶する。
Furthermore, when it is detected in STEP 209 that the mode is the blurring processing mode, the high frequency
次に、さらに1段階合焦距離の短い画像がある場合、その画像の各領域の高周波成分の強度を読み込み、記憶しているそれより長い合焦距離範囲(それまでに読み込んだ合焦距離範囲)での各領域の高周波成分の最高強度Hと比較する。そして、各領域について高い方の強度及びその合焦距離を記憶する。ある領域について、ある合焦距離での高周波成分の強度をgnとするとき、gn≧Gであればgn、を新たにGの値としてその合焦距離とともに更新し、gn<GであればそれまでのGの値と合焦距離とを維持する。 Next, when there is an image with a short one-step focus distance, the intensity of the high-frequency component in each area of the image is read, and the focus distance range longer than that stored (the focus distance range read so far) ) And the maximum intensity H of the high-frequency component in each region. Then, the higher intensity and the focusing distance are stored for each region. For a certain region, when the intensity of the high-frequency component at a certain focusing distance is gn, if gn ≧ G, gn is newly updated as the value of G together with the focusing distance, and if gn <G, The value of G and the in-focus distance are maintained.
高周波成分の強度は撮像装置から被写体までの距離と合焦距離とが近いほど高くなる。この比較動作を全てのフォーカス位置の画像について完了すると、高周波成分比較部23bには各領域について高周波成分の最高の強度Hとその強度を示した合焦距離が記憶されており、これは各領域における撮像装置から被写体までの距離情報である。距離情報記憶部17aでは、各領域における最高強度を示した合焦距離を高周波成分比較部23bから読み込む(STEP205)。
The strength of the high frequency component increases as the distance from the imaging device to the subject and the in-focus distance are closer. When this comparison operation is completed for the images at all the focus positions, the high frequency
図8は距離検出用画像及び記録用画像の一例である。図9は図8の画像を所定の領域に区分した一例であり、所定の領域を縦3列、横3行の合計9個からなるものとしている。図9の各領域を左上から右方向にR1、R2、…、R9とする。各領域は単数又は複数の画素からなる。又、図10は縦軸を高周波成分の強度、横軸を合焦距離としたR1、R2、…、R9の各領域の高周波成分の強度と合焦距離との関係を示すグラフである。上述のように、高周波成分は撮像装置から被写体までの距離と合焦距離とが近いほど強度が高くなる。 FIG. 8 is an example of a distance detection image and a recording image. FIG. 9 is an example in which the image of FIG. 8 is divided into predetermined areas, and the predetermined area is composed of a total of nine columns in three columns and three rows. Each region in FIG. 9 is R1, R2,..., R9 from the upper left to the right. Each region consists of a single pixel or a plurality of pixels. FIG. 10 is a graph showing the relationship between the intensity of the high-frequency component in each region R1, R2,..., R9 and the focusing distance, where the vertical axis represents the high-frequency component intensity and the horizontal axis represents the focusing distance. As described above, the intensity of the high-frequency component increases as the distance from the imaging device to the subject and the in-focus distance are closer.
人物を含む領域である領域R5、R8についてのグラフは高周波成分が最大強度となる合焦距離は同じであるものの、その最大強度の大きさは異なる。即ちいずれの領域も被写体の位置が同じであるため最大強度となる合焦距離は同じとなる。しかし、領域に被写体のエッジを含んでいる、領域の全面を被写体が覆っているなど、領域毎に含まれる被写体の状態が異なるため、最大強度が異なるものとなる。 In the graphs of the regions R5 and R8 including the person, the focal distance at which the high frequency component has the maximum intensity is the same, but the maximum intensity is different. That is, since the subject position is the same in any region, the focus distance that is the maximum intensity is the same. However, the maximum intensity differs because the state of the subject included in each region is different, for example, the region includes the edge of the subject, or the subject covers the entire surface of the region.
同様の理由で、建物を含む領域である領域R1、R2、R3、R6、R9についてのグラフも高周波成分が最大強度となる合焦距離は同じであるものの、最大強度の大きさは異なる。 For the same reason, the graphs for the regions R1, R2, R3, R6, and R9, which are regions including buildings, have the same focal distance at which the high-frequency component has the maximum intensity, but the maximum intensity is different.
1個の領域に距離の異なる複数の被写体が存在している場合は、複数の高周波成分の強度の極大値が現れることとなる。図11は撮像装置からの距離の異なる複数の被写体が存在している領域における高周波成分の強度と合焦距離との関係を示すグラフである。このように1個の領域中に高周波成分の強度の極大値が2箇所以上現れた場合、最大の強度となる合焦距離をその領域での被写体までの距離として採用してもよい。 When a plurality of subjects having different distances exist in one area, the maximum values of the intensity of the plurality of high frequency components appear. FIG. 11 is a graph showing the relationship between the intensity of the high-frequency component and the focus distance in an area where there are a plurality of subjects having different distances from the imaging apparatus. As described above, when two or more maximum values of the intensity of the high-frequency component appear in one area, the focal distance with the maximum intensity may be adopted as the distance to the subject in that area.
又、所定の閾値以上の極大値を検出し、そのうち合焦距離の最も短いもの又は最も長いものを採用してもよい。又、所定の閾値以上の極大値を合焦距離の順に並べた際に中心となるものを合焦距離を採用してもよい。所定の閾値以上の極大値が偶数個の場合は中心がないため、中心に近い2個の閾値のうちいずれかを採用してもよい。 Alternatively, a maximum value equal to or greater than a predetermined threshold value may be detected, and the shortest or the longest in focus distance may be employed. Alternatively, the focus distance may be used as the center when the local maximum values equal to or greater than the predetermined threshold are arranged in the order of the focus distance. Since there is no center when the maximum value equal to or greater than the predetermined threshold is an even number, one of the two threshold values close to the center may be adopted.
距離情報記憶部17aで各領域の被写体までの距離を記憶した後、構図、画角が変化したかどうかを検出する(STEP211)。構図、画角が変化したことを検出した場合については後述する。構図、画角が変化したことを検出せず(STEP211でNo)、シャッターボタンが全押しされていることを検出する(STEP213でYes)と、TG16より、イメージセンサ1、AFE3、画像処理部5及び圧縮処理部7それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させ、イメージセンサ1の駆動モードを静止画撮影モードに設定し(STEP214、イメージセンサ1から出力されるアナログ信号である画像信号(生データ)をAFE3でデジタル信号に変換して一旦画像処理部5内のフレームメモリに書き込む(STEP215)。ローパスフィルタ部34ではフレームメモリ31に記憶された記録用画像(デジタル信号)を読み込んで、上述の距離検出部23で区分した各領域について距離情報記憶部17aに記憶された各領域の被写体までの距離に基づいてぼかし度合いを設定し(STEP216)、設定したぼかし度合いに基づいて各領域にぼかし処理を実施する(STEP217)。ぼかし処理を行った画像について、圧縮処理部7においてJPEG形式に圧縮(STEP218)後、外部メモリ22に圧縮画像を書き込み(STEP219)、撮影を完了する。その後、プレビューモードに戻る(STEP202)。
After the distance to the subject in each area is stored in the distance
STEP218でぼかし処理を行った画像信号を圧縮処理部7において圧縮する際に、ぼかし処理を行った画像信号のみならずぼかし処理を行っていない画像信号についても圧縮し、図12に示すように、外部メモリ22に書き込むファイル80には圧縮したぼかし処理を行っていない画像信号81に付加したヘッダ部82に、STEP210で距離情報記憶部17aに記憶された各領域における最高強度を示した合焦距離情報82aを併せて書き込んでもよい。このようなヘッダ部82に合焦距離情報を書き込む形式としては例えばexif形式を用いることができる。なお、外部メモリ22には、圧縮したぼかし処理を行った画像信号については書き込まず、ヘッダ部に合焦距離情報を有する圧縮したぼかし処理を行っていない画像信号のみを書き込むことをユーザが選択できるようにしても構わない。又、ヘッダ部82に書き込む情報は、圧縮したものであってもよい。
When the
(構図、画角が変化したことを検出した場合)
ここで、STEP211で構図、画角が所定量以上変化したことを検出した場合、ユーザに対して画角が変化したこと及びシャッターボタンを開放して半押しし直すことをディスプレイ部12での表示やスピーカ部15からの音声によって通知し、シャッターボタンが半押しし直されたかどうかを検知する(STEP212)。半押しし直された場合(STEP212でYes)は再びAE調整(STEP207)、AF制御(STEP208)を経て、各領域における最高強度を示した合焦距離を検出し、記憶する(STEP210)。ここで、構図、画角の変化の検出は、CPU17で逐次算出されているAE評価値の変化や、逐次取り込まれてAFE3でデジタル信号化されるイメージセンサ1上の画像からCPU17で検出した被写体の動きベクトルの変化、又は加速度センサのような動きを検出するセンサによって検出することができる。
(When it detects that the composition and angle of view have changed)
Here, when it is detected in STEP 211 that the composition and the angle of view have changed by a predetermined amount or more, the
STEP212で半押しし直されず、STEP213で全押しされた場合はSTEP207以降の処理をぼかし処理を省略して続けてもよい。又、動きベクトルの変化や加速度センサによってシャッターボタンの半押しから全押しまでの間に構図、画角の変化した量を検出している場合は、その検出した変化量に基づいて変化する前の画像の距離情報を変化した後の画像に適合するようにシフトさせ、変化した後の画像の各領域に、各領域の被写体までの距離に基づいてぼかし度合いを設定し(STEP216)、ぼかし処理を実施してもよい(STEP217)。この場合、距離情報のない領域についてはぼかし処理は行わないでもよいし、当該領域の周辺の領域と同じ条件のぼかし処理を行ってもよい。 If the pressing is not half-pressed in STEP 212 but is fully pressed in STEP 213, the processing after STEP 207 may be continued with the blurring process omitted. In addition, if the amount of change in composition and angle of view is detected between the half-press of the shutter button and the full-press of the shutter button by a change in motion vector or acceleration sensor, the change before the change based on the detected amount of change is detected. The distance information of the image is shifted so as to match the image after the change, and the blurring degree is set in each area of the image after the change based on the distance to the subject in each area (STEP 216). You may implement (STEP217). In this case, the blurring process may not be performed for an area without distance information, or the blurring process may be performed under the same conditions as the surrounding area.
(ぼかし処理条件)
画像の各領域に対して、各領域の被写体までの距離に応じたぼかし処理が施される。そのぼかし処理の条件について説明する。ぼかし処理を行うローパスフィルタ部34では、カットオフ周波数を設定することによってぼかしの度合いを調整する。カットオフ周波数が高いほどぼかしの度合いが低く、カットオフ周波数が低いほどぼかしの度合いが高い。カットオフ周波数がナイキスト周波数の場合にはぼかし処理は行われない。
(Blur processing conditions)
Each area of the image is subjected to a blurring process according to the distance to the subject in each area. The conditions for the blurring process will be described. The low-
本実施形態では、被写体までの距離が撮像装置近傍から所定の距離D1までの近距離範囲ではぼかし処理は行わず、距離D1から距離D2(D2>D1)の中距離範囲では距離が長いほどぼかしの度合いを高める。距離D2よりも遠い範囲である遠距離範囲では一定のぼかし度合いとして中距離範囲の最も高いぼかし度合いを適用する。図13は、このカットオフ周波数と被写体までの距離との関係を表すグラフである。近距離範囲ではカットオフ周波数はナイキスト周波数Nで一定とし、中距離範囲では距離が長いほどカットオフ周波数は低下し、遠距離範囲では中距離範囲で最も低いカットオフ周波数で一定とする。このようにカットオフ周波数を設定することにより、ぼかし処理によって得られた画像は近距離範囲の被写体が中距離範囲及び遠距離範囲の被写体から浮き上がった立体感のあるものとなる。 In the present embodiment, the blurring process is not performed in the short distance range where the distance to the subject is from the vicinity of the imaging apparatus to the predetermined distance D1, and the blur is increased as the distance is longer in the middle distance range from the distance D1 to the distance D2 (D2> D1). Increase the degree of. In the long distance range that is a range farther than the distance D2, the highest blurring degree in the middle distance range is applied as a constant blurring degree. FIG. 13 is a graph showing the relationship between the cutoff frequency and the distance to the subject. In the short distance range, the cutoff frequency is constant at the Nyquist frequency N. In the middle distance range, the longer the distance, the lower the cutoff frequency. In the long distance range, the cutoff frequency is constant at the lowest cutoff frequency. By setting the cut-off frequency in this way, the image obtained by the blurring process has a stereoscopic effect in which the subject in the short distance range is raised from the subject in the middle distance range and the long distance range.
(カットオフ周波数の補間)
しかし、隣接する領域間でぼかし処理に用いるカットオフ周波数が異なると、領域の境界ではぼかしの度合いの違いによって境界が現れることとなる。そこで、領域間で境界を目立たなくするように、カットオフ周波数の異なる隣接する領域を構成する画素のぼかし処理に用いるカットオフ周波数にグラデーションを与える。
(Interpolation of cut-off frequency)
However, if the cut-off frequency used for the blurring process differs between adjacent areas, the boundary appears at the boundary between the areas depending on the degree of blurring. Therefore, gradation is given to the cutoff frequency used for the blurring processing of the pixels constituting the adjacent regions having different cutoff frequencies so as to make the boundary between the regions inconspicuous.
図14に4個の領域の模式図を示す。領域71〜74の中心をそれぞれ71a〜74a、領域71〜74の4個の領域が共有する点を原点O、図面横方向をx軸、縦方向をy軸とし、各領域の1辺の長さを2aとする。このとき中心71aの座標は(a,a)、中心72aの座標は(−a,a)、中心73aの座標は(−a,−a)、中心74aの座標は(a,−a)である。
FIG. 14 shows a schematic diagram of four regions. The centers of the
各領域の中心に位置する画素では各領域に設定されたぼかし度合いであるカットオフ周波数をぼかし処理に用い、原点Oを共有する4個の領域の中心に囲まれた画素では各領域に設定されたカットオフ周波数をその画素から各領域の中心までの距離で線形補間したものをぼかし処理に用いる。ここでは、図14に示す領域71に属し、中心71a〜74aに囲まれた画素71bについて考える。領域71〜74に設定されたカットオフ周波数をそれぞれh1、h2、h3、h4とし、画素71bにおけるカットオフ周波数をZ、画素71bの座標を(x,y)とすると、
Z=[{(a+x)h1+(a−x)h2}/2a](a+y)/2a
+[{(a+x)h3+(a−x)h4}/2a](a−y)/2a
となる。なお、隣接する2個の領域の中心を結ぶ線上の画素ではこれらの2個の領域に設定されたカットオフ周波数を線形補間したものをぼかし処理に用いる。
For the pixel located at the center of each region, the cutoff frequency, which is the blurring degree set for each region, is used for the blurring process. For the pixels surrounded by the centers of the four regions sharing the origin O, each region is set. A value obtained by linearly interpolating the cut-off frequency with the distance from the pixel to the center of each region is used for the blurring process. Here, a
Z = [{(a + x) h1 + (ax) h2} / 2a] (a + y) / 2a
+ [{(A + x) h3 + (ax) h4} / 2a] (ay) / 2a
It becomes. For pixels on a line connecting the centers of two adjacent areas, linear interpolation of the cutoff frequencies set in these two areas is used for the blurring process.
図15は異なるカットオフ周波数の間を線形補間によりグラデーションを与えて変化させたカットオフ周波数のグラフである。図15のグラフ上に5点のカットオフ周波数h1、h2、h5〜h7を示す。h5〜h7は、h1とh2の間で線形補間したものである。h1は図14の領域71のカットオフ周波数であり、h2は領域72のカットオフ周波数である。中心71aにはh1、中心72aにはh2が適用される。h5〜h7はそれぞれ、中心71aと中心72aとを結ぶ線上に、中心71aと中心72aを含めて略等間隔に並んだ3個の画素である、画素71c、画素71d、画素72b(中心71a側から順に)について適用される。このようにしてカットオフ周波数を補間して画素毎にグラデーションを与えて変化させることにより、ぼかし処理後の画像は領域間での境界が目立たないものとなる。
FIG. 15 is a graph of the cut-off frequency that is changed by giving a gradation between different cut-off frequencies by linear interpolation. The five cut-off frequencies h1, h2, h5 to h7 are shown on the graph of FIG. h5 to h7 are linearly interpolated between h1 and h2. h1 is the cut-off frequency of the
尚、領域71〜73が画像の外周に位置する領域である場合、図14上の座標(a,2a)の点71e、座標(−a,2a)の点72c、座標(−2a,2a)の点72d、座標(−2a,a)の点72e、座標(−2a,−a)の点73bを設定すると、点71c、72e、72a、71aで囲まれた部分では点72aと点71aとを結ぶ線分上のx座標が同じ点のカットオフ周波数、点72a、72e、73b、73aで囲まれた部分では点72aと点73aとを結ぶ線分上のy座標が同じ点のカットオフ周波数、点72c、72d、72e、72aで囲まれた部分では点B即ち中心72aのカットオフ周波数を適用する。
When the
〈第2の実施形態〉
本発明の第2の実施の形態について、図面を参照して説明する。本実施形態は、ぼかし処理部の構成が異なる以外は第1の実施形態と同じであり、実質上同一の部分には同一の付している。
<Second Embodiment>
A second embodiment of the present invention will be described with reference to the drawings. This embodiment is the same as the first embodiment except that the configuration of the blur processing unit is different, and substantially the same parts are denoted by the same reference numerals.
本実施形態では、各領域を被写体までの距離別に複数のグループに区分してぼかし処理を行う。この場合、各グループに対して所定のカットオフ周波数を設定し、適用する。 In the present embodiment, each region is divided into a plurality of groups according to the distance to the subject, and blurring processing is performed. In this case, a predetermined cutoff frequency is set and applied to each group.
ここでは例として、距離グループを近景、中景、遠景の3種類に区分する場合について説明する。図16は、第1の実施形態の図11のグラフにおいて、被写体までの距離がD1未満の場合を近景、D1以上D2未満の場合を中景、D2以上の場合を遠景とした例である。ここで、D1とD2の関係はD1<D2である。尚、距離グループの数は3個に限られず、2個以上であればよい。 Here, as an example, a case will be described in which the distance group is divided into three types: foreground, middle, and distant views. FIG. 16 is an example in the graph of FIG. 11 of the first embodiment where the distance to the subject is less than D1, the background is D1 and less than D2, and the background is D2 and more. Here, the relationship between D1 and D2 is D1 <D2. Note that the number of distance groups is not limited to three and may be two or more.
図17は第2の実施形態に係るぼかし処理部のブロック図である。本実施形態のぼかし処理部30のローパスフィルタ部34は、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34c、乗算係数設定部37及び加算器38を備える。近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cはそれぞれ乗算器36が後段に直列に接続されている。近景用ローパスフィルタ34aと乗算器36、中景用ローパスフィルタ34bと乗算器36、遠景用ローパスフィルタ34cと乗算器36は、それぞれフレームメモリ31と信号処理部35との間に並列に接続されている。乗算係数設定部37は距離情報記憶部17aに記憶された各領域の被写体までの距離に基づき各乗算器36での乗算に用いる乗算係数を設定するものであり、距離情報記憶部17aと各乗算器36との間に接続される。
FIG. 17 is a block diagram of a blur processing unit according to the second embodiment. The low-
近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのカットオフ周波数と出力レベルとは、図18のグラフに示すような関係を有する。図18は横軸をカットオフ周波数、縦軸を出力レベルとしたグラフであり、入力画像信号のレベルも併せて示している。カットオフ周波数と出力レベルとの関係は、いずれも周波数の低い範囲では出力レベルは1.0で一定であり、所定の周波数以上では周波数が高いほど出力レベルが低くなり、最後には0となる。出力レベルが低下し始める周波数及び0となる周波数は、近景用ローパスフィルタ34aが最も高く、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cの順に低くなる。尚、本実施形態では近景用ローパスフィルタ34aのカットオフ周波数と出力レベルとの関係は、入力画像と同様の関係を有しているため、近景用ローパスフィルタ34aは設けなくてもよい。
The cutoff frequency and output level of the low-
乗算係数設定部37では、画像の各領域に、その領域の距離情報に基づいて各乗算器36についての乗算係数を設定する。図19は被写体までの距離と乗算係数との関係の一例を示すグラフである。図19には近景用の乗算係数KNが実線で、中景用の乗算係数KMが一点鎖線で、遠景用の乗算係数KFが二点鎖線で示されている。近景用の乗算係数KNは、D1未満の範囲では1.0で一定であり、D1以上の範囲では0で一定である。中景用の乗算係数KMは、D1未満の範囲では0で一定であり、D1以上D2未満の範囲では1.0で一定であり、D2以上の範囲では0で一定である。遠景用の乗算係数KFは、D2未満の範囲では0で一定であり、D2以上の範囲では1.0で一定である。このように、乗算係数KF、KM、KFの和は被写体までの距離によらず1.0で一定である。
The multiplication
次に本実施形態のぼかし処理について説明する。フレームメモリ31に記憶された記録用画像を読み込み、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのそれぞれによってぼかし処理を施す。一方、乗算係数設定部37では、距離情報記憶部17aに記憶された各領域の被写体距離に応じた乗算係数を、各領域について設定する。
Next, the blurring process of this embodiment will be described. The recording image stored in the
ローパスフィルタ34a、34b、34cでぼかし処理が施された画像は、乗算係数設定部37で設定された乗算係数で乗算器36によって各領域毎に乗算が施され、加算器38で加算される。加算器38で加算された画像は、被写体までの距離がD1未満の領域は、近景用ローパスフィルタ34aに対しての乗算係数が1.0であり、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であるため、近景用ローパスフィルタ34aのみでぼかし処理が施されたものとなる。近景用ローパスフィルタ34aが設けられていない場合は元の画像のままとなる。同様に、被写体までの距離がD1以上D2未満の領域は中景用ローパスフィルタ34bのみ、被写体までの距離がD2以上の領域は遠景用ローパスフィルタ34cでぼかし処理が施されたものとなる。図20は、R1〜R9の9個の領域に区分された画像をぼかし処理した画像の模式図である。近景に属する領域R5、R8と、中景に属する領域R4、R7と、遠景に属する領域R1、R2、R3、R6、R9とでぼかし具合が異なり、遠景は大きくぼけ、中景は少しぼけ、近景はそのままである画像となる。その結果、ぼかし処理によって得られた画像は近景が中景、遠景から浮き上がった立体感のあるものとなる。
The images subjected to the blurring process by the low-
このように構成することにより、距離情報記憶部17aに記憶する各領域についての距離情報は、詳細な距離情報ではなく、大まかな情報であるその領域の属する距離グループとすることができるため、処理速度を向上させることができる。
By configuring in this way, distance information about each area stored in the distance
〈第3の実施形態〉
本発明の第3の実施形態について図面を参照して説明する。本実施形態は、ぼかし処理部の構成及び乗算係数と被写体距離との関係が異なる以外は第2の実施形態と同じであり、実質上同一の部分には同一の符号を付している。
<Third Embodiment>
A third embodiment of the present invention will be described with reference to the drawings. The present embodiment is the same as the second embodiment except that the configuration of the blur processing unit and the relationship between the multiplication coefficient and the subject distance are different, and substantially the same parts are denoted by the same reference numerals.
図21は本実施形態に係るぼかし処理部のブロック図である。本実施形態のぼかし処理部30は、図17の第2の実施形態のぼかし処理部にエッジ信号生成部39が設けられたものである。エッジ信号生成部39は乗算器36が後段に直列に接続されている。エッジ信号生成部39と乗算器36は、フレームメモリ31と信号処理部35との間に並列に接続されており、この乗算器36には乗算係数設定部37が接続されている。
FIG. 21 is a block diagram of the blur processing unit according to the present embodiment. The blurring
図22は本実施形態の、被写体までの距離と乗算係数との関係の一例を示すグラフである。図22には近景用の乗算係数KN、中景用の乗算係数KM、遠景用の乗算係数KFに加えてエッジ信号用の乗算係数KEが示されている。本実施形態では、近景用の乗算係数KNは、D1−d1未満の範囲では1.0で一定であり、D1−d1以上D1+d1未満の範囲では1.0から0まで距離に比例して減少し、D1+d1以上の範囲では0で一定である。中景用の乗算係数KMは、D1−d1未満の範囲では0で一定であり、D1−d1以上D1+d1未満の範囲では0から1.0まで距離に比例して増加し、D1+d1以上D2−d2未満の範囲では1.0で一定であり、D2−d2以上D2+d2未満の範囲では1.0から0まで距離に比例して減少し、D2+d2以上の範囲では0で一定である。遠景用の乗算係数KFは、D2−d2未満の範囲では0で一定であり、D2−d2以上D2+d2未満の範囲では0から1.0まで距離に比例して増加し、D2+d2以上の範囲では1.0で一定である。尚、d1とd2との関係は、D1+d1<D2−d2である。又、乗算係数KF、KM、KFの和は被写体までの距離によらず1.0で一定である。そして、エッジ信号用の乗算係数KEは、D0未満の範囲では1.3で一定であり、D0以上D1−d1未満の範囲では1.3から0まで距離に比例して減少し、D1−d1以上の範囲では0で一定である。乗算係数KEは、他の乗算係数から独立した数値である。 FIG. 22 is a graph showing an example of the relationship between the distance to the subject and the multiplication coefficient in the present embodiment. FIG. 22 shows a multiplication coefficient KE for edge signals in addition to a multiplication coefficient KN for near view, a multiplication coefficient KM for middle scene, and a multiplication coefficient KF for distant view. In this embodiment, the foreground multiplication coefficient KN is constant at 1.0 in the range of less than D1−d1, and decreases in proportion to the distance from 1.0 to 0 in the range of D1−d1 and less than D1 + d1. , It is constant at 0 in the range of D1 + d1 or more. The multiplication factor KM for the middle scene is constant at 0 in the range of less than D1−d1, increases in proportion to the distance from 0 to 1.0 in the range of D1−d1 and less than D1 + d1, and is equal to or greater than D1 + d1 and D2−d2. The range is less than 1.0 in the range less than D2-d2 and less than D2 + d2, and decreases in proportion to the distance from 1.0 to 0, and is constant in 0 in the range greater than D2 + d2. The far-field multiplication coefficient KF is constant at 0 in the range of less than D2-d2, increases in proportion to the distance from 0 to 1.0 in the range of D2-d2 or more and less than D2 + d2, and is 1 in the range of D2 + d2 or more. .0 and constant. The relationship between d1 and d2 is D1 + d1 <D2-d2. The sum of the multiplication coefficients KF, KM, and KF is constant at 1.0 regardless of the distance to the subject. The multiplication factor KE for the edge signal is constant at 1.3 in the range less than D0, decreases in the range from 1.3 to 0 in the range from D0 to less than D1-d1, and decreases in proportion to the distance D1-d1. In the above range, it is 0 and constant. The multiplication coefficient KE is a numerical value independent of other multiplication coefficients.
図22に示す、乗算係数KN、KM、KF、KEと被写体までの距離Dとの関係を数式で表すと以下のようになる。ここで、D1−d1≦D<D1+d1での乗算係数KMの傾きをk1(k1>0,k1=1/(2×d1))、D2−d2≦D<D2+d2での乗算係数KFの傾きをk2(k2>0,k2=1/(2×d2))、D0≦D<D1−d1での乗算係数KEの傾きを−k0(k0>0,k2=1.3/(D1−d1−D0))とする。
KN=1.0 …(D<D1−d1)
=−k1×{D−(D1+d1)} …(D1−d1≦D<D1+d1)
=0 …(D1+d1≦D)
KM=0 …(D1+d1≦D)
=k1×{D−(D1−d1)} …(D1−d1≦D<D1+d1)
=1.0 …(D1+d1≦D<D2−d2)
=−k2×{D−(D2+d2)} …(D2−d2≦D<D2+d2)
=0 …(D2+d2≦D)
KF=0 (D<D1−d1)
=k2×{D−(D2−d2)} …(D2−d2≦D<D2+d2)
=1.0 …(D2+d2≦D)
KE=1.3 …(D<D0)
=−k0×{D−(D1−d1)} …(D0≦D<D1−d1)
=0 …(D1−d1≦D)
The relationship between the multiplication coefficients KN, KM, KF, and KE and the distance D to the subject shown in FIG. Here, the slope of the multiplication coefficient KM when D1−d1 ≦ D <D1 + d1 is k1 (k1> 0, k1 = 1 / (2 × d1)), and the slope of the multiplication coefficient KF is D2−d2 ≦ D <D2 + d2. The slope of the multiplication coefficient KE when k2 (k2> 0, k2 = 1 / (2 × d2)) and D0 ≦ D <D1−d1 is −k0 (k0> 0, k2 = 1.3 / (D1−d1−). D0)).
KN = 1.0 (D <D1-d1)
= −k1 × {D− (D1 + d1)} (D1−d1 ≦ D <D1 + d1)
= 0 (D1 + d1 ≦ D)
KM = 0 (D1 + d1 ≦ D)
= K1 * {D- (D1-d1)} (D1-d1 ≦ D <D1 + d1)
= 1.0 (D1 + d1 ≦ D <D2-d2)
= −k2 × {D− (D2 + d2)} (D2−d2 ≦ D <D2 + d2)
= 0 (D2 + d2 ≦ D)
KF = 0 (D <D1-d1)
= K2 × {D− (D2−d2)} (D2−d2 ≦ D <D2 + d2)
= 1.0 (D2 + d2 ≦ D)
KE = 1.3 (D <D0)
= −k0 × {D− (D1−d1)} (D0 ≦ D <D1−d1)
= 0 (D1-d1 ≦ D)
次に本実施形態のぼかし処理について説明する。フレームメモリ31に記憶された記録用画像を読み込み、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのそれぞれによってぼかし処理を施し、エッジ信号生成部39ではエッジ信号を生成する。一方、乗算係数設定部37では、距離情報記憶部17aに記憶された各領域の被写体距離に応じた乗算係数を、各領域について設定する。
Next, the blurring process of this embodiment will be described. The recording image stored in the
ローパスフィルタ34a、34b、34cでぼかし処理が施された画像及びエッジ信号生成部39で生成されたエッジ信号は、乗算係数設定部37で設定された乗算係数で乗算器36によって各領域毎に乗算が施され、加算器38で加算される。
The image subjected to the blurring process by the low-
加算器38で加算された画像は、被写体までの距離がD0未満の領域は、近景用ローパスフィルタに対しての乗算係数が1.0、エッジ信号生成部39に対しての乗算係数が1.3で一定であり、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であるため、近景用ローパスフィルタ34aのみでぼかし処理が施され、エッジ信号によりエッジが強調されたものとなる。被写体までの距離がD0以上D1−d1未満の領域は、近景用ローパスフィルタ34aに対しての乗算係数が1.0で一定で、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であり、エッジ信号生成部39に対しての乗算係数が1.3から0まで距離に比例して減少するため、被写体までの距離がD0未満の領域と比べると距離が増加するにしたがってエッジの強調が抑えられたものとなる。近景用ローパスフィルタ34aが設けられていない場合は元の画像のエッジが強調されたものとなる。
In the image added by the
被写体までの距離がD1−d1以上の領域では、エッジ信号生成部39に対しての乗算係数が0であるため、エッジは強調されない。被写体までの距離がD1−d1以上の領域のうち、被写体までの距離がD1+d1以上D2−d2未満の領域は中景用ローパスフィルタ34bのみ、被写体までの距離がD2+d2以上の領域は遠景用ローパスフィルタ34cでぼかし処理が施されたものとなる。
In the region where the distance to the subject is equal to or greater than D1-d1, the edge is not emphasized because the multiplication coefficient for the edge
被写体までの距離がD1−d1以上D1+d1未満の領域は、遠景用ローパスフィルタ34cに対しての乗算係数は0であるものの、近景用ローパスフィルタ34aに対しての乗算係数は1.0から0まで距離に比例して減少し、中景用ローパスフィルタ34bに対しての乗算係数は0から1.0まで距離に比例して増加するため、近景用ローパスフィルタ34aで処理された画像と中景用ローパスフィルタ34bで処理された画像とが混合されたものとなる。なお、D1−d1以上D1+d1未満の範囲では距離に比例して近景用ローパスフィルタ34aよりも中景用ローパスフィルタ34bでの処理の影響が大きくなる。同様に、被写体までの距離がD2−d2以上D2+d2未満の領域は、近景用ローパスフィルタ34aで処理された画像と中景用ローパスフィルタ34bで処理された画像とが混合されたものとなる。これにより、被写体までの距離がD1近傍又はD2近傍の領域が隣接している場合に、ぼかし処理の度合いが急激に変化して不自然なぼかし処理が施された画像となるのを抑制することができる。
In the region where the distance to the subject is not less than D1−d1 and less than D1 + d1, the multiplication coefficient for the low-pass filter for
尚、本実施形態において、各領域を被写体までの距離によって複数の距離グループに区分して、各距離グループ毎に属する領域の被写体までの距離の平均を算出し、その平均を各領域の被写体までの距離として用いても構わない。例えば、図16に示す距離と高周波成分の強度との関係を示すグラフにおいて、高周波成分の最大値を示す距離即ち被写体までの距離がD1未満の領域についてはR5とR8の高周波成分の最大値を示す距離の平均であるD11を、被写体までの距離がD1以上D2未満の領域についてはR4とR7の最大値を示す距離の平均であるD12を、被写体までの距離がD2以上である領域についてはR1、R2、R3、R6、R9の最大値を示す距離の平均であるD13を、それぞれ該当する距離グループに属する領域の被写体までの距離として用いることができる。この場合、各領域についての距離情報の管理を簡素化できるため、ぼかし処理の高速化を図ることができる。この場合、第1の実施形態で説明したカットオフ周波数の補間方法を適用することにより、ぼけ具合の異なる領域間の境界を目立たなくして自然なぼけ具合とすることができる。尚、このように算出した距離情報は第1の実施形態においても適用することができる。 In this embodiment, each area is divided into a plurality of distance groups according to the distance to the subject, and the average of the distance to the subject in the area belonging to each distance group is calculated, and the average is calculated to the subject in each area. It may be used as the distance. For example, in the graph showing the relationship between the distance and the intensity of the high frequency component shown in FIG. 16, the maximum value of the high frequency components of R5 and R8 is set for the distance indicating the maximum value of the high frequency component, that is, the region where the distance to the subject is less than D1. D11 which is the average of the distances shown, D12 which is the average of the distances indicating the maximum values of R4 and R7 for the area where the distance to the subject is greater than or equal to D1 and less than D2, and for the area where the distance to the subject is D2 or more D13, which is the average of distances indicating the maximum values of R1, R2, R3, R6, and R9, can be used as the distance to the subject in the area belonging to the corresponding distance group. In this case, the management of the distance information for each region can be simplified, so that the blurring process can be speeded up. In this case, by applying the cut-off frequency interpolation method described in the first embodiment, it is possible to make a natural blur condition by making the boundary between regions with different blur conditions inconspicuous. The distance information calculated in this way can also be applied to the first embodiment.
又、本実施形態において、被写体のエッジを強調しない場合はエッジ信号生成部39は設けなくてもよい。
In the present embodiment, the edge
又、本実施形態のローパスフィルタ部34において、近景用ローパスフィルタ34aを、対応する乗算器36を残したまま取り除き、乗算係数を適切に設定することにより、第1の実施形態のローパスフィルタ部34と同様の構成とすることができる。
Further, in the low-
〈変形例1〉
又、本発明の第1〜第3の実施形態においてSTEP205で各領域の距離情報を取得する際に、画像中で所定の大きさ以上の人物の顔を検出し、その顔を含む領域の距離を含む所定の距離範囲の領域にはぼかし処理は施さないものとしてもよい。これにより、人物を含む領域にぼかし処理を施してしまう可能性を低減することができる。
<Modification 1>
In the first to third embodiments of the present invention, when acquiring distance information of each area in STEP 205, a face of a person having a predetermined size or more is detected in the image, and the distance of the area including the face is detected. It is good also as what does not perform a blurring process to the area | region of the predetermined distance range containing. Thereby, it is possible to reduce the possibility of performing blurring processing on a region including a person.
又、その顔を含む領域の被写体までの距離を含む所定の距離範囲の領域にはぼかし処理は施さず、その所定の距離範囲よりも短い距離及び長い距離の領域にぼかし処理を施すものとしてもよい。この場合、その所定の距離範囲よりも離れるほどぼかし度合いを高くしてもよい。これにより、画像中の人物をより自然に浮き上がらせることができる。 In addition, blurring processing is not performed on a region in a predetermined distance range including the distance to the subject in the region including the face, and blurring processing is performed on a region that is shorter and longer than the predetermined distance range. Good. In this case, the degree of blurring may be increased as the distance from the predetermined distance range increases. Thereby, the person in an image can be raised more naturally.
又、画像の領域を距離グループに区分した場合は、その顔を含む領域と同じ距離グループに属する領域にはぼかし処理を施さず、それ以外の領域にはぼかし処理を施すものとしてもよい。 In addition, when the image area is divided into distance groups, the area belonging to the same distance group as the area including the face may not be subjected to the blurring process, and the other areas may be subjected to the blurring process.
ここで顔検出処理について説明する。画像処理部5は顔検出装置50を備え、入力された画像信号から人物の顔を検出することができる。顔検出装置50の構成及び動作について以下に説明する。
Here, the face detection process will be described. The image processing unit 5 includes a
図23は、顔検出装置50の構成を示している。顔検出装置50は、AFE3によって得られた画像データに基づいて1又は複数の縮小画像を生成する縮小画像生成手段51、入力画像および縮小画像から構成される各階層画像とメモリ18に記憶された顔検出用の重みテーブルとを用いて入力画像に顔が存在するか否かを判定する顔判定手段52、および顔判定手段52の検出結果を出力する検出結果出力手段53を備えている。検出結果出力手段53は、顔が検出された場合には、入力画像を基準とする検出された顔の大きさと位置とを出力する。
FIG. 23 shows the configuration of the
又、メモリ18に記憶された重みテーブルは、大量の教師サンプル(顔および非顔のサンプル画像)から求められたものである。このような重みテーブルは、例えば、Adaboostと呼ばれる公知の学習方法を利用して作成することができる(Yoav Freund, Robert E. Schapire,"A decision-theoretic generalization of on-line learning and an application to boosting", European Conference on Computational Learning Theory, September 20,1995.)。
The weight table stored in the
尚、Adaboostは、適応的なブースティング学習方法の1つで、大量の教師サンプルをもとに、複数の弱識別器候補の中から識別に有効な弱識別器を複数個選択し、それらを重み付けして統合することによって高精度な識別器を実現する学習方法である。ここで、弱識別器とは、全くの偶然よりは識別能力は高いが、十分な精度を満たすほど高精度ではない識別器のことをいう。弱識別器の選択時には、既に選択した弱識別器がある場合、選択済の弱識別器によって誤認識してしまう教師サンプルに対して学習を重点化することによ
って、残りの弱識別器候補の中から最も効果の高い弱識別器を選択する。
Adaboost is an adaptive boosting learning method. Based on a large number of teacher samples, Adaboost selects multiple weak classifiers that are effective for identification from among a plurality of weak classifier candidates. This is a learning method for realizing a highly accurate classifier by weighting and integrating. Here, a weak classifier refers to a classifier that has a higher discrimination ability than a coincidence but is not high enough to satisfy sufficient accuracy. When a weak classifier is selected, if there is a weak classifier that has already been selected, the learning is focused on the teacher sample that is misrecognized by the selected weak classifier. To select the most effective weak classifier.
図24は、縮小画像生成手段51によって得られる階層画像の一例を示している。この例では、縮小率Rを0.8に設定した場合に、生成される複数の階層画像を示している。図24において、60は入力画像を、61〜65は縮小画像を示している。68は判定領域を示している。この例では、判定領域は縦24画素、横24画素の大きさに設定されている。判定領域の大きさは、入力画像および各縮小画像においても同じである。又、この例では、矢印で示すように、階層画像上で判定領域を左から右に移動させる、水平方向走査を、上方から下方に向かって行うことで、判定領域とマッチングする顔画像の検出を行う。ただし、走査順はこれに限られるものではない。入力画像60の他に、複数の縮小画像61〜65を生成しているのは、1種類の重みテーブルを用いて大きさが異なる顔を検出するためである。
FIG. 24 shows an example of a hierarchical image obtained by the reduced image generating means 51. In this example, a plurality of hierarchical images that are generated when the reduction ratio R is set to 0.8 are shown. 24,
図25は顔検出処理を説明するための図である。顔判定手段52による顔検出処理は、各階層画像毎に行なわれるが、処理方法は同様なので、ここでは入力画像60に対して行なわれる顔検出処理についてのみ説明する。
FIG. 25 is a diagram for explaining the face detection process. The face detection process by the
各階層画像毎に行なわれる顔検出処理は、画像内に設定された判定領域に対応する画像と重みテーブルとを用いて行なわれる。顔検出処理は粗い判定から順次細かい判定に移行する複数の判定ステップからなり、ある判定ステップにおいて、顔が検出されなかった場合には、次の判定ステップには移行せず、当該判定領域には顔は存在しないと判定する。全ての判定ステップにおいて、顔が検出された場合にのみ、当該判定領域に顔が存在すると判定し、判定領域を走査して次の判定領域での判定に移行する。このようにして、検出された顔の位置及び大きさは検出結果出力手段53によって出力される。尚、このような顔検出処理については、本願出願人による特許出願である特願2006−053304号に詳しく記載されている。 The face detection process performed for each hierarchical image is performed using an image corresponding to the determination region set in the image and a weight table. The face detection process includes a plurality of determination steps that sequentially shift from a rough determination to a fine determination. When a face is not detected in a certain determination step, the process does not proceed to the next determination step, and the determination area includes It is determined that no face exists. In all the determination steps, only when a face is detected, it is determined that a face exists in the determination area, and the determination area is scanned to shift to determination in the next determination area. In this way, the detected face position and size are output by the detection result output means 53. Such face detection processing is described in detail in Japanese Patent Application No. 2006-053304, which is a patent application filed by the present applicant.
尚、本発明の第1〜第3の実施形態において、画像を分割して得られる領域は、細かく区分するほど、距離の異なる複数の被写体が含まれる領域の割合が小さくなり、領域間の境界が目立ちにくくなるため、良好なボケ味の画像生成が可能となる。 In the first to third embodiments of the present invention, the area obtained by dividing an image becomes smaller, and as the area is divided more finely, the ratio of areas including a plurality of subjects with different distances decreases. Therefore, it is possible to generate an image with good blurring.
〈変形例2〉(距離依存階調補正)
又、本発明の第1〜第3の実施形態において、ぼかし処理に加えて、領域毎に被写体までの距離に依存した階調補正を画像に施してもよい。以下に、このような階調補正方法について説明する。
<
In the first to third embodiments of the present invention, in addition to the blurring process, gradation correction depending on the distance to the subject may be performed on the image for each region. Hereinafter, such a gradation correction method will be described.
この場合、ぼかし処理部30は、画像中の被写体の距離情報と輝度情報を算出してそれに基づいた階調補正を撮影した画像に施すことができる機能を備え、このような撮影モードを階調補正モードと呼ぶ。
In this case, the
図26は距離依存階調補正機能を備えたぼかし処理部30の構成を示すブロック図である。ぼかし処理部30は、フレームメモリ31、ローパスフィルタ部34、信号処理部35に加えて、フレームメモリ31に記憶された記録用画像のデジタル信号を読み込んで上述の所定の領域に区分し各領域の平均輝度を算出する輝度情報算出部41と、輝度情報算出部41で算出された各領域の平均輝度を記憶する輝度情報記憶部42と、距離情報記憶部17aに記憶された各領域の被写体までの距離と輝度情報記憶部42に記憶された各領域の平均輝度とメモリ14に記憶された階調補正テーブルに基づいてフレームメモリ31から読み込んだ記録用画像信号(デジタル信号)に対して階調補正を施す階調補正部43と、を備え、信号処理部35ではローパスフィルタ部34及び階調補正部43の少なくとも一方で画像処理が施された記録用画像信号より輝度信号及び色差信号を生成する。
FIG. 26 is a block diagram showing a configuration of the
次に距離依存階調補正機能を備えたぼかし処理部30の動作について説明する。図27は、図2のフローチャートの一部に距離依存階調補正機能に関する部分を追加したものである。この場合、図2のフローチャートにおける、STEP202における撮影モードの選択肢としてぼかし処理モードに加えて階調補正モードも含まれる。階調補正モードが選択された場合、ぼかし処理モードも同時に選択され、第1〜第3の実施形態と同様のぼかし処理が図2のSTEP210まで行われる。次に、階調補正モードが選択されているかどうかを検出し(STEP2701)、選択されていない場合はぼかし処理を施した画像の圧縮画像を生成し(STEP211)、上述の第1〜第3の実施形態と同様の処理が継続される。
Next, the operation of the
階調補正モードが選択されている場合、輝度情報算出部41ではフレームメモリ31に記憶された記録用画像(デジタル信号)を読み込んで、上述の距離検出部23で区分したものと同じ所定の領域に区分して各領域について平均輝度を算出し、輝度情報記憶部42では輝度情報算出部41で算出された平均輝度を記憶する(STEP2702)。
When the gradation correction mode is selected, the luminance
階調補正部43では、輝度情報記憶部42から各領域の平均輝度を読み込んで、各領域を平均輝度によってグループ化する。例えば平均輝度がLa以上の高輝度、平均輝度がLb以上La未満の中輝度、平均輝度がLb未満の低輝度の3個のグループにグループ化する。ここで、La、Lbは撮像装置に応じて設定可能な任意の値である。さらに、メモリ14に記憶された合焦距離のグループ及び平均輝度のグループ毎に設定された階調補正テーブルを読み込み、各領域の属する合焦距離のグループ及び平均輝度のグループに基づいて階調補正の入出力特性を割り当てる(STEP2703)。
The
続いて、フレームメモリ31に記憶された記録用画像を読み込んで各領域にこの階調補正テーブルを適用して階調補正を行う(STEP2704)。階調補正を行った画像について、圧縮処理部6においてJPEG形式に圧縮(STEP211)する。
Subsequently, the recording image stored in the
STEP211でぼかし処理及び階調補正を含む画像補整を行った画像信号を圧縮処理部6において圧縮する際にも、画像補正を行った画像信号のみならず画像補正を行っていない画像信号についても圧縮し、図12に示すヘッダ部82に、合焦距離情報82aに加えてSTEP2702で輝度情報記憶部42に記憶された各領域についての平均輝度情報を併せて書き込んでもよい。
When the image signal that has been subjected to image correction including blurring processing and gradation correction in STEP 211 is compressed by the
(階調補正テーブル)
次に、階調補正テーブルについて説明する。本実施形態の階調補正テーブルは、近景、中景、遠景の3個の距離グループ及び高輝度、中輝度、低輝度の3個の平均輝度グループに対して割り当てられた図28(a)〜図28(i)のグラフに示す9個の入出力特性からなる。各グラフは横軸を階調補正前の入力輝度値、縦軸を階調補正後の出力輝度値とするものである。この入出力特性に基づいて各領域を構成する各画素は輝度が変換される。
(Tone correction table)
Next, the gradation correction table will be described. The gradation correction table of this embodiment is assigned to the three distance groups of the near view, the middle view, and the distant view and the three average brightness groups of the high luminance, the medium luminance, and the low luminance. It consists of nine input / output characteristics shown in the graph of FIG. In each graph, the horizontal axis represents the input luminance value before gradation correction, and the vertical axis represents the output luminance value after gradation correction. Based on this input / output characteristic, the luminance of each pixel constituting each region is converted.
まず、中景のグループに属する領域に対して割り当てられた入出力特性について説明する。図28(d)〜図28(f)はいずれも中景のグループに属する領域に対して割り当てられた入出力特性であり、領域内の画素の輝度にかかわらずグラフの傾きkは例えば1として一定とし、特に変換しない。これにより、補正後の近景及び遠景の中間的な輝度の画像となる。 First, input / output characteristics assigned to an area belonging to the middle scene group will be described. FIG. 28D to FIG. 28F are input / output characteristics assigned to the area belonging to the middle scene group, and the slope k of the graph is set to 1 regardless of the luminance of the pixels in the area, for example. Constant, no particular conversion. As a result, an image having a brightness intermediate between the near view and the distant view after the correction is obtained.
次に近景のグループに属する領域に対して割り当てられた入出力特性について説明する。近景に属する領域は、画像中で中景、遠景よりも強調するように補正する。 Next, input / output characteristics assigned to areas belonging to the foreground group will be described. The region belonging to the near view is corrected so as to be emphasized more than the middle view and the distant view in the image.
図28(a)は近景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を低く変換するもので、輝度がL11以上の部分のグラフの傾きをk11、L11以下の部分の傾きをk13とすると、k13<k<k11として(kは中景のグループに属する領域に対して割り当てられた入出力特性の傾き)、輝度の高い部分では階調幅を広げるように変換する。ここでは輝度L11と、平均輝度で画面の各領域をグループ化する際の基準としたLaとの関係をL11<Laとして、対象となる領域の属する高輝度範囲全体で階調幅を広げるように変換することとしている。 FIG. 28A shows input / output characteristics assigned to a region belonging to a near-ground and high-luminance group. This is to convert the overall luminance to a low level. If the slope of the graph with the luminance of L11 or higher is k11, and the slope of the portion of L11 or lower is k13, then k13 <k <k11 (k is the group of the middle scene) The slope of the input / output characteristics assigned to the area belonging to the above) is converted so as to widen the gradation width in a portion with high luminance. Here, the relationship between the luminance L11 and La used as a reference when grouping each area of the screen with the average luminance is set to L11 <La so that the gradation width is widened over the entire high luminance range to which the target area belongs. To do.
図28(b)は近景かつ中輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL21以上の部分でのグラフの傾きをk21、L22以上L21以下の部分の傾きをk22、L22以下の部分での傾きをk23とすると、k21(k23)<k<k22として、輝度の高い部分ではより輝度を高く変換し、輝度の低い部分ではより輝度を低く変換してコントラストをはっきりさせる。傾きk21とk23はどちらが大きくてもよいし、同じであってもよい。ここでは輝度L21及びL22とLa及びLbとの関係をL22<Lb<La<L21として対象となる領域の属する中輝度範囲全体の階調幅を広げるように変換することとしている。 FIG. 28B shows the input / output characteristics assigned to the area belonging to the near-ground and medium-luminance group. Assuming that the slope of the graph in the portion where the luminance is L21 or more is k21, the slope of the portion of L22 or more and L21 or less is k22, and the slope of the portion of L22 or less is k23, k21 (k23) <k <k22. The brightness is converted to be higher in the high brightness portion, and the brightness is converted to be lower in the low brightness portion to clarify the contrast. Either of the slopes k21 and k23 may be larger or the same. Here, the relationship between the luminances L21 and L22 and La and Lb is set to L22 <Lb <La <L21 so as to increase the gradation width of the entire middle luminance range to which the target region belongs.
図28(c)は近景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を高くして強調するもので、輝度がL32以上の部分の傾きをk31、L32以下の部分の傾きをk33とすると、k31<k<k33として、低輝度部分の階調幅を広げるように変換する。ここでは輝度L32とLbとの関係をLb<L32として、対象となる領域の属する低輝度範囲全体の階調幅を広げるように変換することとしている。 FIG. 28C shows the input / output characteristics assigned to the area belonging to the foreground and low luminance group. This enhances the overall luminance, and if the inclination of the portion where the luminance is L32 or higher is k31 and the inclination of the portion of L32 or lower is k33, the gradation width of the low luminance portion as k31 <k <k33. To widen. Here, the relationship between the luminances L32 and Lb is set to Lb <L32, and conversion is performed so as to widen the gradation width of the entire low luminance range to which the target region belongs.
次に遠景のグループに属する領域に対して割り当てられた入出力特性について説明する。遠景に属する領域は、画像中で近景、中景よりも目立たないように補正する。 Next, input / output characteristics assigned to areas belonging to a distant view group will be described. The area belonging to the distant view is corrected so that it is less conspicuous than the foreground and the foreground in the image.
図28(g)は遠景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL71以上の部分の傾きをk71、L71以下の部分の傾きをk73とすると、k71<k<k73として、高輝度部分の階調幅を狭くするように変換してコントラストを低くする。さらに出力輝度値の高輝度部分をカットして全体に暗くする。ここでは輝度L71とLaとの関係をL71<Laとして対象となる領域の属する高輝度範囲全体で階調幅を狭くするように変換している。 FIG. 28G shows input / output characteristics assigned to a region belonging to a distant view and a group with high luminance. In this case, assuming that the slope of the portion where the luminance is L71 or higher is k71 and the slope of the portion of L71 or lower is k73, k71 <k <k73 is converted so that the gradation width of the high luminance portion is narrowed to lower the contrast. . Further, the high luminance portion of the output luminance value is cut and darkened as a whole. Here, the relationship between the luminances L71 and La is converted so that the gradation width is narrowed over the entire high luminance range to which the target region belongs, with L71 <La.
図28(h)は遠景かつ中輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL81以上の部分での傾きをk81、L82以上L81以下の部分での傾きをk82、L82以下の部分での傾きをk83とすると、k82<k<k81(k83)として、輝度の高い部分では輝度を低くし、輝度の低い部分では輝度を高くするように変換し、中輝度部分では階調幅を狭くするように変換して全体的に輝度を平均化しコントラストを低くする。傾きk81とk83はどちらが大きくてもよいし、同じであってもよい。ここでは輝度L81及びL82とLa及びLbとの関係をL82<Lb<La<L81として対象となる領域の属する中輝度範囲全体の階調幅を狭くするように変換することとしている。 FIG. 28H shows input / output characteristics assigned to a region belonging to a group of a distant view and a medium luminance. This is because the luminance at the portion where the luminance is L81 or more is k81, the inclination at the portion from L82 to L81 is k82, the inclination at the portion below L82 is k83, and the luminance is k82 <k <k81 (k83). Conversion is performed such that the luminance is lowered in the high luminance portion, and the luminance is increased in the low luminance portion, and the gradation width is reduced in the middle luminance portion so that the luminance is averaged and the contrast is lowered as a whole. Either of the slopes k81 and k83 may be larger or the same. Here, the relationship between the luminances L81 and L82 and La and Lb is set to L82 <Lb <La <L81 so that the gradation width of the entire middle luminance range to which the target region belongs is reduced.
図28(i)は遠景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、出力輝度値の低輝度部分をカットして(オフセットを設けて)全体に明るくし、輝度がL92以上の部分のグラフの傾きをk91、L91以下の部分の傾きをk93とすると、k93<k<k91として、高輝度部分の階調幅を広くするように変換し、低輝度部分の階調幅を狭くするように変換してコントラストを低くする。ここでは輝度L92とLbとの関係をLb<L92として、対象となる領域の属する低輝度範囲全体の階調幅を広くするように変換しすることとしている。 FIG. 28I shows input / output characteristics assigned to a region belonging to a group of a distant view and a low luminance. This is because if the low luminance portion of the output luminance value is cut (offset) to make it brighter as a whole, the inclination of the graph of the portion where the luminance is L92 or higher is k91, and the inclination of the portion of L91 or lower is k93. As <k <k91, conversion is performed so that the gradation width of the high luminance part is widened, and conversion is performed so that the gradation width of the low luminance part is narrowed, thereby lowering the contrast. Here, the relationship between the luminances L92 and Lb is set to Lb <L92, and conversion is performed so as to widen the gradation width of the entire low luminance range to which the target region belongs.
以上のような階調補正テーブルを用いて距離依存階調補正を行うことにより、近景はコントラストが高く、遠くなるにしたがってコントラストが低くなり、奥行き感のある立体的な画像を得ることができる。尚、本発明の撮像装置において、ぼかし処理と距離依存階調補正の順序は逆であっても構わない。又、本発明の撮像装置はぼかし処理機能又は距離依存階調補正機能の一方だけを有するものであっても構わない。 By performing distance-dependent tone correction using the tone correction table as described above, the near view has a high contrast and the contrast becomes low as the distance increases, and a stereoscopic image with a sense of depth can be obtained. In the image pickup apparatus of the present invention, the order of the blurring process and the distance-dependent gradation correction may be reversed. Further, the image pickup apparatus of the present invention may have only one of the blur processing function and the distance dependent gradation correction function.
(入出力特性の補間1)
しかし、領域間で階調補正に用いる入出力特性が異なると、領域の境界では画像に特性の違いによって境界が現れることとなる。そこで、領域間で境界をぼかして目立たなくするように、入出力特性の異なる隣接する領域を構成する画素の階調補正に用いる入出力特性にグラデーションを与える。この場合も、図14を用いて説明したカットオフ周波数の線形補間と同様の方法を用いることができる。
(Input / output characteristic interpolation 1)
However, if the input / output characteristics used for tone correction differ between areas, the boundary appears in the image due to the difference in the characteristics. Therefore, gradation is given to the input / output characteristics used for the gradation correction of the pixels constituting the adjacent areas having different input / output characteristics so that the boundaries between the areas are blurred and inconspicuous. In this case as well, the same method as the linear interpolation of the cutoff frequency described with reference to FIG. 14 can be used.
図29は異なる入出力特性の間を線形補間によりグラデーションを与えて変化させた入出力特性のグラフである。図29に5本の入出力特性のグラフp1〜p5を示す。p2〜p3は、p1とp5の間を等間隔で線形補間したものである。p1は図14の領域71の入出力特性であり、図28(c)である。p5は領域72の入出力特性であり、図28(f)である。中心71aにはp1、中心72aにはp2が適用される。p2〜p4はそれぞれ、中心71aと中心72aとを結ぶ線上に、中心71aと中心72aを含めて略等間隔に並んだ3個の画素である、画素71c、画素71d、画素72b(中心71a側から順に)について適用される。このようにして入出力特性を補間して画素毎にグラデーションを与えて変化させることにより、距離依存階調補正後の画像は領域間での境界がぼかされ目立たないものとなる。
FIG. 29 is a graph of input / output characteristics that are changed by providing gradation between different input / output characteristics by linear interpolation. FIG. 29 shows five graphs p1 to p5 of input / output characteristics. p2 to p3 are linearly interpolated between p1 and p5 at equal intervals. p1 is the input / output characteristic of the
(入出力特性の補間2)
尚、各領域を属する距離範囲によってグループ化せず、各領域の被写体までの距離によって階調補正に適用する入出力特性を変化させてもよい。複数の特定の距離の領域に対して入出力特性を設定し、特定の距離の間の距離の領域については、入出力特性としてその距離に隣接する特定の距離の領域に設定された入出力特性から補間したものを適用する。距離sと距離tは入出力特性が設定されており、距離sについて設定された入出力特性がS、距離tについて設定された入出力特性がTであるとき、距離sと距離tの間の入出力特性が設定されていない距離uについての入出力特性Uは、入出力特性T、Sを距離uに対して線形補間して、
U={S(t−u)+T(u−s)}/(t−s) …(1)
とすることができる。尚、入出力特性が設定された最も短い距離より短い距離については最も短い距離に設定された入出力特性を適用し、入出力特性が設定された最も長い距離より長い距離については最も長い距離に設定された入出力特性を適用する。
(Input / output characteristic interpolation 2)
Note that the input / output characteristics applied to the gradation correction may be changed depending on the distance to the subject in each area without grouping the areas according to the distance range to which each area belongs. Input / output characteristics are set for a plurality of specific distance areas, and for the distance areas between specific distances, the input / output characteristics set in the specific distance area adjacent to that distance as input / output characteristics Apply the one interpolated from. The input / output characteristics are set for the distance s and the distance t. When the input / output characteristics set for the distance s is S and the input / output characteristics set for the distance t is T, the distance between the distance s and the distance t is set. The input / output characteristics U for the distance u for which the input / output characteristics are not set is obtained by linearly interpolating the input / output characteristics T and S with respect to the distance u.
U = {S (tu) + T (us)} / (ts) (1)
It can be. The input / output characteristic set to the shortest distance is applied to the distance shorter than the shortest distance for which the input / output characteristic is set, and the longest distance is applied to the distance longer than the longest distance for which the input / output characteristic is set. Apply the set input / output characteristics.
例として図28の階調補正テーブルの図28(a)〜図28(c)を被写体までの距離が2m、図28(d)〜図28(f)を距離が6m、図28(g)〜図28(i)を距離が10mの領域に適用する入出力特性とする。このとき、被写体までの距離が5mであり、平均輝度が中輝度である領域については、図28(b)と図28(e)を線形補間した入出力特性を適用する。図28(b)の入出力特性をS、図28(e)の入出力特性をTとして上述の数式(1)を適用すると、この領域に適用する入出力特性Uは、s=2、t=6、u=5より、U=(S+3T)/4となる。図30にこのときの入出力特性Uのグラフを示す。図30において、q1は図28(b)、q2は図28(e)、q3は入出力特性Uのグラフである。 As an example, the distance to the subject is 2 m in FIGS. 28A to 28C of the gradation correction table in FIG. 28, the distance is 6 m in FIGS. 28D to 28F, and FIG. 28 (i) are input / output characteristics applied to a region having a distance of 10 m. At this time, an input / output characteristic obtained by linearly interpolating FIGS. 28B and 28E is applied to a region where the distance to the subject is 5 m and the average luminance is medium luminance. When the above equation (1) is applied with the input / output characteristic of FIG. 28B as S and the input / output characteristic of FIG. 28E as T, the input / output characteristic U applied to this region is s = 2, t = 6, u = 5, U = (S + 3T) / 4. FIG. 30 shows a graph of the input / output characteristic U at this time. In FIG. 30, q1 is a graph of FIG. 28B, q2 is a graph of FIG. 28E, and q3 is a graph of the input / output characteristics U.
このようにすることで、各領域を属する距離範囲によってグループ化する必要がなくなる。この場合においても、(入出力特性の補間1)で説明したように、ある点を共有する領域の4個の中心に囲まれた画素について、入出力特性を線形補間しても構わない。 In this way, it is not necessary to group each area according to the distance range to which it belongs. Also in this case, as described in (Input / output characteristic interpolation 1), the input / output characteristics may be linearly interpolated for the pixels surrounded by the four centers of the region sharing a certain point.
尚、階調補正テーブルは3段階の輝度範囲及び3段階の距離範囲に対する9個の入出力特性からなるものに限られず、距離範囲が2段階以上であればよく、更には輝度範囲及び距離範囲の少なくとも一方が2段階以上であってもよい。又、輝度範囲と距離範囲とは同数でなくてもよく、輝度範囲は単数であってもよい。又、入出力特性は図28に示したような直線からなるものではなく、曲線からなるものであってもよい。 The gradation correction table is not limited to the nine input / output characteristics for the three-level luminance range and the three-level distance range, and the distance range may be two or more levels, and further, the luminance range and the distance range. At least one of the above may be two or more stages. Further, the luminance range and the distance range may not be the same number, and the luminance range may be singular. Further, the input / output characteristics are not formed by a straight line as shown in FIG. 28 but may be formed by a curve.
図31に、高輝度と低輝度の2段階の輝度範囲及び近景と遠景の2段階の距離範囲に対する4個の入出力特性からなる階調補正テーブルの例を示す。この場合も、近景に属する領域は画像中で遠景よりも強調するように補正し、遠景に属する領域は画像中で近景よりも目立たないように補正する。 FIG. 31 shows an example of a gradation correction table composed of four input / output characteristics for a two-step luminance range of high luminance and low luminance and a two-step distance range of foreground and distant views. Also in this case, the region belonging to the foreground is corrected so as to be emphasized more than the distant view in the image, and the region belonging to the distant view is corrected so as not to stand out from the near view in the image.
図31(a)は、近景かつ高輝度領域のグループに属する領域に対して割り当てられた入出力特性である。これは、より輝度を高く変換し、輝度の低い部分ではより輝度を低く変換してコントラストをはっきりさせる。図31(a)に示す右上がりの破線で表される入力と出力が等しい直線の傾き(=1)と比較すると、輝度がLa1よりも高い部分とLa2よりも低い部分では曲線の接線の傾きは1よりも小さい。輝度がLa2よりも高くLa1よりも低い部分では曲線の接線の傾きは1よりも大きく、階調幅を広くするように変換する。 FIG. 31A shows input / output characteristics assigned to a region belonging to a group of a near-ground and high-luminance region. This converts the luminance higher and converts the luminance lower in the low luminance part to make the contrast clearer. Compared to the slope (= 1) of the straight line having the same input and output as the dashed line rising to the right shown in FIG. 31 (a), the slope of the tangent line of the curve is higher in the portion where the luminance is higher than La1 and lower than La2. Is less than 1. In a portion where the luminance is higher than La2 and lower than La1, the slope of the tangent of the curve is larger than 1, and conversion is performed so as to widen the gradation width.
図31(b)は近景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を高くするもので、輝度がLb1より高い部分では接線の傾きを1より小さく、Lb1より低い部分では1より大きくして、低輝度部分の階調幅を広くするように変換する。 FIG. 31B shows input / output characteristics assigned to a region belonging to a foreground and low luminance group. This is to increase the overall luminance, and the gradient of the tangent is smaller than 1 in the portion where the luminance is higher than Lb1, and is larger than 1 in the portion lower than Lb1, so that the gradation width of the low luminance portion is widened. To do.
図31(c)は遠景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がLc1より高い部分では接線の傾きを1より小さく、Lc1より低い部分では1より大きくして、高輝度部分の階調幅を狭くするように変換してコントラストを低くする。さらに出力輝度値の高輝度部分をカットして全体に暗くする。 FIG. 31C shows input / output characteristics assigned to a region belonging to a group of a distant view and a high luminance. This converts the slope of the tangent line to be smaller than 1 in the portion where the luminance is higher than Lc1, and is larger than 1 in the portion lower than Lc1, thereby reducing the contrast by reducing the gradation width of the high luminance portion. Further, the high luminance portion of the output luminance value is cut and darkened as a whole.
図31(d)は遠景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、出力輝度値の低輝度部分をカットして(オフセットを設けて)全体に明るくし、接線の傾きを全体に1より小さいものとして、コントラストを低くするように変換する。 FIG. 31D shows input / output characteristics assigned to a region belonging to a group of a distant view and a low luminance. In this case, the low luminance portion of the output luminance value is cut (provided with an offset) to brighten the entire image, and the tangent slope is set to be smaller than 1 as a whole so as to reduce the contrast.
このような階調補正テーブルを用いることにより、近景は明るく鮮鋭感を持つように、遠景ではコントラストの低い眠たいものとなるように変換することによって、奥行き感のある画像に変換することができる。 By using such a gradation correction table, an image having a sense of depth can be obtained by converting the near view to be bright and sharp and converting the distant view to be sleepy with low contrast.
又、図31の階調補正テーブルにおいて、遠景かつ高輝度のグループに属する領域に対しては図28(c)に代えて図32に示す入出力特性を、遠景かつ低輝度のグループに属する領域に対しては図28(d)に代えて図33に示す入出力特性を適用してもよい。 In addition, in the gradation correction table of FIG. 31, the input / output characteristics shown in FIG. 32 instead of FIG. 28C are applied to the area belonging to the distant view and high brightness group, and the area belonging to the distant view and low brightness group. However, the input / output characteristics shown in FIG. 33 may be applied instead of FIG.
図32は、S字状のカーブの膨らみを図31(a)よりも小さくしてコントラストの強調を抑えたものである。図33は、輝度がLd1以下の部分を真っ黒なものとし、カーブの膨らみを図31(b)よりも小さくして全体の輝度の高め方を抑えたものである。このような階調補正テーブルを用いることにより、コントラストの強調を近景では強め、遠景では弱めることによって、自然に近景の被写体を強調した画像に変換することができる。 In FIG. 32, the swell of the S-shaped curve is made smaller than that in FIG. In FIG. 33, the portion where the luminance is equal to or less than Ld1 is black, and the curve bulge is made smaller than that in FIG. 31B to suppress the method of increasing the overall luminance. By using such a gradation correction table, it is possible to naturally convert an image of an object in the foreground to an image in which the object in the foreground is emphasized by enhancing contrast enhancement in the foreground and weakening in the background.
〈変形例2〉
(撮影後に画像処理を行う場合)
尚、上述の説明において、図1に示すような構成の撮像装置を例に挙げて、本発明における画像処理方法について説明したが、撮像装置に限らず、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置においても、本発明における画像処理方法を利用可能である。図34に、本発明における画像処理方法(ぼかし処理及び距離依存階調補正)を行う画像処理装置(「画像処理部」に相当)を備えた表示装置を示す。
<
(When image processing is performed after shooting)
In the above description, the image processing method of the present invention has been described by taking the image pickup apparatus having the configuration shown in FIG. 1 as an example. However, the image processing method is not limited to the image pickup apparatus, and digital images such as liquid crystal displays and plasma televisions are used. The image processing method according to the present invention can also be used in a display device that performs processing. FIG. 34 shows a display device including an image processing apparatus (corresponding to an “image processing unit”) that performs an image processing method (blurring process and distance-dependent gradation correction) according to the present invention.
図34に示す表示装置は、図1に示す撮像装置と同様、ドライバ部8、伸長処理部9、ディスプレイ部12、音声出力回路部13、スピーカ部15、TG16、CPU17、メモリ18、操作部19、バス回線20,21及び外部メモリ22を備える。そして、図1と異なり、画像処理部5に代えて伸長処理部9で取得した画像信号を処理する画像処理装置5aを備える。画像処理装置5aは、図26に示すぼかし処理部30を有する。外部メモリ22では、本実施形態の撮像装置において撮影時に画像補正を行っていない画像信号に領域毎の距離情報及び平均輝度情報を有するヘッダを有する画像ファイルを保持している。
The display device shown in FIG. 34 is the same as the imaging device shown in FIG. 1, the
図35は、本実施形態の表示装置においてぼかし処理及び距離依存階調補正の画像処理を行う場合のフローチャートである。ユーザが表示装置を画像処理モードにし(STEP3501)、ディスプレイ部12に表示する画像を選択する(STEP3502)と、選択した画像の信号が外部メモリ22からドライバ部8を経て、伸長処理部9で伸長され、画像処理装置5aでディスプレイ部12に表示可能な信号に変換して、ディスプレイ部12に選択した画像を表示する。次にユーザがぼかし処理の実行を選択するかどうかを検出する(STEP3503)。ぼかし処理の実行を選択すると、ヘッダに書き込まれた画像の各領域の合焦距離情報がローパスフィルタ部34に読み込まれ、各領域を属する合焦距離範囲毎にグループ化する(STEP3504)。ヘッダに各領域の属する距離範囲のグループ情報が記憶されている場合はそれを読み込んでもよい。合焦距離情報や属する距離範囲のグループ情報は、外部メモリ22から直接読み込んでもよいし、圧縮符号として記憶されている場合は伸張処理部8で伸張してから与えられるものとしてもよい。これは、後述の平均輝度情報についても同様である。続いて、ローパスフィルタ部34で合焦距離情報から画像の各領域のぼかし度合いを設定し、(STEP3505)。設定したぼかし度合いでぼかし処理を施した画像の信号を保持する(STEP3506)。
FIG. 35 is a flowchart in the case of performing blur processing and distance-dependent gradation correction image processing in the display device of this embodiment. When the user sets the display device to the image processing mode (STEP 3501) and selects an image to be displayed on the display unit 12 (STEP 3502), the signal of the selected image is decompressed by the decompression processing unit 9 from the
次にぼかし処理のの強度を変更する補正強度値の入力待ち状態となる。ユーザが補正強度値を入力し、その値が画像処理部5aに読み込まれる(STEP3507)。図36に補正強度値を入力する表示の例を示す。表示装置のパネル上にディスプレイ部12と、上下左右及び中央の5個のボタンからなる操作部19の入力ボタン19aとが設けられており、左右の入力ボタン19aを押下することでディスプレイ部12に表示された選択した画像上のスライドバーによる補正強度値の表示を目安として補正強度値の強弱を変更することができる。
Next, the process waits for input of a correction intensity value for changing the intensity of the blurring process. The user inputs a correction intensity value, and the value is read into the
補正強度値が入力されると、ローパスフィルタ部34において、保持された通常のぼかし処理が施された画像の信号と、ぼかし処理が施されていない画像の信号とを入力された補正強度値で荷重加算し、その荷重加算された画像をディスプレイ部12に表示する。(STEP3508)。
When the correction intensity value is input, the low-
ここで、画像を構成する各画素における荷重加算について説明する。荷重加算後の画素の輝度をY、ぼかし処理が施されていない画素の輝度をYin、通常のぼかし処理が施された画素の輝度をYconv、荷重加算係数をKとする。このとき、Yは
Y=(1−K)Yin+K・Yconv
と表すことができる。荷重加算係数と補正強度値とは図37に示すように線形の関係を有し、最も強い補正強度に対応する加重加算係数K_maxは1以下の正の数であればよい。
Here, load addition at each pixel constituting the image will be described. It is assumed that the luminance of the pixel after the load addition is Y, the luminance of the pixel not subjected to the blurring process is Yin, the luminance of the pixel subjected to the normal blurring process is Yconv, and the load addition coefficient is K. At this time, Y is Y = (1−K) Yin + K · Yconv
It can be expressed as. The load addition coefficient and the correction intensity value have a linear relationship as shown in FIG. 37, and the weighted addition coefficient K_max corresponding to the strongest correction intensity may be a positive number of 1 or less.
その後ユーザがぼかし処理の終了を指示せず(STEP3509でNo)、左右の入力ボタン15aを押下して補正強度値を変更する(STEP3507)とその補正強度値に基づいて強度を変更したぼかし処理を施し、補正した画像をディスプレイ部12に表示する。つまり、ディスプレイ部12でぼかし処理の度合いを確認しながらぼかし処理の強度を変更することができる。そして、ぼかし処理の終了を指示する(STEP3509でYes)と距離依存階調補正の選択の検出に移行する(STEP3510)。
After that, when the user does not instruct the end of the blurring process (No in STEP 3509), the correction intensity value is changed by pressing the left and right input buttons 15a (STEP3507), and the blurring process in which the intensity is changed based on the correction intensity value is performed. The corrected image is displayed on the
次にユーザが距離依存階調補正の実行を選択する(STEP3510でYes)と、ヘッダに書き込まれた画像の各領域の合焦距離情報が階調補正部43に読み込まれ、各領域を属する合焦距離範囲毎にグループ化する(STEP3511)。ヘッダに各領域の属する距離範囲のグループ情報が記憶されている場合はそれを読み込んでもよい。合焦距離情報や属する距離範囲のグループ情報は、外部メモリ22から直接読み込んでもよいし、圧縮符号として記憶されている場合は伸張処理部8で伸張してから与えられるものとしてもよい。これは、後述の平均輝度情報についても同様である。
Next, when the user selects execution of distance-dependent gradation correction (YES in STEP 3510), the focus distance information of each area of the image written in the header is read into the
続いて、輝度情報算出部41で画像情報から画像の各領域の平均輝度を算出し、輝度情報記憶部42でそれを記憶し、階調補正部43で輝度情報記憶部42に記憶された各領域の平均輝度情報を読み取る(STEP3512)。ヘッダに各領域の平均輝度情報が書き込まれている場合は、階調補正部43で直接それを読み込んでもよい。
Subsequently, the luminance
階調補正部43では、輝度情報記憶部42又は外部メモリ22から直接読み込んだ各領域の平均輝度に基づいて、各領域を例えば高輝度、中輝度、低輝度にグループ化する。次に、メモリ18に記憶された合焦距離のグループ及び平均輝度のグループ毎に設定された階調補正テーブルを読み込み、各領域の属する合焦距離のグループ及び平均輝度のグループに基づいて階調補正の入出力特性を割り当て(STEP3513)、各領域に割り当てられた入出力特性によって階調補正部43で階調を補正した画像の信号を保持する(STEP3514)。
The
次に階調補正の入出力特性の強度を変更する補正強度値の入力待ち状態となる。ユーザが補正強度値を入力ボタン19aで入力し、その値が画像処理部5aに読み込まれる(STEP3515)。
Next, the input wait state for the correction intensity value for changing the intensity of the tone correction input / output characteristic is entered. The user inputs the correction intensity value with the
補正強度値が入力されると、階調補正部43において、保持された通常の階調補正が施された画像の信号と、階調補正が施されていない画像の信号とを入力された補正強度値で、上述したように荷重加算し、その荷重加算された画像をディスプレイ部12に表示する。(STEP3516)。
When the correction intensity value is input, the
その後ユーザが階調補正の終了を指示せず(STEP3516でNo)、左右の入力ボタン15aを押下して補正強度値を変更する(STEP3515)とその補正強度値に基づいて強度を変更した入出力特性によって階調補正をし、補正した画像をディスプレイ部12に表示する。つまり、ディスプレイ部12で階調補正の度合いを確認しながら階調補正の強度を変更することができる。そして、階調補正の終了を指示し(STEP3517でYes)、ぼかし処理又は階調補正が施された画像を圧縮し、外部メモリに記録する(STEP3518)と終了する(STEP3519)。ぼかし処理又は階調補正が施された画像を記録するかどうかは選択できるようにしても構わない。
After that, when the user does not give an instruction to end the gradation correction (No in STEP 3516) and the left and right input buttons 15a are pressed to change the correction intensity value (STEP 3515), the input / output changes the intensity based on the correction intensity value. The gradation is corrected according to the characteristics, and the corrected image is displayed on the
尚、本発明の表示装置において、ぼかし処理と距離依存階調補正の順序は逆であっても構わない。又、本発明の表示装置はぼかし処理機能又は距離依存階調補正機能の一方だけを有するものであっても構わない。又、撮像装置が本発明の表示装置として動作するものであっても構わない。 In the display device of the present invention, the order of the blurring process and the distance dependent gradation correction may be reversed. The display device of the present invention may have only one of the blurring processing function and the distance dependent gradation correction function. Further, the imaging device may operate as the display device of the present invention.
本発明は、オートフォーカス機能及びぼかし機能を有する撮像装置に適用することができる。 The present invention can be applied to an imaging apparatus having an autofocus function and a blur function.
1 イメージセンサ
2 レンズ部
3 AFE
4 マイク
5 画像処理部
5a 画像処理装置
6 音声処理部
7 圧縮処理部
8 ドライバ部
9 伸長処理部
10 ビデオ出力回路部
11 ビデオ出力端子
12 ディスプレイ部
13 音声出力回路部
14 音声出力端子
15 スピーカ部
16 TG
17 CPU
17a 距離情報記憶部
18 メモリ
19 操作部
19a 入力ボタン
20 バス回線
21 バス回線
22 外部メモリ
23 距離検出部
23a 高周波成分検出部
23b 高周波成分比較部
30 ぼかし処理部
31 フレームメモリ
32 距離検出部
34 ローパスフィルタ
34a 近景用ローパスフィルタ
34b 中景用ローパスフィルタ
34c 遠景用ローパスフィルタ
35 信号処理部
36 乗算器
37 乗算係数設定部
38 加算器
39 エッジ信号生成部
DESCRIPTION OF SYMBOLS 1
4 microphone 5
17 CPU
17a Distance
Claims (11)
前記撮像画像を撮像した撮像装置から前記各被写体までの距離である撮像距離に応じたぼかし度合いによって、前記撮像画像にぼかし処理を施すぼかし処理部を備えることを特徴とする画像処理装置。 An image processing apparatus that performs blurring processing on a captured image including a plurality of subjects,
An image processing apparatus comprising: a blur processing unit that performs blur processing on the captured image according to a blurring degree corresponding to an imaging distance that is a distance from the imaging apparatus that captured the captured image to each subject.
前記撮像部から前記各被写体までの距離である撮像距離を検出する撮像距離検出部と、
前記各被写体の撮像距離に応じたぼかし度合いによって、前記撮像画像にぼかし処理を施すぼかし処理部と、
を備えることを特徴とする撮像装置。 An imaging unit for acquiring a captured image including a plurality of subjects;
An imaging distance detection unit that detects an imaging distance that is a distance from the imaging unit to each subject;
A blur processing unit that performs blur processing on the captured image according to a blur level according to the imaging distance of each subject;
An imaging apparatus comprising:
前記撮像画像を複数の分割領域に分割する領域分割部と、
前記撮像部から前記各分割領域に含まれる被写体までの距離である撮像距離を検出する撮像距離検出部と、
前記各撮像距離に応じたぼかし度合いによって、前記分割領域ごとにぼかし処理を施すぼかし処理部と、
を備えることを特徴とする撮像装置。 An imaging unit for acquiring a captured image including a plurality of subjects;
An area dividing unit for dividing the captured image into a plurality of divided areas;
An imaging distance detection unit that detects an imaging distance that is a distance from the imaging unit to a subject included in each of the divided regions;
A blur processing unit that performs a blur process for each of the divided regions according to the blur level corresponding to each imaging distance;
An imaging apparatus comprising:
前記記憶部に記憶された前記本体部の前記撮像画像の電気信号を前記ヘッダ部に記憶された前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施す請求項6に記載の撮像装置。 A main body unit including an electrical signal of the captured image as acquired by the imaging unit, and a header unit having information on distances to subjects included in the respective divided areas detected by the imaging distance detection unit. A storage unit for storing image files,
The blur process is performed by applying a blurring degree set according to a distance to the subject stored in the header unit to the electrical signal of the captured image of the main body unit stored in the storage unit. Imaging device.
前記ぼかし処理部では、前記各距離グループに応じたぼかし度合いによって、前記分割領域に対して、属する前記各距離グループごとにぼかし処理を施すことを特徴とする請求項6又は請求項7に記載の撮像装置。 A distance group generation unit that divides the divided region into a plurality of distance groups based on the imaging distance,
8. The blur processing unit according to claim 6, wherein the blur processing unit performs blur processing for each of the distance groups to which the divided region belongs according to a blur level corresponding to each of the distance groups. Imaging device.
前記撮像部から前記各被写体までの距離である撮像距離を検出する撮像距離検出部と、
前記撮像画像と前記各被写体の撮像距離に関する情報を互いに関連づけて記録する記録部と、
を備えることを特徴とする撮像装置。 An imaging unit for acquiring a captured image including a plurality of subjects;
An imaging distance detection unit that detects an imaging distance that is a distance from the imaging unit to each subject;
A recording unit that records the captured image and information related to the imaging distance of each subject in association with each other;
An imaging apparatus comprising:
前記撮像画像を撮像した撮像装置から前記各被写体までの距離である撮像距離に関する情報とが、互いに関連づけて構成されることを特徴とする画像ファイル。 A captured image including a plurality of subjects;
An image file comprising information relating to an imaging distance, which is a distance from an imaging device that has captured the captured image to each subject, and is associated with each other.
複数の前記被写体が含まれる撮像画像を取得する撮像ステップと、
前記撮像距離検出ステップで検出した前記各被写体の撮像距離に応じたぼかし度合いによって、前記撮像ステップで取得した前記撮像画像にぼかし処理を施す階調補正ステップと、
を備えることを特徴とする画像処理方法。 An imaging distance detection step for detecting an imaging distance that is a distance to the subject;
An imaging step of acquiring a captured image including a plurality of the subjects;
A gradation correction step of performing a blurring process on the captured image acquired in the imaging step according to a blurring degree according to the imaging distance of each subject detected in the imaging distance detection step;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007138599A JP2008294785A (en) | 2007-05-25 | 2007-05-25 | Image processor, imaging apparatus, image file, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007138599A JP2008294785A (en) | 2007-05-25 | 2007-05-25 | Image processor, imaging apparatus, image file, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008294785A true JP2008294785A (en) | 2008-12-04 |
Family
ID=40169057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007138599A Pending JP2008294785A (en) | 2007-05-25 | 2007-05-25 | Image processor, imaging apparatus, image file, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008294785A (en) |
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101753844A (en) * | 2008-12-18 | 2010-06-23 | 三洋电机株式会社 | Image display apparatus and image sensing apparatus |
JP2010217808A (en) * | 2009-03-19 | 2010-09-30 | Nikon Corp | Apparatus and method for processing image, electronic camera, and image processing program |
KR101015935B1 (en) | 2009-10-28 | 2011-02-23 | 주식회사 넥슨 | Depth of field and motion blur processing computer system and method thereof |
JP2011091570A (en) * | 2009-10-21 | 2011-05-06 | Olympus Imaging Corp | Imaging apparatus |
JP2011175529A (en) * | 2010-02-25 | 2011-09-08 | Nikon Corp | Image processing apparatus, imaging apparatus and program |
JP2011239267A (en) * | 2010-05-12 | 2011-11-24 | Ricoh Co Ltd | Imaging apparatus and image processing apparatus |
JP2011249923A (en) * | 2010-05-24 | 2011-12-08 | Nikon Corp | Imaging apparatus, image processing apparatus, and image processing program |
US20120007997A1 (en) * | 2009-05-12 | 2012-01-12 | Canon Kabushiki Kaisha | Image pickup apparatus |
KR20120014366A (en) * | 2010-08-09 | 2012-02-17 | 엘지전자 주식회사 | Mobile terminal and its control method |
JP2012060540A (en) * | 2010-09-10 | 2012-03-22 | Fujitsu Ltd | Image processing apparatus, image processing method, and program for image processing |
JP2012109723A (en) * | 2010-11-16 | 2012-06-07 | Sharp Corp | Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon |
JP2012173830A (en) * | 2011-02-18 | 2012-09-10 | Sharp Corp | Image processing device, image processing method, and program |
CN102843510A (en) * | 2011-06-14 | 2012-12-26 | 宾得理光映像有限公司 | Imaging device and distance information detecting method |
JP2013005084A (en) * | 2011-06-14 | 2013-01-07 | Pentax Ricoh Imaging Co Ltd | Image processing apparatus and image processing method |
JP2013061743A (en) * | 2011-09-12 | 2013-04-04 | Canon Inc | Image processing apparatus and image processing method |
CN103139472A (en) * | 2011-11-28 | 2013-06-05 | 三星电子株式会社 | Digital photographing apparatus and control method thereof |
EP2605101A1 (en) * | 2011-12-17 | 2013-06-19 | Valeo Schalter und Sensoren GmbH | Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method |
US8532432B2 (en) | 2010-01-28 | 2013-09-10 | Pantech Co., Ltd. | Mobile communication terminal having image conversion function and method |
WO2013136403A1 (en) * | 2012-03-15 | 2013-09-19 | パナソニック株式会社 | Image processing device, integrated circuit, program, imaging device, and display device |
JP2013242830A (en) * | 2012-05-23 | 2013-12-05 | Ricoh Co Ltd | Image processing apparatus, image processing program, and image processing method |
CN103493484A (en) * | 2011-03-31 | 2014-01-01 | 富士胶片株式会社 | Image capturing device and image capturing method |
JP2014007611A (en) * | 2012-06-25 | 2014-01-16 | Canon Inc | Image processing apparatus and control method therefor |
CN103905725A (en) * | 2012-12-27 | 2014-07-02 | 佳能株式会社 | Image processing apparatus and image processing method |
JP2014127963A (en) * | 2012-12-27 | 2014-07-07 | Canon Inc | Image processing system and image processing method |
JP2014131320A (en) * | 2014-02-13 | 2014-07-10 | Canon Inc | Imaging apparatus |
JP2015037215A (en) * | 2013-08-12 | 2015-02-23 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2015040941A (en) * | 2013-08-21 | 2015-03-02 | キヤノン株式会社 | Image-capturing device, control method therefor, and program |
JP2015043495A (en) * | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
KR101525626B1 (en) * | 2009-01-05 | 2015-06-04 | 삼성전자주식회사 | Out focusing apparatus and method |
JP2015109681A (en) * | 2015-01-09 | 2015-06-11 | キヤノン株式会社 | Image processing method, image processing apparatus, image processing program, and imaging apparatus |
JP2015135623A (en) * | 2014-01-17 | 2015-07-27 | オリンパス株式会社 | Display device, display method and program |
US9113075B2 (en) | 2009-02-27 | 2015-08-18 | Samsung Electronics Co., Ltd. | Image processing method and apparatus and digital photographing apparatus using the same |
JP2015159391A (en) * | 2014-02-24 | 2015-09-03 | 株式会社リコー | transmission terminal, transmission system, and program |
EP2693755A3 (en) * | 2012-07-31 | 2015-09-09 | Sony Mobile Communications AB | New gamut control method for improving image performance of parallax barrier S3D display |
JP2016146601A (en) * | 2015-02-09 | 2016-08-12 | キヤノン株式会社 | Image processing apparatus and control method therefor |
US9460336B2 (en) | 2011-01-13 | 2016-10-04 | Samsung Electronics Co., Ltd. | Apparatus and method for extracting feature of depth image |
JP2016213574A (en) * | 2015-04-30 | 2016-12-15 | キヤノン株式会社 | Image processing apparatus and control method of image processing apparatus |
JP2017038139A (en) * | 2015-08-07 | 2017-02-16 | キヤノン株式会社 | Imaging apparatus, imaging apparatus control method, and program |
CN106576140A (en) * | 2014-10-28 | 2017-04-19 | 夏普株式会社 | Image processing device and program |
WO2019105298A1 (en) * | 2017-11-30 | 2019-06-06 | Oppo广东移动通信有限公司 | Image blurring processing method, device, mobile device and storage medium |
JP2019153950A (en) * | 2018-03-05 | 2019-09-12 | 株式会社Jvcケンウッド | Image pickup apparatus, image pickup method, and program |
JP2019153951A (en) * | 2018-03-05 | 2019-09-12 | 株式会社Jvcケンウッド | Image pickup apparatus, image pickup method, and program |
US10554890B1 (en) | 2019-02-18 | 2020-02-04 | Samsung Electronics Co., Ltd. | Apparatus and method for generating low-light images with improved bokeh using mobile electronic device |
JP2020046475A (en) * | 2018-09-14 | 2020-03-26 | キヤノン株式会社 | Image processing device and control method therefor |
JP2020136928A (en) * | 2019-02-20 | 2020-08-31 | キヤノン株式会社 | Image processing equipment, image processing methods, and programs |
CN111866378A (en) * | 2020-06-30 | 2020-10-30 | 维沃移动通信有限公司 | Image processing method, apparatus, equipment and medium |
JP2020536457A (en) * | 2017-10-31 | 2020-12-10 | オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image processing methods and devices, electronic devices, and computer-readable storage media |
US11062436B2 (en) | 2019-05-10 | 2021-07-13 | Samsung Electronics Co., Ltd. | Techniques for combining image frames captured using different exposure settings into blended images |
CN114549585A (en) * | 2022-02-14 | 2022-05-27 | 杭州海康威视系统技术有限公司 | Video tracking method, apparatus, device, machine-readable storage medium and system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366963A (en) * | 2001-06-12 | 2002-12-20 | Ricoh Co Ltd | Method and device for processing image, imaging device and computer program |
JP2005012307A (en) * | 2003-06-17 | 2005-01-13 | Minolta Co Ltd | Imaging apparatus |
JP2006067521A (en) * | 2004-08-30 | 2006-03-09 | Kyocera Corp | Image processing apparatus and method, and image pickup apparatus and method |
JP2006157817A (en) * | 2004-12-01 | 2006-06-15 | Nikon Corp | Digital camera, image processing system and image processing program |
JP2007129310A (en) * | 2005-11-01 | 2007-05-24 | Nikon Corp | Imaging apparatus |
-
2007
- 2007-05-25 JP JP2007138599A patent/JP2008294785A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366963A (en) * | 2001-06-12 | 2002-12-20 | Ricoh Co Ltd | Method and device for processing image, imaging device and computer program |
JP2005012307A (en) * | 2003-06-17 | 2005-01-13 | Minolta Co Ltd | Imaging apparatus |
JP2006067521A (en) * | 2004-08-30 | 2006-03-09 | Kyocera Corp | Image processing apparatus and method, and image pickup apparatus and method |
JP2006157817A (en) * | 2004-12-01 | 2006-06-15 | Nikon Corp | Digital camera, image processing system and image processing program |
JP2007129310A (en) * | 2005-11-01 | 2007-05-24 | Nikon Corp | Imaging apparatus |
Cited By (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010145693A (en) * | 2008-12-18 | 2010-07-01 | Sanyo Electric Co Ltd | Image display device and imaging device |
CN101753844A (en) * | 2008-12-18 | 2010-06-23 | 三洋电机株式会社 | Image display apparatus and image sensing apparatus |
KR101525626B1 (en) * | 2009-01-05 | 2015-06-04 | 삼성전자주식회사 | Out focusing apparatus and method |
US9113075B2 (en) | 2009-02-27 | 2015-08-18 | Samsung Electronics Co., Ltd. | Image processing method and apparatus and digital photographing apparatus using the same |
JP2010217808A (en) * | 2009-03-19 | 2010-09-30 | Nikon Corp | Apparatus and method for processing image, electronic camera, and image processing program |
US9201288B2 (en) * | 2009-05-12 | 2015-12-01 | Canon Kabushiki Kaisha | Image processing apparatus with blur correcting function |
US9591246B2 (en) | 2009-05-12 | 2017-03-07 | Canon Kabushiki Kaisha | Image pickup apparatus with blur correcting function |
US20120007997A1 (en) * | 2009-05-12 | 2012-01-12 | Canon Kabushiki Kaisha | Image pickup apparatus |
JP2011091570A (en) * | 2009-10-21 | 2011-05-06 | Olympus Imaging Corp | Imaging apparatus |
KR101015935B1 (en) | 2009-10-28 | 2011-02-23 | 주식회사 넥슨 | Depth of field and motion blur processing computer system and method thereof |
US8532432B2 (en) | 2010-01-28 | 2013-09-10 | Pantech Co., Ltd. | Mobile communication terminal having image conversion function and method |
US9197882B2 (en) | 2010-01-28 | 2015-11-24 | Pantech Co., Ltd. | Mobile communication terminal having image conversion function and method |
JP2011175529A (en) * | 2010-02-25 | 2011-09-08 | Nikon Corp | Image processing apparatus, imaging apparatus and program |
JP2011239267A (en) * | 2010-05-12 | 2011-11-24 | Ricoh Co Ltd | Imaging apparatus and image processing apparatus |
JP2011249923A (en) * | 2010-05-24 | 2011-12-08 | Nikon Corp | Imaging apparatus, image processing apparatus, and image processing program |
KR101700195B1 (en) * | 2010-08-09 | 2017-01-26 | 엘지전자 주식회사 | Mobile terminal and method for controlling thereof |
KR20120014366A (en) * | 2010-08-09 | 2012-02-17 | 엘지전자 주식회사 | Mobile terminal and its control method |
JP2012060540A (en) * | 2010-09-10 | 2012-03-22 | Fujitsu Ltd | Image processing apparatus, image processing method, and program for image processing |
JP2012109723A (en) * | 2010-11-16 | 2012-06-07 | Sharp Corp | Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon |
US9460336B2 (en) | 2011-01-13 | 2016-10-04 | Samsung Electronics Co., Ltd. | Apparatus and method for extracting feature of depth image |
JP2012173830A (en) * | 2011-02-18 | 2012-09-10 | Sharp Corp | Image processing device, image processing method, and program |
CN103493484A (en) * | 2011-03-31 | 2014-01-01 | 富士胶片株式会社 | Image capturing device and image capturing method |
JPWO2012132797A1 (en) * | 2011-03-31 | 2014-07-28 | 富士フイルム株式会社 | Imaging apparatus and imaging method |
US8885026B2 (en) | 2011-03-31 | 2014-11-11 | Fujifilm Corporation | Imaging device and imaging method |
CN102843510A (en) * | 2011-06-14 | 2012-12-26 | 宾得理光映像有限公司 | Imaging device and distance information detecting method |
JP2013005084A (en) * | 2011-06-14 | 2013-01-07 | Pentax Ricoh Imaging Co Ltd | Image processing apparatus and image processing method |
JP2013005091A (en) * | 2011-06-14 | 2013-01-07 | Pentax Ricoh Imaging Co Ltd | Imaging apparatus and distance information acquisition method |
US9412151B2 (en) | 2011-09-12 | 2016-08-09 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2013061743A (en) * | 2011-09-12 | 2013-04-04 | Canon Inc | Image processing apparatus and image processing method |
US9325895B2 (en) | 2011-11-28 | 2016-04-26 | Samsung Electronics Co., Ltd. | Digital photographing apparatus and control method thereof |
EP2597863A3 (en) * | 2011-11-28 | 2015-09-30 | Samsung Electronics Co., Ltd. | Digital Photographing Apparatus and Control Method Thereof |
CN103139472A (en) * | 2011-11-28 | 2013-06-05 | 三星电子株式会社 | Digital photographing apparatus and control method thereof |
EP2605101A1 (en) * | 2011-12-17 | 2013-06-19 | Valeo Schalter und Sensoren GmbH | Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method |
WO2013136403A1 (en) * | 2012-03-15 | 2013-09-19 | パナソニック株式会社 | Image processing device, integrated circuit, program, imaging device, and display device |
US9002128B2 (en) | 2012-03-15 | 2015-04-07 | Panasonic Intellectual Property Corporation Of America | Image processing apparatus, integrated circuit, program, imaging apparatus, and display apparatus |
JPWO2013136403A1 (en) * | 2012-03-15 | 2015-07-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Image processing device, integrated circuit, program, imaging device, display device |
JP2013242830A (en) * | 2012-05-23 | 2013-12-05 | Ricoh Co Ltd | Image processing apparatus, image processing program, and image processing method |
JP2014007611A (en) * | 2012-06-25 | 2014-01-16 | Canon Inc | Image processing apparatus and control method therefor |
EP2693755A3 (en) * | 2012-07-31 | 2015-09-09 | Sony Mobile Communications AB | New gamut control method for improving image performance of parallax barrier S3D display |
CN103905725B (en) * | 2012-12-27 | 2018-04-03 | 佳能株式会社 | Image processing equipment and image processing method |
JP2014127963A (en) * | 2012-12-27 | 2014-07-07 | Canon Inc | Image processing system and image processing method |
JP2014127965A (en) * | 2012-12-27 | 2014-07-07 | Canon Inc | Image processing apparatus and image processing method |
CN103905725A (en) * | 2012-12-27 | 2014-07-02 | 佳能株式会社 | Image processing apparatus and image processing method |
JP2015037215A (en) * | 2013-08-12 | 2015-02-23 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2015040941A (en) * | 2013-08-21 | 2015-03-02 | キヤノン株式会社 | Image-capturing device, control method therefor, and program |
JP2015043495A (en) * | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
JP2015135623A (en) * | 2014-01-17 | 2015-07-27 | オリンパス株式会社 | Display device, display method and program |
JP2014131320A (en) * | 2014-02-13 | 2014-07-10 | Canon Inc | Imaging apparatus |
JP2015159391A (en) * | 2014-02-24 | 2015-09-03 | 株式会社リコー | transmission terminal, transmission system, and program |
CN106576140B (en) * | 2014-10-28 | 2019-10-18 | 夏普株式会社 | Image processing device and camera device |
US10147169B2 (en) | 2014-10-28 | 2018-12-04 | Sharp Kabushiki Kaisha | Image processing device and program |
CN106576140A (en) * | 2014-10-28 | 2017-04-19 | 夏普株式会社 | Image processing device and program |
JP2015109681A (en) * | 2015-01-09 | 2015-06-11 | キヤノン株式会社 | Image processing method, image processing apparatus, image processing program, and imaging apparatus |
JP2016146601A (en) * | 2015-02-09 | 2016-08-12 | キヤノン株式会社 | Image processing apparatus and control method therefor |
JP2016213574A (en) * | 2015-04-30 | 2016-12-15 | キヤノン株式会社 | Image processing apparatus and control method of image processing apparatus |
JP2017038139A (en) * | 2015-08-07 | 2017-02-16 | キヤノン株式会社 | Imaging apparatus, imaging apparatus control method, and program |
JP7027537B2 (en) | 2017-10-31 | 2022-03-01 | オッポ広東移動通信有限公司 | Image processing methods and equipment, electronic devices, and computer-readable storage media |
JP2020536457A (en) * | 2017-10-31 | 2020-12-10 | オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image processing methods and devices, electronic devices, and computer-readable storage media |
WO2019105298A1 (en) * | 2017-11-30 | 2019-06-06 | Oppo广东移动通信有限公司 | Image blurring processing method, device, mobile device and storage medium |
JP2019153950A (en) * | 2018-03-05 | 2019-09-12 | 株式会社Jvcケンウッド | Image pickup apparatus, image pickup method, and program |
JP2019153951A (en) * | 2018-03-05 | 2019-09-12 | 株式会社Jvcケンウッド | Image pickup apparatus, image pickup method, and program |
JP6996347B2 (en) | 2018-03-05 | 2022-01-17 | 株式会社Jvcケンウッド | Imaging device, imaging method, and program |
JP7000921B2 (en) | 2018-03-05 | 2022-01-19 | 株式会社Jvcケンウッド | Imaging device, imaging method, and program |
JP2020046475A (en) * | 2018-09-14 | 2020-03-26 | キヤノン株式会社 | Image processing device and control method therefor |
JP7204387B2 (en) | 2018-09-14 | 2023-01-16 | キヤノン株式会社 | Image processing device and its control method |
US10554890B1 (en) | 2019-02-18 | 2020-02-04 | Samsung Electronics Co., Ltd. | Apparatus and method for generating low-light images with improved bokeh using mobile electronic device |
JP2020136928A (en) * | 2019-02-20 | 2020-08-31 | キヤノン株式会社 | Image processing equipment, image processing methods, and programs |
JP7278096B2 (en) | 2019-02-20 | 2023-05-19 | キヤノン株式会社 | Image processing device, image processing method, and program |
US11062436B2 (en) | 2019-05-10 | 2021-07-13 | Samsung Electronics Co., Ltd. | Techniques for combining image frames captured using different exposure settings into blended images |
WO2022001648A1 (en) * | 2020-06-30 | 2022-01-06 | 维沃移动通信有限公司 | Image processing method and apparatus, and device and medium |
CN111866378A (en) * | 2020-06-30 | 2020-10-30 | 维沃移动通信有限公司 | Image processing method, apparatus, equipment and medium |
CN114549585A (en) * | 2022-02-14 | 2022-05-27 | 杭州海康威视系统技术有限公司 | Video tracking method, apparatus, device, machine-readable storage medium and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008294785A (en) | Image processor, imaging apparatus, image file, and image processing method | |
KR101692401B1 (en) | Image process method and apparatus | |
JP4524717B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
CN101998053B (en) | Image processing method, image processing apparatus, and imaging apparatus | |
JP3530907B2 (en) | Digital camera | |
JP5321163B2 (en) | Imaging apparatus and imaging method | |
KR101643613B1 (en) | Digital image process apparatus, method for image processing and storage medium thereof | |
JP4916378B2 (en) | Imaging apparatus, image processing apparatus, image file, and gradation correction method | |
JP4891647B2 (en) | camera | |
JP2010074813A (en) | Imaging apparatus and imaging method | |
JP2016012811A (en) | Imaging apparatus, control method thereof, program and storage medium | |
JP2011114823A (en) | Image processing apparatus, and imaging apparatus | |
JP4606486B2 (en) | Image processing apparatus and photographing apparatus | |
JP4934617B2 (en) | Imaging apparatus and imaging method | |
JP2011066827A (en) | Image processing apparatus, image processing method and program | |
JP2005055746A (en) | Imaging apparatus, focusing control method and program | |
JP7246894B2 (en) | Imaging device and its control method | |
JP2008136113A (en) | Image processor, imaging apparatus and image processing method | |
JP6029464B2 (en) | Imaging device, control method thereof, and control program | |
JP2018142983A (en) | Image processing device and method of controlling the same, program, and storage medium | |
JP2009033289A (en) | Imaging apparatus and method | |
JP2015041865A (en) | Image processing apparatus and image processing method | |
JP2023090492A (en) | Image processing device, image processing method, and imaging device | |
JP2020046475A (en) | Image processing device and control method therefor | |
JP6592293B2 (en) | Image processing apparatus, image processing method, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120110 |