[go: up one dir, main page]

JP2008294785A - Image processor, imaging apparatus, image file, and image processing method - Google Patents

Image processor, imaging apparatus, image file, and image processing method Download PDF

Info

Publication number
JP2008294785A
JP2008294785A JP2007138599A JP2007138599A JP2008294785A JP 2008294785 A JP2008294785 A JP 2008294785A JP 2007138599 A JP2007138599 A JP 2007138599A JP 2007138599 A JP2007138599 A JP 2007138599A JP 2008294785 A JP2008294785 A JP 2008294785A
Authority
JP
Japan
Prior art keywords
distance
image
unit
imaging
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007138599A
Other languages
Japanese (ja)
Inventor
Yukio Mori
幸夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007138599A priority Critical patent/JP2008294785A/en
Publication of JP2008294785A publication Critical patent/JP2008294785A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make an image focused on the whole of a screen to the three-dimensional one with a feeling of depth. <P>SOLUTION: When the image is photographed, the image is divided into a plurality of areas and pieces of distance information to subjects included in the respective areas are acquired. Blurring degrees are set by every area based on the pieces of distance information and blurring processing is performed by every area according to the blurring degrees. Thus, the image is made into the one with a blurring taste in which an area with low blurring degree in the image is floated. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は画像中の被写体の輪郭のぼかし度合いの補正が可能な画像処理装置及びその画像処理方法に関し、特に撮像装置からの距離が異なる複数の被写体を含む画像のぼかし処理に関する。   The present invention relates to an image processing apparatus capable of correcting the degree of blurring of a contour of a subject in an image and an image processing method thereof, and more particularly to blurring processing of an image including a plurality of subjects having different distances from an imaging device.

現在広く普及しているデジタルカメラやデジタルビデオなどといった撮像装置では、CCD(Charge Coupled Device)やCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子の画素数の向上により高精細な画像が撮影できるようになっている。さらに、撮影した画像の階調を自動的に補正して、記録される画像を見栄えのよいものとする撮像装置も既に提案されている。従来の一般的な階調補正は、例えば、撮影画像の全体に鮮明な画像にするため、近景も遠景も同じように鮮明な画像とするものである。   Imaging devices such as digital cameras and digital videos that are currently widely used can capture high-definition images by increasing the number of pixels in solid-state imaging devices such as CCD (Charge Coupled Device) and CMOS (Complimentary Metal Oxide Semiconductor) sensors. It is like that. In addition, an imaging apparatus that automatically corrects the gradation of a captured image to make the recorded image look good has already been proposed. The conventional general tone correction is, for example, to make clear images in the near view and the distant view in order to make the entire captured image clear.

ところで、撮影者に実際に見えている光景では、撮影者からの距離が近い物体ほど鮮明であり、距離が遠い物体ほどぼやけている。つまり、撮影者の肉眼には奥行き感のある立体的な画像が見えている。一眼レフカメラのように、レンズの口径及び撮像素子の大きな撮像装置では、被写界深度の浅い画像を撮影できるため、ボケ味のある、奥行き感のある画像を撮影することができる。しかし、コンパクトサイズのデジタルカメラのような小型の撮像装置においてはレンズの口径及び撮像素子が小さいため、撮影された画像は被写界深度が深く、焦点が近景から遠景まで全体に合ったものとなり、ボケ味のある、奥行き感のある画像を撮影することは難しい。   By the way, in a sight actually seen by a photographer, an object closer to the photographer is clearer and an object farther away is more blurred. That is, a stereoscopic image with a sense of depth is visible to the naked eye of the photographer. An imaging apparatus having a large lens aperture and imaging element, such as a single-lens reflex camera, can capture an image with a shallow depth of field, and thus can capture a blurred and deep image. However, in a small imaging device such as a compact digital camera, the aperture of the lens and the imaging element are small, so the captured image has a deep depth of field, and the focus is suitable for the entire range from near view to distant view. It is difficult to shoot a blurred image with a sense of depth.

そこで、特許文献1では、画像中の被写体が人物であることを検出すると、その画像の人物以外の部分をぼかす方法が提案されている。これによって、人物から背景まで全体に焦点が合った画像でも、人物が浮き上がった画像とすることができる。   Therefore, Patent Document 1 proposes a method of blurring a part other than the person in the image when it is detected that the subject in the image is a person. Thereby, even an image in which the whole object is focused from the person to the background can be an image in which the person is raised.

又、特許文献2では撮影レンズの焦点距離又は被写体の撮影距離の少なくとも一方を利用して階調の変換を変化させる方法が提案されている。マクロ撮影のように焦点距離が長く、撮影距離が短い場合は中間域の階調変化を強調して白とびや黒つぶれを抑制して画面全体の階調表現を視覚的に滑らかなものとし、一方、風景撮影のように焦点距離が短く、撮影距離が長い場合は中間域の階調変化を弱めて階調を変換し、中間域に集中した階調変化域を拡げてメリハリのある画像に変換させている。
特開平11−41512号公報 特開2004−215100号公報
Patent Document 2 proposes a method of changing gradation conversion using at least one of a focal length of a photographing lens or a photographing distance of a subject. When the focal length is long and the shooting distance is short as in macro shooting, the gradation change in the middle area is emphasized to suppress overexposure and blackout, and the gradation expression of the entire screen is made visually smooth. On the other hand, if the focal length is short and the shooting distance is long, such as landscape shooting, the gradation change in the intermediate area is reduced to convert the gradation, and the gradation change area concentrated in the intermediate area is expanded to produce a sharp image. It is converted.
JP 11-41512 A JP 2004-215100 A

しかし、特許文献1で提案された画像補整方法では、ぼかし度合いを使用者が設定することができるものの、1個の画像中におけるぼかし度合いは一定であるため人物に比較的近い被写体も比較的遠い被写体もぼけ具合が同じになってしまい、不自然な画像となる。   However, in the image correction method proposed in Patent Document 1, although the blurring degree can be set by the user, the blurring degree in one image is constant, so an object relatively close to a person is also relatively far away. The subject will also have the same blur, resulting in an unnatural image.

又、近景、遠景が混在し、焦点が全体に合った画像に対して特許文献2で提案された階調の変換方法を適用する場合、上述のマクロ撮影用の変換方法又は風景撮影用の変換方法のいずれかが適用されることとなる。マクロ撮影用の変換方法では画面全体の階調表現が視覚的に滑らかなものとなり、風景撮影用の変換方法では画面全体がメリハリのあるものとなる。しかし、いずれにしても、近景、遠景の区別なく画面全体に同一の変換条件を適用するため、画面内では近景が遠景に埋もれてしまい、実際に撮影者に見えているような奥行き感は得られない。   In addition, when the gradation conversion method proposed in Patent Document 2 is applied to an image in which a near view and a distant view are mixed and the focus is adjusted to the whole, the above-described conversion method for macro photography or conversion for landscape photography One of the methods will be applied. In the conversion method for macro photography, the gradation expression of the entire screen is visually smooth, and in the conversion method for landscape photography, the whole screen is sharp. However, in any case, since the same conversion conditions are applied to the entire screen regardless of whether the foreground or the background is distant, the foreground is buried in the distant view on the screen, and a sense of depth that is actually visible to the photographer is obtained. I can't.

そこで、本発明は、近景から遠景まで焦点が全体に合った画像でも、対象となる被写体に焦点が合い、それ以外の被写体がぼけた、奥行き感のある立体的なものとする画像処理装置及び画像処理方法を提供することを目的とする。又、焦点が全体にあった画像を、上述のような奥行き感のある立体的なものとするための被写体までの距離情報を、その画像とともに関連づけて記録できる撮像装置を提供することを目的とする。   Therefore, the present invention provides an image processing device that is a three-dimensional image with a sense of depth, in which an object in focus is in focus, and other objects are blurred, even in an image in which the entire focus is from near to far An object is to provide an image processing method. Another object of the present invention is to provide an imaging apparatus capable of recording distance information to a subject in association with the image in order to make the image having the entire focus into a three-dimensional image with a sense of depth as described above. To do.

上記目的を達成するために本発明は、入力された信号の信号値を変更して画像を補正する画像補正装置において、被写体を含む画像を単数又は複数の画素からなる領域に区分し、前記領域の各々を前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施すことを特徴とする。   In order to achieve the above object, according to the present invention, in an image correction apparatus that corrects an image by changing a signal value of an input signal, an image including a subject is divided into regions each including one or more pixels, and the region Each of these is subjected to a blurring process by applying a blurring degree set according to the distance to the subject.

又、前記ぼかし処理がローパスフィルタによって行われ、前記ローパスフィルタのカットオフ周波数を変更することにより前記ぼかし度合いを設定するものとしても構わない。   The blurring process may be performed by a low-pass filter, and the blurring degree may be set by changing a cutoff frequency of the low-pass filter.

又、前記被写体までの距離が長いほど前記領域に適用する領域前記ぼかし度合いを高く設定するものとしても構わない。   Further, as the distance to the subject is longer, the blur applied to the area may be set higher.

又、前記被写体までの距離が所定の距離以下である前記領域にはぼかし処理を施さないものとしても構わない。   Further, the area where the distance to the subject is equal to or less than a predetermined distance may not be subjected to the blurring process.

又、前記領域を前記被写体までの距離に基づいて複数の距離グループに区分し、前記距離グループの各々に前記ぼかし度合いを設定し、前記領域の各々は、属する前記距離グループに設定されたぼかし度合いによってぼかし処理を施すものとしても構わない。   Further, the area is divided into a plurality of distance groups based on the distance to the subject, the blurring degree is set for each of the distance groups, and each of the areas has a blurring degree set for the distance group to which it belongs. The blur processing may be performed.

又、前記領域の前記被写体までの距離が所定の距離よりも離れるほど前記ぼかし度合いを高く設定するものとしても構わない。   Further, the blurring degree may be set higher as the distance of the area to the subject is larger than a predetermined distance.

又、前記所定の距離が、特定部分を有する前記被写体までの距離であるものとしても構わない。   Further, the predetermined distance may be a distance to the subject having a specific portion.

又、前記領域の各々を前記被写体までの距離に応じた階調補正特性によって階調補正するものとしても構わない。   Further, each of the areas may be subjected to gradation correction by gradation correction characteristics corresponding to the distance to the subject.

又、本発明の電子機器は、上記構成の画像補正装置を備えるものとする。   An electronic apparatus according to the present invention includes the image correction apparatus having the above-described configuration.

上記電子機器において、レンズと焦点制御手段とを有するレンズ部と、前記レンズ部から入射した光を電気信号に光電変換する固体撮像素子と、前記固体撮像素子で取得した前記被写体を含む画像の電気信号から前記被写体まで距離を検出する距離検出部と、前記固体撮像素子で取得したままの状態の前記画像の電気信号からなる本体部と、前記距離検出部で検出した前記本体部の画像を区分した各領域の前記被写体までの距離の情報を有するヘッダ部とを備える画像ファイルを記憶する記憶部と、を備え、前記記憶部に記憶された前記本体部の前記画像の電気信号を前記ヘッダ部に記憶された前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施すものとしても構わない。   In the electronic apparatus, a lens unit including a lens and a focus control unit, a solid-state image sensor that photoelectrically converts light incident from the lens unit into an electric signal, and an electric image including the subject acquired by the solid-state image sensor. A distance detection unit that detects a distance from a signal to the subject, a main body unit that includes an electrical signal of the image as obtained by the solid-state imaging device, and an image of the main body unit that is detected by the distance detection unit A storage unit that stores an image file including a header unit that includes information on a distance to the subject in each region, and the header unit receives an electrical signal of the image of the main body stored in the storage unit The blurring process may be performed by applying a blurring degree set in accordance with the distance to the subject stored in the screen.

又、前記固体撮像素子で、前記被写体を含み合焦距離の異なる複数の画像からなる距離検出用画像を、前記レンズ部の合焦距離を変化させて取得し、前記距離検出部では、前記合焦距離の異なる複数の画像の前記領域の各々の高周波成分の強度を測定し、前記領域の各々の高周波成分の強度が最も高い画像の合焦距離を検出し、前記距離検出部で検出した、前記高周波成分の強度が最も高い画像の合焦距離を、前記領域の各々の前記被写体までの距離として用いるものとしても構わない。   In addition, the solid-state imaging device obtains a distance detection image including a plurality of images including the subject and having different focus distances by changing the focus distance of the lens unit. Measure the strength of each high-frequency component of the regions of the plurality of images with different focal distances, detect the focal distance of the image with the highest strength of each high-frequency component of the region, detected by the distance detection unit, The focus distance of the image with the highest intensity of the high-frequency component may be used as the distance to the subject in each of the regions.

又、本発明の画像補正方法は、被写体を含む前記画像の信号と、前記画像を区分した単数又は複数の画素からなる領域の各々の前記被写体までの距離情報とを有する画像ファイルを記憶した外部メモリから前記画像ファイルの読み出しを行う第1ステップと、前記第1ステップで読み出された前記領域の各々に含まれる前記被写体までの距離に応じたぼかし度合いによって、前記被写体を含む画像にぼかし処理を施す第2ステップと、を備えることを特徴とする。   The image correction method according to the present invention further includes an external image file storing an image file including a signal of the image including a subject, and distance information to the subject in each of a region composed of a single pixel or a plurality of pixels dividing the image. A first step of reading the image file from the memory, and a blurring process on the image including the subject according to a blurring degree according to the distance to the subject included in each of the areas read in the first step And a second step of applying.

本発明によると、画面を区分した領域に含まれる被写体までの距離に基づいて、領域毎にぼかし処理の度合いを設定するため、近景から遠景まで焦点が全体に合った画像でも、対象となる被写体に焦点が合い、それ以外の被写体がぼけた、奥行き感のある立体的なものとすることができる。   According to the present invention, since the degree of blurring processing is set for each area based on the distance to the object included in the area where the screen is divided, even in an image in which the entire focus is from the foreground to the distant view, the target object It can be a three-dimensional object with a sense of depth in which the other subjects are blurred.

〈第1の実施形態〉
本発明の第1の実施の形態について、図面を参照して説明する。尚、以下では、本発明における撮影方法を行うデジタルカメラやデジタルビデオなどの撮像装置を例に挙げて説明する。撮像装置は静止画を撮影できるものであれば、動画撮影が可能なものであっても構わない。
<First Embodiment>
A first embodiment of the present invention will be described with reference to the drawings. In the following description, an imaging apparatus such as a digital camera or a digital video that performs the shooting method of the present invention will be described as an example. The imaging device may be capable of capturing a moving image as long as it can capture a still image.

(撮像装置の構成)
まず、撮像装置の内部構成について、図面を参照して説明する。図1は、第1の実施形態に係る撮像装置の内部構成を示すブロック図である。
(Configuration of imaging device)
First, the internal configuration of the imaging apparatus will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an internal configuration of the imaging apparatus according to the first embodiment.

図1の撮像装置は、入射される光を電気信号に変換するCCD又はCMOSセンサなどの固体撮像素子(イメージセンサ)1と、被写体の光学像をイメージセンサ1に結像させるズームレンズとズームレンズの焦点距離すなわち光学ズーム倍率を変化させるモータとズームレンズの焦点を被写体に合わせるためのモータとを有するレンズ部2と、イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog Front End)3と、外部から入力された音声を電気信号に変換するマイク4と、AFE3からのデジタル信号となる画像信号に対して、ぼかし処理及び階調補正を含む各種画像処理を施す画像処理部5と、画像処理部5から入力された画像信号から被写体までの距離を検出する距離検出部23と、マイク4からのアナログ信号である音声信号をデジタル信号に変換する音声処理部6と、静止画を撮影する場合は画像処理部5からの画像信号に対してJPEG(Joint Photographic Experts Group)圧縮方式など、動画を撮影する場合は画像処理部5からの画像信号と音声処理部6からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す圧縮処理部7と、圧縮処理部7で圧縮符号化された圧縮符号化信号をSDカードなどの外部メモリ22に記録するドライバ部8と、ドライバ部8で外部メモリ22から読み出した圧縮符号化信号を伸長して復号する伸長処理部9と、伸長処理部9で復号されて得られた画像信号をアナログ信号に変換するビデオ出力回路部10と、ビデオ出力回路部10で変換された信号を出力するビデオ出力端子11と、ビデオ出力回路部10からの信号に基づく画像の表示を行うLCD等を有するディスプレイ部12と、伸長処理部9からの音声信号をアナログ信号に変換する音声出力回路部13と、音声出力回路部13で変換された信号を出力する音声出力端子14と、音声出力回路部13からの音声信号に基づいて音声を再生出力するスピーカ部15と、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)16と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)17と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ18と、静止画撮影用のシャッターボタンを含むユーザからの指示が入力される操作部19と、CPU17と各ブロックとの間でデータのやりとりを行うためのバス回線20と、メモリ18と各ブロックとの間でデータのやりとりを行うためのバス回線21と、を備える。レンズ部2は、画像処理部5で検出した画像信号に応じてCPU17が、モータを駆動して焦点、絞りの制御を行うものである。   The imaging apparatus of FIG. 1 includes a solid-state imaging device (image sensor) 1 such as a CCD or CMOS sensor that converts incident light into an electrical signal, and a zoom lens and a zoom lens that form an optical image of a subject on the image sensor 1. A lens unit 2 having a motor for changing the focal length of the zoom lens, that is, the optical zoom magnification, and a motor for focusing the zoom lens on the subject, and an image signal which is an analog signal output from the image sensor 1 is converted into a digital signal. An AFE (Analog Front End) 3, a microphone 4 that converts externally input sound into an electrical signal, and various image processing including blurring processing and gradation correction on an image signal that is a digital signal from the AFE 3 An image processing unit 5 to be applied, a distance detection unit 23 for detecting the distance from the image signal input from the image processing unit 5 to the subject, An audio processing unit 6 that converts an audio signal that is an analog signal from the audio signal 4 into a digital signal, and a JPEG (Joint Photographic Experts Group) compression method for the image signal from the image processing unit 5 when shooting a still image In the case of shooting a moving image, a compression processing unit 7 that performs compression coding processing such as MPEG (Moving Picture Experts Group) compression method on the image signal from the image processing unit 5 and the audio signal from the audio processing unit 6; A driver unit 8 that records the compression-encoded signal compression-encoded by the compression processing unit 7 in an external memory 22 such as an SD card, and the driver unit 8 decompresses and decodes the compression-encoded signal read from the external memory 22 A decompression processing unit 9, a video output circuit unit 10 that converts an image signal obtained by decoding by the decompression processing unit 9 into an analog signal, and a signal that is converted by the video output circuit unit 10. A video output terminal 11, a display unit 12 having an LCD or the like for displaying an image based on a signal from the video output circuit unit 10, and an audio output circuit unit 13 for converting the audio signal from the expansion processing unit 9 into an analog signal. And the audio output terminal 14 that outputs the signal converted by the audio output circuit unit 13, the speaker unit 15 that reproduces and outputs audio based on the audio signal from the audio output circuit unit 13, and the operation timing of each block coincides A timing generator (TG) 16 for outputting a timing control signal for causing the image pickup apparatus, a CPU (Central Processing Unit) 17 for controlling the drive operation of the entire imaging apparatus, and storing each program for each operation and executing the program Instructions from the user including a memory 18 for temporarily storing the data and a shutter button for taking a still image And a bus line 20 for exchanging data between the CPU 17 and each block, and a bus line 21 for exchanging data between the memory 18 and each block. . In the lens unit 2, the CPU 17 controls the focus and the diaphragm by driving the motor in accordance with the image signal detected by the image processing unit 5.

(撮像装置の基本動作 静止画撮影時)
次に、この撮像装置の静止画撮影時の基本動作について図2のフローチャートを用いて説明する。まず、ユーザが撮像装置の電源をONにすると(STEP201)、撮像装置の撮影モードつまりイメージセンサ1の駆動モードがプレビューモードに設定される(STEP202)。続いて撮影モードの入力待ち状態となり、後述するぼかしモード等が選択される。撮影モードが入力されない場合はプレビューモードが選択されたものとする(STEP203)。プレビューモードでは、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE3においてデジタル信号に変換されて、画像処理部5で画像処理が施され、圧縮処理部7で圧縮された現時点の画像に対する画像信号が外部メモリ22に一時的に記録される。この圧縮信号は、ドライバ部8を経て、伸長処理部9で伸長され、現時点で設定されているレンズ部18のズーム倍率での画角の画像がディスプレイ部12に表示される。
(Basic operation of the imaging device)
Next, the basic operation of the image pickup apparatus at the time of still image shooting will be described with reference to the flowchart of FIG. First, when the user turns on the power of the imaging apparatus (STEP 201), the imaging mode of the imaging apparatus, that is, the driving mode of the image sensor 1 is set to the preview mode (STEP 202). Subsequently, the camera enters a shooting mode input waiting state, and a blur mode and the like to be described later are selected. If the shooting mode is not input, the preview mode is selected (STEP 203). In the preview mode, an image signal that is an analog signal obtained by the photoelectric conversion operation of the image sensor 1 is converted into a digital signal by the AFE 3, subjected to image processing by the image processing unit 5, and compressed by the compression processing unit 7. An image signal for the current image is temporarily recorded in the external memory 22. The compressed signal is expanded by the expansion processing unit 9 via the driver unit 8, and an image having an angle of view at the zoom magnification of the lens unit 18 set at the present time is displayed on the display unit 12.

続いてユーザが、撮影の対象とする被写体に対して所望の画角となるように、光学ズームでのズーム倍率を設定する(STEP204)。その際、画像処理部5に入力された画像信号を基にCPU17によってレンズ部2を制御して、最適な露光制御(Automatic Exposure;AE)・フォーカス制御(Auto Focus;AF)が行われる(STEP205)。   Subsequently, the user sets the zoom magnification with the optical zoom so that the desired angle of view is obtained with respect to the subject to be imaged (STEP 204). At this time, the CPU 17 controls the lens unit 2 based on the image signal input to the image processing unit 5 to perform optimum exposure control (Automatic Exposure; AE) and focus control (Auto Focus; AF) (STEP 205). ).

ユーザが撮影画角、構図を決定し、操作部19のシャッターボタンを半押しすると(STEP206)、AEの調整を行い(STEP207)、AFの最適化処理を行う(STEP208)。AFの最適化処理では、例えば撮影画像エリアを複数の領域に分割し、その一部の領域をAF評価エリアと設定する。そして、レンズ部2の合焦距離(フォーカス位置)を近点から遠点又は遠点から近点へ変化させながら、距離情報検出部23でAF評価エリアの重み付けを高く設定した全領域の輝度信号の高周波成分を検出し、高周波成分が最大値となるフォーカス位置を撮影に用いるフォーカス位置に設定する。図3は撮影画像エリアを縦8列、横8行の64個の領域に分割し、その中央の16個の領域をAF評価エリアと設定した画像の例である。図4は図3の画像のAF評価エリアの重み付けを高く設定した全領域及び他の個々の領域の輝度信号の高周波成分と合焦距離との関係を示すグラフである。太線で示すAF評価エリアの重み付けを高く設定した全領域のグラフの矢印で示した位置が撮影に用いるフォーカス位置である。   When the user determines the shooting angle of view and composition and presses the shutter button of the operation unit 19 halfway (STEP 206), the AE is adjusted (STEP 207) and the AF optimization process is performed (STEP 208). In the AF optimization process, for example, a captured image area is divided into a plurality of areas, and a part of the area is set as an AF evaluation area. Then, the luminance signal of the entire area in which the weighting of the AF evaluation area is set high by the distance information detection unit 23 while changing the focusing distance (focus position) of the lens unit 2 from the near point to the far point or from the far point to the near point. Are detected, and the focus position at which the high-frequency component is maximum is set as the focus position used for shooting. FIG. 3 shows an example of an image obtained by dividing the photographed image area into 64 regions of 8 columns and 8 rows and setting the 16 regions at the center as the AF evaluation area. FIG. 4 is a graph showing the relationship between the in-focus distance and the high-frequency component of the luminance signal in the entire area and other individual areas where the AF evaluation area of the image of FIG. The position indicated by the arrow in the graph of the entire area where the weight of the AF evaluation area indicated by the bold line is set high is the focus position used for shooting.

撮影用のAE・AFが設定されると、イメージセンサ1の駆動モードについてぼかし処理モードが選択されているかどうかを検出する(ステップ209)。ぼかし処理モードが選択されていない場合、シャッターボタンが全押しされると(STEP220)、TG16より、イメージセンサ1、AFE3、画像処理部5及び圧縮処理部7それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させ、イメージセンサ1の駆動モードを静止画撮影モードに設定し(STEP221)、イメージセンサ1から出力されるアナログ信号である画像信号(生データ)をAFE3でデジタル信号に変換して一旦画像処理部5内のフレームメモリに書き込む(STEP222)。このデジタル信号がこのフレームメモリから読み込まれ、画像処理部5において輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施され、画像処理が施された信号が圧縮処理部7においてJPEG(Joint Photographic Experts Group)形式に圧縮された(STEP223)後、外部メモリ22に圧縮画像を書き込み(STEP213)、撮影を完了する。その後、プレビューモードに戻る(STEP202)。   When AE / AF for photographing is set, it is detected whether or not the blurring processing mode is selected for the drive mode of the image sensor 1 (step 209). When the blur processing mode is not selected, when the shutter button is fully pressed (STEP 220), a timing control signal is given from the TG 16 to the image sensor 1, the AFE 3, the image processing unit 5, and the compression processing unit 7, respectively. The operation timing of each unit is synchronized, the drive mode of the image sensor 1 is set to the still image shooting mode (STEP 221), and the image signal (raw data) output from the image sensor 1 is converted into a digital signal by the AFE 3. The data is converted and temporarily written in the frame memory in the image processing unit 5 (STEP 222). This digital signal is read from the frame memory, and various image processing such as signal conversion processing for generating a luminance signal and a color difference signal is performed in the image processing unit 5, and the signal subjected to the image processing is processed in the compression processing unit 7. After being compressed to JPEG (Joint Photographic Experts Group) format (STEP 223), the compressed image is written in the external memory 22 (STEP 213), and the photographing is completed. Thereafter, the process returns to the preview mode (STEP 202).

(撮像装置の基本動作 動画撮影時)
動画撮影時の動作について説明する。この撮像装置において、撮像動作を行うことが操作部19によって指示されると、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE3に出力される。このとき、イメージセンサ1では、TG16からのタイミング制御信号が与えられることによって、水平走査及び垂直走査が行われて、画素毎のデータとなる画像信号が出力される。そして、AFE3において、アナログ信号である画像信号(生データ)がデジタル信号に変換されて、画像処理部5に入力されると、輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施される。
(Basic operation of the imaging device)
The operation during movie shooting will be described. In this imaging apparatus, when the operation unit 19 instructs to perform an imaging operation, an image signal that is an analog signal obtained by the photoelectric conversion operation of the image sensor 1 is output to the AFE 3. At this time, the image sensor 1 receives the timing control signal from the TG 16 to perform horizontal scanning and vertical scanning, and output an image signal serving as data for each pixel. In the AFE 3, when an image signal (raw data) that is an analog signal is converted into a digital signal and input to the image processing unit 5, various image processing such as signal conversion processing that generates a luminance signal and a color difference signal. Is given.

そして、画像処理部5で画像処理が施された画像信号が圧縮処理部7に与えられる。このとき、マイク4に音声入力されることで得られたアナログ信号である音声信号が、音声処理部6でデジタル信号に変換されて、圧縮処理部7に与えられる。これにより、圧縮処理部7では、デジタル信号である画像信号及び音声信号に対して、MPEG圧縮符号方式に基づいて、圧縮符号化してドライバ部8に与えて、外部メモリ22に記録させる。又、このとき、外部メモリ22に記録された圧縮信号がドライバ部8によって読み出されて伸長処理部9に与えられて、伸長処理が施されて画像信号が得られる。この画像信号がディスプレイ部12に与えられて、現在、イメージセンサ1を通じて撮影されている被写体画像が表示される。   Then, the image signal subjected to the image processing by the image processing unit 5 is given to the compression processing unit 7. At this time, an audio signal which is an analog signal obtained by inputting the sound into the microphone 4 is converted into a digital signal by the audio processing unit 6 and given to the compression processing unit 7. As a result, the compression processing unit 7 compresses and encodes the image signal and the audio signal, which are digital signals, based on the MPEG compression encoding method, gives the image signal and the audio signal to the driver unit 8, and records them in the external memory 22. At this time, the compressed signal recorded in the external memory 22 is read by the driver unit 8 and applied to the decompression processing unit 9, and decompressed to obtain an image signal. This image signal is given to the display unit 12 to display a subject image currently photographed through the image sensor 1.

このように撮像動作を行うとき、TG16によって、AFE3、画像処理部5、音声処理部6、圧縮処理部7、及び伸長処理部9に対してタイミング制御信号が与えられ、イメージセンサ1による1フレームごとの撮像動作に同期した動作が行われる。   When the imaging operation is performed in this way, a timing control signal is given to the AFE 3, the image processing unit 5, the audio processing unit 6, the compression processing unit 7, and the expansion processing unit 9 by the TG 16, and one frame by the image sensor 1. An operation synchronized with each imaging operation is performed.

又、外部メモリ22に記録された動画を再生することが、操作部19を通じて指示されると、外部メモリ22に記録された圧縮信号は、ドライバ部8によって読み出されて伸長処理部9に与えられる。そして、伸長処理部9において、MPEG圧縮符号方式に基づいて、伸長復号されて、画像信号及び音声信号が取得される。そして、画像信号がディスプレイ部12に与えられて画像が再生されるとともに、音声信号が音声出力回路部13を介してスピーカ部15に与えられて音声が再生される。これにより、外部メモリ22に記録された圧縮信号に基づく動画が音声とともに再生される。   When the operation unit 19 instructs to play back the moving image recorded in the external memory 22, the compressed signal recorded in the external memory 22 is read out by the driver unit 8 and given to the decompression processing unit 9. It is done. Then, the decompression processing unit 9 decompresses and decodes the image signal and the audio signal based on the MPEG compression encoding method. Then, the image signal is given to the display unit 12 to reproduce the image, and the audio signal is given to the speaker unit 15 via the audio output circuit unit 13 to reproduce the audio. Thereby, a moving image based on the compressed signal recorded in the external memory 22 is reproduced together with the sound.

画像を再生することが指示された場合は、外部メモリ22に記録された圧縮信号が伸長処理部9において、JPEG圧縮符号方式に基づいて、伸長復号されて、画像信号が取得される。そして、画像信号がディスプレイ部12に与えられて画像が再生される。   When it is instructed to reproduce an image, the decompression processing unit 9 decompresses and decodes the compressed signal recorded in the external memory 22 based on the JPEG compression encoding method, and acquires an image signal. Then, the image signal is given to the display unit 12 to reproduce the image.

(ぼかし処理モード)
次にぼかし処理モードについて説明する。本発明の撮像装置では、画像処理部5に、画像中の被写体の距離情報を算出してそれに基づいたぼかし処理を撮影した画像に施すことができるぼかし処理部30を備え、このような撮影モードをぼかし処理モードと呼ぶ。ぼかし処理部30の構成及びそのぼかし処理モードにおける動作について以下に説明する。
(Blur processing mode)
Next, the blur processing mode will be described. In the imaging apparatus of the present invention, the image processing unit 5 includes the blur processing unit 30 that can calculate distance information of the subject in the image and perform blur processing based on the calculated distance information. Is called a blurring processing mode. The configuration of the blur processing unit 30 and the operation in the blur processing mode will be described below.

図5はぼかし処理部30の構成を示すブロック図である。ぼかし処理部30は、シャッターボタンを半押した際にAFE3でデジタル信号とされた距離検出用画像及びシャッターボタンを全押しした際にAFE3でデジタル信号とされた記録用画像を一時的に記憶するフレームメモリ31と、距離情報記憶部17aに記憶された各領域の被写体までの距離に基づいてフレームメモリ31から読み込んだ記録用画像信号(デジタル信号)に対してぼかし処理を施すローパスフィルタ部34と、ローパスフィルタ部34でぼかし処理が施された記録用画像信号より輝度信号及び色差信号を生成する信号処理部35と、を備える。距離検出部23は、フレームメモリ31に記憶された距離検出用画像(デジタル信号)を所定の領域に区分し、TG16から発信された画像中のアドレス情報であるHポジション及びVポジションに対応した水平同期信号(以下Hsyncとする)及び垂直同期信号(Vsync)を受けて各領域における撮像装置から被写体までの距離を検出し、CPU17の内部に設けられた距離情報記憶部17aではHsync及びVsync信号を受け距離検出部23で検出した各領域の被写体までの距離を記憶する。尚、距離情報記憶部17aはCPU17の内部に設けられたものに限られず、撮像装置の内部又は外部に設けられた記憶装置を用いても構わない。   FIG. 5 is a block diagram illustrating a configuration of the blur processing unit 30. The blur processing unit 30 temporarily stores the distance detection image converted to a digital signal by the AFE 3 when the shutter button is half-pressed and the recording image converted to a digital signal by the AFE 3 when the shutter button is fully pressed. A frame memory 31; a low-pass filter unit 34 that performs blurring on a recording image signal (digital signal) read from the frame memory 31 based on the distance to the subject in each area stored in the distance information storage unit 17a; A signal processing unit 35 that generates a luminance signal and a color difference signal from the recording image signal that has been subjected to the blurring process by the low-pass filter unit 34. The distance detection unit 23 divides the distance detection image (digital signal) stored in the frame memory 31 into predetermined regions, and corresponds to the horizontal position corresponding to the H position and the V position which are address information in the image transmitted from the TG 16. A distance from the imaging device to the subject in each area is detected in response to a synchronization signal (hereinafter referred to as Hsync) and a vertical synchronization signal (Vsync), and a distance information storage unit 17a provided in the CPU 17 receives the Hsync and Vsync signals. The distance to the subject in each area detected by the receiving distance detector 23 is stored. The distance information storage unit 17a is not limited to the one provided inside the CPU 17, and a storage device provided inside or outside the imaging device may be used.

次にこのように構成されるぼかし処理部30の動作について説明する。図2のSTEP203でぼかし処理モードが選択されていることを検出し、シャッターボタンが半押しにされていることを検出する(STEP204)と、距離検出用画像を撮影し、フレームメモリ31に記憶させる。距離検出部23ではフレームメモリ31に記憶された距離検出用画像を所定の領域に区分し各領域の撮像装置から被写体までの距離を検出し、距離情報記憶部17aでは距離検出部23で検出した各領域における被写体までの距離(以下距離情報とする場合もある)を記憶する(STEP205)。   Next, the operation of the blur processing unit 30 configured as described above will be described. When it is detected in STEP 203 in FIG. 2 that the blurring processing mode is selected and the shutter button is half-pressed (STEP 204), a distance detection image is taken and stored in the frame memory 31. . The distance detection unit 23 divides the distance detection image stored in the frame memory 31 into predetermined regions and detects the distance from the imaging device to the subject in each region, and the distance information storage unit 17a detects the distance detection unit 23a. The distance to the subject in each region (hereinafter sometimes referred to as distance information) is stored (STEP 205).

ここで、距離検出部23の構成及び動作の一例について図を用いて説明する。図6は距離情報検出部の構成を示すブロック図、図7は距離情報を検出する動作を説明するためのフローチャートである。距離検出部23は、図6に示すように、合焦距離を変化させて撮影された複数枚の画像からなる距離検出用画像(デジタル信号)をフレームメモリ31から合焦距離の長いものの順に読み込んで所定の領域に区分し各領域の輝度信号の高周波成分の強度を検出する高周波成分検出部23aと、高周波成分検出部23aで検出されたある合焦距離での画像信号の各領域での高周波成分の強度とそれより長い合焦距離での画像信号の各領域での高周波成分の最高強度とを比較する高周波成分比較部23bとを備える。   Here, an example of the configuration and operation of the distance detection unit 23 will be described with reference to the drawings. FIG. 6 is a block diagram showing the configuration of the distance information detection unit, and FIG. 7 is a flowchart for explaining the operation of detecting distance information. As shown in FIG. 6, the distance detection unit 23 reads distance detection images (digital signals) made up of a plurality of images taken with different focus distances from the frame memory 31 in the order of longer focus distances. And a high frequency component detector 23a for detecting the intensity of the high frequency component of the luminance signal in each region, and a high frequency in each region of the image signal at a certain focusing distance detected by the high frequency component detector 23a. A high-frequency component comparison unit 23b that compares the intensity of the component with the highest intensity of the high-frequency component in each region of the image signal at a longer focal distance.

次に距離検出部23の動作について説明する。まず、ステップ208のAF制御について説明する。AE設定(ステップ207)後、図7に示すように、レンズ部2の全合焦範囲のうち、最短距離である最近点に合焦距離(フォーカス位置)を設定する(ステップ701)。そして、そのフォーカス位置で距離検出用画像を撮影し、AFE3でデジタル信号に変換してフレームメモリ31に書き込む。高周波成分検出部23aでは、フレームメモリ31に記憶された最近点の距離検出用画像のデジタル信号を読み込んで所定の領域に区分し、各領域の輝度信号の高周波成分の強度を検出する(STEP702)。そして、AF評価エリアの重み付けを高く設定した全領域の輝度信号の高周波成分の強度から、AF評価値を算出する(STEP703)。   Next, the operation of the distance detection unit 23 will be described. First, the AF control in step 208 will be described. After the AE setting (step 207), as shown in FIG. 7, an in-focus distance (focus position) is set to the nearest point which is the shortest distance in the entire in-focus range of the lens unit 2 (step 701). Then, a distance detection image is taken at the focus position, converted into a digital signal by AFE 3, and written in the frame memory 31. The high frequency component detection unit 23a reads the digital signal of the closest point distance detection image stored in the frame memory 31 and divides it into predetermined regions, and detects the intensity of the high frequency component of the luminance signal in each region (STEP 702). . Then, an AF evaluation value is calculated from the intensity of the high-frequency component of the luminance signal in the entire area where the weighting of the AF evaluation area is set high (STEP 703).

続いてフォーカス位置が無限遠であるかどうかを検知し、無限遠でない場合(STEP704でNo)、フォーカス位置を所定の間隔(1ステップ)遠くに設定する(STEP705)。そしてVsync信号を受ける(STEP706でYes)とそのフォーカス位置でのAF評価値を算出する(STEP703)。   Subsequently, it is detected whether or not the focus position is at infinity. If the focus position is not at infinity (NO in STEP 704), the focus position is set far by a predetermined interval (one step) (STEP 705). When the Vsync signal is received (YES in STEP 706), an AF evaluation value at the focus position is calculated (STEP 703).

STEP704でフォーカス位置が無限遠であることを検知すると(STEP704でYes)、レンズ部12のフォーカス位置をAF評価値が最大となった位置に移動する。このフォーカス位置で画像を撮影することとなる。   When it is detected in STEP 704 that the focus position is infinite (YES in STEP 704), the focus position of the lens unit 12 is moved to the position where the AF evaluation value is maximized. An image is taken at this focus position.

さらに、STEP209でぼかし処理モードであることを検出した場合、高周波成分比較部23bでは、フレームメモリ31に記憶された最近点から無限遠までの各フォーカス位置での画像の各領域の高周波成分の強度を最近点のものから順に高周波成分検出部23aから読み込む。、最初に最近点の画像と1ステップフォーカス位置の長い画像の各領域での高周波成分の強度を比較し、各領域について高い方の強度及びその合焦距離を記憶する。ある領域について、無限遠での高周波成分の強度をg1、1段階短い合焦距離での高周波成分の強度をg2とするとき、g1≧g2であればg1、g1<g2であればg2を、その合焦距離範囲での最高の強度Gとして合焦距離とともに記憶する。   Furthermore, when it is detected in STEP 209 that the mode is the blurring processing mode, the high frequency component comparison unit 23b intensifies the high frequency component of each region of the image at each focus position from the nearest point to infinity stored in the frame memory 31. Are read from the high-frequency component detection unit 23a in order from the nearest point. First, the intensity of the high frequency component in each area of the image of the nearest point and the image having a long one-step focus position is compared, and the higher intensity and the focusing distance are stored for each area. For a certain region, let g1 be the intensity of the high-frequency component at infinity, and g2 be the intensity of the high-frequency component at a short focusing distance of one step, then g1 if g1 ≧ g2, and g2 if g1 <g2. The maximum intensity G in the focusing distance range is stored together with the focusing distance.

次に、さらに1段階合焦距離の短い画像がある場合、その画像の各領域の高周波成分の強度を読み込み、記憶しているそれより長い合焦距離範囲(それまでに読み込んだ合焦距離範囲)での各領域の高周波成分の最高強度Hと比較する。そして、各領域について高い方の強度及びその合焦距離を記憶する。ある領域について、ある合焦距離での高周波成分の強度をgnとするとき、gn≧Gであればgn、を新たにGの値としてその合焦距離とともに更新し、gn<GであればそれまでのGの値と合焦距離とを維持する。   Next, when there is an image with a short one-step focus distance, the intensity of the high-frequency component in each area of the image is read, and the focus distance range longer than that stored (the focus distance range read so far) ) And the maximum intensity H of the high-frequency component in each region. Then, the higher intensity and the focusing distance are stored for each region. For a certain region, when the intensity of the high-frequency component at a certain focusing distance is gn, if gn ≧ G, gn is newly updated as the value of G together with the focusing distance, and if gn <G, The value of G and the in-focus distance are maintained.

高周波成分の強度は撮像装置から被写体までの距離と合焦距離とが近いほど高くなる。この比較動作を全てのフォーカス位置の画像について完了すると、高周波成分比較部23bには各領域について高周波成分の最高の強度Hとその強度を示した合焦距離が記憶されており、これは各領域における撮像装置から被写体までの距離情報である。距離情報記憶部17aでは、各領域における最高強度を示した合焦距離を高周波成分比較部23bから読み込む(STEP205)。   The strength of the high frequency component increases as the distance from the imaging device to the subject and the in-focus distance are closer. When this comparison operation is completed for the images at all the focus positions, the high frequency component comparison unit 23b stores the highest intensity H of the high frequency component and the focal distance indicating the intensity for each region. The distance information from the imaging device to the subject in FIG. The distance information storage unit 17a reads the in-focus distance indicating the highest intensity in each region from the high frequency component comparison unit 23b (STEP 205).

図8は距離検出用画像及び記録用画像の一例である。図9は図8の画像を所定の領域に区分した一例であり、所定の領域を縦3列、横3行の合計9個からなるものとしている。図9の各領域を左上から右方向にR1、R2、…、R9とする。各領域は単数又は複数の画素からなる。又、図10は縦軸を高周波成分の強度、横軸を合焦距離としたR1、R2、…、R9の各領域の高周波成分の強度と合焦距離との関係を示すグラフである。上述のように、高周波成分は撮像装置から被写体までの距離と合焦距離とが近いほど強度が高くなる。   FIG. 8 is an example of a distance detection image and a recording image. FIG. 9 is an example in which the image of FIG. 8 is divided into predetermined areas, and the predetermined area is composed of a total of nine columns in three columns and three rows. Each region in FIG. 9 is R1, R2,..., R9 from the upper left to the right. Each region consists of a single pixel or a plurality of pixels. FIG. 10 is a graph showing the relationship between the intensity of the high-frequency component in each region R1, R2,..., R9 and the focusing distance, where the vertical axis represents the high-frequency component intensity and the horizontal axis represents the focusing distance. As described above, the intensity of the high-frequency component increases as the distance from the imaging device to the subject and the in-focus distance are closer.

人物を含む領域である領域R5、R8についてのグラフは高周波成分が最大強度となる合焦距離は同じであるものの、その最大強度の大きさは異なる。即ちいずれの領域も被写体の位置が同じであるため最大強度となる合焦距離は同じとなる。しかし、領域に被写体のエッジを含んでいる、領域の全面を被写体が覆っているなど、領域毎に含まれる被写体の状態が異なるため、最大強度が異なるものとなる。   In the graphs of the regions R5 and R8 including the person, the focal distance at which the high frequency component has the maximum intensity is the same, but the maximum intensity is different. That is, since the subject position is the same in any region, the focus distance that is the maximum intensity is the same. However, the maximum intensity differs because the state of the subject included in each region is different, for example, the region includes the edge of the subject, or the subject covers the entire surface of the region.

同様の理由で、建物を含む領域である領域R1、R2、R3、R6、R9についてのグラフも高周波成分が最大強度となる合焦距離は同じであるものの、最大強度の大きさは異なる。   For the same reason, the graphs for the regions R1, R2, R3, R6, and R9, which are regions including buildings, have the same focal distance at which the high-frequency component has the maximum intensity, but the maximum intensity is different.

1個の領域に距離の異なる複数の被写体が存在している場合は、複数の高周波成分の強度の極大値が現れることとなる。図11は撮像装置からの距離の異なる複数の被写体が存在している領域における高周波成分の強度と合焦距離との関係を示すグラフである。このように1個の領域中に高周波成分の強度の極大値が2箇所以上現れた場合、最大の強度となる合焦距離をその領域での被写体までの距離として採用してもよい。   When a plurality of subjects having different distances exist in one area, the maximum values of the intensity of the plurality of high frequency components appear. FIG. 11 is a graph showing the relationship between the intensity of the high-frequency component and the focus distance in an area where there are a plurality of subjects having different distances from the imaging apparatus. As described above, when two or more maximum values of the intensity of the high-frequency component appear in one area, the focal distance with the maximum intensity may be adopted as the distance to the subject in that area.

又、所定の閾値以上の極大値を検出し、そのうち合焦距離の最も短いもの又は最も長いものを採用してもよい。又、所定の閾値以上の極大値を合焦距離の順に並べた際に中心となるものを合焦距離を採用してもよい。所定の閾値以上の極大値が偶数個の場合は中心がないため、中心に近い2個の閾値のうちいずれかを採用してもよい。   Alternatively, a maximum value equal to or greater than a predetermined threshold value may be detected, and the shortest or the longest in focus distance may be employed. Alternatively, the focus distance may be used as the center when the local maximum values equal to or greater than the predetermined threshold are arranged in the order of the focus distance. Since there is no center when the maximum value equal to or greater than the predetermined threshold is an even number, one of the two threshold values close to the center may be adopted.

距離情報記憶部17aで各領域の被写体までの距離を記憶した後、構図、画角が変化したかどうかを検出する(STEP211)。構図、画角が変化したことを検出した場合については後述する。構図、画角が変化したことを検出せず(STEP211でNo)、シャッターボタンが全押しされていることを検出する(STEP213でYes)と、TG16より、イメージセンサ1、AFE3、画像処理部5及び圧縮処理部7それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させ、イメージセンサ1の駆動モードを静止画撮影モードに設定し(STEP214、イメージセンサ1から出力されるアナログ信号である画像信号(生データ)をAFE3でデジタル信号に変換して一旦画像処理部5内のフレームメモリに書き込む(STEP215)。ローパスフィルタ部34ではフレームメモリ31に記憶された記録用画像(デジタル信号)を読み込んで、上述の距離検出部23で区分した各領域について距離情報記憶部17aに記憶された各領域の被写体までの距離に基づいてぼかし度合いを設定し(STEP216)、設定したぼかし度合いに基づいて各領域にぼかし処理を実施する(STEP217)。ぼかし処理を行った画像について、圧縮処理部7においてJPEG形式に圧縮(STEP218)後、外部メモリ22に圧縮画像を書き込み(STEP219)、撮影を完了する。その後、プレビューモードに戻る(STEP202)。   After the distance to the subject in each area is stored in the distance information storage unit 17a, it is detected whether the composition and angle of view have changed (STEP 211). A case where the composition and the angle of view are detected will be described later. If the composition and the angle of view are not detected (No in STEP 211) and the shutter button is fully pressed (Yes in STEP 213), the image sensor 1, the AFE 3, and the image processing unit 5 are detected from the TG 16. A timing control signal is given to each of the compression processing unit 7, the operation timing of each unit is synchronized, and the driving mode of the image sensor 1 is set to the still image shooting mode (STEP 214, an analog signal output from the image sensor 1). The image signal (raw data) is converted into a digital signal by the AFE 3 and temporarily written in the frame memory in the image processing unit 5 (STEP 215), and the recording image (digital signal) stored in the frame memory 31 is stored in the low-pass filter unit 34. ) For each region divided by the distance detector 23 described above. A blurring degree is set based on the distance to the subject in each area stored in the information storage unit 17a (STEP 216), and a blurring process is performed on each area based on the set blurring degree (STEP 217). The compressed image is compressed in the JPEG format in the compression processing unit 7 (STEP 218), and then the compressed image is written in the external memory 22 (STEP 219) to complete the shooting, and then returns to the preview mode (STEP 202).

STEP218でぼかし処理を行った画像信号を圧縮処理部7において圧縮する際に、ぼかし処理を行った画像信号のみならずぼかし処理を行っていない画像信号についても圧縮し、図12に示すように、外部メモリ22に書き込むファイル80には圧縮したぼかし処理を行っていない画像信号81に付加したヘッダ部82に、STEP210で距離情報記憶部17aに記憶された各領域における最高強度を示した合焦距離情報82aを併せて書き込んでもよい。このようなヘッダ部82に合焦距離情報を書き込む形式としては例えばexif形式を用いることができる。なお、外部メモリ22には、圧縮したぼかし処理を行った画像信号については書き込まず、ヘッダ部に合焦距離情報を有する圧縮したぼかし処理を行っていない画像信号のみを書き込むことをユーザが選択できるようにしても構わない。又、ヘッダ部82に書き込む情報は、圧縮したものであってもよい。   When the compression processing unit 7 compresses the image signal that has been subjected to the blurring process in STEP 218, not only the image signal that has been subjected to the blurring process but also the image signal that has not been subjected to the blurring process is compressed, as shown in FIG. The file 80 to be written in the external memory 22 has a focusing distance indicating the maximum intensity in each area stored in the distance information storage unit 17a in STEP 210 in the header unit 82 added to the compressed image signal 81 which is not subjected to the blurring process. Information 82a may be written together. For example, the exif format can be used as a format for writing the focus distance information in such a header portion 82. It should be noted that the user can select to write only the image signal that has not been subjected to the compressed blurring process having the in-focus distance information in the header portion without writing the compressed blur signal to the external memory 22. It doesn't matter if you do. The information written in the header part 82 may be compressed.

(構図、画角が変化したことを検出した場合)
ここで、STEP211で構図、画角が所定量以上変化したことを検出した場合、ユーザに対して画角が変化したこと及びシャッターボタンを開放して半押しし直すことをディスプレイ部12での表示やスピーカ部15からの音声によって通知し、シャッターボタンが半押しし直されたかどうかを検知する(STEP212)。半押しし直された場合(STEP212でYes)は再びAE調整(STEP207)、AF制御(STEP208)を経て、各領域における最高強度を示した合焦距離を検出し、記憶する(STEP210)。ここで、構図、画角の変化の検出は、CPU17で逐次算出されているAE評価値の変化や、逐次取り込まれてAFE3でデジタル信号化されるイメージセンサ1上の画像からCPU17で検出した被写体の動きベクトルの変化、又は加速度センサのような動きを検出するセンサによって検出することができる。
(When it detects that the composition and angle of view have changed)
Here, when it is detected in STEP 211 that the composition and the angle of view have changed by a predetermined amount or more, the display unit 12 indicates that the angle of view has changed and that the shutter button is released and half-pressed again. Or by voice from the speaker unit 15 to detect whether the shutter button is half-pressed again (STEP 212). When it is half-pressed again (YES in STEP 212), the focus distance indicating the maximum intensity in each region is detected and stored again through AE adjustment (STEP 207) and AF control (STEP 208) (STEP 210). Here, a change in composition and angle of view is detected by a change in the AE evaluation value sequentially calculated by the CPU 17 or a subject detected by the CPU 17 from an image on the image sensor 1 that is sequentially captured and converted into a digital signal by the AFE 3. The motion vector can be detected by a sensor that detects a change in motion vector or a motion such as an acceleration sensor.

STEP212で半押しし直されず、STEP213で全押しされた場合はSTEP207以降の処理をぼかし処理を省略して続けてもよい。又、動きベクトルの変化や加速度センサによってシャッターボタンの半押しから全押しまでの間に構図、画角の変化した量を検出している場合は、その検出した変化量に基づいて変化する前の画像の距離情報を変化した後の画像に適合するようにシフトさせ、変化した後の画像の各領域に、各領域の被写体までの距離に基づいてぼかし度合いを設定し(STEP216)、ぼかし処理を実施してもよい(STEP217)。この場合、距離情報のない領域についてはぼかし処理は行わないでもよいし、当該領域の周辺の領域と同じ条件のぼかし処理を行ってもよい。   If the pressing is not half-pressed in STEP 212 but is fully pressed in STEP 213, the processing after STEP 207 may be continued with the blurring process omitted. In addition, if the amount of change in composition and angle of view is detected between the half-press of the shutter button and the full-press of the shutter button by a change in motion vector or acceleration sensor, the change before the change based on the detected amount of change is detected. The distance information of the image is shifted so as to match the image after the change, and the blurring degree is set in each area of the image after the change based on the distance to the subject in each area (STEP 216). You may implement (STEP217). In this case, the blurring process may not be performed for an area without distance information, or the blurring process may be performed under the same conditions as the surrounding area.

(ぼかし処理条件)
画像の各領域に対して、各領域の被写体までの距離に応じたぼかし処理が施される。そのぼかし処理の条件について説明する。ぼかし処理を行うローパスフィルタ部34では、カットオフ周波数を設定することによってぼかしの度合いを調整する。カットオフ周波数が高いほどぼかしの度合いが低く、カットオフ周波数が低いほどぼかしの度合いが高い。カットオフ周波数がナイキスト周波数の場合にはぼかし処理は行われない。
(Blur processing conditions)
Each area of the image is subjected to a blurring process according to the distance to the subject in each area. The conditions for the blurring process will be described. The low-pass filter unit 34 that performs the blurring process adjusts the degree of blurring by setting a cutoff frequency. The higher the cutoff frequency, the lower the degree of blurring, and the lower the cutoff frequency, the higher the degree of blurring. When the cutoff frequency is the Nyquist frequency, the blurring process is not performed.

本実施形態では、被写体までの距離が撮像装置近傍から所定の距離D1までの近距離範囲ではぼかし処理は行わず、距離D1から距離D2(D2>D1)の中距離範囲では距離が長いほどぼかしの度合いを高める。距離D2よりも遠い範囲である遠距離範囲では一定のぼかし度合いとして中距離範囲の最も高いぼかし度合いを適用する。図13は、このカットオフ周波数と被写体までの距離との関係を表すグラフである。近距離範囲ではカットオフ周波数はナイキスト周波数Nで一定とし、中距離範囲では距離が長いほどカットオフ周波数は低下し、遠距離範囲では中距離範囲で最も低いカットオフ周波数で一定とする。このようにカットオフ周波数を設定することにより、ぼかし処理によって得られた画像は近距離範囲の被写体が中距離範囲及び遠距離範囲の被写体から浮き上がった立体感のあるものとなる。   In the present embodiment, the blurring process is not performed in the short distance range where the distance to the subject is from the vicinity of the imaging apparatus to the predetermined distance D1, and the blur is increased as the distance is longer in the middle distance range from the distance D1 to the distance D2 (D2> D1). Increase the degree of. In the long distance range that is a range farther than the distance D2, the highest blurring degree in the middle distance range is applied as a constant blurring degree. FIG. 13 is a graph showing the relationship between the cutoff frequency and the distance to the subject. In the short distance range, the cutoff frequency is constant at the Nyquist frequency N. In the middle distance range, the longer the distance, the lower the cutoff frequency. In the long distance range, the cutoff frequency is constant at the lowest cutoff frequency. By setting the cut-off frequency in this way, the image obtained by the blurring process has a stereoscopic effect in which the subject in the short distance range is raised from the subject in the middle distance range and the long distance range.

(カットオフ周波数の補間)
しかし、隣接する領域間でぼかし処理に用いるカットオフ周波数が異なると、領域の境界ではぼかしの度合いの違いによって境界が現れることとなる。そこで、領域間で境界を目立たなくするように、カットオフ周波数の異なる隣接する領域を構成する画素のぼかし処理に用いるカットオフ周波数にグラデーションを与える。
(Interpolation of cut-off frequency)
However, if the cut-off frequency used for the blurring process differs between adjacent areas, the boundary appears at the boundary between the areas depending on the degree of blurring. Therefore, gradation is given to the cutoff frequency used for the blurring processing of the pixels constituting the adjacent regions having different cutoff frequencies so as to make the boundary between the regions inconspicuous.

図14に4個の領域の模式図を示す。領域71〜74の中心をそれぞれ71a〜74a、領域71〜74の4個の領域が共有する点を原点O、図面横方向をx軸、縦方向をy軸とし、各領域の1辺の長さを2aとする。このとき中心71aの座標は(a,a)、中心72aの座標は(−a,a)、中心73aの座標は(−a,−a)、中心74aの座標は(a,−a)である。   FIG. 14 shows a schematic diagram of four regions. The centers of the areas 71 to 74 are respectively the points 71a to 74a, and the four areas of the areas 71 to 74 share the origin O, the horizontal direction of the drawing is the x axis, and the vertical direction is the y axis. Let 2a be. At this time, the coordinates of the center 71a are (a, a), the coordinates of the center 72a are (-a, a), the coordinates of the center 73a are (-a, -a), and the coordinates of the center 74a are (a, -a). is there.

各領域の中心に位置する画素では各領域に設定されたぼかし度合いであるカットオフ周波数をぼかし処理に用い、原点Oを共有する4個の領域の中心に囲まれた画素では各領域に設定されたカットオフ周波数をその画素から各領域の中心までの距離で線形補間したものをぼかし処理に用いる。ここでは、図14に示す領域71に属し、中心71a〜74aに囲まれた画素71bについて考える。領域71〜74に設定されたカットオフ周波数をそれぞれh1、h2、h3、h4とし、画素71bにおけるカットオフ周波数をZ、画素71bの座標を(x,y)とすると、
Z=[{(a+x)h1+(a−x)h2}/2a](a+y)/2a
+[{(a+x)h3+(a−x)h4}/2a](a−y)/2a
となる。なお、隣接する2個の領域の中心を結ぶ線上の画素ではこれらの2個の領域に設定されたカットオフ周波数を線形補間したものをぼかし処理に用いる。
For the pixel located at the center of each region, the cutoff frequency, which is the blurring degree set for each region, is used for the blurring process. For the pixels surrounded by the centers of the four regions sharing the origin O, each region is set. A value obtained by linearly interpolating the cut-off frequency with the distance from the pixel to the center of each region is used for the blurring process. Here, a pixel 71b that belongs to the region 71 shown in FIG. 14 and is surrounded by the centers 71a to 74a is considered. If the cut-off frequencies set in the regions 71 to 74 are h1, h2, h3, and h4, the cut-off frequency in the pixel 71b is Z, and the coordinates of the pixel 71b are (x, y),
Z = [{(a + x) h1 + (ax) h2} / 2a] (a + y) / 2a
+ [{(A + x) h3 + (ax) h4} / 2a] (ay) / 2a
It becomes. For pixels on a line connecting the centers of two adjacent areas, linear interpolation of the cutoff frequencies set in these two areas is used for the blurring process.

図15は異なるカットオフ周波数の間を線形補間によりグラデーションを与えて変化させたカットオフ周波数のグラフである。図15のグラフ上に5点のカットオフ周波数h1、h2、h5〜h7を示す。h5〜h7は、h1とh2の間で線形補間したものである。h1は図14の領域71のカットオフ周波数であり、h2は領域72のカットオフ周波数である。中心71aにはh1、中心72aにはh2が適用される。h5〜h7はそれぞれ、中心71aと中心72aとを結ぶ線上に、中心71aと中心72aを含めて略等間隔に並んだ3個の画素である、画素71c、画素71d、画素72b(中心71a側から順に)について適用される。このようにしてカットオフ周波数を補間して画素毎にグラデーションを与えて変化させることにより、ぼかし処理後の画像は領域間での境界が目立たないものとなる。   FIG. 15 is a graph of the cut-off frequency that is changed by giving a gradation between different cut-off frequencies by linear interpolation. The five cut-off frequencies h1, h2, h5 to h7 are shown on the graph of FIG. h5 to h7 are linearly interpolated between h1 and h2. h1 is the cut-off frequency of the region 71 in FIG. 14, and h2 is the cut-off frequency of the region 72. H1 is applied to the center 71a, and h2 is applied to the center 72a. Each of h5 to h7 is a pixel 71c, a pixel 71d, and a pixel 72b (on the side of the center 71a), which are three pixels arranged on the line connecting the center 71a and the center 72a at substantially equal intervals including the center 71a and the center 72a. Applied in order). By interpolating the cut-off frequency in this way and changing the gradation for each pixel, the image after the blurring process becomes inconspicuous.

尚、領域71〜73が画像の外周に位置する領域である場合、図14上の座標(a,2a)の点71e、座標(−a,2a)の点72c、座標(−2a,2a)の点72d、座標(−2a,a)の点72e、座標(−2a,−a)の点73bを設定すると、点71c、72e、72a、71aで囲まれた部分では点72aと点71aとを結ぶ線分上のx座標が同じ点のカットオフ周波数、点72a、72e、73b、73aで囲まれた部分では点72aと点73aとを結ぶ線分上のy座標が同じ点のカットオフ周波数、点72c、72d、72e、72aで囲まれた部分では点B即ち中心72aのカットオフ周波数を適用する。   When the regions 71 to 73 are regions located on the outer periphery of the image, the point 71e of the coordinates (a, 2a), the point 72c of the coordinates (-a, 2a), and the coordinates (-2a, 2a) in FIG. When the point 72d of the coordinate, the point 72e of the coordinate (-2a, a), and the point 73b of the coordinate (-2a, -a) are set, the point 72a, the point 71a, and the point 71a are surrounded by the point 71c, 72e, 72a, 71a. The cut-off frequency of the point where the x-coordinate on the line segment connecting the two points is the same, and the cut-off of the point where the y-coordinate on the line segment connecting the point 72a and the point 73a is the same in the portion surrounded by the points 72a, 72e, 73b In the portion surrounded by the frequency and points 72c, 72d, 72e, 72a, the cut-off frequency of the point B, that is, the center 72a is applied.

〈第2の実施形態〉
本発明の第2の実施の形態について、図面を参照して説明する。本実施形態は、ぼかし処理部の構成が異なる以外は第1の実施形態と同じであり、実質上同一の部分には同一の付している。
<Second Embodiment>
A second embodiment of the present invention will be described with reference to the drawings. This embodiment is the same as the first embodiment except that the configuration of the blur processing unit is different, and substantially the same parts are denoted by the same reference numerals.

本実施形態では、各領域を被写体までの距離別に複数のグループに区分してぼかし処理を行う。この場合、各グループに対して所定のカットオフ周波数を設定し、適用する。   In the present embodiment, each region is divided into a plurality of groups according to the distance to the subject, and blurring processing is performed. In this case, a predetermined cutoff frequency is set and applied to each group.

ここでは例として、距離グループを近景、中景、遠景の3種類に区分する場合について説明する。図16は、第1の実施形態の図11のグラフにおいて、被写体までの距離がD1未満の場合を近景、D1以上D2未満の場合を中景、D2以上の場合を遠景とした例である。ここで、D1とD2の関係はD1<D2である。尚、距離グループの数は3個に限られず、2個以上であればよい。   Here, as an example, a case will be described in which the distance group is divided into three types: foreground, middle, and distant views. FIG. 16 is an example in the graph of FIG. 11 of the first embodiment where the distance to the subject is less than D1, the background is D1 and less than D2, and the background is D2 and more. Here, the relationship between D1 and D2 is D1 <D2. Note that the number of distance groups is not limited to three and may be two or more.

図17は第2の実施形態に係るぼかし処理部のブロック図である。本実施形態のぼかし処理部30のローパスフィルタ部34は、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34c、乗算係数設定部37及び加算器38を備える。近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cはそれぞれ乗算器36が後段に直列に接続されている。近景用ローパスフィルタ34aと乗算器36、中景用ローパスフィルタ34bと乗算器36、遠景用ローパスフィルタ34cと乗算器36は、それぞれフレームメモリ31と信号処理部35との間に並列に接続されている。乗算係数設定部37は距離情報記憶部17aに記憶された各領域の被写体までの距離に基づき各乗算器36での乗算に用いる乗算係数を設定するものであり、距離情報記憶部17aと各乗算器36との間に接続される。   FIG. 17 is a block diagram of a blur processing unit according to the second embodiment. The low-pass filter unit 34 of the blur processing unit 30 of the present embodiment includes a foreground low-pass filter 34a, a middle-ground low-pass filter 34b, a far-view low-pass filter 34c, a multiplication coefficient setting unit 37, and an adder 38. The foreground low pass filter 34a, the middle view low pass filter 34b, and the far view low pass filter 34c each have a multiplier 36 connected in series in the subsequent stage. The foreground low-pass filter 34a and the multiplier 36, the middle-ground low-pass filter 34b and the multiplier 36, and the far-view low-pass filter 34c and the multiplier 36 are connected in parallel between the frame memory 31 and the signal processing unit 35, respectively. Yes. The multiplication coefficient setting unit 37 sets a multiplication coefficient used for multiplication in each multiplier 36 based on the distance to the subject in each area stored in the distance information storage unit 17a. Connected to the device 36.

近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのカットオフ周波数と出力レベルとは、図18のグラフに示すような関係を有する。図18は横軸をカットオフ周波数、縦軸を出力レベルとしたグラフであり、入力画像信号のレベルも併せて示している。カットオフ周波数と出力レベルとの関係は、いずれも周波数の低い範囲では出力レベルは1.0で一定であり、所定の周波数以上では周波数が高いほど出力レベルが低くなり、最後には0となる。出力レベルが低下し始める周波数及び0となる周波数は、近景用ローパスフィルタ34aが最も高く、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cの順に低くなる。尚、本実施形態では近景用ローパスフィルタ34aのカットオフ周波数と出力レベルとの関係は、入力画像と同様の関係を有しているため、近景用ローパスフィルタ34aは設けなくてもよい。   The cutoff frequency and output level of the low-pass filter 34a for near view, the low-pass filter 34b for middle scene, and the low-pass filter 34c for distant view have a relationship as shown in the graph of FIG. FIG. 18 is a graph with the horizontal axis representing the cutoff frequency and the vertical axis representing the output level, and also shows the level of the input image signal. As for the relationship between the cut-off frequency and the output level, the output level is constant at 1.0 in the low frequency range, the output level becomes lower as the frequency is higher than the predetermined frequency, and finally becomes 0. . The frequency at which the output level begins to decrease and the frequency at which the output level becomes 0 are highest in the foreground low-pass filter 34a, and lower in the order of the low-pass filter 34b for the foreground and low-pass filter 34c for the background. In this embodiment, the relationship between the cutoff frequency of the foreground low-pass filter 34a and the output level is the same as that of the input image, and therefore the foreground low-pass filter 34a may not be provided.

乗算係数設定部37では、画像の各領域に、その領域の距離情報に基づいて各乗算器36についての乗算係数を設定する。図19は被写体までの距離と乗算係数との関係の一例を示すグラフである。図19には近景用の乗算係数KNが実線で、中景用の乗算係数KMが一点鎖線で、遠景用の乗算係数KFが二点鎖線で示されている。近景用の乗算係数KNは、D1未満の範囲では1.0で一定であり、D1以上の範囲では0で一定である。中景用の乗算係数KMは、D1未満の範囲では0で一定であり、D1以上D2未満の範囲では1.0で一定であり、D2以上の範囲では0で一定である。遠景用の乗算係数KFは、D2未満の範囲では0で一定であり、D2以上の範囲では1.0で一定である。このように、乗算係数KF、KM、KFの和は被写体までの距離によらず1.0で一定である。   The multiplication coefficient setting unit 37 sets a multiplication coefficient for each multiplier 36 in each area of the image based on the distance information of the area. FIG. 19 is a graph showing an example of the relationship between the distance to the subject and the multiplication coefficient. In FIG. 19, the foreground multiplication coefficient KN is indicated by a solid line, the foreground multiplication coefficient KM is indicated by a one-dot chain line, and the far-distance multiplication coefficient KF is indicated by a two-dot chain line. The foreground multiplication coefficient KN is constant at 1.0 in a range less than D1, and is constant at 0 in a range greater than D1. The middle scene multiplication coefficient KM is constant at 0 in a range less than D1, is constant at 1.0 in a range from D1 to less than D2, and is constant at 0 in a range from D2 or more. The far-field multiplication coefficient KF is constant at 0 in the range below D2, and constant at 1.0 in the range above D2. Thus, the sum of the multiplication coefficients KF, KM, and KF is constant at 1.0 regardless of the distance to the subject.

次に本実施形態のぼかし処理について説明する。フレームメモリ31に記憶された記録用画像を読み込み、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのそれぞれによってぼかし処理を施す。一方、乗算係数設定部37では、距離情報記憶部17aに記憶された各領域の被写体距離に応じた乗算係数を、各領域について設定する。   Next, the blurring process of this embodiment will be described. The recording image stored in the frame memory 31 is read, and the blurring process is performed by each of the foreground low-pass filter 34a, the foreground low-pass filter 34b, and the distant view low-pass filter 34c. On the other hand, the multiplication coefficient setting unit 37 sets a multiplication coefficient for each region according to the subject distance of each region stored in the distance information storage unit 17a.

ローパスフィルタ34a、34b、34cでぼかし処理が施された画像は、乗算係数設定部37で設定された乗算係数で乗算器36によって各領域毎に乗算が施され、加算器38で加算される。加算器38で加算された画像は、被写体までの距離がD1未満の領域は、近景用ローパスフィルタ34aに対しての乗算係数が1.0であり、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であるため、近景用ローパスフィルタ34aのみでぼかし処理が施されたものとなる。近景用ローパスフィルタ34aが設けられていない場合は元の画像のままとなる。同様に、被写体までの距離がD1以上D2未満の領域は中景用ローパスフィルタ34bのみ、被写体までの距離がD2以上の領域は遠景用ローパスフィルタ34cでぼかし処理が施されたものとなる。図20は、R1〜R9の9個の領域に区分された画像をぼかし処理した画像の模式図である。近景に属する領域R5、R8と、中景に属する領域R4、R7と、遠景に属する領域R1、R2、R3、R6、R9とでぼかし具合が異なり、遠景は大きくぼけ、中景は少しぼけ、近景はそのままである画像となる。その結果、ぼかし処理によって得られた画像は近景が中景、遠景から浮き上がった立体感のあるものとなる。   The images subjected to the blurring process by the low-pass filters 34 a, 34 b, and 34 c are multiplied for each region by the multiplier 36 with the multiplication coefficient set by the multiplication coefficient setting unit 37 and added by the adder 38. In the image added by the adder 38, in the region where the distance to the subject is less than D1, the multiplication coefficient for the foreground low-pass filter 34a is 1.0, and the foreground low-pass filter 34b, the far-view low-pass filter Since the multiplication coefficient for 34c is 0, the blurring process is performed only by the foreground low-pass filter 34a. When the foreground low-pass filter 34a is not provided, the original image remains as it is. Similarly, the region where the distance to the subject is greater than or equal to D1 and less than D2 is blurred only by the low-pass filter 34b for the middle scene, and the region where the distance to the subject is greater than D2 is blurred by the low-pass filter 34c for far view. FIG. 20 is a schematic diagram of an image obtained by blurring an image divided into nine regions R1 to R9. The blur conditions differ between the regions R5 and R8 belonging to the foreground, the regions R4 and R7 belonging to the middle background, and the regions R1, R2, R3, R6, and R9 belonging to the far background, the far view is greatly blurred, and the middle background is slightly blurred. The close-up view is the image that remains. As a result, the image obtained by the blurring process has a stereoscopic effect in which the near view is raised from the middle view and the far view.

このように構成することにより、距離情報記憶部17aに記憶する各領域についての距離情報は、詳細な距離情報ではなく、大まかな情報であるその領域の属する距離グループとすることができるため、処理速度を向上させることができる。   By configuring in this way, distance information about each area stored in the distance information storage unit 17a can be a distance group to which the area belongs, which is rough information, instead of detailed distance information. Speed can be improved.

〈第3の実施形態〉
本発明の第3の実施形態について図面を参照して説明する。本実施形態は、ぼかし処理部の構成及び乗算係数と被写体距離との関係が異なる以外は第2の実施形態と同じであり、実質上同一の部分には同一の符号を付している。
<Third Embodiment>
A third embodiment of the present invention will be described with reference to the drawings. The present embodiment is the same as the second embodiment except that the configuration of the blur processing unit and the relationship between the multiplication coefficient and the subject distance are different, and substantially the same parts are denoted by the same reference numerals.

図21は本実施形態に係るぼかし処理部のブロック図である。本実施形態のぼかし処理部30は、図17の第2の実施形態のぼかし処理部にエッジ信号生成部39が設けられたものである。エッジ信号生成部39は乗算器36が後段に直列に接続されている。エッジ信号生成部39と乗算器36は、フレームメモリ31と信号処理部35との間に並列に接続されており、この乗算器36には乗算係数設定部37が接続されている。   FIG. 21 is a block diagram of the blur processing unit according to the present embodiment. The blurring processing unit 30 of the present embodiment is obtained by providing an edge signal generation unit 39 in the blurring processing unit of the second embodiment of FIG. The edge signal generator 39 has a multiplier 36 connected in series at the subsequent stage. The edge signal generation unit 39 and the multiplier 36 are connected in parallel between the frame memory 31 and the signal processing unit 35, and a multiplication coefficient setting unit 37 is connected to the multiplier 36.

図22は本実施形態の、被写体までの距離と乗算係数との関係の一例を示すグラフである。図22には近景用の乗算係数KN、中景用の乗算係数KM、遠景用の乗算係数KFに加えてエッジ信号用の乗算係数KEが示されている。本実施形態では、近景用の乗算係数KNは、D1−d1未満の範囲では1.0で一定であり、D1−d1以上D1+d1未満の範囲では1.0から0まで距離に比例して減少し、D1+d1以上の範囲では0で一定である。中景用の乗算係数KMは、D1−d1未満の範囲では0で一定であり、D1−d1以上D1+d1未満の範囲では0から1.0まで距離に比例して増加し、D1+d1以上D2−d2未満の範囲では1.0で一定であり、D2−d2以上D2+d2未満の範囲では1.0から0まで距離に比例して減少し、D2+d2以上の範囲では0で一定である。遠景用の乗算係数KFは、D2−d2未満の範囲では0で一定であり、D2−d2以上D2+d2未満の範囲では0から1.0まで距離に比例して増加し、D2+d2以上の範囲では1.0で一定である。尚、d1とd2との関係は、D1+d1<D2−d2である。又、乗算係数KF、KM、KFの和は被写体までの距離によらず1.0で一定である。そして、エッジ信号用の乗算係数KEは、D0未満の範囲では1.3で一定であり、D0以上D1−d1未満の範囲では1.3から0まで距離に比例して減少し、D1−d1以上の範囲では0で一定である。乗算係数KEは、他の乗算係数から独立した数値である。   FIG. 22 is a graph showing an example of the relationship between the distance to the subject and the multiplication coefficient in the present embodiment. FIG. 22 shows a multiplication coefficient KE for edge signals in addition to a multiplication coefficient KN for near view, a multiplication coefficient KM for middle scene, and a multiplication coefficient KF for distant view. In this embodiment, the foreground multiplication coefficient KN is constant at 1.0 in the range of less than D1−d1, and decreases in proportion to the distance from 1.0 to 0 in the range of D1−d1 and less than D1 + d1. , It is constant at 0 in the range of D1 + d1 or more. The multiplication factor KM for the middle scene is constant at 0 in the range of less than D1−d1, increases in proportion to the distance from 0 to 1.0 in the range of D1−d1 and less than D1 + d1, and is equal to or greater than D1 + d1 and D2−d2. The range is less than 1.0 in the range less than D2-d2 and less than D2 + d2, and decreases in proportion to the distance from 1.0 to 0, and is constant in 0 in the range greater than D2 + d2. The far-field multiplication coefficient KF is constant at 0 in the range of less than D2-d2, increases in proportion to the distance from 0 to 1.0 in the range of D2-d2 or more and less than D2 + d2, and is 1 in the range of D2 + d2 or more. .0 and constant. The relationship between d1 and d2 is D1 + d1 <D2-d2. The sum of the multiplication coefficients KF, KM, and KF is constant at 1.0 regardless of the distance to the subject. The multiplication factor KE for the edge signal is constant at 1.3 in the range less than D0, decreases in the range from 1.3 to 0 in the range from D0 to less than D1-d1, and decreases in proportion to the distance D1-d1. In the above range, it is 0 and constant. The multiplication coefficient KE is a numerical value independent of other multiplication coefficients.

図22に示す、乗算係数KN、KM、KF、KEと被写体までの距離Dとの関係を数式で表すと以下のようになる。ここで、D1−d1≦D<D1+d1での乗算係数KMの傾きをk1(k1>0,k1=1/(2×d1))、D2−d2≦D<D2+d2での乗算係数KFの傾きをk2(k2>0,k2=1/(2×d2))、D0≦D<D1−d1での乗算係数KEの傾きを−k0(k0>0,k2=1.3/(D1−d1−D0))とする。
KN=1.0 …(D<D1−d1)
=−k1×{D−(D1+d1)} …(D1−d1≦D<D1+d1)
=0 …(D1+d1≦D)
KM=0 …(D1+d1≦D)
=k1×{D−(D1−d1)} …(D1−d1≦D<D1+d1)
=1.0 …(D1+d1≦D<D2−d2)
=−k2×{D−(D2+d2)} …(D2−d2≦D<D2+d2)
=0 …(D2+d2≦D)
KF=0 (D<D1−d1)
=k2×{D−(D2−d2)} …(D2−d2≦D<D2+d2)
=1.0 …(D2+d2≦D)
KE=1.3 …(D<D0)
=−k0×{D−(D1−d1)} …(D0≦D<D1−d1)
=0 …(D1−d1≦D)
The relationship between the multiplication coefficients KN, KM, KF, and KE and the distance D to the subject shown in FIG. Here, the slope of the multiplication coefficient KM when D1−d1 ≦ D <D1 + d1 is k1 (k1> 0, k1 = 1 / (2 × d1)), and the slope of the multiplication coefficient KF is D2−d2 ≦ D <D2 + d2. The slope of the multiplication coefficient KE when k2 (k2> 0, k2 = 1 / (2 × d2)) and D0 ≦ D <D1−d1 is −k0 (k0> 0, k2 = 1.3 / (D1−d1−). D0)).
KN = 1.0 (D <D1-d1)
= −k1 × {D− (D1 + d1)} (D1−d1 ≦ D <D1 + d1)
= 0 (D1 + d1 ≦ D)
KM = 0 (D1 + d1 ≦ D)
= K1 * {D- (D1-d1)} (D1-d1 ≦ D <D1 + d1)
= 1.0 (D1 + d1 ≦ D <D2-d2)
= −k2 × {D− (D2 + d2)} (D2−d2 ≦ D <D2 + d2)
= 0 (D2 + d2 ≦ D)
KF = 0 (D <D1-d1)
= K2 × {D− (D2−d2)} (D2−d2 ≦ D <D2 + d2)
= 1.0 (D2 + d2 ≦ D)
KE = 1.3 (D <D0)
= −k0 × {D− (D1−d1)} (D0 ≦ D <D1−d1)
= 0 (D1-d1 ≦ D)

次に本実施形態のぼかし処理について説明する。フレームメモリ31に記憶された記録用画像を読み込み、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのそれぞれによってぼかし処理を施し、エッジ信号生成部39ではエッジ信号を生成する。一方、乗算係数設定部37では、距離情報記憶部17aに記憶された各領域の被写体距離に応じた乗算係数を、各領域について設定する。   Next, the blurring process of this embodiment will be described. The recording image stored in the frame memory 31 is read and subjected to blurring processing by each of the foreground low-pass filter 34a, the middle-ground low-pass filter 34b, and the far-view low-pass filter 34c, and the edge signal generation unit 39 generates an edge signal. . On the other hand, the multiplication coefficient setting unit 37 sets a multiplication coefficient for each region according to the subject distance of each region stored in the distance information storage unit 17a.

ローパスフィルタ34a、34b、34cでぼかし処理が施された画像及びエッジ信号生成部39で生成されたエッジ信号は、乗算係数設定部37で設定された乗算係数で乗算器36によって各領域毎に乗算が施され、加算器38で加算される。   The image subjected to the blurring process by the low-pass filters 34a, 34b, and 34c and the edge signal generated by the edge signal generation unit 39 are multiplied for each region by the multiplier 36 with the multiplication coefficient set by the multiplication coefficient setting unit 37. And is added by the adder 38.

加算器38で加算された画像は、被写体までの距離がD0未満の領域は、近景用ローパスフィルタに対しての乗算係数が1.0、エッジ信号生成部39に対しての乗算係数が1.3で一定であり、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であるため、近景用ローパスフィルタ34aのみでぼかし処理が施され、エッジ信号によりエッジが強調されたものとなる。被写体までの距離がD0以上D1−d1未満の領域は、近景用ローパスフィルタ34aに対しての乗算係数が1.0で一定で、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であり、エッジ信号生成部39に対しての乗算係数が1.3から0まで距離に比例して減少するため、被写体までの距離がD0未満の領域と比べると距離が増加するにしたがってエッジの強調が抑えられたものとなる。近景用ローパスフィルタ34aが設けられていない場合は元の画像のエッジが強調されたものとなる。   In the image added by the adder 38, in the region where the distance to the subject is less than D0, the multiplication coefficient for the foreground low-pass filter is 1.0, and the multiplication coefficient for the edge signal generation unit 39 is 1. 3 is constant, and the multiplication coefficient for the low-pass filter 34b for the foreground and the low-pass filter 34c for the foreground is 0. Therefore, the blurring process is performed only by the low-pass filter 34a for the foreground and the edge is emphasized by the edge signal. It will be. In the region where the distance to the subject is greater than or equal to D0 and less than D1-d1, the multiplication coefficient for the foreground low-pass filter 34a is constant at 1.0, and the foreground low-pass filter 34b and the far-view low-pass filter 34c are constant. Since the multiplication coefficient is 0 and the multiplication coefficient for the edge signal generation unit 39 decreases in proportion to the distance from 1.3 to 0, the distance increases compared to the area where the distance to the subject is less than D0. As a result, edge enhancement is suppressed. When the foreground low-pass filter 34a is not provided, the edge of the original image is emphasized.

被写体までの距離がD1−d1以上の領域では、エッジ信号生成部39に対しての乗算係数が0であるため、エッジは強調されない。被写体までの距離がD1−d1以上の領域のうち、被写体までの距離がD1+d1以上D2−d2未満の領域は中景用ローパスフィルタ34bのみ、被写体までの距離がD2+d2以上の領域は遠景用ローパスフィルタ34cでぼかし処理が施されたものとなる。   In the region where the distance to the subject is equal to or greater than D1-d1, the edge is not emphasized because the multiplication coefficient for the edge signal generation unit 39 is 0. Of the regions where the distance to the subject is D1−d1 or more, the region where the distance to the subject is D1 + d1 or more and less than D2−d2 is only the low-pass filter 34b for the middle scene, and the region where the distance to the subject is D2 + d2 or more is In 34c, the blurring process is performed.

被写体までの距離がD1−d1以上D1+d1未満の領域は、遠景用ローパスフィルタ34cに対しての乗算係数は0であるものの、近景用ローパスフィルタ34aに対しての乗算係数は1.0から0まで距離に比例して減少し、中景用ローパスフィルタ34bに対しての乗算係数は0から1.0まで距離に比例して増加するため、近景用ローパスフィルタ34aで処理された画像と中景用ローパスフィルタ34bで処理された画像とが混合されたものとなる。なお、D1−d1以上D1+d1未満の範囲では距離に比例して近景用ローパスフィルタ34aよりも中景用ローパスフィルタ34bでの処理の影響が大きくなる。同様に、被写体までの距離がD2−d2以上D2+d2未満の領域は、近景用ローパスフィルタ34aで処理された画像と中景用ローパスフィルタ34bで処理された画像とが混合されたものとなる。これにより、被写体までの距離がD1近傍又はD2近傍の領域が隣接している場合に、ぼかし処理の度合いが急激に変化して不自然なぼかし処理が施された画像となるのを抑制することができる。   In the region where the distance to the subject is not less than D1−d1 and less than D1 + d1, the multiplication coefficient for the low-pass filter for distant view 34c is 0, but the multiplication coefficient for the low-pass filter for near view 34a is 1.0 to 0. Since it decreases in proportion to the distance and the multiplication coefficient for the low-pass filter 34b for the foreground increases in proportion to the distance from 0 to 1.0, the image processed by the low-pass filter 34a for the foreground and the foreground The image processed by the low-pass filter 34b is mixed. Note that in the range of D1−d1 or more and less than D1 + d1, the influence of the processing in the low-pass filter 34b for the foreground is greater than the low-pass filter 34a for the foreground in proportion to the distance. Similarly, the region where the distance to the subject is greater than or equal to D2−d2 and less than D2 + d2 is a mixture of the image processed by the foreground low-pass filter 34a and the image processed by the foreground low-pass filter 34b. As a result, when the distance to the subject is close to the region near D1 or D2, the degree of blurring processing is abruptly changed to suppress an unnatural blurring image. Can do.

尚、本実施形態において、各領域を被写体までの距離によって複数の距離グループに区分して、各距離グループ毎に属する領域の被写体までの距離の平均を算出し、その平均を各領域の被写体までの距離として用いても構わない。例えば、図16に示す距離と高周波成分の強度との関係を示すグラフにおいて、高周波成分の最大値を示す距離即ち被写体までの距離がD1未満の領域についてはR5とR8の高周波成分の最大値を示す距離の平均であるD11を、被写体までの距離がD1以上D2未満の領域についてはR4とR7の最大値を示す距離の平均であるD12を、被写体までの距離がD2以上である領域についてはR1、R2、R3、R6、R9の最大値を示す距離の平均であるD13を、それぞれ該当する距離グループに属する領域の被写体までの距離として用いることができる。この場合、各領域についての距離情報の管理を簡素化できるため、ぼかし処理の高速化を図ることができる。この場合、第1の実施形態で説明したカットオフ周波数の補間方法を適用することにより、ぼけ具合の異なる領域間の境界を目立たなくして自然なぼけ具合とすることができる。尚、このように算出した距離情報は第1の実施形態においても適用することができる。   In this embodiment, each area is divided into a plurality of distance groups according to the distance to the subject, and the average of the distance to the subject in the area belonging to each distance group is calculated, and the average is calculated to the subject in each area. It may be used as the distance. For example, in the graph showing the relationship between the distance and the intensity of the high frequency component shown in FIG. 16, the maximum value of the high frequency components of R5 and R8 is set for the distance indicating the maximum value of the high frequency component, that is, the region where the distance to the subject is less than D1. D11 which is the average of the distances shown, D12 which is the average of the distances indicating the maximum values of R4 and R7 for the area where the distance to the subject is greater than or equal to D1 and less than D2, and for the area where the distance to the subject is D2 or more D13, which is the average of distances indicating the maximum values of R1, R2, R3, R6, and R9, can be used as the distance to the subject in the area belonging to the corresponding distance group. In this case, the management of the distance information for each region can be simplified, so that the blurring process can be speeded up. In this case, by applying the cut-off frequency interpolation method described in the first embodiment, it is possible to make a natural blur condition by making the boundary between regions with different blur conditions inconspicuous. The distance information calculated in this way can also be applied to the first embodiment.

又、本実施形態において、被写体のエッジを強調しない場合はエッジ信号生成部39は設けなくてもよい。   In the present embodiment, the edge signal generation unit 39 may not be provided if the edge of the subject is not emphasized.

又、本実施形態のローパスフィルタ部34において、近景用ローパスフィルタ34aを、対応する乗算器36を残したまま取り除き、乗算係数を適切に設定することにより、第1の実施形態のローパスフィルタ部34と同様の構成とすることができる。   Further, in the low-pass filter unit 34 of the present embodiment, the low-pass filter 34a for foreground is removed while leaving the corresponding multiplier 36, and the multiplication coefficient is appropriately set, so that the low-pass filter unit 34 of the first embodiment is set. It can be set as the same structure.

〈変形例1〉
又、本発明の第1〜第3の実施形態においてSTEP205で各領域の距離情報を取得する際に、画像中で所定の大きさ以上の人物の顔を検出し、その顔を含む領域の距離を含む所定の距離範囲の領域にはぼかし処理は施さないものとしてもよい。これにより、人物を含む領域にぼかし処理を施してしまう可能性を低減することができる。
<Modification 1>
In the first to third embodiments of the present invention, when acquiring distance information of each area in STEP 205, a face of a person having a predetermined size or more is detected in the image, and the distance of the area including the face is detected. It is good also as what does not perform a blurring process to the area | region of the predetermined distance range containing. Thereby, it is possible to reduce the possibility of performing blurring processing on a region including a person.

又、その顔を含む領域の被写体までの距離を含む所定の距離範囲の領域にはぼかし処理は施さず、その所定の距離範囲よりも短い距離及び長い距離の領域にぼかし処理を施すものとしてもよい。この場合、その所定の距離範囲よりも離れるほどぼかし度合いを高くしてもよい。これにより、画像中の人物をより自然に浮き上がらせることができる。   In addition, blurring processing is not performed on a region in a predetermined distance range including the distance to the subject in the region including the face, and blurring processing is performed on a region that is shorter and longer than the predetermined distance range. Good. In this case, the degree of blurring may be increased as the distance from the predetermined distance range increases. Thereby, the person in an image can be raised more naturally.

又、画像の領域を距離グループに区分した場合は、その顔を含む領域と同じ距離グループに属する領域にはぼかし処理を施さず、それ以外の領域にはぼかし処理を施すものとしてもよい。   In addition, when the image area is divided into distance groups, the area belonging to the same distance group as the area including the face may not be subjected to the blurring process, and the other areas may be subjected to the blurring process.

ここで顔検出処理について説明する。画像処理部5は顔検出装置50を備え、入力された画像信号から人物の顔を検出することができる。顔検出装置50の構成及び動作について以下に説明する。   Here, the face detection process will be described. The image processing unit 5 includes a face detection device 50 and can detect a person's face from the input image signal. The configuration and operation of the face detection device 50 will be described below.

図23は、顔検出装置50の構成を示している。顔検出装置50は、AFE3によって得られた画像データに基づいて1又は複数の縮小画像を生成する縮小画像生成手段51、入力画像および縮小画像から構成される各階層画像とメモリ18に記憶された顔検出用の重みテーブルとを用いて入力画像に顔が存在するか否かを判定する顔判定手段52、および顔判定手段52の検出結果を出力する検出結果出力手段53を備えている。検出結果出力手段53は、顔が検出された場合には、入力画像を基準とする検出された顔の大きさと位置とを出力する。   FIG. 23 shows the configuration of the face detection device 50. The face detection device 50 stores the reduced image generation means 51 that generates one or a plurality of reduced images based on the image data obtained by the AFE 3, each hierarchical image composed of the input image and the reduced image, and the memory 18. A face determination unit 52 that determines whether or not a face exists in the input image using a face detection weight table, and a detection result output unit 53 that outputs a detection result of the face determination unit 52 are provided. When a face is detected, the detection result output means 53 outputs the size and position of the detected face with reference to the input image.

又、メモリ18に記憶された重みテーブルは、大量の教師サンプル(顔および非顔のサンプル画像)から求められたものである。このような重みテーブルは、例えば、Adaboostと呼ばれる公知の学習方法を利用して作成することができる(Yoav Freund, Robert E. Schapire,"A decision-theoretic generalization of on-line learning and an application to boosting", European Conference on Computational Learning Theory, September 20,1995.)。   The weight table stored in the memory 18 is obtained from a large number of teacher samples (face and non-face sample images). Such a weight table can be created using, for example, a known learning method called Adaboost (Yoav Freund, Robert E. Schapire, “A decision-theoretic generalization of on-line learning and an application to boosting” ", European Conference on Computational Learning Theory, September 20, 1995.).

尚、Adaboostは、適応的なブースティング学習方法の1つで、大量の教師サンプルをもとに、複数の弱識別器候補の中から識別に有効な弱識別器を複数個選択し、それらを重み付けして統合することによって高精度な識別器を実現する学習方法である。ここで、弱識別器とは、全くの偶然よりは識別能力は高いが、十分な精度を満たすほど高精度ではない識別器のことをいう。弱識別器の選択時には、既に選択した弱識別器がある場合、選択済の弱識別器によって誤認識してしまう教師サンプルに対して学習を重点化することによ
って、残りの弱識別器候補の中から最も効果の高い弱識別器を選択する。
Adaboost is an adaptive boosting learning method. Based on a large number of teacher samples, Adaboost selects multiple weak classifiers that are effective for identification from among a plurality of weak classifier candidates. This is a learning method for realizing a highly accurate classifier by weighting and integrating. Here, a weak classifier refers to a classifier that has a higher discrimination ability than a coincidence but is not high enough to satisfy sufficient accuracy. When a weak classifier is selected, if there is a weak classifier that has already been selected, the learning is focused on the teacher sample that is misrecognized by the selected weak classifier. To select the most effective weak classifier.

図24は、縮小画像生成手段51によって得られる階層画像の一例を示している。この例では、縮小率Rを0.8に設定した場合に、生成される複数の階層画像を示している。図24において、60は入力画像を、61〜65は縮小画像を示している。68は判定領域を示している。この例では、判定領域は縦24画素、横24画素の大きさに設定されている。判定領域の大きさは、入力画像および各縮小画像においても同じである。又、この例では、矢印で示すように、階層画像上で判定領域を左から右に移動させる、水平方向走査を、上方から下方に向かって行うことで、判定領域とマッチングする顔画像の検出を行う。ただし、走査順はこれに限られるものではない。入力画像60の他に、複数の縮小画像61〜65を生成しているのは、1種類の重みテーブルを用いて大きさが異なる顔を検出するためである。   FIG. 24 shows an example of a hierarchical image obtained by the reduced image generating means 51. In this example, a plurality of hierarchical images that are generated when the reduction ratio R is set to 0.8 are shown. 24, reference numeral 60 denotes an input image, and reference numerals 61 to 65 denote reduced images. Reference numeral 68 denotes a determination area. In this example, the determination area is set to a size of 24 pixels vertically and 24 pixels horizontally. The size of the determination area is the same for the input image and each reduced image. In this example, as indicated by an arrow, a face image matching the determination area is detected by moving the determination area from left to right on the hierarchical image and performing horizontal scanning from the top to the bottom. I do. However, the scanning order is not limited to this. The reason why the plurality of reduced images 61 to 65 are generated in addition to the input image 60 is to detect faces of different sizes using one kind of weight table.

図25は顔検出処理を説明するための図である。顔判定手段52による顔検出処理は、各階層画像毎に行なわれるが、処理方法は同様なので、ここでは入力画像60に対して行なわれる顔検出処理についてのみ説明する。   FIG. 25 is a diagram for explaining the face detection process. The face detection process by the face determination unit 52 is performed for each hierarchical image, but since the processing method is the same, only the face detection process performed on the input image 60 will be described here.

各階層画像毎に行なわれる顔検出処理は、画像内に設定された判定領域に対応する画像と重みテーブルとを用いて行なわれる。顔検出処理は粗い判定から順次細かい判定に移行する複数の判定ステップからなり、ある判定ステップにおいて、顔が検出されなかった場合には、次の判定ステップには移行せず、当該判定領域には顔は存在しないと判定する。全ての判定ステップにおいて、顔が検出された場合にのみ、当該判定領域に顔が存在すると判定し、判定領域を走査して次の判定領域での判定に移行する。このようにして、検出された顔の位置及び大きさは検出結果出力手段53によって出力される。尚、このような顔検出処理については、本願出願人による特許出願である特願2006−053304号に詳しく記載されている。   The face detection process performed for each hierarchical image is performed using an image corresponding to the determination region set in the image and a weight table. The face detection process includes a plurality of determination steps that sequentially shift from a rough determination to a fine determination. When a face is not detected in a certain determination step, the process does not proceed to the next determination step, and the determination area includes It is determined that no face exists. In all the determination steps, only when a face is detected, it is determined that a face exists in the determination area, and the determination area is scanned to shift to determination in the next determination area. In this way, the detected face position and size are output by the detection result output means 53. Such face detection processing is described in detail in Japanese Patent Application No. 2006-053304, which is a patent application filed by the present applicant.

尚、本発明の第1〜第3の実施形態において、画像を分割して得られる領域は、細かく区分するほど、距離の異なる複数の被写体が含まれる領域の割合が小さくなり、領域間の境界が目立ちにくくなるため、良好なボケ味の画像生成が可能となる。   In the first to third embodiments of the present invention, the area obtained by dividing an image becomes smaller, and as the area is divided more finely, the ratio of areas including a plurality of subjects with different distances decreases. Therefore, it is possible to generate an image with good blurring.

〈変形例2〉(距離依存階調補正)
又、本発明の第1〜第3の実施形態において、ぼかし処理に加えて、領域毎に被写体までの距離に依存した階調補正を画像に施してもよい。以下に、このような階調補正方法について説明する。
<Modification 2> (Distance-dependent gradation correction)
In the first to third embodiments of the present invention, in addition to the blurring process, gradation correction depending on the distance to the subject may be performed on the image for each region. Hereinafter, such a gradation correction method will be described.

この場合、ぼかし処理部30は、画像中の被写体の距離情報と輝度情報を算出してそれに基づいた階調補正を撮影した画像に施すことができる機能を備え、このような撮影モードを階調補正モードと呼ぶ。   In this case, the blur processing unit 30 has a function capable of calculating distance information and luminance information of a subject in the image and applying gradation correction based on the calculated distance information to the captured image. This is called a correction mode.

図26は距離依存階調補正機能を備えたぼかし処理部30の構成を示すブロック図である。ぼかし処理部30は、フレームメモリ31、ローパスフィルタ部34、信号処理部35に加えて、フレームメモリ31に記憶された記録用画像のデジタル信号を読み込んで上述の所定の領域に区分し各領域の平均輝度を算出する輝度情報算出部41と、輝度情報算出部41で算出された各領域の平均輝度を記憶する輝度情報記憶部42と、距離情報記憶部17aに記憶された各領域の被写体までの距離と輝度情報記憶部42に記憶された各領域の平均輝度とメモリ14に記憶された階調補正テーブルに基づいてフレームメモリ31から読み込んだ記録用画像信号(デジタル信号)に対して階調補正を施す階調補正部43と、を備え、信号処理部35ではローパスフィルタ部34及び階調補正部43の少なくとも一方で画像処理が施された記録用画像信号より輝度信号及び色差信号を生成する。   FIG. 26 is a block diagram showing a configuration of the blur processing unit 30 having a distance dependent gradation correction function. In addition to the frame memory 31, the low-pass filter unit 34, and the signal processing unit 35, the blurring processing unit 30 reads the digital signal of the recording image stored in the frame memory 31 and divides it into the predetermined areas described above. A luminance information calculation unit 41 that calculates average luminance, a luminance information storage unit 42 that stores the average luminance of each region calculated by the luminance information calculation unit 41, and the subject of each region stored in the distance information storage unit 17a Of the recording image signal (digital signal) read from the frame memory 31 on the basis of the distance of the image and the average luminance of each area stored in the luminance information storage unit 42 and the gradation correction table stored in the memory 14. A gradation correction unit 43 that performs correction, and the signal processing unit 35 performs recording on which image processing has been performed on at least one of the low-pass filter unit 34 and the gradation correction unit 43. From the image signal to generate a luminance signal and color difference signals.

次に距離依存階調補正機能を備えたぼかし処理部30の動作について説明する。図27は、図2のフローチャートの一部に距離依存階調補正機能に関する部分を追加したものである。この場合、図2のフローチャートにおける、STEP202における撮影モードの選択肢としてぼかし処理モードに加えて階調補正モードも含まれる。階調補正モードが選択された場合、ぼかし処理モードも同時に選択され、第1〜第3の実施形態と同様のぼかし処理が図2のSTEP210まで行われる。次に、階調補正モードが選択されているかどうかを検出し(STEP2701)、選択されていない場合はぼかし処理を施した画像の圧縮画像を生成し(STEP211)、上述の第1〜第3の実施形態と同様の処理が継続される。   Next, the operation of the blur processing unit 30 having a distance dependent gradation correction function will be described. FIG. 27 is obtained by adding a part related to the distance dependent gradation correction function to a part of the flowchart of FIG. In this case, the gradation correction mode is included in addition to the blurring processing mode as an option of the shooting mode in STEP 202 in the flowchart of FIG. When the gradation correction mode is selected, the blurring processing mode is also selected at the same time, and blurring processing similar to that in the first to third embodiments is performed up to STEP 210 in FIG. Next, it is detected whether the gradation correction mode is selected (STEP 2701). If not selected, a compressed image of the blurred image is generated (STEP 211). Processing similar to that in the embodiment is continued.

階調補正モードが選択されている場合、輝度情報算出部41ではフレームメモリ31に記憶された記録用画像(デジタル信号)を読み込んで、上述の距離検出部23で区分したものと同じ所定の領域に区分して各領域について平均輝度を算出し、輝度情報記憶部42では輝度情報算出部41で算出された平均輝度を記憶する(STEP2702)。   When the gradation correction mode is selected, the luminance information calculation unit 41 reads the recording image (digital signal) stored in the frame memory 31 and is the same predetermined area as that divided by the distance detection unit 23 described above. The brightness information storage unit 42 stores the average brightness calculated by the brightness information calculation unit 41 (STEP 2702).

階調補正部43では、輝度情報記憶部42から各領域の平均輝度を読み込んで、各領域を平均輝度によってグループ化する。例えば平均輝度がLa以上の高輝度、平均輝度がLb以上La未満の中輝度、平均輝度がLb未満の低輝度の3個のグループにグループ化する。ここで、La、Lbは撮像装置に応じて設定可能な任意の値である。さらに、メモリ14に記憶された合焦距離のグループ及び平均輝度のグループ毎に設定された階調補正テーブルを読み込み、各領域の属する合焦距離のグループ及び平均輝度のグループに基づいて階調補正の入出力特性を割り当てる(STEP2703)。   The gradation correction unit 43 reads the average luminance of each area from the luminance information storage unit 42 and groups each area according to the average luminance. For example, they are grouped into three groups: high luminance with average luminance of La or higher, medium luminance with average luminance of Lb or higher and lower than La, and low luminance with average luminance of lower than Lb. Here, La and Lb are arbitrary values that can be set according to the imaging apparatus. Further, a gradation correction table set for each group of in-focus distance and average luminance stored in the memory 14 is read, and gradation correction is performed based on the in-focus distance group and average luminance group to which each region belongs. The input / output characteristics are assigned (STEP 2703).

続いて、フレームメモリ31に記憶された記録用画像を読み込んで各領域にこの階調補正テーブルを適用して階調補正を行う(STEP2704)。階調補正を行った画像について、圧縮処理部6においてJPEG形式に圧縮(STEP211)する。   Subsequently, the recording image stored in the frame memory 31 is read, and gradation correction is performed by applying the gradation correction table to each region (STEP 2704). The image subjected to gradation correction is compressed in the JPEG format by the compression processing unit 6 (STEP 211).

STEP211でぼかし処理及び階調補正を含む画像補整を行った画像信号を圧縮処理部6において圧縮する際にも、画像補正を行った画像信号のみならず画像補正を行っていない画像信号についても圧縮し、図12に示すヘッダ部82に、合焦距離情報82aに加えてSTEP2702で輝度情報記憶部42に記憶された各領域についての平均輝度情報を併せて書き込んでもよい。   When the image signal that has been subjected to image correction including blurring processing and gradation correction in STEP 211 is compressed by the compression processing unit 6, not only the image signal that has undergone image correction but also the image signal that has not undergone image correction is also compressed. In addition to the in-focus distance information 82a, average luminance information for each area stored in the luminance information storage unit 42 in STEP 2702 may be written together in the header unit 82 shown in FIG.

(階調補正テーブル)
次に、階調補正テーブルについて説明する。本実施形態の階調補正テーブルは、近景、中景、遠景の3個の距離グループ及び高輝度、中輝度、低輝度の3個の平均輝度グループに対して割り当てられた図28(a)〜図28(i)のグラフに示す9個の入出力特性からなる。各グラフは横軸を階調補正前の入力輝度値、縦軸を階調補正後の出力輝度値とするものである。この入出力特性に基づいて各領域を構成する各画素は輝度が変換される。
(Tone correction table)
Next, the gradation correction table will be described. The gradation correction table of this embodiment is assigned to the three distance groups of the near view, the middle view, and the distant view and the three average brightness groups of the high luminance, the medium luminance, and the low luminance. It consists of nine input / output characteristics shown in the graph of FIG. In each graph, the horizontal axis represents the input luminance value before gradation correction, and the vertical axis represents the output luminance value after gradation correction. Based on this input / output characteristic, the luminance of each pixel constituting each region is converted.

まず、中景のグループに属する領域に対して割り当てられた入出力特性について説明する。図28(d)〜図28(f)はいずれも中景のグループに属する領域に対して割り当てられた入出力特性であり、領域内の画素の輝度にかかわらずグラフの傾きkは例えば1として一定とし、特に変換しない。これにより、補正後の近景及び遠景の中間的な輝度の画像となる。   First, input / output characteristics assigned to an area belonging to the middle scene group will be described. FIG. 28D to FIG. 28F are input / output characteristics assigned to the area belonging to the middle scene group, and the slope k of the graph is set to 1 regardless of the luminance of the pixels in the area, for example. Constant, no particular conversion. As a result, an image having a brightness intermediate between the near view and the distant view after the correction is obtained.

次に近景のグループに属する領域に対して割り当てられた入出力特性について説明する。近景に属する領域は、画像中で中景、遠景よりも強調するように補正する。   Next, input / output characteristics assigned to areas belonging to the foreground group will be described. The region belonging to the near view is corrected so as to be emphasized more than the middle view and the distant view in the image.

図28(a)は近景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を低く変換するもので、輝度がL11以上の部分のグラフの傾きをk11、L11以下の部分の傾きをk13とすると、k13<k<k11として(kは中景のグループに属する領域に対して割り当てられた入出力特性の傾き)、輝度の高い部分では階調幅を広げるように変換する。ここでは輝度L11と、平均輝度で画面の各領域をグループ化する際の基準としたLaとの関係をL11<Laとして、対象となる領域の属する高輝度範囲全体で階調幅を広げるように変換することとしている。   FIG. 28A shows input / output characteristics assigned to a region belonging to a near-ground and high-luminance group. This is to convert the overall luminance to a low level. If the slope of the graph with the luminance of L11 or higher is k11, and the slope of the portion of L11 or lower is k13, then k13 <k <k11 (k is the group of the middle scene) The slope of the input / output characteristics assigned to the area belonging to the above) is converted so as to widen the gradation width in a portion with high luminance. Here, the relationship between the luminance L11 and La used as a reference when grouping each area of the screen with the average luminance is set to L11 <La so that the gradation width is widened over the entire high luminance range to which the target area belongs. To do.

図28(b)は近景かつ中輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL21以上の部分でのグラフの傾きをk21、L22以上L21以下の部分の傾きをk22、L22以下の部分での傾きをk23とすると、k21(k23)<k<k22として、輝度の高い部分ではより輝度を高く変換し、輝度の低い部分ではより輝度を低く変換してコントラストをはっきりさせる。傾きk21とk23はどちらが大きくてもよいし、同じであってもよい。ここでは輝度L21及びL22とLa及びLbとの関係をL22<Lb<La<L21として対象となる領域の属する中輝度範囲全体の階調幅を広げるように変換することとしている。   FIG. 28B shows the input / output characteristics assigned to the area belonging to the near-ground and medium-luminance group. Assuming that the slope of the graph in the portion where the luminance is L21 or more is k21, the slope of the portion of L22 or more and L21 or less is k22, and the slope of the portion of L22 or less is k23, k21 (k23) <k <k22. The brightness is converted to be higher in the high brightness portion, and the brightness is converted to be lower in the low brightness portion to clarify the contrast. Either of the slopes k21 and k23 may be larger or the same. Here, the relationship between the luminances L21 and L22 and La and Lb is set to L22 <Lb <La <L21 so as to increase the gradation width of the entire middle luminance range to which the target region belongs.

図28(c)は近景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を高くして強調するもので、輝度がL32以上の部分の傾きをk31、L32以下の部分の傾きをk33とすると、k31<k<k33として、低輝度部分の階調幅を広げるように変換する。ここでは輝度L32とLbとの関係をLb<L32として、対象となる領域の属する低輝度範囲全体の階調幅を広げるように変換することとしている。   FIG. 28C shows the input / output characteristics assigned to the area belonging to the foreground and low luminance group. This enhances the overall luminance, and if the inclination of the portion where the luminance is L32 or higher is k31 and the inclination of the portion of L32 or lower is k33, the gradation width of the low luminance portion as k31 <k <k33. To widen. Here, the relationship between the luminances L32 and Lb is set to Lb <L32, and conversion is performed so as to widen the gradation width of the entire low luminance range to which the target region belongs.

次に遠景のグループに属する領域に対して割り当てられた入出力特性について説明する。遠景に属する領域は、画像中で近景、中景よりも目立たないように補正する。   Next, input / output characteristics assigned to areas belonging to a distant view group will be described. The area belonging to the distant view is corrected so that it is less conspicuous than the foreground and the foreground in the image.

図28(g)は遠景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL71以上の部分の傾きをk71、L71以下の部分の傾きをk73とすると、k71<k<k73として、高輝度部分の階調幅を狭くするように変換してコントラストを低くする。さらに出力輝度値の高輝度部分をカットして全体に暗くする。ここでは輝度L71とLaとの関係をL71<Laとして対象となる領域の属する高輝度範囲全体で階調幅を狭くするように変換している。   FIG. 28G shows input / output characteristics assigned to a region belonging to a distant view and a group with high luminance. In this case, assuming that the slope of the portion where the luminance is L71 or higher is k71 and the slope of the portion of L71 or lower is k73, k71 <k <k73 is converted so that the gradation width of the high luminance portion is narrowed to lower the contrast. . Further, the high luminance portion of the output luminance value is cut and darkened as a whole. Here, the relationship between the luminances L71 and La is converted so that the gradation width is narrowed over the entire high luminance range to which the target region belongs, with L71 <La.

図28(h)は遠景かつ中輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL81以上の部分での傾きをk81、L82以上L81以下の部分での傾きをk82、L82以下の部分での傾きをk83とすると、k82<k<k81(k83)として、輝度の高い部分では輝度を低くし、輝度の低い部分では輝度を高くするように変換し、中輝度部分では階調幅を狭くするように変換して全体的に輝度を平均化しコントラストを低くする。傾きk81とk83はどちらが大きくてもよいし、同じであってもよい。ここでは輝度L81及びL82とLa及びLbとの関係をL82<Lb<La<L81として対象となる領域の属する中輝度範囲全体の階調幅を狭くするように変換することとしている。   FIG. 28H shows input / output characteristics assigned to a region belonging to a group of a distant view and a medium luminance. This is because the luminance at the portion where the luminance is L81 or more is k81, the inclination at the portion from L82 to L81 is k82, the inclination at the portion below L82 is k83, and the luminance is k82 <k <k81 (k83). Conversion is performed such that the luminance is lowered in the high luminance portion, and the luminance is increased in the low luminance portion, and the gradation width is reduced in the middle luminance portion so that the luminance is averaged and the contrast is lowered as a whole. Either of the slopes k81 and k83 may be larger or the same. Here, the relationship between the luminances L81 and L82 and La and Lb is set to L82 <Lb <La <L81 so that the gradation width of the entire middle luminance range to which the target region belongs is reduced.

図28(i)は遠景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、出力輝度値の低輝度部分をカットして(オフセットを設けて)全体に明るくし、輝度がL92以上の部分のグラフの傾きをk91、L91以下の部分の傾きをk93とすると、k93<k<k91として、高輝度部分の階調幅を広くするように変換し、低輝度部分の階調幅を狭くするように変換してコントラストを低くする。ここでは輝度L92とLbとの関係をLb<L92として、対象となる領域の属する低輝度範囲全体の階調幅を広くするように変換しすることとしている。   FIG. 28I shows input / output characteristics assigned to a region belonging to a group of a distant view and a low luminance. This is because if the low luminance portion of the output luminance value is cut (offset) to make it brighter as a whole, the inclination of the graph of the portion where the luminance is L92 or higher is k91, and the inclination of the portion of L91 or lower is k93. As <k <k91, conversion is performed so that the gradation width of the high luminance part is widened, and conversion is performed so that the gradation width of the low luminance part is narrowed, thereby lowering the contrast. Here, the relationship between the luminances L92 and Lb is set to Lb <L92, and conversion is performed so as to widen the gradation width of the entire low luminance range to which the target region belongs.

以上のような階調補正テーブルを用いて距離依存階調補正を行うことにより、近景はコントラストが高く、遠くなるにしたがってコントラストが低くなり、奥行き感のある立体的な画像を得ることができる。尚、本発明の撮像装置において、ぼかし処理と距離依存階調補正の順序は逆であっても構わない。又、本発明の撮像装置はぼかし処理機能又は距離依存階調補正機能の一方だけを有するものであっても構わない。   By performing distance-dependent tone correction using the tone correction table as described above, the near view has a high contrast and the contrast becomes low as the distance increases, and a stereoscopic image with a sense of depth can be obtained. In the image pickup apparatus of the present invention, the order of the blurring process and the distance-dependent gradation correction may be reversed. Further, the image pickup apparatus of the present invention may have only one of the blur processing function and the distance dependent gradation correction function.

(入出力特性の補間1)
しかし、領域間で階調補正に用いる入出力特性が異なると、領域の境界では画像に特性の違いによって境界が現れることとなる。そこで、領域間で境界をぼかして目立たなくするように、入出力特性の異なる隣接する領域を構成する画素の階調補正に用いる入出力特性にグラデーションを与える。この場合も、図14を用いて説明したカットオフ周波数の線形補間と同様の方法を用いることができる。
(Input / output characteristic interpolation 1)
However, if the input / output characteristics used for tone correction differ between areas, the boundary appears in the image due to the difference in the characteristics. Therefore, gradation is given to the input / output characteristics used for the gradation correction of the pixels constituting the adjacent areas having different input / output characteristics so that the boundaries between the areas are blurred and inconspicuous. In this case as well, the same method as the linear interpolation of the cutoff frequency described with reference to FIG. 14 can be used.

図29は異なる入出力特性の間を線形補間によりグラデーションを与えて変化させた入出力特性のグラフである。図29に5本の入出力特性のグラフp1〜p5を示す。p2〜p3は、p1とp5の間を等間隔で線形補間したものである。p1は図14の領域71の入出力特性であり、図28(c)である。p5は領域72の入出力特性であり、図28(f)である。中心71aにはp1、中心72aにはp2が適用される。p2〜p4はそれぞれ、中心71aと中心72aとを結ぶ線上に、中心71aと中心72aを含めて略等間隔に並んだ3個の画素である、画素71c、画素71d、画素72b(中心71a側から順に)について適用される。このようにして入出力特性を補間して画素毎にグラデーションを与えて変化させることにより、距離依存階調補正後の画像は領域間での境界がぼかされ目立たないものとなる。   FIG. 29 is a graph of input / output characteristics that are changed by providing gradation between different input / output characteristics by linear interpolation. FIG. 29 shows five graphs p1 to p5 of input / output characteristics. p2 to p3 are linearly interpolated between p1 and p5 at equal intervals. p1 is the input / output characteristic of the region 71 of FIG. 14, and is FIG. 28 (c). p5 is the input / output characteristic of the region 72 and is shown in FIG. P1 is applied to the center 71a, and p2 is applied to the center 72a. Each of p2 to p4 is a pixel 71c, a pixel 71d, and a pixel 72b (on the side of the center 71a), which are three pixels arranged at substantially equal intervals including the center 71a and the center 72a on a line connecting the center 71a and the center 72a. Applied in order). By interpolating the input / output characteristics in this way and changing the gradation for each pixel, the image after the distance-dependent gradation correction is blurred and the boundary between the areas becomes inconspicuous.

(入出力特性の補間2)
尚、各領域を属する距離範囲によってグループ化せず、各領域の被写体までの距離によって階調補正に適用する入出力特性を変化させてもよい。複数の特定の距離の領域に対して入出力特性を設定し、特定の距離の間の距離の領域については、入出力特性としてその距離に隣接する特定の距離の領域に設定された入出力特性から補間したものを適用する。距離sと距離tは入出力特性が設定されており、距離sについて設定された入出力特性がS、距離tについて設定された入出力特性がTであるとき、距離sと距離tの間の入出力特性が設定されていない距離uについての入出力特性Uは、入出力特性T、Sを距離uに対して線形補間して、
U={S(t−u)+T(u−s)}/(t−s) …(1)
とすることができる。尚、入出力特性が設定された最も短い距離より短い距離については最も短い距離に設定された入出力特性を適用し、入出力特性が設定された最も長い距離より長い距離については最も長い距離に設定された入出力特性を適用する。
(Input / output characteristic interpolation 2)
Note that the input / output characteristics applied to the gradation correction may be changed depending on the distance to the subject in each area without grouping the areas according to the distance range to which each area belongs. Input / output characteristics are set for a plurality of specific distance areas, and for the distance areas between specific distances, the input / output characteristics set in the specific distance area adjacent to that distance as input / output characteristics Apply the one interpolated from. The input / output characteristics are set for the distance s and the distance t. When the input / output characteristics set for the distance s is S and the input / output characteristics set for the distance t is T, the distance between the distance s and the distance t is set. The input / output characteristics U for the distance u for which the input / output characteristics are not set is obtained by linearly interpolating the input / output characteristics T and S with respect to the distance u.
U = {S (tu) + T (us)} / (ts) (1)
It can be. The input / output characteristic set to the shortest distance is applied to the distance shorter than the shortest distance for which the input / output characteristic is set, and the longest distance is applied to the distance longer than the longest distance for which the input / output characteristic is set. Apply the set input / output characteristics.

例として図28の階調補正テーブルの図28(a)〜図28(c)を被写体までの距離が2m、図28(d)〜図28(f)を距離が6m、図28(g)〜図28(i)を距離が10mの領域に適用する入出力特性とする。このとき、被写体までの距離が5mであり、平均輝度が中輝度である領域については、図28(b)と図28(e)を線形補間した入出力特性を適用する。図28(b)の入出力特性をS、図28(e)の入出力特性をTとして上述の数式(1)を適用すると、この領域に適用する入出力特性Uは、s=2、t=6、u=5より、U=(S+3T)/4となる。図30にこのときの入出力特性Uのグラフを示す。図30において、q1は図28(b)、q2は図28(e)、q3は入出力特性Uのグラフである。   As an example, the distance to the subject is 2 m in FIGS. 28A to 28C of the gradation correction table in FIG. 28, the distance is 6 m in FIGS. 28D to 28F, and FIG. 28 (i) are input / output characteristics applied to a region having a distance of 10 m. At this time, an input / output characteristic obtained by linearly interpolating FIGS. 28B and 28E is applied to a region where the distance to the subject is 5 m and the average luminance is medium luminance. When the above equation (1) is applied with the input / output characteristic of FIG. 28B as S and the input / output characteristic of FIG. 28E as T, the input / output characteristic U applied to this region is s = 2, t = 6, u = 5, U = (S + 3T) / 4. FIG. 30 shows a graph of the input / output characteristic U at this time. In FIG. 30, q1 is a graph of FIG. 28B, q2 is a graph of FIG. 28E, and q3 is a graph of the input / output characteristics U.

このようにすることで、各領域を属する距離範囲によってグループ化する必要がなくなる。この場合においても、(入出力特性の補間1)で説明したように、ある点を共有する領域の4個の中心に囲まれた画素について、入出力特性を線形補間しても構わない。   In this way, it is not necessary to group each area according to the distance range to which it belongs. Also in this case, as described in (Input / output characteristic interpolation 1), the input / output characteristics may be linearly interpolated for the pixels surrounded by the four centers of the region sharing a certain point.

尚、階調補正テーブルは3段階の輝度範囲及び3段階の距離範囲に対する9個の入出力特性からなるものに限られず、距離範囲が2段階以上であればよく、更には輝度範囲及び距離範囲の少なくとも一方が2段階以上であってもよい。又、輝度範囲と距離範囲とは同数でなくてもよく、輝度範囲は単数であってもよい。又、入出力特性は図28に示したような直線からなるものではなく、曲線からなるものであってもよい。   The gradation correction table is not limited to the nine input / output characteristics for the three-level luminance range and the three-level distance range, and the distance range may be two or more levels, and further, the luminance range and the distance range. At least one of the above may be two or more stages. Further, the luminance range and the distance range may not be the same number, and the luminance range may be singular. Further, the input / output characteristics are not formed by a straight line as shown in FIG. 28 but may be formed by a curve.

図31に、高輝度と低輝度の2段階の輝度範囲及び近景と遠景の2段階の距離範囲に対する4個の入出力特性からなる階調補正テーブルの例を示す。この場合も、近景に属する領域は画像中で遠景よりも強調するように補正し、遠景に属する領域は画像中で近景よりも目立たないように補正する。   FIG. 31 shows an example of a gradation correction table composed of four input / output characteristics for a two-step luminance range of high luminance and low luminance and a two-step distance range of foreground and distant views. Also in this case, the region belonging to the foreground is corrected so as to be emphasized more than the distant view in the image, and the region belonging to the distant view is corrected so as not to stand out from the near view in the image.

図31(a)は、近景かつ高輝度領域のグループに属する領域に対して割り当てられた入出力特性である。これは、より輝度を高く変換し、輝度の低い部分ではより輝度を低く変換してコントラストをはっきりさせる。図31(a)に示す右上がりの破線で表される入力と出力が等しい直線の傾き(=1)と比較すると、輝度がLa1よりも高い部分とLa2よりも低い部分では曲線の接線の傾きは1よりも小さい。輝度がLa2よりも高くLa1よりも低い部分では曲線の接線の傾きは1よりも大きく、階調幅を広くするように変換する。   FIG. 31A shows input / output characteristics assigned to a region belonging to a group of a near-ground and high-luminance region. This converts the luminance higher and converts the luminance lower in the low luminance part to make the contrast clearer. Compared to the slope (= 1) of the straight line having the same input and output as the dashed line rising to the right shown in FIG. 31 (a), the slope of the tangent line of the curve is higher in the portion where the luminance is higher than La1 and lower than La2. Is less than 1. In a portion where the luminance is higher than La2 and lower than La1, the slope of the tangent of the curve is larger than 1, and conversion is performed so as to widen the gradation width.

図31(b)は近景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を高くするもので、輝度がLb1より高い部分では接線の傾きを1より小さく、Lb1より低い部分では1より大きくして、低輝度部分の階調幅を広くするように変換する。   FIG. 31B shows input / output characteristics assigned to a region belonging to a foreground and low luminance group. This is to increase the overall luminance, and the gradient of the tangent is smaller than 1 in the portion where the luminance is higher than Lb1, and is larger than 1 in the portion lower than Lb1, so that the gradation width of the low luminance portion is widened. To do.

図31(c)は遠景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がLc1より高い部分では接線の傾きを1より小さく、Lc1より低い部分では1より大きくして、高輝度部分の階調幅を狭くするように変換してコントラストを低くする。さらに出力輝度値の高輝度部分をカットして全体に暗くする。   FIG. 31C shows input / output characteristics assigned to a region belonging to a group of a distant view and a high luminance. This converts the slope of the tangent line to be smaller than 1 in the portion where the luminance is higher than Lc1, and is larger than 1 in the portion lower than Lc1, thereby reducing the contrast by reducing the gradation width of the high luminance portion. Further, the high luminance portion of the output luminance value is cut and darkened as a whole.

図31(d)は遠景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、出力輝度値の低輝度部分をカットして(オフセットを設けて)全体に明るくし、接線の傾きを全体に1より小さいものとして、コントラストを低くするように変換する。   FIG. 31D shows input / output characteristics assigned to a region belonging to a group of a distant view and a low luminance. In this case, the low luminance portion of the output luminance value is cut (provided with an offset) to brighten the entire image, and the tangent slope is set to be smaller than 1 as a whole so as to reduce the contrast.

このような階調補正テーブルを用いることにより、近景は明るく鮮鋭感を持つように、遠景ではコントラストの低い眠たいものとなるように変換することによって、奥行き感のある画像に変換することができる。   By using such a gradation correction table, an image having a sense of depth can be obtained by converting the near view to be bright and sharp and converting the distant view to be sleepy with low contrast.

又、図31の階調補正テーブルにおいて、遠景かつ高輝度のグループに属する領域に対しては図28(c)に代えて図32に示す入出力特性を、遠景かつ低輝度のグループに属する領域に対しては図28(d)に代えて図33に示す入出力特性を適用してもよい。   In addition, in the gradation correction table of FIG. 31, the input / output characteristics shown in FIG. 32 instead of FIG. 28C are applied to the area belonging to the distant view and high brightness group, and the area belonging to the distant view and low brightness group. However, the input / output characteristics shown in FIG. 33 may be applied instead of FIG.

図32は、S字状のカーブの膨らみを図31(a)よりも小さくしてコントラストの強調を抑えたものである。図33は、輝度がLd1以下の部分を真っ黒なものとし、カーブの膨らみを図31(b)よりも小さくして全体の輝度の高め方を抑えたものである。このような階調補正テーブルを用いることにより、コントラストの強調を近景では強め、遠景では弱めることによって、自然に近景の被写体を強調した画像に変換することができる。   In FIG. 32, the swell of the S-shaped curve is made smaller than that in FIG. In FIG. 33, the portion where the luminance is equal to or less than Ld1 is black, and the curve bulge is made smaller than that in FIG. 31B to suppress the method of increasing the overall luminance. By using such a gradation correction table, it is possible to naturally convert an image of an object in the foreground to an image in which the object in the foreground is emphasized by enhancing contrast enhancement in the foreground and weakening in the background.

〈変形例2〉
(撮影後に画像処理を行う場合)
尚、上述の説明において、図1に示すような構成の撮像装置を例に挙げて、本発明における画像処理方法について説明したが、撮像装置に限らず、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置においても、本発明における画像処理方法を利用可能である。図34に、本発明における画像処理方法(ぼかし処理及び距離依存階調補正)を行う画像処理装置(「画像処理部」に相当)を備えた表示装置を示す。
<Modification 2>
(When image processing is performed after shooting)
In the above description, the image processing method of the present invention has been described by taking the image pickup apparatus having the configuration shown in FIG. 1 as an example. However, the image processing method is not limited to the image pickup apparatus, and digital images such as liquid crystal displays and plasma televisions are used. The image processing method according to the present invention can also be used in a display device that performs processing. FIG. 34 shows a display device including an image processing apparatus (corresponding to an “image processing unit”) that performs an image processing method (blurring process and distance-dependent gradation correction) according to the present invention.

図34に示す表示装置は、図1に示す撮像装置と同様、ドライバ部8、伸長処理部9、ディスプレイ部12、音声出力回路部13、スピーカ部15、TG16、CPU17、メモリ18、操作部19、バス回線20,21及び外部メモリ22を備える。そして、図1と異なり、画像処理部5に代えて伸長処理部9で取得した画像信号を処理する画像処理装置5aを備える。画像処理装置5aは、図26に示すぼかし処理部30を有する。外部メモリ22では、本実施形態の撮像装置において撮影時に画像補正を行っていない画像信号に領域毎の距離情報及び平均輝度情報を有するヘッダを有する画像ファイルを保持している。   The display device shown in FIG. 34 is the same as the imaging device shown in FIG. 1, the driver unit 8, the expansion processing unit 9, the display unit 12, the audio output circuit unit 13, the speaker unit 15, the TG 16, the CPU 17, the memory 18, and the operation unit 19. Bus lines 20 and 21 and an external memory 22. Unlike FIG. 1, the image processing device 5 includes an image processing device 5 a that processes the image signal acquired by the decompression processing unit 9 instead of the image processing unit 5. The image processing device 5a has a blur processing unit 30 shown in FIG. The external memory 22 holds an image file having a header having distance information and average luminance information for each region in an image signal that has not been subjected to image correction at the time of shooting in the imaging apparatus of the present embodiment.

図35は、本実施形態の表示装置においてぼかし処理及び距離依存階調補正の画像処理を行う場合のフローチャートである。ユーザが表示装置を画像処理モードにし(STEP3501)、ディスプレイ部12に表示する画像を選択する(STEP3502)と、選択した画像の信号が外部メモリ22からドライバ部8を経て、伸長処理部9で伸長され、画像処理装置5aでディスプレイ部12に表示可能な信号に変換して、ディスプレイ部12に選択した画像を表示する。次にユーザがぼかし処理の実行を選択するかどうかを検出する(STEP3503)。ぼかし処理の実行を選択すると、ヘッダに書き込まれた画像の各領域の合焦距離情報がローパスフィルタ部34に読み込まれ、各領域を属する合焦距離範囲毎にグループ化する(STEP3504)。ヘッダに各領域の属する距離範囲のグループ情報が記憶されている場合はそれを読み込んでもよい。合焦距離情報や属する距離範囲のグループ情報は、外部メモリ22から直接読み込んでもよいし、圧縮符号として記憶されている場合は伸張処理部8で伸張してから与えられるものとしてもよい。これは、後述の平均輝度情報についても同様である。続いて、ローパスフィルタ部34で合焦距離情報から画像の各領域のぼかし度合いを設定し、(STEP3505)。設定したぼかし度合いでぼかし処理を施した画像の信号を保持する(STEP3506)。   FIG. 35 is a flowchart in the case of performing blur processing and distance-dependent gradation correction image processing in the display device of this embodiment. When the user sets the display device to the image processing mode (STEP 3501) and selects an image to be displayed on the display unit 12 (STEP 3502), the signal of the selected image is decompressed by the decompression processing unit 9 from the external memory 22 via the driver unit 8. Then, the signal is converted into a signal that can be displayed on the display unit 12 by the image processing device 5a, and the selected image is displayed on the display unit 12. Next, it is detected whether or not the user selects execution of the blurring process (STEP 3503). When execution of the blurring process is selected, the focus distance information of each area of the image written in the header is read into the low-pass filter unit 34, and each area is grouped by the focus distance range to which it belongs (STEP 3504). When the group information of the distance range to which each area belongs is stored in the header, it may be read. The focus distance information and the group information of the distance range to which it belongs may be read directly from the external memory 22, or may be given after being decompressed by the decompression processing unit 8 when stored as a compressed code. The same applies to the average luminance information described later. Subsequently, the low-pass filter unit 34 sets the blurring degree of each area of the image from the focus distance information (STEP 3505). An image signal subjected to blurring processing with the set blurring degree is held (STEP 3506).

次にぼかし処理のの強度を変更する補正強度値の入力待ち状態となる。ユーザが補正強度値を入力し、その値が画像処理部5aに読み込まれる(STEP3507)。図36に補正強度値を入力する表示の例を示す。表示装置のパネル上にディスプレイ部12と、上下左右及び中央の5個のボタンからなる操作部19の入力ボタン19aとが設けられており、左右の入力ボタン19aを押下することでディスプレイ部12に表示された選択した画像上のスライドバーによる補正強度値の表示を目安として補正強度値の強弱を変更することができる。   Next, the process waits for input of a correction intensity value for changing the intensity of the blurring process. The user inputs a correction intensity value, and the value is read into the image processing unit 5a (STEP 3507). FIG. 36 shows an example of display for inputting the correction intensity value. A display unit 12 and an input button 19a of an operation unit 19 including five buttons, top, bottom, left, right, and center, are provided on the panel of the display device, and the display unit 12 is pressed by pressing the left and right input buttons 19a. The intensity of the correction intensity value can be changed with reference to the display of the correction intensity value by the slide bar on the displayed selected image.

補正強度値が入力されると、ローパスフィルタ部34において、保持された通常のぼかし処理が施された画像の信号と、ぼかし処理が施されていない画像の信号とを入力された補正強度値で荷重加算し、その荷重加算された画像をディスプレイ部12に表示する。(STEP3508)。   When the correction intensity value is input, the low-pass filter unit 34 receives the stored image signal that has been subjected to the normal blurring process and the image signal that has not been subjected to the blurring process as the input correction intensity value. The load is added, and the added image is displayed on the display unit 12. (STEP 3508).

ここで、画像を構成する各画素における荷重加算について説明する。荷重加算後の画素の輝度をY、ぼかし処理が施されていない画素の輝度をYin、通常のぼかし処理が施された画素の輝度をYconv、荷重加算係数をKとする。このとき、Yは
Y=(1−K)Yin+K・Yconv
と表すことができる。荷重加算係数と補正強度値とは図37に示すように線形の関係を有し、最も強い補正強度に対応する加重加算係数K_maxは1以下の正の数であればよい。
Here, load addition at each pixel constituting the image will be described. It is assumed that the luminance of the pixel after the load addition is Y, the luminance of the pixel not subjected to the blurring process is Yin, the luminance of the pixel subjected to the normal blurring process is Yconv, and the load addition coefficient is K. At this time, Y is Y = (1−K) Yin + K · Yconv
It can be expressed as. The load addition coefficient and the correction intensity value have a linear relationship as shown in FIG. 37, and the weighted addition coefficient K_max corresponding to the strongest correction intensity may be a positive number of 1 or less.

その後ユーザがぼかし処理の終了を指示せず(STEP3509でNo)、左右の入力ボタン15aを押下して補正強度値を変更する(STEP3507)とその補正強度値に基づいて強度を変更したぼかし処理を施し、補正した画像をディスプレイ部12に表示する。つまり、ディスプレイ部12でぼかし処理の度合いを確認しながらぼかし処理の強度を変更することができる。そして、ぼかし処理の終了を指示する(STEP3509でYes)と距離依存階調補正の選択の検出に移行する(STEP3510)。   After that, when the user does not instruct the end of the blurring process (No in STEP 3509), the correction intensity value is changed by pressing the left and right input buttons 15a (STEP3507), and the blurring process in which the intensity is changed based on the correction intensity value is performed. The corrected image is displayed on the display unit 12. That is, it is possible to change the intensity of the blurring process while confirming the degree of the blurring process on the display unit 12. When the end of the blurring process is instructed (YES in STEP 3509), the process proceeds to detection of selection of distance dependent gradation correction (STEP 3510).

次にユーザが距離依存階調補正の実行を選択する(STEP3510でYes)と、ヘッダに書き込まれた画像の各領域の合焦距離情報が階調補正部43に読み込まれ、各領域を属する合焦距離範囲毎にグループ化する(STEP3511)。ヘッダに各領域の属する距離範囲のグループ情報が記憶されている場合はそれを読み込んでもよい。合焦距離情報や属する距離範囲のグループ情報は、外部メモリ22から直接読み込んでもよいし、圧縮符号として記憶されている場合は伸張処理部8で伸張してから与えられるものとしてもよい。これは、後述の平均輝度情報についても同様である。   Next, when the user selects execution of distance-dependent gradation correction (YES in STEP 3510), the focus distance information of each area of the image written in the header is read into the gradation correction unit 43, and the registration of each area. The focal distance ranges are grouped (STEP 3511). When the group information of the distance range to which each area belongs is stored in the header, it may be read. The focus distance information and the group information of the distance range to which it belongs may be read directly from the external memory 22, or may be given after being decompressed by the decompression processing unit 8 when stored as a compressed code. The same applies to the average luminance information described later.

続いて、輝度情報算出部41で画像情報から画像の各領域の平均輝度を算出し、輝度情報記憶部42でそれを記憶し、階調補正部43で輝度情報記憶部42に記憶された各領域の平均輝度情報を読み取る(STEP3512)。ヘッダに各領域の平均輝度情報が書き込まれている場合は、階調補正部43で直接それを読み込んでもよい。   Subsequently, the luminance information calculation unit 41 calculates the average luminance of each area of the image from the image information, stores it in the luminance information storage unit 42, and stores each of the information stored in the luminance information storage unit 42 in the gradation correction unit 43. The average luminance information of the area is read (STEP 3512). If the average luminance information of each area is written in the header, it may be read directly by the gradation correction unit 43.

階調補正部43では、輝度情報記憶部42又は外部メモリ22から直接読み込んだ各領域の平均輝度に基づいて、各領域を例えば高輝度、中輝度、低輝度にグループ化する。次に、メモリ18に記憶された合焦距離のグループ及び平均輝度のグループ毎に設定された階調補正テーブルを読み込み、各領域の属する合焦距離のグループ及び平均輝度のグループに基づいて階調補正の入出力特性を割り当て(STEP3513)、各領域に割り当てられた入出力特性によって階調補正部43で階調を補正した画像の信号を保持する(STEP3514)。   The gradation correction unit 43 groups each region into, for example, high luminance, medium luminance, and low luminance based on the average luminance of each region directly read from the luminance information storage unit 42 or the external memory 22. Next, the gradation correction table set for each group of in-focus distance and average brightness stored in the memory 18 is read, and the gradation is determined based on the in-focus distance group and average brightness group to which each area belongs. An input / output characteristic for correction is assigned (STEP 3513), and an image signal whose gradation is corrected by the gradation correcting unit 43 according to the input / output characteristic assigned to each area is held (STEP 3514).

次に階調補正の入出力特性の強度を変更する補正強度値の入力待ち状態となる。ユーザが補正強度値を入力ボタン19aで入力し、その値が画像処理部5aに読み込まれる(STEP3515)。   Next, the input wait state for the correction intensity value for changing the intensity of the tone correction input / output characteristic is entered. The user inputs the correction intensity value with the input button 19a, and the value is read into the image processing unit 5a (STEP 3515).

補正強度値が入力されると、階調補正部43において、保持された通常の階調補正が施された画像の信号と、階調補正が施されていない画像の信号とを入力された補正強度値で、上述したように荷重加算し、その荷重加算された画像をディスプレイ部12に表示する。(STEP3516)。   When the correction intensity value is input, the gradation correction unit 43 receives the input image signal that has been subjected to the normal gradation correction and the image signal that has not been subjected to the gradation correction. With the intensity value, the load is added as described above, and the image with the load added is displayed on the display unit 12. (STEP 3516).

その後ユーザが階調補正の終了を指示せず(STEP3516でNo)、左右の入力ボタン15aを押下して補正強度値を変更する(STEP3515)とその補正強度値に基づいて強度を変更した入出力特性によって階調補正をし、補正した画像をディスプレイ部12に表示する。つまり、ディスプレイ部12で階調補正の度合いを確認しながら階調補正の強度を変更することができる。そして、階調補正の終了を指示し(STEP3517でYes)、ぼかし処理又は階調補正が施された画像を圧縮し、外部メモリに記録する(STEP3518)と終了する(STEP3519)。ぼかし処理又は階調補正が施された画像を記録するかどうかは選択できるようにしても構わない。   After that, when the user does not give an instruction to end the gradation correction (No in STEP 3516) and the left and right input buttons 15a are pressed to change the correction intensity value (STEP 3515), the input / output changes the intensity based on the correction intensity value. The gradation is corrected according to the characteristics, and the corrected image is displayed on the display unit 12. That is, the intensity of gradation correction can be changed while confirming the degree of gradation correction on the display unit 12. Then, the end of gradation correction is instructed (YES in STEP 3517), and the image subjected to the blurring process or gradation correction is compressed and recorded in the external memory (STEP 3518), and the process ends (STEP 3519). It may be possible to select whether or not to record an image that has been subjected to blurring processing or gradation correction.

尚、本発明の表示装置において、ぼかし処理と距離依存階調補正の順序は逆であっても構わない。又、本発明の表示装置はぼかし処理機能又は距離依存階調補正機能の一方だけを有するものであっても構わない。又、撮像装置が本発明の表示装置として動作するものであっても構わない。   In the display device of the present invention, the order of the blurring process and the distance dependent gradation correction may be reversed. The display device of the present invention may have only one of the blurring processing function and the distance dependent gradation correction function. Further, the imaging device may operate as the display device of the present invention.

本発明は、オートフォーカス機能及びぼかし機能を有する撮像装置に適用することができる。   The present invention can be applied to an imaging apparatus having an autofocus function and a blur function.

は、第1の実施形態に係る撮像装置の内部構成を示すブロック図である。These are block diagrams which show the internal structure of the imaging device which concerns on 1st Embodiment. は、第1の実施形態に係る撮像装置の基本動作及びぼかし処理モードの動作を説明するためのフローチャートである。These are the flowcharts for demonstrating the basic operation | movement of the imaging device which concerns on 1st Embodiment, and the operation | movement of the blurring process mode. は、撮影画像エリアを複数の領域に分割し、AF評価エリアを設定した例である。Is an example in which the captured image area is divided into a plurality of areas and an AF evaluation area is set. は、撮影画像エリアのAF評価エリア及び個々の領域の高周波成分の強度と合焦距離との関係を示すグラフである。These are graphs showing the relationship between the focus evaluation distance and the intensity of the high-frequency component in the AF evaluation area of each captured image area and each area. は、第1の実施形態に係るぼかし処理部の構成を示すブロック図である。These are block diagrams which show the structure of the blurring process part which concerns on 1st Embodiment. は、距離情報検出部の構成を示すブロック図である。These are block diagrams which show the structure of a distance information detection part. は、距離情報を検出する動作を説明するためのフローチャートである。These are the flowcharts for demonstrating the operation | movement which detects distance information. は、距離検出用画像及び記録用画像の一例である。Is an example of a distance detection image and a recording image. は、図8の画像を9個の領域に区分した例である。Is an example in which the image of FIG. 8 is divided into nine regions. は、図9の各領域の高周波成分の強度と合焦距離との関係を示すグラフである。FIG. 10 is a graph showing the relationship between the intensity of the high frequency component and the focusing distance in each region of FIG. は、撮像装置からの距離の異なる複数の被写体が存在している領域における高周波成分の強度と合焦距離との関係を示すグラフである。These are graphs showing the relationship between the intensity of the high-frequency component and the in-focus distance in an area where there are a plurality of subjects having different distances from the imaging device. は、第1の実施形態に係る被写体までの距離とカットオフ周波数との関係を示すグラフである。These are graphs showing the relationship between the distance to the subject and the cutoff frequency according to the first embodiment. は、画像を区分した領域のうち4個の模式図である。These are four schematic diagrams among the area | regions which divided the image. は、カットオフ周波数が設定された2点間においてカットオフ周波数を線形補間したグラフである。These are the graphs which carried out the linear interpolation of the cutoff frequency between the two points where the cutoff frequency was set. は、距離グループを設定した、各領域の高周波成分の強度と合焦距離との関係を示すグラフである。These are the graphs which show the relationship between the intensity | strength of the high frequency component of each area | region and the focusing distance which set the distance group. は、第2の実施形態に係るぼかし処理部の構成を示すブロック図である。These are block diagrams which show the structure of the blurring process part which concerns on 2nd Embodiment. は、ローパスフィルタのカットオフ周波数と出力レベルとの関係を示すグラフである。These are graphs showing the relationship between the cut-off frequency of the low-pass filter and the output level. は、第2の実施形態に係る被写体までの距離と乗算係数との関係を示すグラフである。These are graphs showing the relationship between the distance to the subject and the multiplication coefficient according to the second embodiment. は、第2の実施形態に係るぼかし処理を施した画像の模式図である。These are the schematic diagrams of the image which performed the blurring process which concerns on 2nd Embodiment. は、第3の実施形態に係るぼかし処理部の構成を示すブロック図である。These are block diagrams which show the structure of the blurring process part which concerns on 3rd Embodiment. は、第3の実施形態に係る被写体までの距離と乗算係数との関係を示すグラフである。These are graphs showing the relationship between the distance to the subject and the multiplication coefficient according to the third embodiment. は、顔検出装置の構成を示すブロック図である。These are block diagrams which show the structure of a face detection apparatus. は、縮小画像生成手段によって得られる階層画像の一例である。Is an example of a hierarchical image obtained by the reduced image generating means. は、顔検出処理を説明するための図である。FIG. 10 is a diagram for explaining face detection processing; は、変形例2に係るぼかし処理部の構成を示すブロック図である。These are block diagrams which show the structure of the blurring process part which concerns on the modification 2. FIG. は、階調補正動作を説明するためのフローチャートである。These are flowcharts for explaining the gradation correction operation. は、距離グループ及び平均輝度グループ毎に割り当てられた入出力特性の一例である。Is an example of input / output characteristics assigned to each distance group and average luminance group. は、異なる入出力特性の間を線形補間によりグラデーションを与えて変化させた入出力特性のグラフである。Fig. 4 is a graph of input / output characteristics obtained by changing gradations by linear interpolation between different input / output characteristics. は、2個の所定の距離に設定された入出力特性及びその間の距離に適用される入出力特性のグラフである。These are graphs of the input / output characteristics set to two predetermined distances and the input / output characteristics applied to the distance between them. は、距離グループ及び平均輝度グループ毎に割り当てられた入出力特性の別の例である。Is another example of the input / output characteristics assigned to each distance group and average luminance group. は、遠景かつ高輝度のグループに属する領域に適用する入出力特性の別の例である。These are another example of the input / output characteristics applied to a region belonging to a group of a distant view and a high luminance. は、遠景かつ低輝度のグループに属する領域に適用する入出力特性の別の例である。Is another example of input / output characteristics applied to a region belonging to a group of a distant view and low luminance. は、本発明の表示装置の内部構成を示すブロック図である。These are block diagrams which show the internal structure of the display apparatus of this invention. は、本実施形態の表示装置において画像補正を行う場合のフローチャートである。These are flowcharts in the case of performing image correction in the display device of the present embodiment. は、補正強度値を入力する表示の例である。Is an example of a display for inputting a correction intensity value. は、荷重加算係数と補正強度値の関係を示すグラフである。These are graphs showing the relationship between the load addition coefficient and the correction strength value.

符号の説明Explanation of symbols

1 イメージセンサ
2 レンズ部
3 AFE
4 マイク
5 画像処理部
5a 画像処理装置
6 音声処理部
7 圧縮処理部
8 ドライバ部
9 伸長処理部
10 ビデオ出力回路部
11 ビデオ出力端子
12 ディスプレイ部
13 音声出力回路部
14 音声出力端子
15 スピーカ部
16 TG
17 CPU
17a 距離情報記憶部
18 メモリ
19 操作部
19a 入力ボタン
20 バス回線
21 バス回線
22 外部メモリ
23 距離検出部
23a 高周波成分検出部
23b 高周波成分比較部
30 ぼかし処理部
31 フレームメモリ
32 距離検出部
34 ローパスフィルタ
34a 近景用ローパスフィルタ
34b 中景用ローパスフィルタ
34c 遠景用ローパスフィルタ
35 信号処理部
36 乗算器
37 乗算係数設定部
38 加算器
39 エッジ信号生成部
DESCRIPTION OF SYMBOLS 1 Image sensor 2 Lens part 3 AFE
4 microphone 5 image processing unit 5a image processing device 6 audio processing unit 7 compression processing unit 8 driver unit 9 expansion processing unit 10 video output circuit unit 11 video output terminal 12 display unit 13 audio output circuit unit 14 audio output terminal 15 speaker unit 16 TG
17 CPU
17a Distance information storage unit 18 Memory 19 Operation unit 19a Input button 20 Bus line 21 Bus line 22 External memory 23 Distance detection unit 23a High frequency component detection unit 23b High frequency component comparison unit 30 Blur processing unit 31 Frame memory 32 Distance detection unit 34 Low pass filter 34a Low-pass filter for near view 34b Low-pass filter for middle scene 34c Low-pass filter for far view 35 Signal processing unit 36 Multiplier 37 Multiplication coefficient setting unit 38 Adder 39 Edge signal generation unit

Claims (11)

複数の被写体を含む撮像画像にぼかし処理を施す画像処理装置であって、
前記撮像画像を撮像した撮像装置から前記各被写体までの距離である撮像距離に応じたぼかし度合いによって、前記撮像画像にぼかし処理を施すぼかし処理部を備えることを特徴とする画像処理装置。
An image processing apparatus that performs blurring processing on a captured image including a plurality of subjects,
An image processing apparatus comprising: a blur processing unit that performs blur processing on the captured image according to a blurring degree corresponding to an imaging distance that is a distance from the imaging apparatus that captured the captured image to each subject.
前記撮像距離が長いほど、前記ぼかし度合いが高いことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the blurring degree is higher as the imaging distance is longer. 前記撮像距離が所定の距離より離れるほど、前記ぼかし度合いが高いことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the blurring degree is higher as the imaging distance is longer than a predetermined distance. 前記所定の距離が、特定部分を有する前記被写体までの距離である請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the predetermined distance is a distance to the subject having a specific portion. 複数の被写体が含まれる撮像画像を取得する撮像部と、
前記撮像部から前記各被写体までの距離である撮像距離を検出する撮像距離検出部と、
前記各被写体の撮像距離に応じたぼかし度合いによって、前記撮像画像にぼかし処理を施すぼかし処理部と、
を備えることを特徴とする撮像装置。
An imaging unit for acquiring a captured image including a plurality of subjects;
An imaging distance detection unit that detects an imaging distance that is a distance from the imaging unit to each subject;
A blur processing unit that performs blur processing on the captured image according to a blur level according to the imaging distance of each subject;
An imaging apparatus comprising:
複数の被写体が含まれる撮像画像を取得する撮像部と、
前記撮像画像を複数の分割領域に分割する領域分割部と、
前記撮像部から前記各分割領域に含まれる被写体までの距離である撮像距離を検出する撮像距離検出部と、
前記各撮像距離に応じたぼかし度合いによって、前記分割領域ごとにぼかし処理を施すぼかし処理部と、
を備えることを特徴とする撮像装置。
An imaging unit for acquiring a captured image including a plurality of subjects;
An area dividing unit for dividing the captured image into a plurality of divided areas;
An imaging distance detection unit that detects an imaging distance that is a distance from the imaging unit to a subject included in each of the divided regions;
A blur processing unit that performs a blur process for each of the divided regions according to the blur level corresponding to each imaging distance;
An imaging apparatus comprising:
前記撮像部で取得したままの状態の前記撮像画像の電気信号からなる本体部と、前記撮像距離検出部で検出した前記各分割領域に含まれる被写体までの距離の情報を有するヘッダ部とを備える画像ファイルを記憶する記憶部と、を備え、
前記記憶部に記憶された前記本体部の前記撮像画像の電気信号を前記ヘッダ部に記憶された前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施す請求項6に記載の撮像装置。
A main body unit including an electrical signal of the captured image as acquired by the imaging unit, and a header unit having information on distances to subjects included in the respective divided areas detected by the imaging distance detection unit. A storage unit for storing image files,
The blur process is performed by applying a blurring degree set according to a distance to the subject stored in the header unit to the electrical signal of the captured image of the main body unit stored in the storage unit. Imaging device.
前記撮像距離に基づいて、前記分割領域を複数の距離グループに区分する距離グループ生成部を備え、
前記ぼかし処理部では、前記各距離グループに応じたぼかし度合いによって、前記分割領域に対して、属する前記各距離グループごとにぼかし処理を施すことを特徴とする請求項6又は請求項7に記載の撮像装置。
A distance group generation unit that divides the divided region into a plurality of distance groups based on the imaging distance,
8. The blur processing unit according to claim 6, wherein the blur processing unit performs blur processing for each of the distance groups to which the divided region belongs according to a blur level corresponding to each of the distance groups. Imaging device.
複数の被写体が含まれる撮像画像を取得する撮像部と、
前記撮像部から前記各被写体までの距離である撮像距離を検出する撮像距離検出部と、
前記撮像画像と前記各被写体の撮像距離に関する情報を互いに関連づけて記録する記録部と、
を備えることを特徴とする撮像装置。
An imaging unit for acquiring a captured image including a plurality of subjects;
An imaging distance detection unit that detects an imaging distance that is a distance from the imaging unit to each subject;
A recording unit that records the captured image and information related to the imaging distance of each subject in association with each other;
An imaging apparatus comprising:
複数の被写体が含まれる撮像画像と、
前記撮像画像を撮像した撮像装置から前記各被写体までの距離である撮像距離に関する情報とが、互いに関連づけて構成されることを特徴とする画像ファイル。
A captured image including a plurality of subjects;
An image file comprising information relating to an imaging distance, which is a distance from an imaging device that has captured the captured image to each subject, and is associated with each other.
被写体までの距離である撮像距離を検出する撮像距離検出ステップと、
複数の前記被写体が含まれる撮像画像を取得する撮像ステップと、
前記撮像距離検出ステップで検出した前記各被写体の撮像距離に応じたぼかし度合いによって、前記撮像ステップで取得した前記撮像画像にぼかし処理を施す階調補正ステップと、
を備えることを特徴とする画像処理方法。
An imaging distance detection step for detecting an imaging distance that is a distance to the subject;
An imaging step of acquiring a captured image including a plurality of the subjects;
A gradation correction step of performing a blurring process on the captured image acquired in the imaging step according to a blurring degree according to the imaging distance of each subject detected in the imaging distance detection step;
An image processing method comprising:
JP2007138599A 2007-05-25 2007-05-25 Image processor, imaging apparatus, image file, and image processing method Pending JP2008294785A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007138599A JP2008294785A (en) 2007-05-25 2007-05-25 Image processor, imaging apparatus, image file, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007138599A JP2008294785A (en) 2007-05-25 2007-05-25 Image processor, imaging apparatus, image file, and image processing method

Publications (1)

Publication Number Publication Date
JP2008294785A true JP2008294785A (en) 2008-12-04

Family

ID=40169057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007138599A Pending JP2008294785A (en) 2007-05-25 2007-05-25 Image processor, imaging apparatus, image file, and image processing method

Country Status (1)

Country Link
JP (1) JP2008294785A (en)

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101753844A (en) * 2008-12-18 2010-06-23 三洋电机株式会社 Image display apparatus and image sensing apparatus
JP2010217808A (en) * 2009-03-19 2010-09-30 Nikon Corp Apparatus and method for processing image, electronic camera, and image processing program
KR101015935B1 (en) 2009-10-28 2011-02-23 주식회사 넥슨 Depth of field and motion blur processing computer system and method thereof
JP2011091570A (en) * 2009-10-21 2011-05-06 Olympus Imaging Corp Imaging apparatus
JP2011175529A (en) * 2010-02-25 2011-09-08 Nikon Corp Image processing apparatus, imaging apparatus and program
JP2011239267A (en) * 2010-05-12 2011-11-24 Ricoh Co Ltd Imaging apparatus and image processing apparatus
JP2011249923A (en) * 2010-05-24 2011-12-08 Nikon Corp Imaging apparatus, image processing apparatus, and image processing program
US20120007997A1 (en) * 2009-05-12 2012-01-12 Canon Kabushiki Kaisha Image pickup apparatus
KR20120014366A (en) * 2010-08-09 2012-02-17 엘지전자 주식회사 Mobile terminal and its control method
JP2012060540A (en) * 2010-09-10 2012-03-22 Fujitsu Ltd Image processing apparatus, image processing method, and program for image processing
JP2012109723A (en) * 2010-11-16 2012-06-07 Sharp Corp Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon
JP2012173830A (en) * 2011-02-18 2012-09-10 Sharp Corp Image processing device, image processing method, and program
CN102843510A (en) * 2011-06-14 2012-12-26 宾得理光映像有限公司 Imaging device and distance information detecting method
JP2013005084A (en) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd Image processing apparatus and image processing method
JP2013061743A (en) * 2011-09-12 2013-04-04 Canon Inc Image processing apparatus and image processing method
CN103139472A (en) * 2011-11-28 2013-06-05 三星电子株式会社 Digital photographing apparatus and control method thereof
EP2605101A1 (en) * 2011-12-17 2013-06-19 Valeo Schalter und Sensoren GmbH Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method
US8532432B2 (en) 2010-01-28 2013-09-10 Pantech Co., Ltd. Mobile communication terminal having image conversion function and method
WO2013136403A1 (en) * 2012-03-15 2013-09-19 パナソニック株式会社 Image processing device, integrated circuit, program, imaging device, and display device
JP2013242830A (en) * 2012-05-23 2013-12-05 Ricoh Co Ltd Image processing apparatus, image processing program, and image processing method
CN103493484A (en) * 2011-03-31 2014-01-01 富士胶片株式会社 Image capturing device and image capturing method
JP2014007611A (en) * 2012-06-25 2014-01-16 Canon Inc Image processing apparatus and control method therefor
CN103905725A (en) * 2012-12-27 2014-07-02 佳能株式会社 Image processing apparatus and image processing method
JP2014127963A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing system and image processing method
JP2014131320A (en) * 2014-02-13 2014-07-10 Canon Inc Imaging apparatus
JP2015037215A (en) * 2013-08-12 2015-02-23 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2015040941A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Image-capturing device, control method therefor, and program
JP2015043495A (en) * 2013-08-26 2015-03-05 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
KR101525626B1 (en) * 2009-01-05 2015-06-04 삼성전자주식회사 Out focusing apparatus and method
JP2015109681A (en) * 2015-01-09 2015-06-11 キヤノン株式会社 Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP2015135623A (en) * 2014-01-17 2015-07-27 オリンパス株式会社 Display device, display method and program
US9113075B2 (en) 2009-02-27 2015-08-18 Samsung Electronics Co., Ltd. Image processing method and apparatus and digital photographing apparatus using the same
JP2015159391A (en) * 2014-02-24 2015-09-03 株式会社リコー transmission terminal, transmission system, and program
EP2693755A3 (en) * 2012-07-31 2015-09-09 Sony Mobile Communications AB New gamut control method for improving image performance of parallax barrier S3D display
JP2016146601A (en) * 2015-02-09 2016-08-12 キヤノン株式会社 Image processing apparatus and control method therefor
US9460336B2 (en) 2011-01-13 2016-10-04 Samsung Electronics Co., Ltd. Apparatus and method for extracting feature of depth image
JP2016213574A (en) * 2015-04-30 2016-12-15 キヤノン株式会社 Image processing apparatus and control method of image processing apparatus
JP2017038139A (en) * 2015-08-07 2017-02-16 キヤノン株式会社 Imaging apparatus, imaging apparatus control method, and program
CN106576140A (en) * 2014-10-28 2017-04-19 夏普株式会社 Image processing device and program
WO2019105298A1 (en) * 2017-11-30 2019-06-06 Oppo广东移动通信有限公司 Image blurring processing method, device, mobile device and storage medium
JP2019153950A (en) * 2018-03-05 2019-09-12 株式会社Jvcケンウッド Image pickup apparatus, image pickup method, and program
JP2019153951A (en) * 2018-03-05 2019-09-12 株式会社Jvcケンウッド Image pickup apparatus, image pickup method, and program
US10554890B1 (en) 2019-02-18 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method for generating low-light images with improved bokeh using mobile electronic device
JP2020046475A (en) * 2018-09-14 2020-03-26 キヤノン株式会社 Image processing device and control method therefor
JP2020136928A (en) * 2019-02-20 2020-08-31 キヤノン株式会社 Image processing equipment, image processing methods, and programs
CN111866378A (en) * 2020-06-30 2020-10-30 维沃移动通信有限公司 Image processing method, apparatus, equipment and medium
JP2020536457A (en) * 2017-10-31 2020-12-10 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing methods and devices, electronic devices, and computer-readable storage media
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
CN114549585A (en) * 2022-02-14 2022-05-27 杭州海康威视系统技术有限公司 Video tracking method, apparatus, device, machine-readable storage medium and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366963A (en) * 2001-06-12 2002-12-20 Ricoh Co Ltd Method and device for processing image, imaging device and computer program
JP2005012307A (en) * 2003-06-17 2005-01-13 Minolta Co Ltd Imaging apparatus
JP2006067521A (en) * 2004-08-30 2006-03-09 Kyocera Corp Image processing apparatus and method, and image pickup apparatus and method
JP2006157817A (en) * 2004-12-01 2006-06-15 Nikon Corp Digital camera, image processing system and image processing program
JP2007129310A (en) * 2005-11-01 2007-05-24 Nikon Corp Imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366963A (en) * 2001-06-12 2002-12-20 Ricoh Co Ltd Method and device for processing image, imaging device and computer program
JP2005012307A (en) * 2003-06-17 2005-01-13 Minolta Co Ltd Imaging apparatus
JP2006067521A (en) * 2004-08-30 2006-03-09 Kyocera Corp Image processing apparatus and method, and image pickup apparatus and method
JP2006157817A (en) * 2004-12-01 2006-06-15 Nikon Corp Digital camera, image processing system and image processing program
JP2007129310A (en) * 2005-11-01 2007-05-24 Nikon Corp Imaging apparatus

Cited By (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145693A (en) * 2008-12-18 2010-07-01 Sanyo Electric Co Ltd Image display device and imaging device
CN101753844A (en) * 2008-12-18 2010-06-23 三洋电机株式会社 Image display apparatus and image sensing apparatus
KR101525626B1 (en) * 2009-01-05 2015-06-04 삼성전자주식회사 Out focusing apparatus and method
US9113075B2 (en) 2009-02-27 2015-08-18 Samsung Electronics Co., Ltd. Image processing method and apparatus and digital photographing apparatus using the same
JP2010217808A (en) * 2009-03-19 2010-09-30 Nikon Corp Apparatus and method for processing image, electronic camera, and image processing program
US9201288B2 (en) * 2009-05-12 2015-12-01 Canon Kabushiki Kaisha Image processing apparatus with blur correcting function
US9591246B2 (en) 2009-05-12 2017-03-07 Canon Kabushiki Kaisha Image pickup apparatus with blur correcting function
US20120007997A1 (en) * 2009-05-12 2012-01-12 Canon Kabushiki Kaisha Image pickup apparatus
JP2011091570A (en) * 2009-10-21 2011-05-06 Olympus Imaging Corp Imaging apparatus
KR101015935B1 (en) 2009-10-28 2011-02-23 주식회사 넥슨 Depth of field and motion blur processing computer system and method thereof
US8532432B2 (en) 2010-01-28 2013-09-10 Pantech Co., Ltd. Mobile communication terminal having image conversion function and method
US9197882B2 (en) 2010-01-28 2015-11-24 Pantech Co., Ltd. Mobile communication terminal having image conversion function and method
JP2011175529A (en) * 2010-02-25 2011-09-08 Nikon Corp Image processing apparatus, imaging apparatus and program
JP2011239267A (en) * 2010-05-12 2011-11-24 Ricoh Co Ltd Imaging apparatus and image processing apparatus
JP2011249923A (en) * 2010-05-24 2011-12-08 Nikon Corp Imaging apparatus, image processing apparatus, and image processing program
KR101700195B1 (en) * 2010-08-09 2017-01-26 엘지전자 주식회사 Mobile terminal and method for controlling thereof
KR20120014366A (en) * 2010-08-09 2012-02-17 엘지전자 주식회사 Mobile terminal and its control method
JP2012060540A (en) * 2010-09-10 2012-03-22 Fujitsu Ltd Image processing apparatus, image processing method, and program for image processing
JP2012109723A (en) * 2010-11-16 2012-06-07 Sharp Corp Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon
US9460336B2 (en) 2011-01-13 2016-10-04 Samsung Electronics Co., Ltd. Apparatus and method for extracting feature of depth image
JP2012173830A (en) * 2011-02-18 2012-09-10 Sharp Corp Image processing device, image processing method, and program
CN103493484A (en) * 2011-03-31 2014-01-01 富士胶片株式会社 Image capturing device and image capturing method
JPWO2012132797A1 (en) * 2011-03-31 2014-07-28 富士フイルム株式会社 Imaging apparatus and imaging method
US8885026B2 (en) 2011-03-31 2014-11-11 Fujifilm Corporation Imaging device and imaging method
CN102843510A (en) * 2011-06-14 2012-12-26 宾得理光映像有限公司 Imaging device and distance information detecting method
JP2013005084A (en) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd Image processing apparatus and image processing method
JP2013005091A (en) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd Imaging apparatus and distance information acquisition method
US9412151B2 (en) 2011-09-12 2016-08-09 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2013061743A (en) * 2011-09-12 2013-04-04 Canon Inc Image processing apparatus and image processing method
US9325895B2 (en) 2011-11-28 2016-04-26 Samsung Electronics Co., Ltd. Digital photographing apparatus and control method thereof
EP2597863A3 (en) * 2011-11-28 2015-09-30 Samsung Electronics Co., Ltd. Digital Photographing Apparatus and Control Method Thereof
CN103139472A (en) * 2011-11-28 2013-06-05 三星电子株式会社 Digital photographing apparatus and control method thereof
EP2605101A1 (en) * 2011-12-17 2013-06-19 Valeo Schalter und Sensoren GmbH Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method
WO2013136403A1 (en) * 2012-03-15 2013-09-19 パナソニック株式会社 Image processing device, integrated circuit, program, imaging device, and display device
US9002128B2 (en) 2012-03-15 2015-04-07 Panasonic Intellectual Property Corporation Of America Image processing apparatus, integrated circuit, program, imaging apparatus, and display apparatus
JPWO2013136403A1 (en) * 2012-03-15 2015-07-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing device, integrated circuit, program, imaging device, display device
JP2013242830A (en) * 2012-05-23 2013-12-05 Ricoh Co Ltd Image processing apparatus, image processing program, and image processing method
JP2014007611A (en) * 2012-06-25 2014-01-16 Canon Inc Image processing apparatus and control method therefor
EP2693755A3 (en) * 2012-07-31 2015-09-09 Sony Mobile Communications AB New gamut control method for improving image performance of parallax barrier S3D display
CN103905725B (en) * 2012-12-27 2018-04-03 佳能株式会社 Image processing equipment and image processing method
JP2014127963A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing system and image processing method
JP2014127965A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing apparatus and image processing method
CN103905725A (en) * 2012-12-27 2014-07-02 佳能株式会社 Image processing apparatus and image processing method
JP2015037215A (en) * 2013-08-12 2015-02-23 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2015040941A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Image-capturing device, control method therefor, and program
JP2015043495A (en) * 2013-08-26 2015-03-05 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP2015135623A (en) * 2014-01-17 2015-07-27 オリンパス株式会社 Display device, display method and program
JP2014131320A (en) * 2014-02-13 2014-07-10 Canon Inc Imaging apparatus
JP2015159391A (en) * 2014-02-24 2015-09-03 株式会社リコー transmission terminal, transmission system, and program
CN106576140B (en) * 2014-10-28 2019-10-18 夏普株式会社 Image processing device and camera device
US10147169B2 (en) 2014-10-28 2018-12-04 Sharp Kabushiki Kaisha Image processing device and program
CN106576140A (en) * 2014-10-28 2017-04-19 夏普株式会社 Image processing device and program
JP2015109681A (en) * 2015-01-09 2015-06-11 キヤノン株式会社 Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP2016146601A (en) * 2015-02-09 2016-08-12 キヤノン株式会社 Image processing apparatus and control method therefor
JP2016213574A (en) * 2015-04-30 2016-12-15 キヤノン株式会社 Image processing apparatus and control method of image processing apparatus
JP2017038139A (en) * 2015-08-07 2017-02-16 キヤノン株式会社 Imaging apparatus, imaging apparatus control method, and program
JP7027537B2 (en) 2017-10-31 2022-03-01 オッポ広東移動通信有限公司 Image processing methods and equipment, electronic devices, and computer-readable storage media
JP2020536457A (en) * 2017-10-31 2020-12-10 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing methods and devices, electronic devices, and computer-readable storage media
WO2019105298A1 (en) * 2017-11-30 2019-06-06 Oppo广东移动通信有限公司 Image blurring processing method, device, mobile device and storage medium
JP2019153950A (en) * 2018-03-05 2019-09-12 株式会社Jvcケンウッド Image pickup apparatus, image pickup method, and program
JP2019153951A (en) * 2018-03-05 2019-09-12 株式会社Jvcケンウッド Image pickup apparatus, image pickup method, and program
JP6996347B2 (en) 2018-03-05 2022-01-17 株式会社Jvcケンウッド Imaging device, imaging method, and program
JP7000921B2 (en) 2018-03-05 2022-01-19 株式会社Jvcケンウッド Imaging device, imaging method, and program
JP2020046475A (en) * 2018-09-14 2020-03-26 キヤノン株式会社 Image processing device and control method therefor
JP7204387B2 (en) 2018-09-14 2023-01-16 キヤノン株式会社 Image processing device and its control method
US10554890B1 (en) 2019-02-18 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method for generating low-light images with improved bokeh using mobile electronic device
JP2020136928A (en) * 2019-02-20 2020-08-31 キヤノン株式会社 Image processing equipment, image processing methods, and programs
JP7278096B2 (en) 2019-02-20 2023-05-19 キヤノン株式会社 Image processing device, image processing method, and program
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
WO2022001648A1 (en) * 2020-06-30 2022-01-06 维沃移动通信有限公司 Image processing method and apparatus, and device and medium
CN111866378A (en) * 2020-06-30 2020-10-30 维沃移动通信有限公司 Image processing method, apparatus, equipment and medium
CN114549585A (en) * 2022-02-14 2022-05-27 杭州海康威视系统技术有限公司 Video tracking method, apparatus, device, machine-readable storage medium and system

Similar Documents

Publication Publication Date Title
JP2008294785A (en) Image processor, imaging apparatus, image file, and image processing method
KR101692401B1 (en) Image process method and apparatus
JP4524717B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN101998053B (en) Image processing method, image processing apparatus, and imaging apparatus
JP3530907B2 (en) Digital camera
JP5321163B2 (en) Imaging apparatus and imaging method
KR101643613B1 (en) Digital image process apparatus, method for image processing and storage medium thereof
JP4916378B2 (en) Imaging apparatus, image processing apparatus, image file, and gradation correction method
JP4891647B2 (en) camera
JP2010074813A (en) Imaging apparatus and imaging method
JP2016012811A (en) Imaging apparatus, control method thereof, program and storage medium
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP4606486B2 (en) Image processing apparatus and photographing apparatus
JP4934617B2 (en) Imaging apparatus and imaging method
JP2011066827A (en) Image processing apparatus, image processing method and program
JP2005055746A (en) Imaging apparatus, focusing control method and program
JP7246894B2 (en) Imaging device and its control method
JP2008136113A (en) Image processor, imaging apparatus and image processing method
JP6029464B2 (en) Imaging device, control method thereof, and control program
JP2018142983A (en) Image processing device and method of controlling the same, program, and storage medium
JP2009033289A (en) Imaging apparatus and method
JP2015041865A (en) Image processing apparatus and image processing method
JP2023090492A (en) Image processing device, image processing method, and imaging device
JP2020046475A (en) Image processing device and control method therefor
JP6592293B2 (en) Image processing apparatus, image processing method, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120110