[go: up one dir, main page]

JP2009206585A - Image processing apparatus, image processing program and digital camera - Google Patents

Image processing apparatus, image processing program and digital camera Download PDF

Info

Publication number
JP2009206585A
JP2009206585A JP2008044317A JP2008044317A JP2009206585A JP 2009206585 A JP2009206585 A JP 2009206585A JP 2008044317 A JP2008044317 A JP 2008044317A JP 2008044317 A JP2008044317 A JP 2008044317A JP 2009206585 A JP2009206585 A JP 2009206585A
Authority
JP
Japan
Prior art keywords
image
blur
area
image processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008044317A
Other languages
Japanese (ja)
Inventor
Ikuya Saito
郁哉 斎藤
Hiroki Kusayanagi
弘樹 草柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008044317A priority Critical patent/JP2009206585A/en
Publication of JP2009206585A publication Critical patent/JP2009206585A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of optimally acquiring an image having blurrs to a photographic scene in any photographing scene, and to provide an image processing program and a digital camera. <P>SOLUTION: This image processing apparatus is provided with: a separating means (20) for separating a subject region (A region) and a region of parts other than the subject (B region), from a captured image; and a blurring means (20) for applying blur processing on at least the B region as a target of the A region and the B region, separated by the separating means. In the apparatus, the blurring means changes the blurring processing, in response to information regarding the brightness of a photographing scene acquired in photographing the photographed image, or about the kind of photographic mode. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カメラにより撮影された撮影画像の画像処理を行う画像処理装置、画像処理プログラムおよびそれらを備えたデジタルカメラに関する。   The present invention relates to an image processing apparatus that performs image processing of a captured image captured by a camera, an image processing program, and a digital camera including them.

人物撮影や接写撮影などのように主要な被写体が存在するシーンを撮影する場合には、主要な被写体をできるだけ際立たせた絵作りの撮影画像が取得できることが望ましい。   When shooting a scene in which a main subject is present, such as portrait shooting or close-up shooting, it is desirable to be able to acquire a photographed image that makes the main subject stand out as much as possible.

撮影画像の主要な被写体を際立たせる従来技術の一例として、例えば特許文献1には、主要な被写体を際立たせるために撮影画像の背景にボカシをかける技術が開示されている。
特開2000−307935号公報
As an example of a conventional technique that makes a main subject of a captured image stand out, for example, Patent Document 1 discloses a technique that blurs the background of a captured image in order to make the main subject stand out.
JP 2000-307935 A

しかしながら、従来技術では、撮影シーンによっては、撮影画像に対して最適にボカシをかけることができなかった。その結果、主要な被写体が際立った、見た目に映える絵作りの撮影画像を取得することができなかった。   However, in the prior art, depending on the shooting scene, it has not been possible to optimally blur the shot image. As a result, it was not possible to acquire a photographed image that made the main subject stand out and reflected in the appearance.

本発明は、上記従来技術の課題を解決するためのものである。本発明は、いかなる撮影シーンにおいても、撮影シーンに最適なボカシがかかった画像を取得することができる、画像処理装置、画像処理プログラムおよびデジタルカメラを提供することを目的とする。   The present invention is to solve the above-mentioned problems of the prior art. It is an object of the present invention to provide an image processing apparatus, an image processing program, and a digital camera that can acquire an image that is optimally blurred for any shooting scene.

第1の発明の画像処理装置は、撮影画像から被写体の領域(A領域)と被写体以外の領域(B領域)とを分離する分離手段と、分離手段が分離したA領域とB領域のうち、少なくともB領域を対象にしてボカシ処理を施すボカシ手段とを備える画像処理装置であって、ボカシ手段が、撮影画像の撮影時に取得した撮影シーンの明るさ又は撮影モードの種類の情報に応じてボカシ処理を変更する。   An image processing apparatus according to a first aspect of the present invention includes a separating unit that separates a subject area (A region) and a region other than the subject (B region) from a captured image, and among the A region and the B region separated by the separating unit, An image processing apparatus including a blurring unit that performs blurring processing on at least the B region, and the blurring unit performs blurring according to information on the brightness of the shooting scene or the type of shooting mode acquired when shooting the shot image. Change processing.

第2の発明は、第1の発明において、ボカシ手段は、前記情報を基に撮影画像のシーンが明るいか又は暗いかを判別して、ボカシ処理を、明るい場合と暗い場合とでそれぞれ専用のボカシ処理に変更する。   According to a second aspect, in the first aspect, the blur means determines whether the scene of the captured image is bright or dark based on the information, and performs blur processing for each of the bright and dark cases. Change to blur processing.

第3の発明は、第2の発明において、明るいシーン用のボカシ処理は、ボカシ処理対象領域中の輝点領域に対しては、輝点領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を狭く、かつ等輝度領域の周辺部分の領域の輝度変化を緩やかとするようにボカシを行う。   In a third aspect based on the second aspect, the bright scene blur processing is an area in which the brightness of the bright spot area in the blur processing target area is substantially equal to the brightness of the center position of the bright spot area. The blur is performed so that the (equal luminance region) is narrow and the luminance change in the peripheral portion of the equal luminance region is moderate.

第4の発明は、第2または第3の発明において、暗いシーン用のボカシ処理は、ボカシ処理対象領域中の輝点領域に対しては、輝点領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を広く、かつ等輝度領域の周辺部分の領域の輝度変化を急峻とするようにボカシを行う。   According to a fourth aspect of the present invention, in the second or third aspect, the blur processing for a dark scene is substantially equal to the luminance at the center position of the bright spot region with respect to the bright spot region in the blur processing target region. The blur is performed so that the region (equal luminance region) becomes wide and the luminance change in the peripheral portion of the equal luminance region is steep.

第5の発明は、第1〜第4の発明の何れか一の発明において、ボカシ手段は、ガンマ補正後の撮影画像におけるボカシ処理が施されたボカシ処理対象領域の輝度成分を、その輝度成分のレベルがボカシ処理の実施の前と後とで略同等になる増幅率で増幅する。   According to a fifth invention, in any one of the first to fourth inventions, the blur means includes the luminance component of the blur processing target area on which the blur processing has been performed on the captured image after the gamma correction. Is amplified at an amplification factor that is substantially the same before and after the blur processing.

第6の発明は、第1〜第5の発明の何れか一の発明において、ボカシ手段は、ボカシ処理が施されたボカシ処理対象領域中の飽和した輝点領域の画像信号を、予め定められた増幅率で増幅する。   According to a sixth invention, in any one of the first to fifth inventions, the blur means determines in advance an image signal of a saturated bright spot region in the blur processing target region that has been subjected to the blur processing. Amplify with the amplification factor.

第7の発明は、第1〜第6の発明の何れか一の発明において、ボカシ手段は、ボカシ処理が施されたボカシ処理対象領域中の飽和した輝点領域の画像信号を、飽和した輝点領域の面積の大きさに応じた増幅率で増幅する。   According to a seventh invention, in any one of the first to sixth inventions, the blur means includes a saturated luminescent spot region image signal in a blur processing target region subjected to the blur processing. Amplification is performed at an amplification factor according to the size of the area of the point region.

第8の発明は、第1〜第7の発明の何れか一の発明において、ボカシ手段は、ボカシ処理が施されたボカシ処理対象領域に対してコントラスト強調処理を施す。   In an eighth aspect based on any one of the first to seventh aspects, the blur means performs a contrast enhancement process on the blur processing target area that has been subjected to the blur process.

第9の発明のデジタルカメラは、被写界を撮影することにより撮影画像を取得する撮影手段と、第1〜第8の発明の何れか一の発明の画像処理装置とを備える。   A digital camera according to a ninth aspect includes a photographing unit that obtains a photographed image by photographing a scene and the image processing device according to any one of the first to eighth aspects.

第10の発明の画像処理プログラムは、撮影画像から被写体の領域(A領域)と被写体以外の領域(B領域)とを分離する分離手順と、分離されたA領域とB領域のうち、少なくともB領域を対象にしてボカシ処理を施すボカシ手順とをコンピュータに実行させる画像処理プログラムであって、ボカシ手順では、撮影画像の撮影時に取得した撮影シーンの明るさ又は撮影モードの種類の情報に応じてボカシ処理を変更する。   An image processing program according to a tenth aspect of the invention is a separation procedure for separating a subject area (A area) and a non-subject area (B area) from a captured image, and at least B of the separated A area and B area. An image processing program for causing a computer to execute a blur procedure for performing blur processing on an area, and in accordance with information on the brightness of a shooting scene or the type of shooting mode acquired at the time of shooting a shot image Change the blur processing.

第11の発明は、第10の発明において、ボカシ手順では、前記情報を基に撮影画像のシーンが明るいか又は暗いかを判別して、ボカシ処理を、明るい場合と暗い場合とでそれぞれ専用のボカシ処理に変更する。   In an eleventh aspect based on the tenth aspect, in the blurring procedure, it is determined whether the scene of the captured image is bright or dark based on the information, and the blurring process is performed for each of the bright and dark cases. Change to blur processing.

第12の発明は、第11の発明において、明るいシーン用のボカシ処理は、ボカシ処理対象領域中の輝点領域に対しては、輝点領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を狭く、かつ等輝度領域の周辺部分の領域の輝度変化を緩やかとするようにボカシを行う。   In a twelfth aspect based on the eleventh aspect, the blur processing for a bright scene is an area having a luminance substantially equal to the luminance at the center position of the bright spot area with respect to the bright spot area in the blur processing target area. The blur is performed so that the (equal luminance region) is narrow and the luminance change in the peripheral portion of the equal luminance region is moderate.

第13の発明は、第11または第12の発明において、暗いシーン用のボカシ処理は、ボカシ処理対象領域中の輝点領域に対しては、輝点領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を広く、かつ等輝度領域の周辺部分の領域の輝度変化を急峻とするようにボカシを行う。   In a thirteenth aspect based on the eleventh or twelfth aspect, the blur processing for a dark scene is substantially the same as the luminance at the center position of the bright spot area for the bright spot area in the blur target area. The blur is performed so that the region (equal luminance region) becomes wide and the luminance change in the peripheral portion of the equal luminance region is steep.

第14の発明は、第10〜第13の発明の何れか一の発明において、ボカシ手順では、ガンマ補正後の撮影画像におけるボカシ処理が施されたボカシ処理対象領域の輝度成分を、その輝度成分のレベルがボカシ処理の実施の前と後とで略同等になる増幅率で増幅する。   In a fourteenth aspect based on any one of the tenth to the thirteenth aspects, in the blur step, the luminance component of the blur processing target area that has been subjected to the blur processing in the captured image after the gamma correction Is amplified at an amplification factor that is substantially the same before and after the blur processing.

第15の発明は、第10〜第14の発明の何れか一の発明において、ボカシ手順では、ボカシ処理が施されたボカシ処理対象領域中の飽和した輝点領域の画像信号を、予め定められた増幅率で増幅する。   According to a fifteenth aspect, in any one of the tenth to fourteenth aspects, in the blurring procedure, an image signal of a saturated bright spot region in the blur processing target region subjected to the blurring process is determined in advance. Amplify with the amplification factor.

第16の発明は、第10〜第15の発明の何れか一の発明において、ボカシ手順では、ボカシ処理が施されたボカシ処理対象領域中の飽和した輝点領域の画像信号を、飽和した輝点領域の面積の大きさに応じた増幅率で増幅する。   In a sixteenth aspect based on any one of the tenth to fifteenth aspects, in the blurring procedure, an image signal of a saturated bright spot region in the blur processing target region that has been subjected to the blurring process is converted into a saturated bright spot. Amplification is performed at an amplification factor according to the size of the area of the point region.

第17の発明は、第10〜第16の発明の何れか一の発明において、ボカシ手順では、ボカシ処理が施されたボカシ処理対象領域に対してコントラスト強調処理を施す。   In a seventeenth aspect based on any one of the tenth to sixteenth aspects, in the blurring procedure, a contrast enhancement process is performed on the blurring processing target area subjected to the blurring process.

本発明では、撮影画像の撮影時に取得した撮影シーンの明るさ又は撮影モードの種類の情報に応じてボカシ処理が変更されるので、本発明を利用すれば、撮影画像に対して撮影シーンに最適なボカシ処理が施される。従って、いかなる撮影シーンにおいても、撮影シーンに最適なボカシがかかった画像を取得することが可能になる。   In the present invention, the blurring process is changed according to the brightness of the shooting scene acquired at the time of shooting the shot image or the information on the type of shooting mode. Slow processing is applied. Therefore, in any shooting scene, it is possible to acquire an image that is optimally blurred for the shooting scene.

(第1実施形態)
以下、本発明の第1実施形態を説明する。本実施形態は、デジタルカメラの実施形態である。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described. The present embodiment is an embodiment of a digital camera.

図1は、本発明のデジタルカメラのブロック図である。   FIG. 1 is a block diagram of a digital camera of the present invention.

デジタルカメラは、撮像レンズ11およびレンズ駆動部12と、絞り13と、撮像素子14と、アナログ信号処理部15と、タイミングジェネレータ(TG)16と、バッファメモリ17と、画像処理部18と、圧縮/復号部19と、制御部20と、測光部21と、モニタ22と、記録媒体23と、発光部24と、操作部25と、バス26とを有している。ここで、バッファメモリ17、画像処理部18、圧縮/復号部19、制御部20、測光部21、モニタ22、記録媒体23は、バス26を介して接続されている。また、レンズ駆動部12、絞り13、アナログ信号処理部15、TG16、発光部24、操作部25は、それぞれ制御部20に接続されている。   The digital camera includes an imaging lens 11 and a lens driving unit 12, an aperture 13, an imaging device 14, an analog signal processing unit 15, a timing generator (TG) 16, a buffer memory 17, an image processing unit 18, and a compression. / Decoding unit 19, control unit 20, photometry unit 21, monitor 22, recording medium 23, light emitting unit 24, operation unit 25, and bus 26. Here, the buffer memory 17, the image processing unit 18, the compression / decoding unit 19, the control unit 20, the photometry unit 21, the monitor 22, and the recording medium 23 are connected via a bus 26. Further, the lens driving unit 12, the diaphragm 13, the analog signal processing unit 15, the TG 16, the light emitting unit 24, and the operation unit 25 are each connected to the control unit 20.

撮像レンズ11は、フォーカスレンズやズームレンズを含む複数のレンズ群で構成されている。なお、簡単のため、図1では撮像レンズ11を1枚のレンズとして図示している。   The imaging lens 11 includes a plurality of lens groups including a focus lens and a zoom lens. For simplicity, the imaging lens 11 is illustrated as a single lens in FIG.

レンズ駆動部12は、制御部20の指示に応じてレンズ駆動信号を発生し、撮像レンズ11を光軸方向に移動させてフォーカス調整やズーム調整を行うと共に、撮像レンズ11を通過した光束による被写体像を撮像素子14の受光面に形成する。   The lens driving unit 12 generates a lens driving signal in accordance with an instruction from the control unit 20, performs focus adjustment and zoom adjustment by moving the imaging lens 11 in the optical axis direction, and subjects the light flux that has passed through the imaging lens 11 to the subject. An image is formed on the light receiving surface of the image sensor 14.

絞り13は、制御部20の指示に応じてその開口量を調整することで、撮像素子14の受光面に到達する光束の光量を調整する。   The diaphragm 13 adjusts the amount of the light beam reaching the light receiving surface of the image sensor 14 by adjusting the opening amount in accordance with an instruction from the control unit 20.

撮像素子14は、CCD型やCMOS型のエリアイメージセンサであり、撮像レンズ11の像空間側に配置されている。撮像素子14は、受光面に形成された被写体像を光電変換してアナログ画像信号を生成する。この撮像素子14の出力はアナログ信号処理部15に接続されている。   The imaging element 14 is a CCD type or CMOS type area image sensor, and is arranged on the image space side of the imaging lens 11. The image sensor 14 photoelectrically converts a subject image formed on the light receiving surface to generate an analog image signal. The output of the image sensor 14 is connected to an analog signal processing unit 15.

アナログ信号処理部15は、制御部20の指示に応じて、撮像素子14から出力されたアナログ画像信号に対し、CDS(相関二重サンプリング)、ゲイン調整、A/D変換などのアナログ信号処理を施すと共に、処理後の画像信号を出力する。また、アナログ信号処理部15は、制御部20の指示に基づいてゲイン調整の調整量を設定し、それによってISO感度に相当する撮影感度の調整を行う。なお、アナログ信号処理部15の出力はバッファメモリ17に接続されている。   The analog signal processing unit 15 performs analog signal processing such as CDS (correlated double sampling), gain adjustment, and A / D conversion on the analog image signal output from the image sensor 14 in accordance with an instruction from the control unit 20. And the processed image signal is output. Further, the analog signal processing unit 15 sets an adjustment amount for gain adjustment based on an instruction from the control unit 20, and thereby adjusts photographing sensitivity corresponding to ISO sensitivity. The output of the analog signal processing unit 15 is connected to the buffer memory 17.

TG16は、制御部20の指示に基づき撮像素子14およびアナログ信号処理部15に対してタイミングパルスを供給する。撮像素子14およびアナログ信号処理部15の駆動タイミングはそのタイミングパルスによって制御される。   The TG 16 supplies timing pulses to the image sensor 14 and the analog signal processing unit 15 based on instructions from the control unit 20. The drive timing of the image sensor 14 and the analog signal processing unit 15 is controlled by the timing pulse.

バッファメモリ17は、アナログ信号処理部15から出力される画像信号を画像データとして一時的に記憶する。また、バッファメモリ17は、制御部20による処理の過程で作成された画像データを一時的に記憶する。   The buffer memory 17 temporarily stores the image signal output from the analog signal processing unit 15 as image data. The buffer memory 17 temporarily stores image data created in the course of processing by the control unit 20.

画像処理部18は、制御部20の指示に応じて、バッファメモリ17の画像データに対し、ホワイトバランス調整、色分離(補間)、ガンマ補正などの画像処理を施す。なお、画像処理部18は、ASICなどとして構成される。   The image processing unit 18 performs image processing such as white balance adjustment, color separation (interpolation), and gamma correction on the image data in the buffer memory 17 in accordance with an instruction from the control unit 20. Note that the image processing unit 18 is configured as an ASIC or the like.

圧縮/復号部19は、制御部20の指示に応じて、画像データに圧縮処理を施す。なお、圧縮処理は、JPEG(Joint Photographic Experts Group)形式などによって行われる。   The compression / decoding unit 19 performs a compression process on the image data in accordance with an instruction from the control unit 20. The compression process is performed in JPEG (Joint Photographic Experts Group) format or the like.

測光部21は、制御部20の指示に応じて、バッファメモリ17に記録された画像データに基づき、多分割測光(マルチパターン測光)、中央部重点測光、スポット測光などの公知の測光方式により被写体や撮影シーン全体の明るさや撮影シーンの明るさ分布を示す評価値を算出する。   In accordance with an instruction from the control unit 20, the photometry unit 21 uses a known photometry method such as multi-division photometry (multi-pattern photometry), center-weighted photometry, or spot photometry based on the image data recorded in the buffer memory 17. And an evaluation value indicating the brightness of the entire shooting scene and the brightness distribution of the shooting scene.

モニタ22は、デジタルカメラ筐体の背面などに設けられたLCDモニタや、接眼部を備えた電子ファインダなどであり、制御部20の指示に応じて、撮影画像などの各種の画像やデジタルカメラが必要とする情報をユーザーに入力させるためのGUI画面等を表示する。   The monitor 22 is an LCD monitor provided on the back surface of the digital camera housing or the like, an electronic viewfinder having an eyepiece, and the like, and various images such as photographed images and digital cameras according to instructions from the control unit 20. A GUI screen or the like for allowing the user to input information required by the user is displayed.

記録媒体23には、制御部20によって、撮影画像の画像データ等が記録される。なお、記録媒体23は、半導体メモリを内蔵したメモリカードや、小型のハードディスクなどである。   Image data or the like of the captured image is recorded on the recording medium 23 by the control unit 20. The recording medium 23 is a memory card incorporating a semiconductor memory, a small hard disk, or the like.

発光部24は、制御部20の指示に基づき、デジタルカメラ筐体に設けられたエレクトロニックフラッシュ等を駆動して、被写体を照明するためのストロボ光を被写界に向けて発光する。   The light emitting unit 24 drives an electronic flash or the like provided in the digital camera housing based on an instruction from the control unit 20 to emit strobe light for illuminating the subject toward the object scene.

操作部25は、各種のモード設定釦、レリーズ釦などの操作部材を含み、ユーザーによる部材操作の内容に応じた操作信号を制御部20に送る。   The operation unit 25 includes operation members such as various mode setting buttons and release buttons, and sends operation signals to the control unit 20 according to the contents of member operations by the user.

制御部20は、操作部25から送られた操作信号に応じてデジタルカメラの各部を統括制御する。例えば、デジタルカメラが撮影モードに設定されると、制御部20は、レンズ駆動部12、絞り13、アナログ信号処理部15およびTG16を駆動してスルー画像の撮影を開始する。このとき、撮像素子14はドラフトモードで駆動され、スルー画像の画像データがアナログ信号処理部15を介してバッファメモリ17へ順次記録される。制御部20は、そのスルー画像の画像データを基に、レンズ駆動部12と協働して撮像レンズ11の焦点調節制御(AF)を行う。また制御部20は、測光部21を駆動して、バッファメモリ17のスルー画像の画像データを基に撮影シーンの評価値を算出させると、その評価値に基づきアナログ信号処理部15などの設定内容を調節する。   The control unit 20 comprehensively controls each unit of the digital camera according to the operation signal sent from the operation unit 25. For example, when the digital camera is set to the shooting mode, the control unit 20 drives the lens driving unit 12, the diaphragm 13, the analog signal processing unit 15, and the TG 16 to start shooting a through image. At this time, the image sensor 14 is driven in the draft mode, and the image data of the through image is sequentially recorded in the buffer memory 17 via the analog signal processing unit 15. The control unit 20 performs focus adjustment control (AF) of the imaging lens 11 in cooperation with the lens driving unit 12 based on the image data of the through image. Further, when the control unit 20 drives the photometry unit 21 to calculate the evaluation value of the shooting scene based on the image data of the through image in the buffer memory 17, the setting contents of the analog signal processing unit 15 and the like are set based on the evaluation value. Adjust.

撮影時、制御部20は、測光部21が算出した評価値に基づき撮影条件(ストロボ発光の有無、絞り値、シャッター速度など)を決定すると共に、その決定した撮影条件の下でレンズ駆動部12、絞り13、アナログ信号処理部15およびTG16(撮影条件によっては更に発光部24も)を駆動して撮影を行う。このとき、撮像素子14はフレームモードで駆動され、撮影された撮影画像の画像データがアナログ信号処理部15を介してバッファメモリ17へ記録される。この記録の後、制御部20は、画像処理部18および圧縮/復号部19を駆動して、バッファメモリ17に記録された撮影画像の画像データに対し画像処理および圧縮処理を施すと共に、それら処理後の画像データを記録媒体23へ記録する。   At the time of shooting, the control unit 20 determines shooting conditions (whether flash emission, aperture value, shutter speed, etc.) based on the evaluation value calculated by the photometry unit 21, and the lens driving unit 12 under the determined shooting conditions. The diaphragm 13, the analog signal processing unit 15, and the TG 16 (and the light emitting unit 24 depending on the shooting conditions) are driven to perform shooting. At this time, the image sensor 14 is driven in the frame mode, and the image data of the captured image is recorded in the buffer memory 17 via the analog signal processing unit 15. After this recording, the control unit 20 drives the image processing unit 18 and the compression / decoding unit 19 to perform image processing and compression processing on the image data of the photographed image recorded in the buffer memory 17 and perform these processing. The subsequent image data is recorded on the recording medium 23.

また、デジタルカメラが画像再生モードに設定されると、制御部20は、モニタ22を駆動して、記録媒体23に記録された撮影画像等の内容をLCDモニタなどに表示させる。   When the digital camera is set to the image playback mode, the control unit 20 drives the monitor 22 to display the content of the captured image recorded on the recording medium 23 on the LCD monitor or the like.

以下、本実施形態のデジタルカメラのボカシ処理の動作を、図2の流れ図を参照して説明する。図2のフローチャートは、例えば、ユーザーがデジタルカメラのモードを「背景ボカシ処理モード」に設定して撮影を行った場合に実行される。   Hereinafter, the blur processing operation of the digital camera of this embodiment will be described with reference to the flowchart of FIG. The flowchart in FIG. 2 is executed, for example, when the user performs shooting with the digital camera mode set to the “background blur processing mode”.

ステップ101:制御部20は、測光部21が算出した評価値に基づき撮影条件(ストロボ発光の有無、絞り値、シャッター速度など)を決定する。   Step 101: The control unit 20 determines photographing conditions (whether or not strobe light is emitted, aperture value, shutter speed, etc.) based on the evaluation value calculated by the photometry unit 21.

ステップ102:制御部20は、決定した撮影条件の下で撮影を実施する。この撮影により取得された撮影画像の画像データはバッファメモリ17に記録される。   Step 102: The control unit 20 performs shooting under the determined shooting conditions. The image data of the captured image acquired by this shooting is recorded in the buffer memory 17.

ステップ103:制御部20は、バッファメモリ17の撮影画像から被写体の領域(被写体領域)と被写体以外の領域とを分離する。ここで、被写体以外の領域は、例えば背景の領域(背景領域)であるものとする。また、被写体領域と背景領域の分離には、例えば「特願2007−096724」などの従来の被写体抽出技術を利用することができる。なお、この被写体抽出技術を利用してそれらの領域の分離を行う場合には、上記ステップ102で撮影画像を撮影するときに、もう一枚別の画像(予備画像)を撮影しておく。但し、撮影時の撮影シーンが、例えば、明るく且つ順光撮影である場合、その予備画像の撮影は、撮影画像と同じ撮影条件で、かつストロボ光を強制的に発光させて実施する。そして、本ステップ103で、それら撮影画像と予備画像との輝度比較(輝度差または輝度比の比較)を行い、その結果に基づいて撮影画像から被写体領域と背景領域とを分離すればよい。   Step 103: The control unit 20 separates a subject region (subject region) and a region other than the subject from the captured image in the buffer memory 17. Here, it is assumed that the area other than the subject is, for example, a background area (background area). For the separation of the subject area and the background area, a conventional subject extraction technique such as “Japanese Patent Application No. 2007-096724” can be used. In the case where these areas are separated using this subject extraction technique, another image (preliminary image) is captured when the captured image is captured in step 102. However, when the shooting scene at the time of shooting is, for example, bright and continuous light shooting, the preliminary image is shot under the same shooting conditions as the shot image and forcibly emitting strobe light. Then, in this step 103, luminance comparison (luminance difference or luminance ratio comparison) between the captured image and the preliminary image is performed, and the subject area and the background area may be separated from the captured image based on the result.

ステップ104:制御部20は、上記ステップ101で決定した撮影条件のストロボ発光の有無の情報を撮影シーンの明るさの情報とし、その情報に基づき撮影シーンの明るさ、即ち撮影シーンが「明るい」か又は「暗い」かを判定する。具体的には、ストロボ発光の有無の情報が「ストロボ発光無し」の場合、制御部20は撮影シーンが「明るい」と判定(Yes側)してステップ105へ移行する。一方、ストロボ発光の有無の情報が「ストロボ発光有り」の場合には、制御部20は撮影シーンが「暗い」と判定(No側)してステップ106へ移行する。   Step 104: The control unit 20 uses the information on the presence or absence of strobe light emission of the shooting condition determined in the above step 101 as the brightness information of the shooting scene, and based on this information, the brightness of the shooting scene, that is, the shooting scene is “bright”. Or “dark”. Specifically, if the information on the presence or absence of strobe emission is “no strobe emission”, the control unit 20 determines that the shooting scene is “bright” (Yes side), and proceeds to step 105. On the other hand, when the information on the presence or absence of strobe light is “strobe light is present”, the control unit 20 determines that the shooting scene is “dark” (No side), and proceeds to step 106.

ステップ105:制御部20は、分離した背景領域に対して明るいシーン用のボカシ処理を施す。そして、そのボカシ処理が終わると、制御部20はステップ107へ移行する。   Step 105: The control unit 20 performs blur processing for a bright scene on the separated background area. When the blur processing ends, the control unit 20 proceeds to step 107.

ステップ106:制御部20は、分離した背景領域に対して暗いシーン用のボカシ処理を施す。   Step 106: The control unit 20 performs blur processing for a dark scene on the separated background area.

ここで、明るいシーン用のボカシ処理と暗いシーン用のボカシ処理について説明する。   Here, the blur process for a bright scene and the blur process for a dark scene will be described.

画像(本実施形態では撮影画像の背景領域)にボカシ処理を施す場合、画像中の輝点のボカシ方が重要となる。なぜならば、その輝点のボカシ具合が画像全体の印象を左右することが多いからである。また、好適なボカシ具合の画像を得るためには、撮影シーンが明るい場合(例えば、晴れた日の昼間の屋外で撮影する場合など)と暗い場合(例えば、夜景を撮影する場合など)とで輝点のボカシ方(ボカシ度合い)を変更する必要がある。   When blur processing is performed on an image (in this embodiment, a background area of a captured image), how to blur bright spots in the image is important. This is because the brightness of the bright spot often affects the overall image impression. Also, in order to obtain a suitable blurred image, the shooting scene is bright (for example, shooting outdoors on a sunny day) or dark (for example, shooting a night view). It is necessary to change the blurring method (blurring degree) of the bright spot.

例えば、図3(a)に示すような、晴れた日の昼間に人物を撮影した画像では、背景中の白い花畑(2a)の部分が輝点となるが、このような撮影シーンが明るい場合の画像では、輝点(白い花畑)の部分の輪郭が不明瞭となるようにボカシが行われることが好まれる。そのようにしないと、輝点が浮き出したようになり、違和感を覚えるからである。   For example, in an image obtained by photographing a person on a sunny day as shown in FIG. 3A, a white flower field (2a) in the background is a bright spot, but such a scene is bright. In the above image, it is preferred that blurring is performed so that the outline of the bright spot (white flower field) is unclear. If you do not do so, the bright spots will appear and you will feel uncomfortable.

一方、図3(b)に示すような、人物を夜景ポートレート撮影した画像では、背景中の街灯(2b)の部分が輝点となるが、このような撮影シーンが暗い場合の画像では、輝点の部分が円状に広がるように、即ち輝点(街灯)の部分の輪郭が明瞭となるようにボカシが行われることが好まれる。そのようにしないと、輝点がぼやけてしまい、違和感を覚えるからである。   On the other hand, in an image obtained by taking a portrait of a person as shown in FIG. 3 (b), the street lamp (2b) in the background is a bright spot, but in an image in which such a shooting scene is dark, It is preferable that blurring is performed so that the bright spot portion extends in a circular shape, that is, the outline of the bright spot (streetlight) portion becomes clear. If this is not done, the bright spot will be blurred and the user will feel uncomfortable.

このため、ボカシ具合に違和感の無い画像を得るために、撮影シーンが明るい場合に行うボカシ処理(明るいシーン用のボカシ処理)では、図4(a)に示すように、画像中の輝点(輝点1)の領域に対しては、その輝点(輝点1)の領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を狭く、かつ等輝度領域の周辺部分の領域の輝度変化を緩やかとするようにボカシを行う(輝点2)。   For this reason, in the blurring process performed when the shooting scene is bright (bokeh processing for a bright scene) in order to obtain an image that does not feel uncomfortable, as shown in FIG. 4A, a bright spot ( For the area of bright spot 1), an area (equal brightness area) having a brightness substantially equal to the brightness of the center position of the bright spot (bright spot 1) area is narrow, and a peripheral portion of the equal brightness area is Defocusing is performed so that the luminance change in the region is gradual (bright spot 2).

また、撮影シーンが暗い場合に行うボカシ処理(暗いシーン用のボカシ処理)では、図4(b)に示すように、画像中の輝点(輝点1)の領域に対しては、その輝点(輝点1)の領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を広く、かつ等輝度領域の周辺部分の領域の輝度変化を急峻とするようにボカシを行う(輝点3)。   Further, in the blurring process (dark scene blurring process) performed when the shooting scene is dark, as shown in FIG. 4B, the bright spot (bright spot 1) in the image has its bright spot. Bokeh is performed so that a region (equal luminance region) having a luminance substantially equal to the luminance of the center position of the region of the point (bright point 1) is wide and the luminance change in the peripheral portion of the equal luminance region is steep. (Bright spot 3).

このように、撮影シーンが明るい場合と暗い場合とでそれぞれボカシ方(ボカシ度合い)が異なる専用のボカシ処理を画像(本実施形態では撮影画像の背景領域)に施すことで、如何なる撮影シーンにおいても、違和感の無い、撮影シーンに好適なボカシ具合の画像が得られるようになる。   As described above, by applying special blur processing to the image (in this embodiment, the background area of the captured image) with different blurring methods (degrees of blur) depending on whether the shooting scene is bright or dark, in any shooting scene This makes it possible to obtain a blurry image suitable for a shooting scene without any sense of incongruity.

なお、ボカシ処理は、例えば、画像に対して点広がり関数を用いた畳み込み演算を施すことにより実行される。   Note that the blur processing is executed by, for example, performing a convolution operation using a point spread function on an image.

また、上述の明るいシーン用のボカシ処理、暗いシーン用のボカシ処理といったようなボカシ方の変更は、異なる点広がり関数を用いることによって実行される。   Further, the change of the blur method such as the above-described bright scene blur process and dark scene blur process is executed by using different point spread functions.

また、点広がり関数の代わりに、ローパスフィルタ等の種々のデジタルフィルタを用いても、同様のボカシ処理を施すことができる。   Similar blur processing can be performed by using various digital filters such as a low-pass filter instead of the point spread function.

ステップ107:制御部20は、モニタ22を駆動して、背景部分にボカシがかかった撮影画像をLCDモニタ等に表示させる。これにより、ユーザーは、その撮影画像の出来映えを確認することができる。   Step 107: The control unit 20 drives the monitor 22 to display a photographed image with a blurred background portion on an LCD monitor or the like. Thereby, the user can confirm the performance of the captured image.

ステップ108:制御部20は、圧縮/復号部19を駆動して、背景部分にボカシがかかった撮影画像に対して圧縮処理を施させると共に、圧縮された画像を記録媒体23へ記録する。   Step 108: The control unit 20 drives the compression / decoding unit 19 to perform a compression process on the photographed image in which the background portion is blurred, and records the compressed image on the recording medium 23.

なお、より見た目が良好なボカシ具合の画像を得るためには、画像(本実施形態では撮影画像の背景領域)に対してボカシ処理を施す際に、以下の(1)〜(4)の何れかの処理を適用することが好ましい。
(1)ガンマ補正により生じるボカシの違和感を軽減する処理
一般的に、モニタやプリンタ等の出力装置は非線形のγ特性を有しているので、デジタルカメラ内では、人間の目に好適な階調特性の画像を得るために、出力装置との総合的なγ特性を線形(γ=1)とするように画像に対してガンマ補正を施している。このため、ガンマ補正後の画像は、出力装置とは逆のγ特性を有することとなる(図5参照)。
In addition, in order to obtain an image with a better looking appearance, any of the following (1) to (4) is performed when performing the blurring process on the image (the background area of the captured image in the present embodiment). It is preferable to apply such a process.
(1) Processing to reduce blurring feeling caused by gamma correction Generally, an output device such as a monitor or a printer has a non-linear γ characteristic. In order to obtain a characteristic image, the image is subjected to gamma correction so that the total γ characteristic with the output device is linear (γ = 1). For this reason, the image after gamma correction has a γ characteristic opposite to that of the output device (see FIG. 5).

このように、デジタルカメラにより撮影される画像は非線形のγ特性を有するので、撮影された画像に対して点広がり関数を用いた畳み込み演算処理、即ちボカシ処理を施すと、ボカシ処理の前後で画像の輝度情報が維持されないという問題が生じる。そのため、結果として、一眼レフカメラで撮影された画像に見られるようなレンズ効果によるボカシのかかった画像に比べて、輝点の明るさに違和感のある画像が作成されてしまう。なお、レンズ効果によるボカシとは、カメラの絞りの開度やレンズの焦点距離を調整して被写界深度を浅くすることにより、撮影される画像の背景などに光学的にボカシを行うことを指す。   As described above, since an image photographed by a digital camera has a non-linear γ characteristic, if a convolution calculation process using a point spread function, that is, a blur process, is performed on the photographed image, the image is captured before and after the blur process. This causes a problem that the luminance information is not maintained. Therefore, as a result, an image with a sense of incongruity in brightness of the bright spot is created as compared with an image blurred by the lens effect as seen in an image taken with a single-lens reflex camera. Note that the blur due to the lens effect means that the background of an image to be captured is optically blurred by adjusting the aperture of the camera and the focal length of the lens to reduce the depth of field. Point to.

そこで、ボカシ処理の際には、デジタルカメラ内で非線形にガンマ補正された画像の輝度成分を、その色成分とは異なる増幅率で増幅することが望ましい。   Therefore, in blurring processing, it is desirable to amplify the luminance component of the image that has been nonlinearly gamma corrected in the digital camera at an amplification factor different from that of the color component.

例えば、上述のとおり非線形にガンマ補正された画像に対してボカシ処理を施した後で、そのボカシ処理後の画像の色空間をRGB色空間からYCbCr色空間へ変換すると共に、変換後の画像の画像信号を輝度成分(Y信号)と色差成分(Cb信号およびCr信号)とに分離する。そして、Y信号,Cb信号,Cr信号の各々についてボカシ処理を施した後でY信号のみを増幅する。このとき、Y信号の増幅は、ボカシ処理の前後で画像の輝度成分のレベルが略同等になる増幅率で行うようにする。このように、ボカシ処理の前後で輝度成分のレベルが維持されるような増幅率でY信号を増幅することによって、ボカシ処理後の画像中の輝点の明るさをレンズ効果によるボカシのかかった画像中のそれと略同等のレベルにすることができるので、ガンマ補正により生じるボカシの違和感を軽減することができる。なお、この方法によれば、画像信号を輝度成分の信号(Y信号)と色差成分の信号(Cb信号,Cr信号)とに分離し、そのうちの1つの信号(Y信号)のみを増幅して画像の輝度成分を好ましいレベルに補正するので、3つの信号(R信号,G信号,B信号)を用いて輝度成分を補正する場合と比べると、処理負荷を低減させることができる。   For example, after performing blur processing on an image that has been nonlinearly gamma corrected as described above, the color space of the image after the blur processing is converted from the RGB color space to the YCbCr color space, and the converted image The image signal is separated into a luminance component (Y signal) and a color difference component (Cb signal and Cr signal). Then, after performing blur processing on each of the Y signal, Cb signal, and Cr signal, only the Y signal is amplified. At this time, the amplification of the Y signal is performed at an amplification factor at which the level of the luminance component of the image is substantially the same before and after the blurring process. In this way, by amplifying the Y signal at an amplification factor that maintains the level of the luminance component before and after blur processing, the brightness of the bright spot in the image after blur processing is blurred due to the lens effect. Since the level can be substantially the same as that in the image, the uncomfortable feeling of blur caused by gamma correction can be reduced. According to this method, the image signal is separated into a luminance component signal (Y signal) and a color difference component signal (Cb signal, Cr signal), and only one signal (Y signal) is amplified. Since the luminance component of the image is corrected to a preferred level, the processing load can be reduced as compared with the case where the luminance component is corrected using three signals (R signal, G signal, and B signal).

なお、上記では、画像にボカシ処理を施した後にその画像の輝度成分を増幅する例を説明したが、これに限定されず、画像の輝度成分を増幅した後にその画像にボカシ処理を施すようにしてもよい。
(2)ホワイトクリップにより生じるボカシの違和感を軽減する処理1
図6は、ホワイトクリップされた輝点を含む画像に対してボカシ処理を施す場合の画像の輝度分布の変化を説明する図である。なお、ホワイトクリップとは、デジタルカメラの撮影画像において、撮像素子のダイナミックレンジを超える輝度部分をクリップする機能のことを指す。
In the above description, the example in which the luminance component of the image is amplified after the blur processing is performed on the image has been described. However, the present invention is not limited to this, and the image is subjected to the blur processing after the luminance component of the image is amplified. May be.
(2) Processing 1 for reducing the uncomfortable feeling of blur caused by white clips
FIG. 6 is a diagram for explaining a change in the luminance distribution of an image when blur processing is performed on an image including a bright clipped white point. Note that white clipping refers to a function of clipping a luminance portion exceeding the dynamic range of the image sensor in a captured image of a digital camera.

図6(a)は、ボカシ処理を施す前の画像の輝度分布を示している。図6(a)では、簡単のため、画像には、ホワイトクリップレベル以上の信号レベルを有する輝点A1とホワイトクリップレベル未満の信号レベルを有する輝点B1とが含まれ、画像の輝点A1と輝点B1以外の部分は、信号レベルが極めて低いものと仮定する。なお、信号レベルとは、輝点の明るさ(輝度)を表すものであり、信号レベルが高いと輝点は明るくなり、信号レベルが低いと輝点は暗くなる。また、このような画像は、例えば、明るさの異なる2つの輝点を含む夜景のようなシーンを撮影した場合に取得される画像である。   FIG. 6A shows the luminance distribution of the image before the blur processing is performed. In FIG. 6A, for simplicity, the image includes a bright spot A1 having a signal level equal to or higher than the white clip level and a bright spot B1 having a signal level lower than the white clip level. It is assumed that the signal level is very low in portions other than the bright spot B1. The signal level represents the brightness (brightness) of the bright spot. When the signal level is high, the bright spot becomes bright, and when the signal level is low, the bright spot becomes dark. Moreover, such an image is an image acquired when, for example, a scene such as a night view including two bright spots having different brightness is photographed.

デジタルカメラでは、図6(a)の輝点A1のような撮像素子のダイナミックレンジを超える輝度を有する部分は、ホワイトクリップされてしまい、ホワイトクリップレベル以上の輝度情報が失われてしまう。   In the digital camera, a portion having a luminance exceeding the dynamic range of the image sensor such as the bright spot A1 in FIG. 6A is white clipped, and luminance information above the white clip level is lost.

ここで、レンズ効果によってボカシを行う場合について考える。   Here, consider a case where blurring is performed by a lens effect.

図7は、レンズ効果によってボカシを行う場合に撮影される画像の輝度分布の変化を説明する図である。図7(a)は、デジタルカメラのレンズに入射した被写界からの光束の輝度分布を示している。なお、この場合も簡単のため、被写界には2つの輝点(A1’およびB1’)が含まれるものと仮定する。   FIG. 7 is a diagram for explaining a change in the luminance distribution of an image captured when blurring is performed by the lens effect. FIG. 7A shows the luminance distribution of the light beam from the object scene incident on the lens of the digital camera. In this case, for the sake of simplicity, it is assumed that the object scene includes two bright spots (A1 'and B1').

図7(a)に示すように、輝点A1’の光束は撮像素子のダイナミックレンジを超える輝度を有しているが、輝点A1’の光束による被写体像はレンズ効果によってボカシが行われた後に撮像素子の受光面に形成されるので、被写体像の画像を撮影したときにはその信号レベルは図7(b)の輝点A2’のようにホワイトクリップレベル未満となる。このため輝度情報が失われない。   As shown in FIG. 7A, the luminous flux of the bright spot A1 ′ has a luminance exceeding the dynamic range of the image sensor, but the subject image by the luminous flux of the bright spot A1 ′ is blurred due to the lens effect. Since it is formed on the light receiving surface of the image pickup device later, when the image of the subject image is taken, the signal level becomes lower than the white clip level as shown by the bright spot A2 ′ in FIG. For this reason, luminance information is not lost.

ところが、画像処理としてボカシを施す場合は、ホワイトクリップにより輝度情報が失われた輝点A1(図6(a))を含む画像に対してボカシ処理を施すことになるため、輝点A1のボカシ処理後の状態を示す輝点A2(図6(b))は、レンズ効果によりボカシを行った場合と比べて、失われた輝度情報の分だけ信号レベルが低下して暗くなってしまう。   However, when blurring is performed as image processing, blurring processing is performed on an image including the bright spot A1 (FIG. 6A) from which luminance information has been lost due to the white clip. Therefore, the blur of the bright spot A1 is performed. The bright point A2 (FIG. 6B) indicating the state after processing becomes darker as the signal level is lowered by the amount of the lost luminance information as compared with the case where blurring is performed due to the lens effect.

そこで、信号レベルが低下した輝点A2の画像信号に対して、図6(c)に示すような増幅処理を行うことが望ましい。そうすることで、輝点A2の信号レベルを図6(c)に示す輝点A3のように高めることができる。なお、輝点A2の画像信号の増幅は、予め定められた増幅率またはユーザーに指定させた増幅率で行うようにする。その結果、ホワイトクリップにより生じるボカシの違和感を軽減することができ、見た目に好ましいボカシがされた画像を作成することができる。   Therefore, it is desirable to perform an amplification process as shown in FIG. 6C on the image signal of the bright spot A2 whose signal level has decreased. By doing so, the signal level of the bright spot A2 can be increased like the bright spot A3 shown in FIG. Note that the amplification of the image signal of the bright spot A2 is performed at a predetermined amplification factor or an amplification factor designated by the user. As a result, it is possible to reduce the uncomfortable feeling of blur caused by the white clip, and it is possible to create an image that is visually blurry.

なお、上記では、ボカシ処理後の画像中の輝点の画像信号に対して増幅処理を行う例を説明したが、これに限定されず、ボカシ処理前の画像中の輝点の画像信号を増幅した後で、画像にボカシ処理を施すようにしてもよい。
(3)ホワイトクリップにより生じるボカシの違和感を軽減する処理2
この(3)の処理は、前述の(2)の処理による効果の度合い、即ちボカシの違和感を軽減する度合いを更に高めるためのものである。
In the above description, an example in which amplification processing is performed on a bright spot image signal in an image after blur processing has been described. However, the present invention is not limited to this, and the bright spot image signal in the image before blur processing is amplified. After that, blur processing may be performed on the image.
(3) Process 2 for reducing the uncomfortable feeling of blur caused by white clips
The process (3) is intended to further increase the degree of the effect of the process (2), that is, the degree to reduce the uncomfortable feeling of blur.

図8は、ホワイトクリップされた輝点を含む画像に対してボカシ処理を施す場合の画像の輝度分布の変化を説明する図である。   FIG. 8 is a diagram for explaining a change in luminance distribution of an image when blurring processing is performed on an image including a bright clipped point.

図8(a)は、ボカシ処理を施す前の画像の輝度分布を示している。図8(a)では、簡単のため、画像には、ホワイトクリップレベル以上の信号レベルを有し、かつ領域の面積が異なる3つの輝点(C1,D1,E1)が含まれるものと仮定する。また、画像中のそれら3つの輝点以外の部分は、信号レベルが極めて低いものと仮定する。   FIG. 8A shows the luminance distribution of the image before the blur processing is performed. In FIG. 8A, for the sake of simplicity, it is assumed that the image includes three bright spots (C1, D1, E1) having a signal level equal to or higher than the white clip level and having different area areas. . Further, it is assumed that the signal level is extremely low in the portions other than the three bright spots in the image.

一般的に、同一の輝度を有する被写体をデジタルカメラで撮影する場合、デジタルカメラと被写体との距離が近くなるほど、撮影された画像においては被写体が占める領域の面積が大きくなり、かつ、その輝度も高くなる。この原理から、図8(a)の3つの輝点は、その領域の面積が大きいほど、ホワイトクリップによって失われた輝度情報の量が大きくなると推測できる。すなわち、図8(a)の3つの輝点は、画像に占める領域の面積が「輝点C1 < 輝点E1 < 輝点D1」の順に大きいため、ホワイトクリップによって失われた輝度情報の量も「輝点C1 < 輝点E1 < 輝点D1」の順に大きくなると推測できる。また、このような推測から、図8(a)の3つの輝点についてレンズ効果によりボカシが行われた場合を考えると、それらを撮影した画像中において各輝点の信号レベルは「輝点C1 < 輝点E1 < 輝点D1」の順に大きくなるものと考えられる。   In general, when shooting a subject having the same brightness with a digital camera, the closer the distance between the digital camera and the subject, the larger the area occupied by the subject in the shot image, and the brightness also Get higher. From this principle, it can be estimated that the amount of luminance information lost by the white clip increases as the area of the three bright spots in FIG. 8A increases. That is, the three bright spots in FIG. 8 (a) have a large area in the image in the order of “bright spot C1 <bright spot E1 <bright spot D1”. It can be estimated that the brightness increases in the order of “bright spot C1 <bright spot E1 <bright spot D1”. Further, based on the above estimation, considering the case where blurring is performed on the three bright spots shown in FIG. 8A due to the lens effect, the signal level of each bright spot in the image obtained by photographing them is “bright spot C1. It is considered that the brightness increases in the order of <bright spot E1 <bright spot D1>.

ところが、それら3つの輝点を含む画像に対してボカシ処理を施す場合は、いずれの輝点もホワイトクリップにより輝度情報が失われているので、輝点C1,D1,E1(図8(a))のボカシ処理後の状態を示す輝点C2,D2,E2(図8(b))は、いずれも、レンズ効果によりボカシを行った場合と比べて、失われた輝度情報の分だけ信号レベルが低下して暗くなってしまう。   However, when blur processing is performed on an image including these three bright spots, the brightness information is lost due to the white clip in any of the bright spots, so that the bright spots C1, D1, and E1 (FIG. 8A). The bright points C2, D2, and E2 (FIG. 8B) indicating the state after the blur processing of () are signal levels corresponding to the lost luminance information as compared with the case where the blur is performed due to the lens effect. Will fall and become darker.

そこで、信号レベルが低下した輝点C2,D2,E2の各領域の画像信号に対して、図8(c)に示すような増幅処理を行うことが望ましい。但し、その増幅処理は、ホワイトクリップされた輝点C1,D1,E1(図8(a))の各領域の面積の大きさに応じて決定した増幅率で行う。例えば、輝点C1,D1,E1の各領域の面積は「輝点C1 < 輝点E1 < 輝点D1」の順に大きいので、ボカシ処理後の輝点C2,D2,E2(図8(b))に対する増幅処理の増幅率を「輝点C2の増幅率=小、輝点E2の増幅率=中、輝点D2の増幅率=大」として決定する。そして、輝点C2,D2,E2の各領域の画像信号に対して、それら決定した増幅率でそれぞれ増幅処理を行う。そうすることで、信号レベルが低下した輝点C2,D2,E2の信号レベルを図8(c)に示す輝点C3,D3,E3のように高めることができ、ホワイトクリップにより生じるボカシの違和感を更に軽減することができる。   Therefore, it is desirable to perform an amplification process as shown in FIG. 8C on the image signals in the respective areas of the bright spots C2, D2 and E2 where the signal level is lowered. However, the amplification process is performed at an amplification factor determined in accordance with the size of each area of the white clipped bright spots C1, D1, E1 (FIG. 8A). For example, since the area of each of the bright spots C1, D1, and E1 is larger in the order of “bright spot C1 <bright spot E1 <bright spot D1”, the bright spots C2, D2, and E2 after blur processing (FIG. 8B). ) Is determined as “amplification factor of bright spot C2 = small, amplification factor of bright spot E2 = medium, amplification factor of bright spot D2 = high”. Then, amplification processing is performed on the image signals in the respective areas of the bright spots C2, D2, and E2 at the determined amplification factors. By doing so, the signal levels of the bright spots C2, D2, and E2 whose signal levels have been lowered can be increased like the bright spots C3, D3, and E3 shown in FIG. Can be further reduced.

このように、ホワイトクリップされた輝点の領域の面積の大きさに応じて増幅率を変更し、その増幅率でボカシ処理後の当該輝点の領域の画像信号に増幅処理を施すことにより、画像処理としてボカシ処理を施す場合においても、レンズ効果によってボカシを行った場合により近い画像を作成することができる。   In this manner, by changing the amplification factor according to the size of the area of the white clipped bright spot region, by performing amplification processing on the image signal of the bright spot region after blur processing at the amplification factor, Even when blur processing is performed as image processing, it is possible to create an image closer to the case where blurring is performed due to the lens effect.

なお、上記では、ボカシ処理後の画像中の輝点領域の画像信号に対して増幅処理を行う例を説明したが、これに限定されず、ボカシ処理前の画像中の輝点領域の画像信号を増幅した後で、画像にボカシ処理を施すようにしてもよい。
(4)ボカシの違和感を更に改善するための処理
ボカシ処理を画像に施すと、画像の信号レベルが平均化される方向にシフトする。つまり、図9(a)に示す輝点F1,G1のような画像中の高輝度信号は、ボカシ処理後には信号レベルが下がり、それぞれ図9(b)に示す輝点F2,G2のような状態となる。また、図9(a)の輝点F1,G1以外の部分が示すような画像中の低輝度信号は、ボカシ処理後には信号レベルが上がり、図9(b)の輝点F2,G2以外の部分が示すような状態となる。このため、ボカシ処理が施された画像はコントラストが低くなり、リアルさの無い、見た目に映えない画像となる。
In the above description, the example in which the amplification process is performed on the image signal of the bright spot area in the image after the blur process has been described. However, the present invention is not limited thereto, and the image signal of the bright spot area in the image before the blur process is described. The image may be subjected to blur processing after amplification.
(4) Processing for further improving the uncomfortable feeling of blur When blur processing is applied to an image, the signal level of the image is shifted in the direction of averaging. That is, the high luminance signals in the images such as the bright spots F1 and G1 shown in FIG. 9A have the signal level lowered after the blur processing, and the bright spots F2 and G2 shown in FIG. 9B, respectively. It becomes a state. Further, the low luminance signal in the image as shown by the portions other than the bright spots F1 and G1 in FIG. 9A has a signal level that increases after the blur processing, and other than the bright spots F2 and G2 in FIG. 9B. The state is as shown by the part. For this reason, the image subjected to the blurring process has a low contrast, and is an image that is not realistic and does not appear to the eye.

そこで、ボカシ処理後の画像に対して、図9(c)に示すようなコントラスト強調処理を施すことが望ましい。但し、コントラスト強調処理では、例えば図10に示すようなトーンカーブによる階調処理を施す。つまり、ボカシ処理による信号レベルの変化と反対になるように、ボカシ処理後の画像に含まれる輝点F2,G2(図9(b))のような高輝度信号(信号レベルの高い信号)に対しては、図9(c)に示す輝点F3,G3のような状態となるようにそれぞれゲイン増幅して信号レベルを上げるための階調処理を施す。また、ボカシ処理後の画像に含まれる図9(b)の輝点F2,G2以外の部分が示すような低輝度信号(信号レベルの低い信号)に対しては、図9(c)の輝点F3,G3以外の部分が示すような状態となるようにゲイン抑制して信号レベルを下げるための階調処理を施す。そうすることで、ボカシ処理によって信号レベルを下げられた輝点F2,G2(夜の街灯のように、本来は明るくあって欲しい部分)は、それぞれゲイン増幅されて、図8(c)に示す輝点F3,G3のように本来のあるべき明るさに近づけられる。また、ボカシ処理によって信号レベルを上げられた輝点F2,G2以外の部分(夜景の黒のように、本来は暗くあって欲しい部分)は、ゲイン抑制されて、図8(c)の輝点F3,G3以外の部分が示すように本来のあるべき暗さに近づけられる。その結果、ボカシの違和感が更に改善されて、より現実に近く、見た目に映える画像を作成することができる。   Therefore, it is desirable to perform contrast enhancement processing as shown in FIG. 9C on the image after blur processing. However, in contrast enhancement processing, for example, gradation processing using a tone curve as shown in FIG. 10 is performed. That is, in order to be opposite to the change in the signal level due to the blur processing, the bright points F2 and G2 (FIG. 9B) included in the image after the blur processing are converted into high luminance signals (signals with a high signal level). On the other hand, gradation processing is performed to increase the signal level by gain amplification so that the bright points F3 and G3 shown in FIG. Further, for a low luminance signal (a signal having a low signal level) as indicated by a portion other than the bright spots F2 and G2 of FIG. 9B included in the image after the blurring process, the luminance of FIG. Tone processing is performed to reduce the signal level by suppressing the gain so that the portions other than the points F3 and G3 are in the state shown. By doing so, the bright spots F2 and G2 whose signal levels have been lowered by the blur processing (the portions that are originally desired to be bright like night street lamps) are each gain-amplified and shown in FIG. The brightness can be brought close to the original brightness like the bright spots F3 and G3. In addition, the gains of the portions other than the bright spots F2 and G2 whose signal levels are increased by the blurring process (portions that should originally be dark like black in the night scene) are suppressed, and the bright spots in FIG. As shown by the portions other than F3 and G3, the original darkness can be obtained. As a result, the sense of incongruity is further improved, and an image that is more realistic and can be seen visually can be created.

なお、上述したコントラスト強調処理は、図10に例示したトーンカーブに限定されず、高輝度信号をゲイン増幅し、かつ低輝度信号をゲイン抑制する手法であれば、いかなる手法であっても構わない。   Note that the above-described contrast enhancement processing is not limited to the tone curve illustrated in FIG. 10, and any method may be used as long as it is a method of gain-amplifying a high luminance signal and suppressing a gain of a low luminance signal. .

また、コントラスト強調処理に使用するトーンカーブは、予め用意した複数のトーンカーブの中からユーザーに選択させるようにしてもよい。また、テンプレートとなるトーンカーブを予め用意しておき、そのテンプレートを基にユーザーにトーンカーブの内容を自由に調整させるようにして、コントラスト強調処理に使用するトーンカーブをユーザーに作成させるようにしてもよい。   The tone curve used for the contrast enhancement process may be selected by a user from a plurality of tone curves prepared in advance. Also, prepare a tone curve to be used as a template in advance and let the user freely adjust the tone curve contents based on the template, and let the user create a tone curve to be used for contrast enhancement processing. Also good.

なお、上記(1)〜(4)の処理は、それぞれ単独で実施しても良く、二つ以上の処理を組み合わせて実施しても良い。   Note that the processes (1) to (4) may be performed alone or in combination of two or more processes.

(第1実施形態の作用効果)
以上、第1実施形態のデジタルカメラでは、測光の評価値に基づき撮影条件が決定され、その撮影条件を基に判定した撮影シーンの明るさに応じて、撮影画像に施すボカシ処理が変更される。そして、撮影画像(本実施形態では撮影画像の背景領域)に対して、当該ボカシ処理が施される。
(Operational effects of the first embodiment)
As described above, in the digital camera of the first embodiment, the shooting condition is determined based on the photometric evaluation value, and the blurring process applied to the shot image is changed according to the brightness of the shooting scene determined based on the shooting condition. . Then, the blurring process is performed on the captured image (in this embodiment, the background area of the captured image).

この場合、ボカシ処理後の撮影画像の背景領域には、撮影シーンの明るさに応じた最適なボカシがかけられている。なお、このようなボカシのかかった撮影画像は、主要な被写体が際立った、見た目に映える絵作りの撮影画像である。   In this case, the optimal blur according to the brightness of the shooting scene is applied to the background area of the shot image after the blur processing. In addition, such a blurred photographed image is a photographed photographed image that makes the main subject stand out and appears to the eye.

例えば、第1実施形態のデジタルカメラは、撮影シーンの明るさを判定し、撮影シーンが「明るい」場合には、撮影画像に施すボカシ処理を明るいシーン用のボカシ処理に変更する。一方、撮影シーンが「暗い」場合には、撮影画像に施すボカシ処理を暗いシーン用のボカシ処理に変更する。そして、第1実施形態のデジタルカメラは、撮影画像(本実施形態では撮影画像の背景領域)に対して、当該ボカシ処理を施す。   For example, the digital camera of the first embodiment determines the brightness of the photographic scene, and when the photographic scene is “bright”, changes the blurring process applied to the photographic image to the blurring process for the bright scene. On the other hand, when the shooting scene is “dark”, the blurring process applied to the shot image is changed to the blurring process for the dark scene. The digital camera according to the first embodiment performs the blurring process on the captured image (in this embodiment, the background area of the captured image).

このように、第1実施形態のデジタルカメラでは、撮影画像(本実施形態では撮影画像の背景領域)に施すボカシ処理が、撮影シーンの明るさに応じて最適なものに変更される。   As described above, in the digital camera according to the first embodiment, the blurring process performed on the captured image (in this embodiment, the background area of the captured image) is changed to an optimum one according to the brightness of the captured scene.

したがって、いかなる撮影シーンにおいても、撮影シーンに最適なボカシがかかった撮影画像を確実に取得することが可能になる。   Therefore, in any shooting scene, it is possible to reliably acquire a shot image that is optimally blurred for the shooting scene.

(第2実施形態)
以下、本発明の第2実施形態を説明する。本実施形態も、デジタルカメラの実施形態である。なお、以下の説明では、第1実施形態と共通するデジタルカメラの構成要素については同一符号を付して重複説明を省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. This embodiment is also an embodiment of a digital camera. In the following description, the same reference numerals are given to the components of the digital camera common to the first embodiment, and the duplicate description will be omitted.

第1実施形態では、測光の評価値に基づき決定した撮影条件を基に撮影シーンの明るさを判別し、その撮影シーンの明るさに応じたボカシ処理を撮影画像(第1実施形態では撮影画像の背景領域)に対して施す。一方、第2実施形態では、ユーザーが選択した撮影モード(シーンモード)の種類を判別し、そのシーンモードの種類から推定される撮影シーンの明るさに応じたボカシ処理を撮影画像に対して施す。   In the first embodiment, the brightness of the shooting scene is determined based on the shooting conditions determined based on the photometric evaluation value, and the blurring process is performed according to the brightness of the shooting scene (in the first embodiment, the shot image). For the background area). On the other hand, in the second embodiment, the type of the shooting mode (scene mode) selected by the user is determined, and blurring processing is performed on the shot image according to the brightness of the shooting scene estimated from the type of the scene mode. .

ここで、シーンモードとは、露出やカラー設定など、撮影のための各種条件(撮影条件)が各撮影シーンに合わせて予め最適な内容に決定されている撮影モードのことであり、その代表的な種類には、ポートレートモード、逆光モード、クローズアップモード、夜景ポートレートモードなどがある。   Here, the scene mode is a shooting mode in which various conditions for shooting (shooting conditions) such as exposure and color settings are determined in advance to be optimal for each shooting scene. Such types include portrait mode, backlight mode, close-up mode, night view portrait mode, and the like.

この、ユーザーが選択したシーンモードの種類をデジタルカメラで検知すれば、ユーザーが撮影しようとしているシーン(ここでは、撮影シーンが「明るい」か又は「暗い」か、即ち撮影シーンの明るさ)を推定することができる。すなわち、選択されたシーンモードの種類が「ポートレートモード」、「逆光モード」、「クローズアップモード」の何れかであれば、撮影シーンが「明るい」と推定でき、またシーンモードの種類が「夜景ポートレートモード」であれば、撮影シーンが「暗い」と推定できる。これにより、シーンモードの種類から推定される撮影シーンの明るさに応じて、撮影画像に施すボカシ処理を変更すれば、各撮影シーンにとって好適なボカシ具合の画像を作成することができる。   If the type of scene mode selected by the user is detected by the digital camera, the scene that the user intends to shoot (here, the shooting scene is “bright” or “dark”, that is, the brightness of the shooting scene)). Can be estimated. That is, if the type of the selected scene mode is “portrait mode”, “backlight mode”, or “close-up mode”, the shooting scene can be estimated to be “bright”, and the scene mode type is “ If it is “night view portrait mode”, it can be estimated that the shooting scene is “dark”. Accordingly, if the blurring process applied to the shot image is changed according to the brightness of the shot scene estimated from the type of the scene mode, an image with a suitable blur condition for each shot scene can be created.

以下、この動作について、図11の流れ図を参照して説明する。図11のフローチャートは、例えば、ユーザーがデジタルカメラのモードを「背景ボカシ処理モード」に設定して撮影を行った場合に実行される。なお、本実施形態のステップ206、207、209及び210の処理については、第1実施形態のステップ105、106、107及び108の処理と同一であるため重複説明を省略する。   Hereinafter, this operation will be described with reference to the flowchart of FIG. The flowchart in FIG. 11 is executed, for example, when the user performs shooting with the digital camera mode set to the “background blur processing mode”. Note that the processing of Steps 206, 207, 209, and 210 of the present embodiment is the same as the processing of Steps 105, 106, 107, and 108 of the first embodiment, and therefore redundant description is omitted.

ステップ201:制御部20は、ユーザーによりシーンモードが選択されているか否かを判定する。シーンモードが選択されている場合(Yes側)には、制御部20はステップ202へ移行する。一方、シーンモードが選択されていない場合(No側)には、制御部20はステップ214へ移行する。   Step 201: The control unit 20 determines whether or not a scene mode is selected by the user. When the scene mode is selected (Yes side), the control unit 20 proceeds to Step 202. On the other hand, when the scene mode is not selected (No side), the control unit 20 proceeds to Step 214.

ステップ202:制御部20は、選択されたシーンモード用の撮影条件の下で撮影を実施する。この撮影により取得された撮影画像の画像データはバッファメモリ17に記録される。   Step 202: The control unit 20 performs shooting under the shooting conditions for the selected scene mode. The image data of the captured image acquired by this shooting is recorded in the buffer memory 17.

ステップ203:制御部20は、選択されたシーンモードの種類が「ポートレートモード」、「逆光モード」、「クローズアップモード」、「夜景ポートレートモード」の何れかであるかを判定する。これら4つのうちの何れかである場合(Yes側)には、制御部20はステップ204へ移行する。一方、これら以外のシーンモードである場合(No側)には、制御部20はステップ211へ移行する。   Step 203: The controller 20 determines whether the type of the selected scene mode is “portrait mode”, “backlight mode”, “close-up mode”, or “night scene portrait mode”. In the case of any one of these four (Yes side), the control unit 20 proceeds to Step 204. On the other hand, if the scene mode is other than these (No side), the control unit 20 proceeds to Step 211.

ステップ204:制御部20は、バッファメモリ17の撮影画像から被写体の領域(被写体領域)と被写体以外の領域とを分離する。ここで、被写体以外の領域は、例えば背景の領域(背景領域)であるものとする。また、被写体領域と背景領域の分離には、例えば「特願2007−096724」などの従来の被写体抽出技術を利用することができる。なお、この被写体抽出技術を利用してそれらの領域の分離を行う場合には、上記ステップ202で撮影画像を撮影するときに、もう一枚別の画像(予備画像)を撮影しておく。但し、選択されたシーンモードが、例えば、「夜景ポートレートモード」である場合、その予備画像の撮影は、撮影画像と同じ撮影条件、即ち「夜景ポートレートモード」用の撮影条件で、かつストロボ光を強制的に発光さないようにして実施する。そして、本ステップ204で、それら撮影画像と予備画像との輝度比較(輝度差または輝度比の比較)を行い、その結果に基づいて撮影画像から被写体領域と背景領域とを分離すればよい。   Step 204: The control unit 20 separates a subject area (subject area) and a non-subject area from the captured image in the buffer memory 17. Here, it is assumed that the area other than the subject is, for example, a background area (background area). For the separation of the subject area and the background area, a conventional subject extraction technique such as “Japanese Patent Application No. 2007-096724” can be used. In the case where these regions are separated using this subject extraction technique, another image (preliminary image) is captured when the captured image is captured in step 202 described above. However, when the selected scene mode is, for example, “night scene portrait mode”, the preliminary image is captured under the same shooting conditions as the captured image, that is, the shooting conditions for “night scene portrait mode” and the strobe. It is carried out without forcibly emitting light. Then, in this step 204, luminance comparison (luminance difference or luminance ratio comparison) between the captured image and the preliminary image is performed, and the subject area and the background area may be separated from the captured image based on the result.

ステップ205:制御部20は、選択されたシーンモードの種類が「ポートレートモード」、「逆光モード」、「クローズアップモード」の何れかであるかを判定する。これら3つのうちの何れかである場合(Yes側)には、制御部20は、撮影シーンが「明るい」と推定して、明るいシーン用のボカシ処理を施すためにステップ206へ移行する。一方、これら以外のシーンモード、即ち「夜景ポートレートモード」である場合(No側)には、制御部20は、撮影シーンが「暗い」と推定して、暗いシーン用のボカシ処理を施すためにステップ207へ移行する。   Step 205: The controller 20 determines whether the type of the selected scene mode is “portrait mode”, “backlight mode”, or “close-up mode”. In the case of any one of these three (Yes side), the control unit 20 estimates that the shooting scene is “bright”, and proceeds to Step 206 to perform blur processing for a bright scene. On the other hand, in the case of a scene mode other than these, that is, the “night scene portrait mode” (No side), the control unit 20 estimates that the shooting scene is “dark” and performs blur processing for the dark scene. To step 207.

ステップ208:制御部20は、分離した背景領域に対してコントラスト強調処理を施す。なお、背景領域には、ステップ206またはステップ207での処理により、シーンモードの種類から推定された撮影シーンの明るさに応じたボカシ処理、すなわち、明るいシーン用のボカシ処理または暗いシーン用のボカシ処理の何れかの処理が施されている。また、コントラスト強調処理には、第1実施形態で説明した上述の(4)の処理を適用する。   Step 208: The control unit 20 performs contrast enhancement processing on the separated background region. In the background area, the blur processing according to the brightness of the shooting scene estimated from the type of the scene mode by the processing in step 206 or step 207, that is, the blur processing for a bright scene or the blur for a dark scene. Any one of the processes is performed. Further, the above-described process (4) described in the first embodiment is applied to the contrast enhancement process.

ステップ211:制御部20は、選択されたシーンモードの種類が「ポートレートモード」、「逆光モード」、「クローズアップモード」、「夜景ポートレートモード」の何れでもない場合には、「背景ボカシ処理の対象外のシーンモードである」旨をユーザーに警告した後に、処理を終了する。ユーザーへの警告は、例えば、背景ボカシ処理の対象外のシーンモードが選択されている旨のメッセージをモニタ22に表示させることにより行う。   Step 211: When the type of the selected scene mode is not “portrait mode”, “backlight mode”, “close-up mode”, or “night scene portrait mode”, the control unit 20 performs “background blur”. After warning the user that it is a scene mode that is not subject to processing, the processing ends. The warning to the user is performed by, for example, displaying a message on the monitor 22 that a scene mode that is not subject to background blur processing is selected.

ステップ212:制御部20は、モニタ22を駆動して、バッファメモリ17の撮影画像(ボカシ処理は施されていない)をLCDモニタ等に表示させる。これにより、ユーザーは、その撮影画像の出来映えを確認することができる。   Step 212: The control unit 20 drives the monitor 22 to display the captured image (not subjected to the blurring process) in the buffer memory 17 on the LCD monitor or the like. Thereby, the user can confirm the performance of the captured image.

ステップ213:制御部20は、圧縮/復号部19を駆動して、バッファメモリ17の撮影画像(ボカシ処理は施されていない)に対して圧縮処理を施させると共に、圧縮された画像を記録媒体23へ記録する。   Step 213: The control unit 20 drives the compression / decoding unit 19 to perform the compression process on the captured image (not subjected to the blur process) in the buffer memory 17, and the compressed image is recorded on the recording medium. 23.

ステップ214:制御部20は、シーンモードが選択されていない場合には、第1実施形態で説明した図2のフローのステップ101〜ステップ106の処理を実施して、撮影画像に対して撮影シーンの明るさに応じたボカシ処理を施す。なお、ボカシ処理は、例えば、撮影画像の背景領域に対して施すこととする。そして、そのボカシ処理が終わると、制御部20はステップ208へ移行する。   Step 214: When the scene mode is not selected, the control unit 20 performs the processing of Step 101 to Step 106 in the flow of FIG. 2 described in the first embodiment, and performs a photographic scene on the photographic image. The blur processing according to the brightness of the is performed. Note that the blur processing is performed on the background region of the captured image, for example. When the blur processing ends, the control unit 20 proceeds to step 208.

なお、より見た目が良好なボカシ具合の画像を得るためには、画像(本実施形態では撮影画像の背景領域)に対してボカシ処理を施す際に、第1実施形態で説明した上述の(1)〜(3)の一つ以上の処理を適用することが好ましい。   In addition, in order to obtain an image with better appearance, the above-described (1) described in the first embodiment is performed when performing the blurring process on the image (the background area of the captured image in the present embodiment). It is preferable to apply one or more treatments (1) to (3).

(第2実施形態の作用効果)
以上、第2実施形態のデジタルカメラでは、撮影画像に施すボカシ処理が、ユーザーが選択した撮影モード(シーンモード)の種類に応じて変更される。そして、撮影画像(本実施形態では撮影画像の背景領域)に対して、当該ボカシ処理が施される。
(Operational effect of the second embodiment)
As described above, in the digital camera of the second embodiment, the blurring process performed on the captured image is changed according to the type of the shooting mode (scene mode) selected by the user. Then, the blurring process is performed on the captured image (in this embodiment, the background area of the captured image).

この場合、ボカシ処理後の撮影画像の背景領域には、シーンモードの種類に応じた最適なボカシがかけられている。なお、このようなボカシのかかった撮影画像は、主要な被写体が際立った、見た目に映える絵作りの撮影画像である。   In this case, the optimum blur according to the type of the scene mode is applied to the background area of the photographed image after the blur processing. In addition, such a blurred photographed image is a photographed photographed image that makes the main subject stand out and appears to the eye.

例えば、第2実施形態のデジタルカメラは、ユーザーがシーンモードとして「ポートレートモード」、「逆光モード」、「クローズアップモード」の何れかを選択した場合には、撮影シーンが「明るい」と推定して、撮影画像に施すボカシ処理を明るいシーン用のボカシ処理に変更する。一方、ユーザーがシーンモードとして「夜景ポートレートモード」を選択した場合は、撮影シーンが「暗い」と推定して、撮影画像に施すボカシ処理を暗いシーン用のボカシ処理に変更する。そして、第2実施形態のデジタルカメラは、撮影画像(本実施形態では撮影画像の背景領域)に対して、当該ボカシ処理を施す。   For example, in the digital camera according to the second embodiment, when the user selects any one of “portrait mode”, “backlight mode”, and “close-up mode” as the scene mode, the shooting scene is estimated to be “bright”. Then, the blurring process applied to the captured image is changed to the blurring process for a bright scene. On the other hand, when the user selects the “night scene portrait mode” as the scene mode, the shooting scene is estimated to be “dark” and the blurring process applied to the shot image is changed to the blurring process for the dark scene. The digital camera according to the second embodiment performs the blurring process on the captured image (in this embodiment, the background area of the captured image).

このように、第2実施形態のデジタルカメラでは、撮影画像(本実施形態では撮影画像の背景領域)に施すボカシ処理が、ユーザーが選択したシーンモードの種類から推定された撮影シーンの明るさに応じて最適なものに変更される。   As described above, in the digital camera of the second embodiment, the blurring process performed on the photographed image (in this embodiment, the background area of the photographed image) is performed on the brightness of the photographed scene estimated from the type of the scene mode selected by the user. It will be changed to the optimal one according to your needs.

したがって、ユーザーが撮影しようとしている撮影シーンにとって最適なボカシがかかった撮影画像を確実に取得することが可能になる。   Therefore, it is possible to reliably acquire a photographed image that is optimally blurred for the photographing scene that the user intends to photograph.

さらに、第2実施形態のデジタルカメラでは、撮影画像(本実施形態では撮影画像の背景領域)に対して、ボカシ処理が施された後に、コントラスト強調処理が施される。   Further, in the digital camera of the second embodiment, the contrast enhancement process is performed after the blurring process is performed on the captured image (in this embodiment, the background area of the captured image).

この場合、ボカシ処理によって信号レベルを下げられた撮影画像の背景領域に含まれる輝点の明るさが、ゲイン増幅により本来のあるべき明るさに近づけられる。また、ボカシ処理によって信号レベルを上げられた撮影画像の背景領域のうち輝点以外の部分の明るさが、ゲイン抑制により本来のあるべき暗さに近づけられる。   In this case, the brightness of the bright spot included in the background area of the photographed image whose signal level has been lowered by the blurring process is brought close to the intended brightness by gain amplification. Further, the brightness of the portion other than the bright spot in the background area of the captured image whose signal level has been increased by the blurring process is brought closer to the original darkness by the gain suppression.

したがって、ボカシ処理によって生じたボカシの違和感が更に改善されて、より現実に近く、見た目に映える撮影画像を確実に取得することが可能になる。   Therefore, the sense of incongruity caused by the blurring process is further improved, and it is possible to reliably acquire a captured image that is closer to reality and looks visually.

(その他)
なお、第1実施形態のステップ103(第2実施形態ではステップ204)においては、撮影画像から被写体と背景を分離するための手法として、従来技術の「ストロボ発光画像とストロボ非発光画像との輝度比較に基づく被写体抽出技術」を利用する例を示したが、利用可能な被写体抽出の方法はこれに限定されない。例えば、焦点距離や合焦状態の異なる複数のフレーム(画像)に基づく方法、空間周波数解析に基づく方法、顔認識に基づく方法、肌色等の特定色に基づく方法、エッジ情報に基づく方法など、従来の被写体抽出技術から任意のものを利用することができる。
(Other)
In step 103 of the first embodiment (step 204 in the second embodiment), as a technique for separating the subject and the background from the photographed image, the brightness of the strobe light emission image and the non-flash light image of the prior art is used. Although an example using the “subject extraction technique based on comparison” has been shown, usable subject extraction methods are not limited to this. For example, conventional methods such as a method based on multiple frames (images) with different focal lengths and in-focus states, a method based on spatial frequency analysis, a method based on face recognition, a method based on a specific color such as skin color, a method based on edge information, etc. Any subject extraction technique can be used.

また、第1実施形態のステップ104の説明では、測光部21が算出した評価値に基づいて撮影シーンの明るさを判定する自動判定の例を示したが、判定の方法はこれに限定されず、撮影シーンの明るさをユーザーの入力操作に基づいて判定する手動判定であってもよい。   In the description of step 104 of the first embodiment, an example of automatic determination in which the brightness of the shooting scene is determined based on the evaluation value calculated by the photometry unit 21 is shown. However, the determination method is not limited to this. Alternatively, manual determination may be made to determine the brightness of the shooting scene based on a user input operation.

また、第1実施形態のステップ103以降の処理および第2実施形態のステップ204〜210の処理は、デジタルカメラが画像再生モードなどの非撮影モードに設定された時に実行するようにしても良い。そうした場合、第1実施形態のステップ103または第2実施形態のステップ204で得られた被写体と背景の分離情報と、第1実施形態のステップ101で得られた撮影条件(この撮影条件を基に撮影シーンの明るさが判定される)又は第2実施形態のステップ201で得られた撮影モード(シーンモード)の種類を、撮影画像と共に画像ファイルとして記録媒体23へ記録する。なお、その画像ファイルがExif規格の形式に基づくものであれば、被写体と背景の分離情報と、撮影条件又は撮影モード(シーンモード)の種類とは、画像ファイルのメーカーノート(MakerNote)タグなどの情報として記録する。そして、デジタルカメラが画像再生モードなどに設定された時に、記録媒体23に記録した当該画像ファイルを読み出して、第1実施形態のステップ103以降の処理および第2実施形態のステップ204〜210の処理を実行するとよい。あるいは、この、当該画像ファイルを読み出して行う処理については、デジタルカメラが実行するかわりにコンピュータなどの外部処理装置に実行させてもよい。   Further, the processing after step 103 of the first embodiment and the processing of steps 204 to 210 of the second embodiment may be executed when the digital camera is set to a non-shooting mode such as an image playback mode. In such a case, the subject / background separation information obtained in step 103 of the first embodiment or step 204 of the second embodiment and the photographing conditions obtained in step 101 of the first embodiment (based on these photographing conditions). The brightness of the shooting scene is determined) or the type of shooting mode (scene mode) obtained in step 201 of the second embodiment is recorded on the recording medium 23 together with the shot image as an image file. If the image file is based on the format of the Exif standard, the subject and background separation information, the shooting condition or the shooting mode (scene mode) type, the manufacturer's note (MakerNote) tag of the image file, etc. Record as information. Then, when the digital camera is set to the image playback mode or the like, the image file recorded on the recording medium 23 is read out, and the processing after step 103 of the first embodiment and the processing of steps 204 to 210 of the second embodiment. It is good to execute. Alternatively, the processing performed by reading out the image file may be executed by an external processing device such as a computer instead of being executed by the digital camera.

また、第1実施形態のステップ107(第2実施形態ではステップ209)において、ボカシ処理後の画像をLCDモニタ等に表示させた後に、ユーザーからボカシ処理のやり直しの指示を受け付けるようにしてもよい。なお、その受け付けの際には、ユーザーに、上述したボカシの違和感を軽減又は改善する処理に用いるパラメータ、即ち(1)の処理ではY信号の増幅率、(2)の処理では輝点の画像信号の増幅率、(3)の処理では輝点の各領域の画像信号の増幅率、また(4)の処理ではコントラスト強調処理に用いるトーンカーブを指定させるようにする。そして、ユーザーがやり直しを指示した場合には、ユーザーが指定した上記のパラメータを用いて、再度、第1実施形態のステップ105または106(第2実施形態ではステップ206または207)から処理を実行し直して、ボカシ処理をやり直すようにしてもよい。さらに、このような処理は、ユーザーが望む結果が得られるまで繰り返して実行してもよい。そうすることで、ユーザーが望む、演出性の高い、より効果的な絵作りの画像を作成することができる。   Further, in step 107 of the first embodiment (step 209 in the second embodiment), after an image after blur processing is displayed on an LCD monitor or the like, an instruction to redo the blur processing may be received from the user. . At the time of acceptance, the user uses the parameters used in the process for reducing or improving the above-mentioned blurring feeling, that is, the gain of the Y signal in the process (1), and the bright spot image in the process (2). The signal amplification factor, the amplification factor of the image signal in each region of the bright spot in the process (3), and the tone curve used for the contrast enhancement process are designated in the process (4). When the user instructs to redo, the process is executed again from step 105 or 106 of the first embodiment (step 206 or 207 in the second embodiment) using the above parameters specified by the user. It is also possible to redo the blur processing. Further, such a process may be repeatedly executed until a result desired by the user is obtained. By doing so, it is possible to create a more effective picture-making image that the user desires and has high performance.

また、第2実施形態では、シーンモードの種類として、「ポートレートモード」、「逆光モード」、「クローズアップモード」、「夜景ポートレートモード」の4つのシーンモードについて説明したが、シーンモードの種類はこの4種類に限定されない。   In the second embodiment, four scene modes of “portrait mode”, “backlight mode”, “close-up mode”, and “night scene portrait mode” have been described as the types of scene modes. Types are not limited to these four types.

また、上記では、撮影画像から被写体と背景を分離して、その背景にのみボカシ処理を施す例を示したが、被写体と前景を分離したり、被写体,背景,及び前景を同時に分離して、被写体,背景,前景の一つ以上に対してボカシ処理を施すようにしてもよい。なお、それらの二つ以上に対してボカシ処理を施す場合は、ボカシの強度をそれぞれで変えるようにして施すとよい。例えば、被写体と背景にボカシ処理を施す場合、被写体に対しては背景よりも低い強度でボカシ処理を施すとよい。   In the above, the subject and the background are separated from the photographed image and the blurring process is performed only on the background. However, the subject and the foreground are separated, or the subject, the background, and the foreground are separated at the same time. The blurring process may be performed on one or more of the subject, the background, and the foreground. In addition, when performing a blurring process with respect to two or more of these, it is good to apply so that the intensity | strength of a blur may be changed by each. For example, when blur processing is performed on the subject and the background, the blur processing may be performed on the subject at a lower intensity than the background.

また、上述した撮影画像の背景領域に対するボカシ処理と併せて、被写体領域に対し、明るさ補正処理、彩度補正処理、コントラスト強調処理、鮮鋭化処理などの各種の画像処理を施すようにすれば、より被写体を際立たせることができ、演出性の高い絵作りの画像を作成することができる。   In addition to the above-described blur processing for the background region of the captured image, various image processing such as brightness correction processing, saturation correction processing, contrast enhancement processing, and sharpening processing may be performed on the subject region. Therefore, it is possible to make the subject stand out more, and it is possible to create a picture-making image with high performance.

また、撮影シーンの明るさ又は撮影モード(シーンモード)の種類に応じたボカシ処理の変更の手法は、図2および図11のフローチャートに示した内容に限定されない。   Further, the method of changing the blur processing according to the brightness of the shooting scene or the type of shooting mode (scene mode) is not limited to the contents shown in the flowcharts of FIGS.

本発明のデジタルカメラのブロック図である。It is a block diagram of the digital camera of the present invention. 第1実施形態のデジタルカメラのボカシ処理の動作を示す流れ図である。It is a flowchart which shows the operation | movement of the blurring process of the digital camera of 1st Embodiment. 撮影画像中の輝点のイメージを示す図である。It is a figure which shows the image of the luminescent spot in a picked-up image. 明るいシーンと暗いシーンとでのボカシ処理の違いを示す図である。It is a figure which shows the difference in the blurring process in a bright scene and a dark scene. デジタルカメラにより撮影される画像のγ特性を示す図である。It is a figure which shows the (gamma) characteristic of the image image | photographed with a digital camera. ホワイトクリップにより生じるボカシの違和感を軽減する処理(処理1)を説明する図である。It is a figure explaining the process (process 1) which reduces the discomfort of the blur which arises by a white clip. レンズ効果によりボカシを行う場合の画像の輝度分布の変化を示す図である。It is a figure which shows the change of the luminance distribution of an image in the case of performing blur by a lens effect. ホワイトクリップにより生じるボカシの違和感を軽減する処理(処理2)を説明する図である。It is a figure explaining the process (process 2) which reduces the discomfort of the blur which arises by a white clip. ボカシの違和感を更に改善する処理を説明する図である。It is a figure explaining the process which further improves the discomfort of blur. コントラスト強調処理に用いるトーンカーブの例を示す図である。It is a figure which shows the example of the tone curve used for contrast emphasis processing. 第2実施形態のデジタルカメラのボカシ処理の動作を示す流れ図である。It is a flowchart which shows the operation | movement of the blurring process of the digital camera of 2nd Embodiment.

符号の説明Explanation of symbols

11…撮像レンズ,12…レンズ駆動部,13…絞り,14…撮像素子,15…アナログ信号処理部,16…タイミングジェネレータ(TG),17…バッファメモリ,18…画像処理部,19…圧縮/復号部,20…制御部,21…測光部,22…モニタ,23…記録媒体,24…発光部,25…操作部,26…バス
DESCRIPTION OF SYMBOLS 11 ... Imaging lens, 12 ... Lens drive part, 13 ... Aperture, 14 ... Imaging element, 15 ... Analog signal processing part, 16 ... Timing generator (TG), 17 ... Buffer memory, 18 ... Image processing part, 19 ... Compression / Decoding section, 20 ... control section, 21 ... photometry section, 22 ... monitor, 23 ... recording medium, 24 ... light emitting section, 25 ... operation section, 26 ... bus

Claims (17)

撮影画像から被写体の領域(A領域)と被写体以外の領域(B領域)とを分離する分離手段と、
前記分離手段が分離した前記A領域と前記B領域のうち、少なくとも前記B領域を対象にしてボカシ処理を施すボカシ手段とを備える画像処理装置であって、
前記ボカシ手段は、前記撮影画像の撮影時に取得した撮影シーンの明るさ又は撮影モードの種類の情報に応じて前記ボカシ処理を変更する
ことを特徴とする画像処理装置。
Separating means for separating a region of the subject (A region) and a region other than the subject (B region) from the captured image;
An image processing apparatus comprising blur means for performing blur processing on at least the B area of the A area and the B area separated by the separating means,
The blur processing unit changes the blur processing according to information on brightness of a shooting scene or type of shooting mode acquired when shooting the shot image.
請求項1に記載の画像処理装置において、
前記ボカシ手段は、前記情報を基に前記撮影画像のシーンが明るいか又は暗いかを判別して、前記ボカシ処理を、前記明るい場合と前記暗い場合とでそれぞれ専用のボカシ処理に変更する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The blur means determines whether the scene of the captured image is bright or dark based on the information, and changes the blur processing to dedicated blur processing for the bright case and the dark case, respectively. A featured image processing apparatus.
請求項2に記載の画像処理装置において、
前記明るいシーン用のボカシ処理は、前記対象の領域中の輝点領域に対しては、前記輝点領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を狭く、かつ前記等輝度領域の周辺部分の領域の輝度変化を緩やかとするようにボカシを行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The bright scene blur processing is such that, with respect to the bright spot area in the target area, an area (equal brightness area) having a brightness substantially equal to the brightness of the center position of the bright spot area is narrowed, and An image processing apparatus characterized by performing blurring so that a change in luminance in a peripheral portion of an equal luminance region is moderated.
請求項2または請求項3に記載の画像処理装置において、
前記暗いシーン用のボカシ処理は、前記対象の領域中の輝点領域に対しては、前記輝点領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を広く、かつ前記等輝度領域の周辺部分の領域の輝度変化を急峻とするようにボカシを行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2 or 3,
The blur processing for the dark scene has a wide area (equal luminance area) having a luminance substantially equal to the luminance of the central position of the bright spot area with respect to the bright spot area in the target area, and An image processing apparatus characterized in that blurring is performed so that a luminance change in a peripheral portion of an equal luminance region is sharp.
請求項1ないし請求項4の何れか一項に記載の画像処理装置において、
前記ボカシ手段は、ガンマ補正後の前記撮影画像における前記ボカシ処理が施された前記対象の領域の輝度成分を、その輝度成分のレベルが前記ボカシ処理の実施の前と後とで略同等になる増幅率で増幅する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The blur means has a luminance component of the target area subjected to the blur processing in the captured image after the gamma correction, and the level of the luminance component is substantially the same before and after the blur processing is performed. An image processing apparatus characterized by amplifying with an amplification factor.
請求項1ないし請求項5の何れか一項に記載の画像処理装置において、
前記ボカシ手段は、前記ボカシ処理が施された前記対象の領域中の飽和した輝点領域の画像信号を、予め定められた増幅率で増幅する
ことを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 5,
The image processing apparatus characterized in that the blur means amplifies an image signal of a saturated bright spot region in the target region subjected to the blur processing at a predetermined amplification factor.
請求項1ないし請求項6の何れか一項に記載の画像処理装置において、
前記ボカシ手段は、前記ボカシ処理が施された前記対象の領域中の飽和した輝点領域の画像信号を、前記飽和した輝点領域の面積の大きさに応じた増幅率で増幅する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The blur means amplifies an image signal of a saturated bright spot area in the target area subjected to the blur processing at an amplification factor according to the size of the area of the saturated bright spot area. An image processing apparatus.
請求項1ないし請求項7の何れか一項に記載の画像処理装置において、
前記ボカシ手段は、前記ボカシ処理が施された前記対象の領域に対してコントラスト強調処理を施す
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 7,
The image processing apparatus, wherein the blur means performs a contrast enhancement process on the target area on which the blur process has been performed.
被写界を撮影することにより撮影画像を取得する撮影手段と、
請求項1ないし請求項8の何れか一項に記載の画像処理装置と
を備えることを特徴とするデジタルカメラ。
Photographing means for obtaining a photographed image by photographing a scene;
A digital camera comprising: the image processing apparatus according to claim 1.
撮影画像から被写体の領域(A領域)と被写体以外の領域(B領域)とを分離する分離手順と、
前記分離された前記A領域と前記B領域のうち、少なくとも前記B領域を対象にしてボカシ処理を施すボカシ手順とをコンピュータに実行させる画像処理プログラムであって、
前記ボカシ手順では、前記撮影画像の撮影時に取得した撮影シーンの明るさ又は撮影モードの種類の情報に応じて前記ボカシ処理を変更する
ことを特徴とする画像処理プログラム。
A separation procedure for separating a region of the subject (A region) and a region other than the subject (B region) from the captured image;
An image processing program for causing a computer to execute a blur procedure for performing blur processing on at least the B area of the separated A area and B area,
In the blurring procedure, the blurring process is changed in accordance with information on the brightness of a shooting scene or the type of shooting mode acquired at the time of shooting the shot image.
請求項10に記載の画像処理プログラムにおいて、
前記ボカシ手順では、前記情報を基に前記撮影画像のシーンが明るいか又は暗いかを判別して、前記ボカシ処理を、前記明るい場合と前記暗い場合とでそれぞれ専用のボカシ処理に変更する
ことを特徴とする画像処理プログラム。
The image processing program according to claim 10,
In the blur procedure, it is determined whether the scene of the captured image is bright or dark based on the information, and the blur processing is changed to dedicated blur processing for the bright case and the dark case, respectively. A characteristic image processing program.
請求項11に記載の画像処理プログラムにおいて、
前記明るいシーン用のボカシ処理は、前記対象の領域中の輝点領域に対しては、前記輝点領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を狭く、かつ前記等輝度領域の周辺部分の領域の輝度変化を緩やかとするようにボカシを行う
ことを特徴とする画像処理プログラム。
The image processing program according to claim 11,
The bright scene blur processing is such that, with respect to the bright spot area in the target area, an area (equal brightness area) having a brightness substantially equal to the brightness of the center position of the bright spot area is narrowed, and An image processing program characterized by performing blurring so that a change in luminance in a peripheral portion of an equal luminance region is moderated.
請求項11または請求項12に記載の画像処理プログラムにおいて、
前記暗いシーン用のボカシ処理は、前記対象の領域中の輝点領域に対しては、前記輝点領域の中心位置の輝度と略同等の輝度となる領域(等輝度領域)を広く、かつ前記等輝度領域の周辺部分の領域の輝度変化を急峻とするようにボカシを行う
ことを特徴とする画像処理プログラム。
The image processing program according to claim 11 or 12,
The blur processing for the dark scene has a wide area (equal luminance area) having a luminance substantially equal to the luminance of the central position of the bright spot area with respect to the bright spot area in the target area, and An image processing program for performing blurring so that a luminance change in a peripheral portion of an equiluminance region is sharp.
請求項10ないし請求項13の何れか一項に記載の画像処理プログラムにおいて、
前記ボカシ手順では、ガンマ補正後の前記撮影画像における前記ボカシ処理が施された前記対象の領域の輝度成分を、その輝度成分のレベルが前記ボカシ処理の実施の前と後とで略同等になる増幅率で増幅する
ことを特徴とする画像処理プログラム。
The image processing program according to any one of claims 10 to 13,
In the blur procedure, the luminance component of the target area that has been subjected to the blur processing in the photographed image after gamma correction is substantially the same before and after the blur processing. An image processing program characterized by amplification at an amplification factor.
請求項10ないし請求項14の何れか一項に記載の画像処理プログラムにおいて、
前記ボカシ手順では、前記ボカシ処理が施された前記対象の領域中の飽和した輝点領域の画像信号を、予め定められた増幅率で増幅する
ことを特徴とする画像処理プログラム。
The image processing program according to any one of claims 10 to 14,
In the blur procedure, an image signal of a saturated bright spot region in the target region that has been subjected to the blur processing is amplified at a predetermined amplification factor.
請求項10ないし請求項15の何れか一項に記載の画像処理プログラムにおいて、
前記ボカシ手順では、前記ボカシ処理が施された前記対象の領域中の飽和した輝点領域の画像信号を、前記飽和した輝点領域の面積の大きさに応じた増幅率で増幅する
ことを特徴とする画像処理プログラム。
The image processing program according to any one of claims 10 to 15,
In the blur procedure, an image signal of a saturated bright spot region in the target region subjected to the blur processing is amplified with an amplification factor according to the size of the area of the saturated bright spot region. An image processing program.
請求項10ないし請求項16の何れか一項に記載の画像処理プログラムにおいて、
前記ボカシ手順では、前記ボカシ処理が施された前記対象の領域に対してコントラスト強調処理を施す
ことを特徴とする画像処理プログラム。
The image processing program according to any one of claims 10 to 16,
In the blur procedure, a contrast enhancement process is performed on the target area on which the blur process has been performed.
JP2008044317A 2008-02-26 2008-02-26 Image processing apparatus, image processing program and digital camera Pending JP2009206585A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008044317A JP2009206585A (en) 2008-02-26 2008-02-26 Image processing apparatus, image processing program and digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008044317A JP2009206585A (en) 2008-02-26 2008-02-26 Image processing apparatus, image processing program and digital camera

Publications (1)

Publication Number Publication Date
JP2009206585A true JP2009206585A (en) 2009-09-10

Family

ID=41148468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008044317A Pending JP2009206585A (en) 2008-02-26 2008-02-26 Image processing apparatus, image processing program and digital camera

Country Status (1)

Country Link
JP (1) JP2009206585A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120023901A (en) * 2010-09-02 2012-03-14 삼성전자주식회사 Digital image processing apparatus, method for digital image signal processing, medium for recording the method
WO2014192577A1 (en) * 2013-05-31 2014-12-04 ソニー株式会社 Image processing device, image processing method, and program
JP2017021467A (en) * 2015-07-08 2017-01-26 キヤノン株式会社 Image processing device, control method and control program of the same
CN110751593A (en) * 2019-09-25 2020-02-04 北京迈格威科技有限公司 Image blurring processing method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001057630A (en) * 1999-08-18 2001-02-27 Fuji Photo Film Co Ltd Image processing unit and image processing method
JP2004102903A (en) * 2002-09-12 2004-04-02 Pentax Corp Filter processing
WO2007049634A1 (en) * 2005-10-28 2007-05-03 Nikon Corporation Imaging device, image processing device, and program
WO2007095477A2 (en) * 2006-02-14 2007-08-23 Fotonation Vision Limited Image blurring

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001057630A (en) * 1999-08-18 2001-02-27 Fuji Photo Film Co Ltd Image processing unit and image processing method
JP2004102903A (en) * 2002-09-12 2004-04-02 Pentax Corp Filter processing
WO2007049634A1 (en) * 2005-10-28 2007-05-03 Nikon Corporation Imaging device, image processing device, and program
WO2007095477A2 (en) * 2006-02-14 2007-08-23 Fotonation Vision Limited Image blurring
JP2009527059A (en) * 2006-02-14 2009-07-23 フォトネーション アイルランド リミテッド Image blur processing

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120023901A (en) * 2010-09-02 2012-03-14 삼성전자주식회사 Digital image processing apparatus, method for digital image signal processing, medium for recording the method
KR101661216B1 (en) 2010-09-02 2016-09-29 삼성전자주식회사 Digital image processing apparatus, method for digital image signal processing, medium for recording the method
WO2014192577A1 (en) * 2013-05-31 2014-12-04 ソニー株式会社 Image processing device, image processing method, and program
US9754362B2 (en) 2013-05-31 2017-09-05 Sony Corporation Image processing apparatus, image processing method, and program
JP2017021467A (en) * 2015-07-08 2017-01-26 キヤノン株式会社 Image processing device, control method and control program of the same
CN110751593A (en) * 2019-09-25 2020-02-04 北京迈格威科技有限公司 Image blurring processing method and device

Similar Documents

Publication Publication Date Title
JP5141733B2 (en) Imaging apparatus, imaging method, and program
US8928783B2 (en) Imaging apparatus including switchable edge extraction
US8391597B2 (en) Image capturing apparatus, method for capturing image, and program
JP6720881B2 (en) Image processing apparatus and image processing method
JP2007180631A (en) Imaging apparatus and photographing method
JP2010016664A (en) Imaging apparatus
JP2017022610A (en) Image processing apparatus and image processing method
JP4999871B2 (en) Imaging apparatus and control method thereof
JP5984975B2 (en) Imaging apparatus, imaging method, and program
JP2011228807A (en) Image processing program, image processing apparatus, and image processing method
JP2009206585A (en) Image processing apparatus, image processing program and digital camera
JP6047686B2 (en) Imaging device
JP2013192121A (en) Imaging apparatus and imaging method
JP5321308B2 (en) Image processing apparatus and image processing program
JP5284183B2 (en) Image processing apparatus and method
JP2009200924A (en) Imaging apparatus
JP6300514B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2000092383A (en) Image input device, image input method, method for adjusting transmission filter, method for measuring transmission filter and image output method
JP5282533B2 (en) Image processing apparatus, imaging apparatus, and program
JP2011135379A (en) Imaging apparatus, imaging method and program
JP5268823B2 (en) Imaging apparatus and imaging method
JP2008271227A (en) Image sensing device
JP5091734B2 (en) Imaging apparatus and imaging method
JP2003348603A (en) Electronic camera
JP4954658B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121120