[go: up one dir, main page]

JP5641911B2 - Image processing apparatus, control method thereof, and control program - Google Patents

Image processing apparatus, control method thereof, and control program Download PDF

Info

Publication number
JP5641911B2
JP5641911B2 JP2010277147A JP2010277147A JP5641911B2 JP 5641911 B2 JP5641911 B2 JP 5641911B2 JP 2010277147 A JP2010277147 A JP 2010277147A JP 2010277147 A JP2010277147 A JP 2010277147A JP 5641911 B2 JP5641911 B2 JP 5641911B2
Authority
JP
Japan
Prior art keywords
blurring
image
specific
degree
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010277147A
Other languages
Japanese (ja)
Other versions
JP2012129618A (en
Inventor
荻野 宏幸
宏幸 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010277147A priority Critical patent/JP5641911B2/en
Publication of JP2012129618A publication Critical patent/JP2012129618A/en
Application granted granted Critical
Publication of JP5641911B2 publication Critical patent/JP5641911B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、電子スチルカメラなどの撮像装置で用いられる画像処理装置、その制御方法、および制御プログラムに関する。   The present invention relates to an image processing apparatus used in an imaging apparatus such as an electronic still camera, a control method thereof, and a control program.

従来、電子スチルカメラなどの撮像装置において、光軸に対してレンズを傾けることによって、CCDなどの撮像素子の受光面に対してその結像面を傾けて、被写体像の一部のみを撮像素子の受光面に合焦させることが行われている。   2. Description of the Related Art Conventionally, in an imaging apparatus such as an electronic still camera, by tilting a lens with respect to an optical axis, the imaging surface is tilted with respect to a light receiving surface of an imaging element such as a CCD, and only a part of a subject image is imaged. The light receiving surface is focused on.

上記の手法を用いると、被写体像の特定の部分にのみピントを合わせて、他の部分を意図的にぼかすことができる。これによって、実際の風景をジオラマのように見ることができる。通常、上記の特定の部分は、画面の水平または垂直方向に均一となる。なお、このような撮影を行う際には、専用のレンズを用いる必要がある。   By using the above method, it is possible to focus on only a specific part of the subject image and intentionally blur other parts. This allows you to see the actual landscape as a diorama. Usually, the specific part is uniform in the horizontal or vertical direction of the screen. It should be noted that a dedicated lens needs to be used when performing such shooting.

一方、専用のレンズを用いることなく、通常のレンズを用いて撮影した画像について、画像処理によって画像の上下又は左右にぼかし処理を施すことによっても同様の効果が得られる。   On the other hand, the same effect can be obtained by subjecting an image taken using a normal lens to a blur process on the top and bottom or the left and right of the image by image processing without using a dedicated lens.

画像処理によってぼかし処理を施す手法として、例えば、AF(オートフォーカス)評価値に応じて被写体画像について主要被写体部領域と主要被写体部以外の領域とに分離して、主要被写体部以外の領域についてぼかし処理を行うようにしたものがある。ここでは、ズームレンズの位置を変更した場合には、ぼかし処理におけるぼかし量を変更するようにしている。   As a technique for performing blurring processing by image processing, for example, a subject image is separated into a main subject portion region and a region other than the main subject portion according to an AF (autofocus) evaluation value, and a region other than the main subject portion is blurred. There is something that is to be processed. Here, when the position of the zoom lens is changed, the blurring amount in the blurring process is changed.

特開2009−212899号公報JP 2009-212899 A

ところで、特許文献1に記載の手法では、被写体画像を主要被写体部領域と主要被写体部以外の領域とに分離する必要がある。このため分離に要する処理が複雑になって、処理に要する時間が掛かってしまう。つまり、ぼかし処理が複雑となるばかりでなく、ぼかし処理に時間が掛かってしまうという問題点がある。   By the way, in the method described in Patent Document 1, it is necessary to separate the subject image into a main subject portion region and a region other than the main subject portion. This complicates the processing required for separation, and takes time for processing. That is, there is a problem that not only the blurring process is complicated, but also the blurring process takes time.

さらに、分離処理を実行するために専用の電子部品などが必要になって、結果的に画像処理装置がコストアップとなってしまう。   Furthermore, a dedicated electronic component or the like is required to execute the separation process, resulting in an increase in the cost of the image processing apparatus.

従って、本発明の目的は、ぼかし処理が複雑となることなく、短時間でぼかし処理を行うことのできる画像処理装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus capable of performing blurring processing in a short time without complicating blurring processing, a control method thereof, and a control program.

本発明の他の目的は、コストアップすることなくぼかし処理を行うことのできる画像処理装置、その制御方法、および制御プログラムを提供することにある。   Another object of the present invention is to provide an image processing apparatus capable of performing blurring processing without increasing the cost, a control method thereof, and a control program.

上記の目的を達成するため、本発明による画像処理装置は、被写体像を撮像素子に結像した結果得られた画像データを処理して当該画像データの特定部分にぼけ処理を施してぼけ画像データを得る画像処理装置において、撮影レンズの焦点距離、前記撮影レンズと被写体との合焦距離、および前記撮像素子に入射される光量を制限する絞り値の少なくとも1つに応じて前記特定部分のぼかし度合いを設定するとともに、前記特定部分と前記特定部分以外との境界部分を規定するぼかし幅を設定する設定手段と、前記設定手段によって設定されたぼかし度合いおよびぼかし幅によって前記特定部分におけるぼけ度合いを変更するとともに、前記特定部分と前記特定部分以外の部分との境界部分の範囲を変更して、前記ぼけ処理を行う処理制御手段とを有し、前記処理制御手段は、前記焦点距離をぼかしパラメータとして用いた際、当該焦点距離が短くなるに伴って前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention processes image data obtained as a result of forming a subject image on an image sensor and applies a blur process to a specific portion of the image data to obtain blurred image data. In the image processing apparatus for obtaining the blur, the specific portion is blurred according to at least one of a focal length of the photographing lens, a focusing distance between the photographing lens and the subject, and an aperture value that restricts the amount of light incident on the imaging device A setting means for setting a blur width that defines a boundary portion between the specific part and the part other than the specific part, and a blur degree in the specific part by the blur degree and the blur width set by the setting means. And changing the range of the boundary portion between the specific portion and the portion other than the specific portion to perform the blur processing. Possess the door, said processing control means, when used as a parameter blurring the focal length, as well as strong blur degree in the specific portion in accordance with the relevant focal length is shortened, widen the range of the boundary portion It is characterized by that.

本発明による制御方法は、被写体像を撮像素子に結像した結果得られた画像データを処理して当該画像データの特定部分にぼけ処理を施してぼけ画像データを得る画像処理装置を制御するための制御方法において、撮影レンズの焦点距離、前記撮影レンズと被写体との合焦距離、および前記撮像素子に入射される光量を制限する絞り値の少なくとも1つに応じて前記特定部分のぼかし度合いを設定するとともに、前記特定部分と前記特定部分以外との境界部分を規定するぼかし幅を設定する設定ステップと、前記設定ステップによって設定されたぼかし度合いおよびぼかし幅によって前記特定部分におけるぼけ度合いを変更するとともに、前記特定部分と前記特定部分以外の部分との境界部分の範囲を変更して、前記ぼけ処理を行う処理制御ステップとを有し、前記処理制御ステップでは、前記焦点距離をぼかしパラメータとして用いた際、当該焦点距離が短くなるに伴って前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする。 The control method according to the present invention controls an image processing apparatus that processes image data obtained as a result of forming a subject image on an image sensor and performs blur processing on a specific portion of the image data to obtain blurred image data. In this control method, the blurring degree of the specific portion is set according to at least one of a focal length of the photographing lens, a focusing distance between the photographing lens and the subject, and an aperture value that restricts the amount of light incident on the imaging element. A setting step for setting a blur width that defines a boundary portion between the specific portion and a portion other than the specific portion; and a blur degree in the specific portion is changed according to a blur degree and a blur width set by the setting step. And processing control for performing the blur processing by changing a range of a boundary portion between the specific portion and a portion other than the specific portion. Possess a step, in the processing control step, when used as a parameter blurring the focal length, as well as strong blur degree in the specific portion in accordance with the relevant focal length becomes shorter, wider range of the boundary portion characterized in that it.

本発明による制御プログラムは、被写体像を撮像素子に結像した結果得られた画像データを処理して当該画像データの特定部分にぼけ処理を施してぼけ画像データを得る画像処理装置を制御するための制御プログラムにおいて、前記画像処理装置に備えられたコンピュータに、撮影レンズの焦点距離、前記撮影レンズと被写体との合焦距離、および前記撮像素子に入射される光量を制限する絞り値の少なくとも1つに応じて前記特定部分のぼかし度合いを設定するとともに、前記特定部分と前記特定部分以外との境界部分を規定するぼかし幅を設定する設定ステップと、前記設定ステップによって設定されたぼかし度合いおよびぼかし幅によって前記特定部分におけるぼけ度合いを変更するとともに、前記特定部分と前記特定部分以外の部分との境界部分の範囲を変更して、前記ぼけ処理を行う処理制御ステップとを実行させ、前記処理制御ステップでは、前記焦点距離をぼかしパラメータとして用いた際、当該焦点距離が短くなるに伴って前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする。 The control program according to the present invention controls an image processing apparatus that processes image data obtained as a result of forming a subject image on an image sensor and performs blur processing on a specific portion of the image data to obtain blurred image data. In the control program, at least one of the aperture value for limiting the focal length of the photographic lens, the focal length of the photographic lens and the subject, and the amount of light incident on the image sensor is stored in the computer provided in the image processing apparatus. The blurring degree of the specific part is set in accordance with the setting step, the blurring level defining the boundary part between the specific part and the non-specific part is set, and the blurring degree and the blurring set by the setting step are set. The degree of blur in the specific part is changed according to the width, and the specific part and the part other than the specific part Change the range of the boundary portion, wherein to execute a processing control step for performing blur processing, in the processing control step, when used as a parameter blurring the focal length, with the corresponding focal length is shortened The degree of blur in the specific part is increased, and the range of the boundary part is widened .

本発明によれば、ぼかし処理が複雑となることなく、しかも短時間でぼかし処理を行うことのできるばかりでなく、コスト低減を図ることができるという効果がある。   According to the present invention, there is an effect that the blurring process can be performed in a short time without complicating the blurring process and cost can be reduced.

本発明の実施の形態による画像処理装置が用いられた撮像装置の一例を示すブロック図である。It is a block diagram which shows an example of the imaging device with which the image processing apparatus by embodiment of this invention was used. 図1に示すカメラの動作を説明するためのフローチャートである。3 is a flowchart for explaining the operation of the camera shown in FIG. 1. 図2に示すズーム処理を詳細に説明するためのフローチャートである。3 is a flowchart for explaining in detail the zoom processing shown in FIG. 2. 図2に示す本撮影用AF処理を詳細に説明するためのフローチャートである。FIG. 3 is a flowchart for explaining in detail an AF process for main photographing shown in FIG. 2. FIG. 図2に示す本撮影用AE処理を詳細に説明するためのフローチャートである。3 is a flowchart for explaining in detail an AE process for main photographing shown in FIG. 2. 図2に示す本撮影処理を詳細に説明するためのフローチャートである。3 is a flowchart for explaining in detail the main photographing process shown in FIG. 2. 図6に示す画像処理を詳細に説明するためのフローチャートである。7 is a flowchart for explaining in detail the image processing shown in FIG. 6. 図7に示す縮小率/トリミング幅設定処理を詳細に説明するためのフローチャートである。FIG. 8 is a flowchart for explaining in detail the reduction ratio / trimming width setting process shown in FIG. 7. FIG. 図1に示すカメラにおけるぼかし処理の効果の一例を示す図であり、(a)は焦点距離が長くて、合焦距離が近い場合に絞りが小さいときのぼかし処理の効果を示す図、(b)は(a)に対応する画像とぼけ度合いとの関係を示す図、(c)は焦点距離が短く、合焦距離が遠い場合に絞りが大きいときのぼかし処理の効果を示す図、(d)は(c)に対応する画像とぼけ度合いとの関係を示す図である。FIG. 2A is a diagram illustrating an example of the effect of blurring processing in the camera shown in FIG. 1, and FIG. 4A is a diagram illustrating the effect of blurring processing when the focal length is long and the aperture is small when the focusing distance is close; ) Is a diagram showing the relationship between the image corresponding to (a) and the degree of blur, (c) is a diagram showing the effect of blurring processing when the aperture is large when the focal length is short and the focusing distance is long, and (d). FIG. 6 is a diagram illustrating a relationship between an image corresponding to (c) and a degree of blur.

以下、本発明の実施の形態による画像処理装置が用いられた撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus using an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態による画像処理装置が用いられた撮像装置の一例を示すブロック図である。ここでは、撮像装置として電子スチルカメラ(以下、単にカメラと呼ぶ)を例に挙げて説明するが、ビデオカメラなどの撮像装置にも同様にして適用することができる。   FIG. 1 is a block diagram illustrating an example of an imaging apparatus using an image processing apparatus according to an embodiment of the present invention. Here, an electronic still camera (hereinafter simply referred to as a camera) will be described as an example of the imaging apparatus, but the present invention can be similarly applied to an imaging apparatus such as a video camera.

図1を参照して、図示のカメラはフォーカスレンズ101を有しており、このフォーカスレンズ101によって後述する撮像素子に被写体像の焦点が合わせられる。このフォーカスレンズ101はフォーカスレンズ駆動モータ102によって駆動される。   With reference to FIG. 1, the illustrated camera has a focus lens 101, and the focus lens 101 focuses an object image on an imaging device described later. The focus lens 101 is driven by a focus lens drive motor 102.

さらに、カメラはズームレンズ103を有し、このズームレンズ103によって撮影レンズ(図示せず)の焦点距離が変更される。ズームレンズ103はズームレンズ駆動モータ104によって駆動される。絞り105によって撮像素子に入射する光量が制限され、この絞り105は絞り駆動モータ106によって駆動される。   Further, the camera has a zoom lens 103, and the focal length of a photographing lens (not shown) is changed by the zoom lens 103. The zoom lens 103 is driven by a zoom lens driving motor 104. The amount of light incident on the image sensor is limited by the diaphragm 105, and the diaphragm 105 is driven by the diaphragm drive motor 106.

撮像素子107には被写体像が光学像として結像されて、撮像素子107は光学像を電気信号(アナログ画像信号)に変換して出力する。このアナログ画像信号はA/D変換器108によってデジタル画像信号に変換されて、画像処理プロセッサ109に与えられる。画像処理プロセッサ109はデジタル画像信号に対して所定の画像処理を施して、画像データを生成する。そして、画像データはバッファメモリ110に一時的に記憶される。   A subject image is formed as an optical image on the image sensor 107, and the image sensor 107 converts the optical image into an electrical signal (analog image signal) and outputs the signal. The analog image signal is converted into a digital image signal by the A / D converter 108 and supplied to the image processor 109. The image processor 109 performs predetermined image processing on the digital image signal to generate image data. The image data is temporarily stored in the buffer memory 110.

カメラはシステム制御用CPU(以下、単にCPUと呼ぶ)111を有しており、このCPU111は撮影シーケンスなどを実行してカメラを制御する。CPU111で実行されるプログラムはプログラムメモリ112に記憶されている。CPU111はプログラムメモリ112に記憶されたプログラムに従って処理を行う際、必要な各種データをワークメモリ113に書き込み、また各種データをワークメモリ113から読み出す。   The camera has a system control CPU (hereinafter simply referred to as CPU) 111, which controls the camera by executing a shooting sequence and the like. A program executed by the CPU 111 is stored in the program memory 112. When the CPU 111 performs processing according to the program stored in the program memory 112, it writes various necessary data to the work memory 113 and reads various data from the work memory 113.

CPU111の制御下で画像表示部114に画像が表示される。図示のように、CPU111には、撮影準備スイッチ(SW1)115、撮影処理指示スイッチ(SW2)116、およびズームスイッチ(SW)117が接続されている。   An image is displayed on the image display unit 114 under the control of the CPU 111. As illustrated, the CPU 111 is connected with a shooting preparation switch (SW1) 115, a shooting processing instruction switch (SW2) 116, and a zoom switch (SW) 117.

撮影準備スイッチ115はオートフォーカス(AF)および自動露出制御(以下AEという)などの撮影準備を、CPU111に指示するためのスイッチである。撮影処理指示スイッチ116は撮影準備指示スイッチ115の操作の後、本露光および記録動作などの撮影処理を、CPU111に指示するためのスイッチである。また、ズームスイッチ117はズーム動作の開始および停止をCPU111に指示するスイッチである。なお、このズームSW117はTele(望遠)およびWide(広角)のスイッチを有している。   The shooting preparation switch 115 is a switch for instructing the CPU 111 to prepare for shooting such as autofocus (AF) and automatic exposure control (hereinafter referred to as AE). The photographing process instruction switch 116 is a switch for instructing the CPU 111 to perform photographing processes such as main exposure and recording operation after the operation of the photographing preparation instruction switch 115. The zoom switch 117 is a switch for instructing the CPU 111 to start and stop the zoom operation. The zoom SW 117 has a tele switch and a wide switch.

図2は、図1に示すカメラの動作を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining the operation of the camera shown in FIG.

図1および図2を参照して、まず、CPU111は撮影準備スイッチ115の状態を監視して、撮影準備スイッチ115がオン(ON)であるか否かについて判定する(ステップS201)。撮影準備スイッチ115がONでないと(ステップS201において、NO)、CPU111は、後述する手順に従ってズームレンズ駆動モータ104を制御してズームレンズ103を駆動し、撮影レンズの焦点距離を変更する(ズーム処理:ステップS202)。   With reference to FIG. 1 and FIG. 2, first, the CPU 111 monitors the state of the shooting preparation switch 115 to determine whether or not the shooting preparation switch 115 is on (step S201). If the shooting preparation switch 115 is not ON (NO in step S201), the CPU 111 controls the zoom lens driving motor 104 according to the procedure described later to drive the zoom lens 103 to change the focal length of the shooting lens (zoom processing). : Step S202).

続いて、CPU111は絞り駆動モータ106およびシャッタースピードを制御して、画像表示部114に表示される画像の明るさが適正になるようにAE動作を行う(ステップ203)。そして、CPU111は光源の色温度に拘わらず画像表示部114に表示される画像が適切な色バランスになるようオートホワイトバランス(AWB)動作を行う(ステップS204)。   Subsequently, the CPU 111 controls the aperture driving motor 106 and the shutter speed, and performs an AE operation so that the brightness of the image displayed on the image display unit 114 becomes appropriate (step 203). Then, the CPU 111 performs an auto white balance (AWB) operation so that an image displayed on the image display unit 114 has an appropriate color balance regardless of the color temperature of the light source (step S204).

さらに、CPU11は、画像処理プロセッサ109を制御して、撮像素子107からの読み出しの結果得られた画像信号に所定の処理を施して、画像として画像表示部114に表示する(ステップS205:EVF処理)。そして、CPU111はステップS201に戻る。   Further, the CPU 11 controls the image processor 109 to perform a predetermined process on the image signal obtained as a result of reading from the image sensor 107 and display it as an image on the image display unit 114 (step S205: EVF process). ). Then, the CPU 111 returns to step S201.

ステップS201において、撮影準備スイッチ115がONであると(ステップS201において、YES)、CPU111は、後述する手順に従ってフォーカスレンズ駆動モータ102を制御してフォーカスレンズ101を駆動し、本撮影用AF処理を行う(ステップS206)。続いて、CPU111は後述する手順に従って本撮影用AE処理を行う(ステップS207)。   If the shooting preparation switch 115 is ON in step S201 (YES in step S201), the CPU 111 controls the focus lens driving motor 102 to drive the focus lens 101 according to a procedure described later, and performs the main shooting AF process. This is performed (step S206). Subsequently, the CPU 111 performs a main photographing AE process according to a procedure described later (step S207).

CPU111は、撮影処理指示スイッチ116の状態を監視して、撮影指示スイッチ116がONであるか否かについて判定する(ステップS208)。撮影処理指示スイッチ116がONでないと(ステップS208において、NO)、CPU111は待機する。   The CPU 111 monitors the state of the photographing processing instruction switch 116 and determines whether or not the photographing instruction switch 116 is ON (step S208). If photographing process instruction switch 116 is not ON (NO in step S208), CPU 111 stands by.

一方、撮影処理指示スイッチ116がONであると(ステップS208において、YES)、CPU111は、後述する手順に従って本撮影処理を行う(ステップS209)。そして、CPU111はステップS201に戻る。   On the other hand, when shooting process instruction switch 116 is ON (YES in step S208), CPU 111 performs a main shooting process according to a procedure described later (step S209). Then, the CPU 111 returns to step S201.

図3は、図2に示すズーム処理(ステップS202)を詳細に説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining in detail the zoom process (step S202) shown in FIG.

図1および図3を参照して、ズーム処理が開始されると、CPU111は、ズームSW117がONであるか否かについて判定する(ステップS301)。ここで、ズームSW117がONであるとは、TeleまたはWideのスイッチのうちいずれか一方がONになっている状態をいう。   Referring to FIGS. 1 and 3, when zoom processing is started, CPU 111 determines whether or not zoom SW 117 is ON (step S301). Here, the zoom SW 117 being ON means a state in which one of the Tele or Wide switches is ON.

ズームSW117がONであると(ステップS301において、YES)、CPU111はズーム駆動中フラグがTRUE(真)であるかどうか否かについて判定する(ステップS302)。なお、図示しない初期化処理において、CPU111はズーム駆動中フラグをFALSE(偽)としてワークメモリ113に設定する。   If zoom SW 117 is ON (YES in step S301), CPU 111 determines whether or not the zoom driving flag is TRUE (step S302). In the initialization process (not shown), the CPU 111 sets the zoom driving flag as FALSE (false) in the work memory 113.

ズーム駆動中フラグがTRUEでないと(ステップS302において、NO)、つまり、ズーム駆動中フラグがFALSEであると、CPU111はズームSW117のうちTeleスイッチがONであるか否かについて判定する(ステップS303)。   If the zoom driving flag is not TRUE (NO in step S302), that is, if the zoom driving flag is FALSE, the CPU 111 determines whether or not the Tele switch of the zoom SW 117 is ON (step S303). .

そして、ズームSW117のTeleスイッチがONであると(ステップS303において、YES)、CPU111はズームレンズ駆動モータ104を制御して、ズームレンズ103をTele方向に向けて駆動する(ステップS304)その後、CPU111はズーム駆動中フラグをTRUEに変更してワークメモリ113に記憶して(ステップS305)、ステップS203(図2)に戻る。   If the Tele switch of the zoom SW 117 is ON (YES in Step S303), the CPU 111 controls the zoom lens driving motor 104 to drive the zoom lens 103 in the Tele direction (Step S304), and then the CPU 111. Changes the zoom driving flag to TRUE, stores it in the work memory 113 (step S305), and returns to step S203 (FIG. 2).

一方、ズームSW117のTeleスイッチがONでないと(ステップS303において、NO)、CPU111はズームレンズ駆動モータ104を制御して、ズームレンズ103をWide方向に向けて駆動する(ステップS306)。その後、CPU111は、ステップS305に進み、ズーム駆動中フラグをTRUEに変更してワークメモリ113に記憶する。   On the other hand, if the Tele switch of the zoom SW 117 is not ON (NO in step S303), the CPU 111 controls the zoom lens driving motor 104 to drive the zoom lens 103 in the wide direction (step S306). Thereafter, the CPU 111 proceeds to step S305, changes the zoom driving flag to TRUE, and stores it in the work memory 113.

ステップS302において、ズーム駆動中フラグがTRUEであると(ステップS302において、YES)、CPU111はズームレンズ103がTele端又はWide端に到達したか否かについて判定する(ステップS307)。   If the zoom driving flag is TRUE in step S302 (YES in step S302), the CPU 111 determines whether or not the zoom lens 103 has reached the tele end or the wide end (step S307).

ズームレンズ103がTele端又はWide端に達すると(ステップS307において、YES)、CPU111はズームレンズ駆動モータ104を制御してズームレンズ103を停止する(ステップS308)。そして、CPU111は、ズームレンズ103の停止によってその焦点距離をワークメモリ113に記憶する(ステップS309)。ここで、CPU111はレンズ設計データに基づいて、ズームレンズ103の可動範囲内における物理的な位置を焦点距離に換算して、当該焦点距離を求める。続いて、CPU111はズーム駆動中フラグをFALSEとしてワークメモリ113に記憶して(ステップS310)、ステップS203(図2)に進む。   When zoom lens 103 reaches the Tele end or Wide end (YES in step S307), CPU 111 controls zoom lens drive motor 104 to stop zoom lens 103 (step S308). Then, the CPU 111 stores the focal length in the work memory 113 by stopping the zoom lens 103 (step S309). Here, based on the lens design data, the CPU 111 converts the physical position within the movable range of the zoom lens 103 into a focal length to obtain the focal length. Subsequently, the CPU 111 stores the zoom driving flag as FALSE in the work memory 113 (step S310), and proceeds to step S203 (FIG. 2).

なお、ステップS307において、ズームレンズ103がTele端又はWide端に達していないと(ステップS307において、NO)、CPU111はステップS203(図2)に進む。   If the zoom lens 103 has not reached the Tele end or the Wide end in step S307 (NO in step S307), the CPU 111 proceeds to step S203 (FIG. 2).

前述のステップS301において、ズームSW117がONでないと(ステップS301において、NO)、CPU111はズーム駆動中フラグがTRUEであるか否かについて判定する(ステップS311)。そして、ズーム駆動中フラグがTUREであると(ステップS311において、YES)、CPU111はステップS308に進んで、ズームレンズ103を停止する。   If the zoom SW 117 is not ON in step S301 described above (NO in step S301), the CPU 111 determines whether or not the zoom driving flag is TRUE (step S311). If the zoom driving flag is TURE (YES in step S311), the CPU 111 proceeds to step S308 and stops the zoom lens 103.

一方、ズーム駆動中フラグがTUREでないと(ステップS311において、NO)、CPU111はステップS203(図2)に進む。   On the other hand, if the zoom driving flag is not TURE (NO in step S311), the CPU 111 proceeds to step S203 (FIG. 2).

図4は、図2に示す本撮影用AF処理(ステップS206)を詳細に説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining in detail the main photographing AF process (step S206) shown in FIG.

図1および図4を参照して、本撮影用AF処理が開始されると、CPU111はフォーカスレンズ駆動モータ102を制御して、フォーカスレンズ101を予め定められたスキャン開始位置(駆動開始位置ともいう)に移動する(ステップS401)。ここで、スキャン開始位置は合焦可能範囲の無限端であるとする。   Referring to FIGS. 1 and 4, when the main photographing AF process is started, the CPU 111 controls the focus lens driving motor 102 to move the focus lens 101 to a predetermined scan start position (also referred to as a drive start position). (Step S401). Here, it is assumed that the scan start position is the infinite end of the focusable range.

そして、撮像素子107から読み出されたアナログ映像信号(画像信号)がA/D変換器108によってデジタル画像信号に変換されて、画像処理プロセッサ109に与えられる。画像処理プロセッサ109はデジタル画像信号に含まれる輝度信号の高周波成分を抽出して、焦点評価値としてCPU111に与える。CPU111は焦点評価値をワークメモリ113に記憶する(ステップS402:焦点評価値取得)。   The analog video signal (image signal) read from the image sensor 107 is converted into a digital image signal by the A / D converter 108 and supplied to the image processor 109. The image processor 109 extracts a high-frequency component of the luminance signal included in the digital image signal and gives it to the CPU 111 as a focus evaluation value. The CPU 111 stores the focus evaluation value in the work memory 113 (step S402: acquisition of focus evaluation value).

この際、CPU111は、フォーカスレンズ101の現在位置を取得してワークメモリ113に記憶する(ステップS403)。図示の例では、フォーカスレンズ駆動モータ102としてステッピングモータが用いられており、CPU111はフォーカスレンズ101を駆動する際、フォーカスレンズ駆動モータに与える駆動パルスをカウントしてフォーカスレンズ101の現在位置を得る。この現在位置は、上記の焦点評価値と対応付けてワークメモリ113に記憶される。   At this time, the CPU 111 acquires the current position of the focus lens 101 and stores it in the work memory 113 (step S403). In the illustrated example, a stepping motor is used as the focus lens drive motor 102, and when the CPU 111 drives the focus lens 101, the CPU 111 counts drive pulses applied to the focus lens drive motor to obtain the current position of the focus lens 101. This current position is stored in the work memory 113 in association with the focus evaluation value.

次に、CPU111は、フォーカスレンズ101の現在位置が所定のスキャン終了位置(駆動終了位置ともいう)であるか否かについて確認する(ステップS404)。ここでは、スキャン終了位置は合焦可能範囲の至近端とであるとする。   Next, the CPU 111 checks whether or not the current position of the focus lens 101 is a predetermined scan end position (also referred to as a drive end position) (step S404). Here, the scan end position is assumed to be the closest end of the focusable range.

フォーカスレンズ101の現在位置がスキャン終了位置でないと(ステップS404において、NO)、CPU111はフォーカスレンズ駆動モータ102を制御してフォーカスレンズ101をスキャン終了位置に向かって所定の量だけ移動する(ステップS405)。そして、CPU111はステップS402に戻って、当該フォーカスレンズ102の位置で再び焦点評価値を取得する。   If the current position of the focus lens 101 is not the scan end position (NO in step S404), the CPU 111 controls the focus lens drive motor 102 to move the focus lens 101 by a predetermined amount toward the scan end position (step S405). ). Then, the CPU 111 returns to step S <b> 402 and acquires the focus evaluation value again at the position of the focus lens 102.

一方、フォーカスレンズ101の現在位置がスキャン終了位置であると(ステップS404において、YES)、CPU111は上述のようにして得られた焦点評価値から最大の焦点評価値をピーク値として抽出する(ステップS406)。   On the other hand, when the current position of focus lens 101 is the scan end position (YES in step S404), CPU 111 extracts the maximum focus evaluation value as a peak value from the focus evaluation values obtained as described above (step S404). S406).

つまり、CPU111はスキャン開始位置からスキャン終了位置まで、所定の量ずつフォーカスレンズ102を駆動して、所定の量フォーカスレンズを移動する毎に焦点評価値を取得する。そして、CPU111は、このようにして得られた複数の焦点評価値の中から最大の焦点評価値をピーク値とすることになる。   That is, the CPU 111 drives the focus lens 102 by a predetermined amount from the scan start position to the scan end position, and obtains a focus evaluation value every time the focus lens is moved by a predetermined amount. Then, the CPU 111 sets the maximum focus evaluation value among the plurality of focus evaluation values obtained in this way as a peak value.

続いて、CPU111はワークメモリ113を検索して、ステップS403において記憶したフォーカスレンズ101の現在位置の中からピーク値に対応する位置を抽出する。そして、CPU111はピーク値に対応する位置をピーク値のフォーカスレンズ位置(単にピーク位置とも呼ぶ)とする(ステップS407)。   Subsequently, the CPU 111 searches the work memory 113 and extracts a position corresponding to the peak value from the current position of the focus lens 101 stored in step S403. Then, the CPU 111 sets the position corresponding to the peak value as the focus lens position of the peak value (also simply referred to as the peak position) (step S407).

次に、CPU111は、レンズ設計データに基づいてピーク位置をカメラ(つまり、撮影レンズ)から被写体までの距離、つまり、合焦距離に換算してワークメモリ113に記憶する(ステップS408)。続いて、CPU111はフォーカスレンズ駆動モータ102を制御してピーク位置にフォーカスレンズ101を移動する(ステップS409)。そして、CPU111は図2に示すステップS207に進む。   Next, the CPU 111 converts the peak position into the distance from the camera (that is, the photographing lens) to the subject, that is, the focal distance based on the lens design data, and stores it in the work memory 113 (step S408). Subsequently, the CPU 111 controls the focus lens driving motor 102 to move the focus lens 101 to the peak position (step S409). Then, the CPU 111 proceeds to step S207 shown in FIG.

なお、上記の説明において、ステップS401〜S405までの処理はスキャンと呼ばれる。   In the above description, the processing from step S401 to S405 is called scanning.

図5は、図2に示す本撮影用AE処理(ステップS207)を詳細に説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining in detail the main photographing AE process (step S207) shown in FIG.

図1および図5を参照して、本撮影用AE処理が開始されると、CPU111はシャッタを開いて撮像素子107を露光する(ステップS501)。続いて、CPU111の制御下で撮像素子107からアナログ画像信号が読み出される(ステップS502:画像データ読出し)。そして、このアナログ画像信号はA/D変換器108によってデジタル画像信号に変換されて(ステップS503)、画像処理プロセッサ109に与えられる。   Referring to FIG. 1 and FIG. 5, when the main photographing AE process is started, the CPU 111 opens the shutter to expose the image sensor 107 (step S501). Subsequently, an analog image signal is read from the image sensor 107 under the control of the CPU 111 (step S502: image data reading). The analog image signal is converted into a digital image signal by the A / D converter 108 (step S503), and is supplied to the image processor 109.

画像処理プロセッサ109は、CPU111の制御下でデジタル画像信号に応じて被写体の輝度を算出して、被写体輝度データを得る(ステップS504)。この被写体輝度データはCPU111に与えられ、CPU111は被写体輝度データに応じて絞り105のF値を決定する(ステップS505)。そして、CPU111は、決定した絞りのF値が得られるように絞り駆動モータ106を制御して、絞り105を駆動する。   The image processor 109 calculates subject brightness according to the digital image signal under the control of the CPU 111 to obtain subject brightness data (step S504). This subject luminance data is given to the CPU 111, and the CPU 111 determines the F value of the aperture 105 according to the subject luminance data (step S505). Then, the CPU 111 drives the diaphragm 105 by controlling the diaphragm drive motor 106 so that the determined F value of the diaphragm is obtained.

続いて、CPU111は、上記のようにして決定した絞りのF値をワークメモリ113に記憶する(ステップS506)。さらに、CPU111は被写体輝度データに応じてシャッタースピードを設定する(ステップS507)。そして、CPU111は被写体輝度データに応じて画像信号の輝度レベルを所定の倍率とするためのゲインを設定する(ステップS508)。その後、CPU111は、図2に示すステップS208に進む。   Subsequently, the CPU 111 stores the aperture F value determined as described above in the work memory 113 (step S506). Further, the CPU 111 sets a shutter speed according to the subject luminance data (step S507). Then, the CPU 111 sets a gain for setting the luminance level of the image signal to a predetermined magnification according to the subject luminance data (step S508). Thereafter, the CPU 111 proceeds to step S208 shown in FIG.

図6は、図2に示す本撮影処理(ステップS209)を詳細に説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining in detail the main photographing process (step S209) shown in FIG.

図1および図6を参照して、本撮影処理が開始されると、CPU111は、シャッタを開いて撮像素子107を露光する(ステップS601)。続いて、CPU111の制御下で撮像素子107からアナログ画像信号が読み出され(ステップS602)、このアナログ画像信号はA/D変換器108によってデジタル画像信号に変換される(ステップS603)。   Referring to FIGS. 1 and 6, when the main photographing process is started, CPU 111 opens the shutter and exposes image sensor 107 (step S601). Subsequently, an analog image signal is read from the image sensor 107 under the control of the CPU 111 (step S602), and the analog image signal is converted into a digital image signal by the A / D converter 108 (step S603).

デジタル画像信号は画像処理プロセッサ109に与えられる。画像処理プロセッサ109は、CPU111の制御下で、後述するようにして、デジタル画像信号に対して画像処理を施し、画像データとする(ステップS604)。   The digital image signal is supplied to the image processor 109. Under the control of the CPU 111, the image processor 109 performs image processing on the digital image signal as described later to obtain image data (step S604).

続いて、画像処理プロセッサ109は画像データを、例えば、JPEGなどのフォーマットに応じて圧縮した後(ステップS605)、この圧縮画像データを記録媒体(図示せず)に記録する(ステップS606)。そして、CPU111は、図2に示すステップS201に戻る。   Subsequently, the image processor 109 compresses the image data according to a format such as JPEG (step S605), and then records the compressed image data on a recording medium (not shown) (step S606). Then, the CPU 111 returns to step S201 shown in FIG.

図7は、図6に示す画像処理(ステップS604)を詳細に説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining in detail the image processing (step S604) shown in FIG.

図1および図7を参照して、画像処理が開始されると、CPU111は、後述するようにして、画像データに関する縮小率およびトリミング幅を画像処理プロセッサ109に設定する(ステップS701)。続いて、画像処理プロセッサは、デジタル画像信号をオリジナル画像データとして、そのコピーをバッファメモリ110に一時的に記憶する(ステップS702)。   Referring to FIGS. 1 and 7, when image processing is started, CPU 111 sets a reduction rate and a trimming width relating to image data in image processing processor 109 as described later (step S701). Subsequently, the image processor temporarily stores a copy of the digital image signal as original image data in the buffer memory 110 (step S702).

次に、画像処理プロセッサ109は、設定された縮小率に応じてオリジナル画像データを縮小して、縮小画像データとする(ステップS703)。そして、画像処理プロセッサ109は縮小画像データを元のサイズに拡大して、拡大画像データとする(ステップS704)。この時点において、拡大画像データに係る画像は、縮小前オリジナル画像データに係る画像よりもぼけた画像となる。   Next, the image processor 109 reduces the original image data in accordance with the set reduction ratio to obtain reduced image data (step S703). Then, the image processor 109 enlarges the reduced image data to the original size to obtain enlarged image data (step S704). At this time, the image related to the enlarged image data becomes a blurred image compared to the image related to the original image data before reduction.

続いて、画像処理プロセッサ109は、設定されたトリミング幅に応じて拡大処理によって得られた拡大画像データの上下又は左右を残してトリミングする(ステップS705)。そして、画像処理プロセッサ109は、トリミングの結果得られたトリミング画像データとバッファメモリ110に記憶したオリジナル画像データのコピーとを合成して、合成画像データとする(ステップS706)。   Subsequently, the image processor 109 trims the enlarged image data obtained by the enlargement process according to the set trimming width, leaving the upper and lower sides or the left and right sides (step S705). Then, the image processor 109 synthesizes the trimmed image data obtained as a result of the trimming with the copy of the original image data stored in the buffer memory 110 to obtain composite image data (step S706).

この際、画像処理プロセッサ109は、トリミング画像データとオリジナル画像データの境目においてなだらかに合成を行って、その境界部を目立たなくする。そして、画像処理プロセッサ109は、図6に示すステップS605に進む。   At this time, the image processor 109 performs a smooth synthesis at the boundary between the trimmed image data and the original image data, thereby making the boundary inconspicuous. Then, the image processor 109 proceeds to step S605 shown in FIG.

このようにして、画像データを一旦縮小した後拡大することによってぼけた画像データを得る。さらに、このぼけ画像データの上下又は左右を残してトリミングして、オリジナル画像データに合成することによって上下又は左右のみぼけた画像データを得る。   In this way, blurred image data is obtained by temporarily reducing and then enlarging the image data. Further, trimming is performed while leaving the top and bottom or the left and right of the blurred image data, and the resultant image data is synthesized with the original image data to obtain image data that is blurred in the top and bottom or the left and right.

図8は、図7に示す縮小率/トリミング幅設定処理(ステップS701)を詳細に説明するためのフローチャートである。   FIG. 8 is a flowchart for explaining in detail the reduction ratio / trimming width setting process (step S701) shown in FIG.

図1および図8を参照して、縮小率/トリミング幅設定処理を開始すると、CPU111は、図3で説明した焦点距離が所定の焦点距離(第1の所定値)より大きいか否かについて調べる(ステップS801)。焦点距離が第1の所定値よりも大きいと(ステップS801において、YES)、CPU111は縮小率の計算に用いる縮小係数RA(焦点距離に係る縮小率)を第1の縮小係数(ra1)に設定する(ステップS802)。そして、CPU111はトリミング幅の計算に用いるトリミング幅係数WA(焦点距離に係るトリミング幅)を第1のトリミング幅係数(wa1)に設定する(ステップS803)。   Referring to FIGS. 1 and 8, when the reduction ratio / trimming width setting process is started, CPU 111 checks whether or not the focal length described in FIG. 3 is greater than a predetermined focal length (first predetermined value). (Step S801). If the focal length is greater than the first predetermined value (YES in step S801), the CPU 111 sets the reduction factor RA (reduction rate related to the focal length) used for calculating the reduction rate to the first reduction factor (ra1). (Step S802). Then, the CPU 111 sets the trimming width coefficient WA (trimming width related to the focal length) used for calculation of the trimming width to the first trimming width coefficient (wa1) (step S803).

一方、焦点距離が第1の所定値以下であると(ステップS801において、NO)、CPU111は縮小率の計算に用いる縮小係数RAを第2の縮小係数(ra2)に設定する(ステップS804)。そして、CPU111はトリミング幅の計算に用いるトリミング幅係数WAを第2のトリミング幅係数(wa2)に設定する(ステップS805)。   On the other hand, when the focal length is equal to or shorter than the first predetermined value (NO in step S801), CPU 111 sets the reduction coefficient RA used for calculating the reduction ratio to the second reduction coefficient (ra2) (step S804). Then, the CPU 111 sets the trimming width coefficient WA used for calculation of the trimming width to the second trimming width coefficient (wa2) (step S805).

図示の例では、ra1<ra2、wa1<wa2の関係にある。つまり、焦点距離が所定値以下の場合(焦点距離がWide側にある場合)には、被写界深度が深くなって光学的なぼけが弱まる分、画像処理によるぼかし効果をより強くすることによって補うようにする。同様にして、ぼかし幅も広くする。   In the illustrated example, there is a relationship of ra1 <ra2 and wa1 <wa2. In other words, when the focal length is less than or equal to a predetermined value (when the focal length is on the Wide side), by increasing the blurring effect by image processing, the depth of field becomes deeper and the optical blur is weakened. Make up. Similarly, the blur width is increased.

続いて、CPU111は図4で説明した合焦距離が所定の合焦距離(第2の所定値)より大きいか否かについて調べる(ステップS806)。合焦距離が第2の所定値よりも大きいと(ステップS806において、YES)、CPU111は縮小率の計算に用いる縮小係数RB(合焦距離に係る縮小率)を第3の縮小係数(rb1)に設定する(ステップS807)。そして、CPU111はトリミング幅の計算に用いるトリミング幅係数WB(合焦距離に係るトリミング幅)を第3のトリミング幅係数(wb1)に設定する(ステップS808)。   Subsequently, the CPU 111 checks whether or not the focusing distance described with reference to FIG. 4 is greater than a predetermined focusing distance (second predetermined value) (step S806). If the in-focus distance is greater than the second predetermined value (YES in step S806), the CPU 111 uses the reduction coefficient RB (reduction ratio related to the in-focus distance) used for calculating the reduction ratio as the third reduction coefficient (rb1). (Step S807). Then, the CPU 111 sets the trimming width coefficient WB (trimming width related to the in-focus distance) used for calculation of the trimming width to the third trimming width coefficient (wb1) (step S808).

一方、合焦距離が第2の所定値以下であると(ステップS806において、NO)、CPU111は縮小率の計算に用いる縮小係数RBを第4の縮小係数(rb2)に設定する(ステップS809)。そして、CPU111はトリミング幅の計算に用いるトリミング幅係数WBを第4のトリミング幅係数(wb2)に設定する(ステップS810)。   On the other hand, when the in-focus distance is equal to or smaller than the second predetermined value (NO in step S806), CPU 111 sets the reduction coefficient RB used for calculation of the reduction ratio to the fourth reduction coefficient (rb2) (step S809). . Then, the CPU 111 sets the trimming width coefficient WB used for the calculation of the trimming width to the fourth trimming width coefficient (wb2) (step S810).

ここでは、rb1>rb2、wb1>wb2という関係にある。つまり、合焦距離が所定値より大きい場合(合焦距離が遠距離側にある場合)には被写界深度が深くなって光学的なぼけが弱まる分、画像処理によるぼかし効果をより強くすることによって補うようにする。同様にして、ぼかし幅も広くする。   Here, there is a relationship of rb1> rb2 and wb1> wb2. In other words, when the in-focus distance is greater than a predetermined value (when the in-focus distance is on the far side), the blurring effect by image processing is further increased by the amount of depth of field that becomes deeper and the optical blur is reduced. To make up for it. Similarly, the blur width is increased.

続いて、CPU111は、図5で説明した絞り値が所定の絞り値(第3の所定値)より大きいか否かについて調べる(ステップS811)。絞り値が第3の所定値より大きいと(ステップS811において、YES)、CPU111は縮小率の計算に用いる縮小係数RC(絞り値に係る縮小率)を第5の縮小係数(rc1)に設定する(ステップS812)。そして、CPU111はトリミング幅の計算に用いるトリミング幅係数WC(絞り値に係るトリミング幅)を第5のトリミング幅係数(wc1)に設定する(ステップS813)。   Subsequently, the CPU 111 checks whether or not the aperture value described in FIG. 5 is larger than a predetermined aperture value (third predetermined value) (step S811). If the aperture value is larger than the third predetermined value (YES in step S811), the CPU 111 sets the reduction factor RC (reduction rate related to the aperture value) used for calculating the reduction rate to the fifth reduction factor (rc1). (Step S812). Then, the CPU 111 sets the trimming width coefficient WC (trimming width related to the aperture value) used for calculation of the trimming width to the fifth trimming width coefficient (wc1) (step S813).

一方、絞り値が第3の所定値以下であると(ステップS811において、NO)、CPU111は縮小率の計算に用いる縮小係数RCを第6の縮小係数(rc2)に設定する(ステップS814)。そして、CPU111はトリミング幅の計算に用いるトリミング幅係数WCを第6のトリミング幅係数(wc2)に設定する(ステップS815)。   On the other hand, if the aperture value is equal to or smaller than the third predetermined value (NO in step S811), CPU 111 sets the reduction coefficient RC used for calculation of the reduction ratio to the sixth reduction coefficient (rc2) (step S814). Then, the CPU 111 sets the trimming width coefficient WC used for calculation of the trimming width to the sixth trimming width coefficient (wc2) (step S815).

ここでは、rc1>rc2、wc1>wc2という関係にある。つまり、絞り値が所定値より大きい場合(より絞っている場合)には、被写界深度が深くなって光学的なぼけが弱まる分、画像処理によるぼかし効果をより強くすることによって補うようにする。同様にして、ぼかし幅も広くする。   Here, there is a relationship of rc1> rc2 and wc1> wc2. In other words, when the aperture value is larger than the predetermined value (when the aperture value is further reduced), the depth of field becomes deeper and the optical blur is reduced, so that the blurring effect by image processing is made stronger to compensate for it. To do. Similarly, the blur width is increased.

次に、CPU111は下記の式(1)を用いて、画像データの縮小率Rを算出する(ステップS816)。   Next, the CPU 111 calculates the reduction rate R of the image data using the following equation (1) (step S816).

R=RA×RB×RC (1)
このように、CPU111は、焦点距離、合焦距離、および絞り値の全てを加味した縮小率を求めて、前述したように、画像処理プロセッサ109に設定する。そして、画像処理プロセッサ109は当該縮小率Rに応じて画像データ(オリジナル画像データ)の縮小処理を行う。
R = RA × RB × RC (1)
In this way, the CPU 111 obtains a reduction ratio that takes into account all of the focal length, the focusing distance, and the aperture value, and sets it in the image processor 109 as described above. Then, the image processor 109 performs a reduction process of the image data (original image data) according to the reduction ratio R.

続いて、CPU111は、下記の式(2)を用いて、画像データのトリミング幅Wを算出する(ステップS817)。   Subsequently, the CPU 111 calculates the trimming width W of the image data using the following equation (2) (step S817).

W=WA×WB×WC (2)
このように、CPU111は、焦点距離、合焦距離、および絞り値の全てを加味したトリミング幅Wを求めて、前述したように、画像処理プロセッサ109に設定する。そして、画像処理プロセッサ109は当該トリミング幅Wに応じて画像データについてトリミング処理を行う。
W = WA × WB × WC (2)
As described above, the CPU 111 obtains the trimming width W including all of the focal length, the focusing distance, and the aperture value, and sets the trimming width W in the image processor 109 as described above. Then, the image processor 109 performs a trimming process on the image data according to the trimming width W.

上述のようにして、縮小率Rおよびトリミング幅Wが設定された後、処理は図7に示すステップS702に進む。   After the reduction ratio R and the trimming width W are set as described above, the process proceeds to step S702 shown in FIG.

図8で説明したようにして、縮小率Rおよびトリミング幅Wを設定して、画像合成を行うと、焦点距離、合焦距離、および絞り値によって被写界深度が深くなって、光学的なぼけ効果が小さくなる場合にはぼかし処理が強くなる。この結果、ぼかし幅が広くなって、効果的なボケ画像を得ることができる。   As described with reference to FIG. 8, when the reduction ratio R and the trimming width W are set and image synthesis is performed, the depth of field increases due to the focal length, the focusing distance, and the aperture value. When the blur effect is small, the blurring process is strong. As a result, the blur width becomes wide and an effective blurred image can be obtained.

また、被写界深度が深い場合にはぼかし処理を弱めて、ぼかし幅も狭くするようにすれば、光学的なぼけを生かした画像を得ることができる。   Also, if the depth of field is deep, the blurring process is weakened and the blur width is also narrowed, so that an image using optical blur can be obtained.

なお、上述の例では、焦点距離、合焦距離、および絞り値に応じて、画像データの縮小率およびトリミング幅を設定するようにしたが、焦点距離、合焦距離、および絞り値の少なくとも1つをぼかしパラメータとして、このばかしパラメータに応じて、画像データの縮小率およびトリミング幅を設定するようにしても、同様にしてぼかし処理を行うことができる。   In the above-described example, the reduction ratio and the trimming width of the image data are set according to the focal length, the focusing distance, and the aperture value. However, at least one of the focal length, the focusing distance, and the aperture value is set. Even if one is used as a blurring parameter and the reduction ratio and trimming width of the image data are set according to this ridiculous parameter, the blurring process can be performed in the same manner.

図9は図1に示すカメラにおけるぼかし処理の効果の一例を示す図である。そして、図9(a)は焦点距離が長くて、合焦距離が近い場合に絞りが小さいとき(つまり、被写界深度が浅い場合)のぼかし処理の効果を示す図である。図9(b)は、図9(a)に対応する画像とぼけ度合いとの関係を示す図である。また、図9(c)は焦点距離が短く、合焦距離が遠い場合に絞りが大きいとき(つまり、被写界深度が深い場合)のぼかし処理の効果を示す図である。図9(d)は、図9(c)に対応する画像とぼけ度合いとの関係を示す図である。   FIG. 9 is a diagram showing an example of the effect of the blurring process in the camera shown in FIG. FIG. 9A is a diagram illustrating the effect of the blurring process when the focal length is long and the aperture is small when the focusing distance is short (that is, when the depth of field is shallow). FIG. 9B is a diagram showing the relationship between the image corresponding to FIG. 9A and the degree of blur. FIG. 9C is a diagram showing the effect of the blurring process when the focal length is short and the focusing distance is long and the aperture is large (that is, when the depth of field is deep). FIG. 9D is a diagram showing the relationship between the image corresponding to FIG. 9C and the degree of blur.

図9(a)に示す合成画像において、オリジナル画像データに対応する画像部分901(特定部分以外の部分)とぼかし処理を行った画像部分902(特定部分)とは、その境界部分903においてなだらかに合成(混合)される(図9(b)参照)。つまり、特定部分以外の部分と特定部分とを規定する境界部分903においては、合成画像はなだらかに合成される。   In the synthesized image shown in FIG. 9A, an image portion 901 (a portion other than the specific portion) corresponding to the original image data and an image portion 902 (specific portion) subjected to the blurring process are gently in the boundary portion 903. They are synthesized (mixed) (see FIG. 9B). That is, at the boundary portion 903 that defines the portion other than the specific portion and the specific portion, the composite image is gently combined.

つまり、図9(b)に示すように、縦軸を画像の垂直方向、横軸をぼけ度合いとした際、その境界部分903はなだらかにぼけ度合いが大きくなる(つまり、画像の垂直方向において、順次ぼけ度合いが逓増する)。そして、図示のように、被写界深度が浅い場合には、ぼけ度合いを小さくして、しかもぼかし幅も狭くする。   That is, as shown in FIG. 9B, when the vertical axis is the vertical direction of the image and the horizontal axis is the degree of blur, the boundary portion 903 has a gentle blur (that is, in the vertical direction of the image, The degree of blur gradually increases.) As shown in the figure, when the depth of field is shallow, the degree of blur is reduced and the blur width is also reduced.

図9(c)に示す合成画像おいて、オリジナル画像データに対応する画像部分904(特定部分以外の部分)とぼかし処理を行った画像部分905(特定部分)とは、その境界部分906において、図9(a)に示す例よりもさらになだらかに合成(混合)される(図9(d)参照)。   In the composite image shown in FIG. 9C, an image portion 904 (a portion other than the specific portion) corresponding to the original image data and a blurred image portion 905 (the specific portion) are It is synthesized (mixed) more gently than the example shown in FIG. 9A (see FIG. 9D).

つまり、図9(d)に示すように、縦軸を画像の垂直方向、横軸をぼけ度合いとした際、その境界部分906は、図9(b)に示す例よりもなだらかにぼけ度合いが大きくなる。そして、図示のように、被写界深度が深い場合には、ぼけ度合いを大きくして、しかもぼかし幅も広くする。   That is, as shown in FIG. 9D, when the vertical axis is the vertical direction of the image and the horizontal axis is the degree of blur, the boundary portion 906 has a gentler blur degree than the example shown in FIG. 9B. growing. As shown in the figure, when the depth of field is deep, the degree of blur is increased and the blur width is increased.

なお、図9に示す例では、画像の垂直方向、つまり、画像の上下方向でぼかし処理を行っているが、画像の水平方向、つまり、画像の左右方向でぼかし処理を行うようにしてもよい。カメラを縦位置に構えて撮影した場合に、画像の左右方向でぼかし処理を行うことが有効である。   In the example shown in FIG. 9, the blurring process is performed in the vertical direction of the image, that is, the vertical direction of the image. However, the blurring process may be performed in the horizontal direction of the image, that is, the horizontal direction of the image. . When shooting with the camera held vertically, it is effective to perform blurring processing in the horizontal direction of the image.

また、AFおよびAEを用いることなく、手動でピントおよび露出を合わせた場合にも、合焦距離および絞り値に応じて、上述のようにして処理を行うようにしてもよい。さらに、本撮影画像だけでなく、図2のステップS205で説明した本撮影前のEVF処理で得られる画像に適用するようにしてもよい。   Further, even when the focus and exposure are manually adjusted without using AF and AE, the processing may be performed as described above according to the focus distance and the aperture value. Furthermore, the present invention may be applied not only to the actual captured image but also to an image obtained by the EVF process before actual imaging described in step S205 in FIG.

以上のように、本実施の形態によるカメラによれば、焦点距離、合焦距離、および絞り値の少なくとも1つに応じて、つまり、撮像素子の前段に位置する光学系によるぼけ度合いに応じて画像処理におけるぼかし度合いとぼかし幅を変更するようにしている。この結果、画像に良好なぼかし処理を施すことができる。そして、ぼかし処理を行う際には、主被写体とそれ以外の部分の分離処理が不要であるので、高速にぼかし処理を行うことができるばかりでなく、分離処理を行うための構成が不要となり、コスト低減を図ることができる。   As described above, according to the camera according to the present embodiment, according to at least one of the focal length, the focusing distance, and the aperture value, that is, according to the degree of blurring by the optical system located in the preceding stage of the image sensor. The blur level and blur width in image processing are changed. As a result, an excellent blurring process can be performed on the image. And when performing the blurring process, the separation process of the main subject and the other parts is unnecessary, so not only can the blurring process be performed at high speed, but also a configuration for performing the separation process is unnecessary. Cost reduction can be achieved.

上述の説明から明らかなように、図1において、CPU111が設定手段として機能し、CPU111および画像処理プロセッサ109が処理制御手段として機能する。   As is apparent from the above description, in FIG. 1, the CPU 111 functions as a setting unit, and the CPU 111 and the image processing processor 109 function as a processing control unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を、画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有する制御プログラムを、画像処理装置が備えるコンピュータに実行させるようにしてもよい。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a control program having the functions of the above-described embodiments may be executed by a computer provided in the image processing apparatus.

この際、制御方法及び制御プログラムは、少なくとも設定ステップおよび処理制御ステップを有することになる。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   At this time, the control method and the control program have at least a setting step and a process control step. The control program is recorded on a computer-readable recording medium, for example.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

101 フォーカスレンズ
103 ズームレンズ
105 絞り
107 撮像素子
109 画像処理プロセッサ
111 システム制御用CPU
115 撮影準備指示スイッチ
116 撮影処理指示スイッチ
117 ズームスイッチ
DESCRIPTION OF SYMBOLS 101 Focus lens 103 Zoom lens 105 Diaphragm 107 Image pick-up element 109 Image processor 111 CPU for system control
115 Shooting Preparation Instruction Switch 116 Shooting Process Instruction Switch 117 Zoom Switch

Claims (7)

被写体像を撮像素子に結像した結果得られた画像データを処理して当該画像データの特定部分にぼけ処理を施してぼけ画像データを得る画像処理装置において、
撮影レンズの焦点距離、前記撮影レンズと被写体との合焦距離、および前記撮像素子に入射される光量を制限する絞り値の少なくとも1つに応じて前記特定部分のぼかし度合いを設定するとともに、前記特定部分と前記特定部分以外との境界部分を規定するぼかし幅を設定する設定手段と、
前記設定手段によって設定されたぼかし度合いおよびぼかし幅によって前記特定部分におけるぼけ度合いを変更するとともに、前記特定部分と前記特定部分以外の部分との境界部分の範囲を変更して、前記ぼけ処理を行う処理制御手段とを有し、
前記処理制御手段は、前記焦点距離をぼかしパラメータとして用いた際、当該焦点距離が短くなるに伴って前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする画像処理装置。
In an image processing apparatus that processes image data obtained as a result of forming a subject image on an image sensor and performs blur processing on a specific portion of the image data to obtain blurred image data.
The blurring degree of the specific portion is set according to at least one of a focal length of the photographing lens, a focusing distance between the photographing lens and a subject, and an aperture value that restricts a light amount incident on the imaging element, and A setting means for setting a blur width that defines a boundary portion between the specific portion and a portion other than the specific portion;
The blurring degree and the blurring width set by the setting unit change the blurring degree in the specific part, and change the range of the boundary part between the specific part and the part other than the specific part to perform the blurring process. possess and process control means,
When the focal length is used as a blurring parameter, the processing control unit increases the degree of blur in the specific portion and widens the range of the boundary portion as the focal length decreases. Image processing device.
前記処理制御手段は、前記合焦距離をぼかしパラメータとして用いた際、前記合焦距離が遠くなるに伴って前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする請求項1記載の画像処理装置。 The processing control means, when using the in-focus distance as a blurring parameter, increases the degree of blurring in the specific part as the in-focus distance increases and widens the range of the boundary part. The image processing apparatus according to claim 1. 前記処理制御手段は、前記絞り値をぼかしパラメータとして用いた際、前記絞り値が大きくなるに伴って、前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする請求項1又は2記載の画像処理装置。 When the aperture value is used as a blurring parameter, the processing control means increases the degree of blur in the specific portion and increases the range of the boundary portion as the aperture value increases. The image processing apparatus according to claim 1 or 2 . 被写体像を撮像素子に結像した結果得られた画像データを処理して当該画像データの特定部分にぼけ処理を施してぼけ画像データを得る画像処理装置において、
撮影レンズの焦点距離、前記撮影レンズと被写体との合焦距離、および前記撮像素子に入射される光量を制限する絞り値の少なくとも1つに応じて前記特定部分のぼかし度合いを設定するとともに、前記特定部分と前記特定部分以外との境界部分を規定するぼかし幅を設定する設定手段と、
前記設定手段によって設定されたぼかし度合いおよびぼかし幅によって前記特定部分におけるぼけ度合いを変更するとともに、前記特定部分と前記特定部分以外の部分との境界部分の範囲を変更して、前記ぼけ処理を行う処理制御手段とを有し、
前記処理制御手段は、前記合焦距離をぼかしパラメータとして用いた際、前記合焦距離が遠くなるに伴って前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする画像処理装置。
In an image processing apparatus that processes image data obtained as a result of forming a subject image on an image sensor and performs blur processing on a specific portion of the image data to obtain blurred image data.
The blurring degree of the specific portion is set according to at least one of a focal length of the photographing lens, a focusing distance between the photographing lens and a subject, and an aperture value that restricts a light amount incident on the imaging element, and A setting means for setting a blur width that defines a boundary portion between the specific portion and a portion other than the specific portion;
The blurring degree and the blurring width set by the setting unit change the blurring degree in the specific part, and change the range of the boundary part between the specific part and the part other than the specific part to perform the blurring process. Processing control means,
The processing control means, when using the in-focus distance as a blurring parameter, increases the degree of blurring in the specific part as the in-focus distance increases and widens the range of the boundary part. An image processing apparatus.
被写体像を撮像素子に結像した結果得られた画像データを処理して当該画像データの特定部分にぼけ処理を施してぼけ画像データを得る画像処理装置において、
撮影レンズの焦点距離、前記撮影レンズと被写体との合焦距離、および前記撮像素子に入射される光量を制限する絞り値の少なくとも1つに応じて前記特定部分のぼかし度合いを設定するとともに、前記特定部分と前記特定部分以外との境界部分を規定するぼかし幅を設定する設定手段と、
前記設定手段によって設定されたぼかし度合いおよびぼかし幅によって前記特定部分におけるぼけ度合いを変更するとともに、前記特定部分と前記特定部分以外の部分との境界部分の範囲を変更して、前記ぼけ処理を行う処理制御手段とを有し、
前記処理制御手段は、前記絞り値をぼかしパラメータとして用いた際、前記絞り値が大きくなるに伴って、前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする画像処理装置。
In an image processing apparatus that processes image data obtained as a result of forming a subject image on an image sensor and performs blur processing on a specific portion of the image data to obtain blurred image data.
The blurring degree of the specific portion is set according to at least one of a focal length of the photographing lens, a focusing distance between the photographing lens and a subject, and an aperture value that restricts a light amount incident on the imaging element, and A setting means for setting a blur width that defines a boundary portion between the specific portion and a portion other than the specific portion;
The blurring degree and the blurring width set by the setting unit change the blurring degree in the specific part, and change the range of the boundary part between the specific part and the part other than the specific part to perform the blurring process. Processing control means,
When the aperture value is used as a blurring parameter, the processing control means increases the degree of blur in the specific portion and increases the range of the boundary portion as the aperture value increases. An image processing apparatus.
被写体像を撮像素子に結像した結果得られた画像データを処理して当該画像データの特定部分にぼけ処理を施してぼけ画像データを得る画像処理装置を制御するための制御方法において、
撮影レンズの焦点距離、前記撮影レンズと被写体との合焦距離、および前記撮像素子に入射される光量を制限する絞り値の少なくとも1つに応じて前記特定部分のぼかし度合いを設定するとともに、前記特定部分と前記特定部分以外との境界部分を規定するぼかし幅を設定する設定ステップと、
前記設定ステップによって設定されたぼかし度合いおよびぼかし幅によって前記特定部分におけるぼけ度合いを変更するとともに、前記特定部分と前記特定部分以外の部分との境界部分の範囲を変更して、前記ぼけ処理を行う処理制御ステップとを有し、
前記処理制御ステップでは、前記焦点距離をぼかしパラメータとして用いた際、当該焦点距離が短くなるに伴って前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする制御方法。
In a control method for controlling an image processing apparatus that obtains blurred image data by processing image data obtained as a result of forming a subject image on an image sensor and performing blur processing on a specific portion of the image data.
The blurring degree of the specific portion is set according to at least one of a focal length of the photographing lens, a focusing distance between the photographing lens and a subject, and an aperture value that restricts a light amount incident on the imaging element, and A setting step for setting a blur width that defines a boundary portion between the specific portion and a portion other than the specific portion;
The blurring degree and the blurring width set in the setting step change the blurring degree in the specific part, and change the range of the boundary part between the specific part and the part other than the specific part to perform the blurring process. possess and process control step,
In the processing control step, when the focal length is used as a blurring parameter, the degree of blur in the specific portion is increased and the range of the boundary portion is increased as the focal length becomes shorter. Control method.
被写体像を撮像素子に結像した結果得られた画像データを処理して当該画像データの特定部分にぼけ処理を施してぼけ画像データを得る画像処理装置を制御するための制御プログラムにおいて、
前記画像処理装置に備えられたコンピュータに、
撮影レンズの焦点距離、前記撮影レンズと被写体との合焦距離、および前記撮像素子に入射される光量を制限する絞り値の少なくとも1つに応じて前記特定部分のぼかし度合いを設定するとともに、前記特定部分と前記特定部分以外との境界部分を規定するぼかし幅を設定する設定ステップと、
前記設定ステップによって設定されたぼかし度合いおよびぼかし幅によって前記特定部分におけるぼけ度合いを変更するとともに、前記特定部分と前記特定部分以外の部分との境界部分の範囲を変更して、前記ぼけ処理を行う処理制御ステップとを実行させ、
前記処理制御ステップでは、前記焦点距離をぼかしパラメータとして用いた際、当該焦点距離が短くなるに伴って前記特定部分におけるぼけ度合いを強くするとともに、前記境界部分の範囲を広くすることを特徴とする制御プログラム。
In a control program for controlling an image processing apparatus that obtains blurred image data by processing image data obtained as a result of forming a subject image on an image sensor and performing blur processing on a specific portion of the image data.
In the computer provided in the image processing apparatus,
The blurring degree of the specific portion is set according to at least one of a focal length of the photographing lens, a focusing distance between the photographing lens and a subject, and an aperture value that restricts a light amount incident on the imaging element, and A setting step for setting a blur width that defines a boundary portion between the specific portion and a portion other than the specific portion;
The blurring degree and the blurring width set in the setting step change the blurring degree in the specific part, and change the range of the boundary part between the specific part and the part other than the specific part to perform the blurring process. Process control steps ,
In the processing control step, when the focal length is used as a blurring parameter, the degree of blur in the specific portion is increased and the range of the boundary portion is increased as the focal length becomes shorter. Control program.
JP2010277147A 2010-12-13 2010-12-13 Image processing apparatus, control method thereof, and control program Active JP5641911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010277147A JP5641911B2 (en) 2010-12-13 2010-12-13 Image processing apparatus, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010277147A JP5641911B2 (en) 2010-12-13 2010-12-13 Image processing apparatus, control method thereof, and control program

Publications (2)

Publication Number Publication Date
JP2012129618A JP2012129618A (en) 2012-07-05
JP5641911B2 true JP5641911B2 (en) 2014-12-17

Family

ID=46646234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010277147A Active JP5641911B2 (en) 2010-12-13 2010-12-13 Image processing apparatus, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP5641911B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6245802B2 (en) * 2012-12-19 2017-12-13 キヤノン株式会社 Image processing apparatus, control method thereof, and control program
JP7657753B2 (en) * 2022-03-22 2025-04-07 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM
CN115278061B (en) * 2022-07-04 2024-09-24 Oppo广东移动通信有限公司 Shooting method, shooting device, camera module, electronic equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4935302B2 (en) * 2006-11-02 2012-05-23 株式会社ニコン Electronic camera and program
JP5418020B2 (en) * 2009-06-29 2014-02-19 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP2012129618A (en) 2012-07-05

Similar Documents

Publication Publication Date Title
US12069371B2 (en) Dual aperture zoom digital camera
JP5036599B2 (en) Imaging device
JP6204660B2 (en) Imaging apparatus and control method thereof
CN108462830B (en) Image pickup apparatus and control method of image pickup apparatus
JP2005210217A (en) Stereoscopic camera
JP2012002951A (en) Imaging device, method for detecting in-focus position and in-focus position detection program
JP4528235B2 (en) Digital camera
KR20100039430A (en) Image processor, image processing method, digital camera, and imaging apparatus
JP2006208558A (en) Imaging device
JP6087617B2 (en) Imaging apparatus and control method thereof
JP5641911B2 (en) Image processing apparatus, control method thereof, and control program
JP5117889B2 (en) Image processing apparatus and image processing method
JP4708967B2 (en) Imaging apparatus and imaging method
JP2005039680A (en) Camera device, photographing method, and program
JP6234016B2 (en) Focus adjustment device, imaging device, and control method thereof
JP4878978B2 (en) Imaging apparatus and imaging method
JP2003241066A (en) Camera
JP2015118274A (en) Imaging apparatus, control method thereof, and program
JP5123010B2 (en) Imaging apparatus, imaging method, and program for causing computer included in imaging apparatus to execute imaging method
JP2015118338A (en) Image capturing device, control method therefor, program, and storage medium
JP2010204303A (en) Imaging apparatus
JP2018054815A (en) Region discrimination device, control method therefor, and control program, and imaging apparatus
JP6579755B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE
JP5610889B2 (en) Focus adjustment apparatus and method
JP2006234993A (en) Camera and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141028

R151 Written notification of patent or utility model registration

Ref document number: 5641911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151