JP6833607B2 - Control device, image pickup device, control method, program, and storage medium - Google Patents
Control device, image pickup device, control method, program, and storage medium Download PDFInfo
- Publication number
- JP6833607B2 JP6833607B2 JP2017093648A JP2017093648A JP6833607B2 JP 6833607 B2 JP6833607 B2 JP 6833607B2 JP 2017093648 A JP2017093648 A JP 2017093648A JP 2017093648 A JP2017093648 A JP 2017093648A JP 6833607 B2 JP6833607 B2 JP 6833607B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- panning
- control device
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000004091 panning Methods 0.000 claims description 119
- 238000003384 imaging method Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 21
- 239000013598 vector Substances 0.000 description 29
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 238000001454 recorded image Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Landscapes
- Adjustment Of Camera Lenses (AREA)
- Studio Devices (AREA)
Description
本発明は、流し撮りを行うことが可能な撮像装置に関する。 The present invention relates to an imaging device capable of panning.
被写体(動体)のスピード感を表現する撮影技術として流し撮りがある。この撮影技術は、撮影者が被写体の動きに合わせてカメラを動かすことにより、移動している被写体像を静止させて背景像を流すことを目的とする。流し撮りにおいて撮影者が被写体の動きに合わせてカメラを動かす際、カメラを動かす速度が適切でない場合、被写体の移動速度とカメラを動かす速度との間に差が生じ、被写体がぶれた画像になることが多い。 There is panning as a shooting technique that expresses the sense of speed of the subject (moving object). The purpose of this photographing technique is to make a moving subject image stationary and to flow a background image by moving the camera according to the movement of the subject. When the photographer moves the camera according to the movement of the subject in panning, if the speed of moving the camera is not appropriate, there will be a difference between the moving speed of the subject and the speed of moving the camera, resulting in a blurred image of the subject. Often.
特許文献1には、シフトレンズの移動により被写体の移動速度とカメラを動かす速度との差を吸収する方法が開示されている。しかし、例えば流し撮りの露光中に被写体の移動速度が変化する場合でも、被写体がぶれた画像になる可能性がある。 Patent Document 1 discloses a method of absorbing a difference between a moving speed of a subject and a moving speed of a camera by moving a shift lens. However, even if the moving speed of the subject changes during exposure for panning, for example, the subject may be blurred.
特許文献2には、流し撮りした撮影画像における被写体のコントラスト値に応じて、流し撮りの成否を判定して記録方式を変更する撮像装置が開示されている。特許文献2に開示されている撮像装置によれば、流し撮りの成否を判定することにより、以降の処理にその成否に関する情報を活用することができる。 Patent Document 2 discloses an imaging device that determines the success or failure of panning and changes the recording method according to the contrast value of the subject in the panning image. According to the image pickup apparatus disclosed in Patent Document 2, by determining the success or failure of the panning shot, the information on the success or failure can be utilized in the subsequent processing.
しかしながら、特許文献2に開示されている撮像装置は、撮影画像から被写体を検出するが、流し撮りが失敗した場合には被写体の検出が困難である。これに関し、図4を参照して説明する。図4は、流し撮りの説明図である。図4に示されるように、流し撮りの本撮影の前後において、撮影前フレーム(a−1)、(a−2)、および、撮影後フレーム(a−3)、(a−4)を取得する。これらのフレームは、例えば撮影者が撮影画角を確認するための画像(スルー映像)として取得される。 However, although the image pickup apparatus disclosed in Patent Document 2 detects a subject from a captured image, it is difficult to detect the subject when panning fails. This will be described with reference to FIG. FIG. 4 is an explanatory diagram of panning. As shown in FIG. 4, before and after the main shooting of the panning shot, the pre-shooting frames (a-1) and (a-2) and the post-shooting frames (a-3) and (a-4) are acquired. To do. These frames are acquired, for example, as images (through images) for the photographer to confirm the shooting angle of view.
ここで、流し撮りが成功した場合、図4中の記録画像(b)のように被写体が静止して背景だけが流れたような画像を取得することができる。一方、流し撮りが失敗した場合、図4中の記録画像(c)のように被写体がぶれた画像となる。このため、流し撮りが失敗した画像から被写体を検出しようとすると、ぶれている領域が背景だからぶれているのか、被写体がぶれているのかを区別することが難しい。 Here, if the panning is successful, it is possible to acquire an image in which the subject is stationary and only the background is flowing, as in the recorded image (b) in FIG. On the other hand, when panning fails, the subject becomes a blurred image as shown in the recorded image (c) in FIG. For this reason, when trying to detect a subject from an image in which panning has failed, it is difficult to distinguish whether the subject is blurred because the blurred area is the background.
撮影前フレーム(a−1)、(a−2)から検出された被写体情報を用いたとしても、流し撮りは背景が流れる程度の長秒で撮影されるため、撮影前後のフレームの撮影条件と、本撮影による記録画像の撮影条件とは互いに異なっている場合が多い。図4の例では、絞り値、露光時間、および、感度がそれぞれ異なっている。このため、撮影前フレーム(a−1)、および、記録画像(b)、(c)のそれぞれにおける被写体領域は、(d)、(e)、(f)のように互いに異なる。その結果、ぶれているか否かの基準を決定することが難しい。 Even if the subject information detected from the pre-shooting frames (a-1) and (a-2) is used, the panning shot is taken in a long time so that the background flows, so the shooting conditions of the frames before and after shooting , The shooting conditions of the recorded image by the main shooting are often different from each other. In the example of FIG. 4, the aperture value, the exposure time, and the sensitivity are different from each other. Therefore, the subject areas in the pre-shooting frame (a-1) and the recorded images (b) and (c) are different from each other as in (d), (e), and (f). As a result, it is difficult to determine the criteria for blurring.
そこで本発明は、流し撮りの際に、撮影画像の成否を判定するための流し撮り成功割合を算出することが可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することを目的とする。 Therefore, the present invention provides a control device, an imaging device, a control method, a program, and a storage medium capable of calculating a panning success rate for determining the success or failure of a captured image during panning. With the goal.
本発明の一側面としての制御装置は、撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得し、前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得する取得手段と、前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出する算出手段とを有する。 The control device as one aspect of the present invention acquires the first information from the first image before the start of the panning shooting of the imaging device, and from the second image after the panning shooting of the imaging device is completed. It has an acquisition means for acquiring the second information, and a calculation means for calculating data regarding whether or not the panning shooting was successful based on the first information and the second information.
本発明の他の側面としての撮像装置は、撮像光学系を介して形成された光学像を光電変換する撮像素子と、前記制御装置とを有する。 An imaging device as another aspect of the present invention includes an imaging element that photoelectrically converts an optical image formed via an imaging optical system, and the control device.
本発明の他の側面としての制御方法は、撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得するステップと、前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得するステップと、前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出するステップとを有する。 The control method as another aspect of the present invention includes a step of acquiring the first information from the first image before the start of the panning shooting of the imaging device, and a second step after the panning shooting of the imaging device is completed. It has a step of acquiring the second information from the image of the above, and a step of calculating data regarding whether or not the panning shooting was successful based on the first information and the second information.
本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させる。 A program as another aspect of the present invention causes a computer to execute the image processing method.
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。 A storage medium as another aspect of the present invention stores the program.
本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the present invention will be described in the following embodiments.
本発明によれば、流し撮りの際に、撮影画像の成否を判定するための流し撮り成功割合を算出することが可能な制御装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。 According to the present invention, there is provided a control device, an imaging device, an image processing method, a program, and a storage medium capable of calculating a panning success rate for determining the success or failure of a captured image during panning. can do.
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
まず、図1を参照して、本発明の第1の実施形態における撮像装置について説明する。図1は、本実施形態における撮像装置100のブロック図である。撮像装置100は、デジタルカメラやデジタルビデオカメラなどのカメラだけでなく、カメラ機能付き携帯電話やカメラ付きコンピュータなど、カメラ機能を備える電子機器であってもよい。光学系101は、レンズ群、シャッタ、および、絞りなどを備える結像光学系(撮像光学系)である。レンズ群は、手振れなどによる像ブレ補正を行う補正レンズやフォーカスレンズなどを含む。
(First Embodiment)
First, the image pickup apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of the image pickup apparatus 100 according to the present embodiment. The image pickup device 100 may be not only a camera such as a digital camera or a digital video camera, but also an electronic device having a camera function such as a mobile phone with a camera function or a computer with a camera function. The optical system 101 is an imaging optical system (imaging optical system) including a lens group, a shutter, an aperture, and the like. The lens group includes a correction lens and a focus lens that correct image blur due to camera shake and the like.
光学系101は、CPU(中央演算処理装置、制御装置)103の制御信号に従って、被写体からの光を撮像素子102に結像させる。撮像素子102は、CCD(電荷結合素子)イメージセンサやCMOS(相補型金属酸化膜半導体)イメージセンサなどの撮像デバイスであり、光学系101を介して形成された光学像(被写体像)を光電変換して画像信号を出力する。なお本実施形態において、光学系101は撮像素子102を備えた撮像装置本体と一体的に構成されているが、これに限定されるものではない。本実施形態は、撮像装置本体と、撮像装置本体に対して着脱可能な光学系(交換レンズ)とを備えた撮像装置にも適用可能である。角速度センサ105は、例えばジャイロセンサであり、撮像装置100の移動量を表す角速度を検出し、電気信号としての角速度検出信号をCPU103へ出力する。 The optical system 101 forms an image of light from a subject on an image pickup device 102 according to a control signal of a CPU (central processing unit, control device) 103. The image pickup device 102 is an image pickup device such as a CCD (charge-coupled device) image sensor or a CMOS (complementary metal oxide semiconductor) image sensor, and photoelectrically converts an optical image (subject image) formed via the optical system 101. And output the image signal. In the present embodiment, the optical system 101 is integrally configured with the image pickup apparatus main body including the image pickup element 102, but the present invention is not limited to this. This embodiment can also be applied to an image pickup apparatus provided with an image pickup apparatus main body and an optical system (interchangeable lens) that can be attached to and detached from the image pickup apparatus main body. The angular velocity sensor 105 is, for example, a gyro sensor, detects an angular velocity representing the amount of movement of the image pickup apparatus 100, and outputs an angular velocity detection signal as an electric signal to the CPU 103.
CPU(制御装置)103は、二次記憶装置108などのメモリ(記憶手段)に予め記憶されたプログラムを実行することにより、入力信号などに従って撮像装置100を構成する各部を制御する。本実施形態において、CPU103は、取得手段103a、算出手段103b、駆動手段103c、および、記録制御手段103dを有する。一次記憶装置104は、例えばRAM(ランダム・アクセス・メモリ)などの揮発性メモリであり、一時的なデータを記憶し、CPU103のワークメモリとして使用される。一次記憶装置104に記憶されているデータは、画像処理装置106により用いられ、また記録媒体107に記録される場合もある。二次記憶装置108は、例えばEEPROM(Electrically Erasable Programmable Read−Only Memory)などの不揮発性メモリである。二次記憶装置108は、撮像装置100を制御するためのプログラム(ファームウエア)や各種の設定情報を記憶している。二次記憶装置108に記憶されているプログラムや各種情報はCPU103により利用される。 The CPU (control device) 103 controls each unit constituting the image pickup device 100 according to an input signal or the like by executing a program stored in advance in a memory (storage means) such as the secondary storage device 108. In the present embodiment, the CPU 103 includes acquisition means 103a, calculation means 103b, drive means 103c, and recording control means 103d. The primary storage device 104 is, for example, a volatile memory such as a RAM (random access memory), stores temporary data, and is used as a work memory of the CPU 103. The data stored in the primary storage device 104 is used by the image processing device 106 and may be recorded on the recording medium 107. The secondary storage device 108 is, for example, a non-volatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory). The secondary storage device 108 stores a program (firmware) for controlling the image pickup device 100 and various setting information. The programs and various information stored in the secondary storage device 108 are used by the CPU 103.
記録媒体(記録手段)107は、記録制御手段103dによる制御に基づいて、一次記憶装置104に記憶されている撮影画像データなどを記録する。記録媒体107は、例えば半導体メモリカードのように、撮像装置100から取り外し可能である。記録媒体107に記録されたデータは、パーソナルコンピュータなどの外部機器に装着して読み出すことが可能である。このように撮像装置100は、記録媒体107の着脱機構および読み書き機能を有する。表示部109は、撮影の際におけるビューファインダ画像、撮影画像、または、対話的な操作のためのGUI(グラフィカル・ユーザ・インターフェース)画像などを表示する。操作部110は、撮影者の操作を受け付けてCPU103へ入力情報を伝達する入力デバイス群であり、ボタン、レバー、および、タッチパネルなどを備える。操作部110は、音声や視線などを用いて操作可能な入力機器を含むこともできる。 The recording medium (recording means) 107 records captured image data and the like stored in the primary storage device 104 based on the control by the recording control means 103d. The recording medium 107 is removable from the image pickup apparatus 100, for example, like a semiconductor memory card. The data recorded on the recording medium 107 can be attached to an external device such as a personal computer and read out. As described above, the image pickup apparatus 100 has a mechanism for attaching / detaching the recording medium 107 and a reading / writing function. The display unit 109 displays a viewfinder image at the time of shooting, a shot image, a GUI (graphical user interface) image for interactive operation, and the like. The operation unit 110 is a group of input devices that accepts the operation of the photographer and transmits input information to the CPU 103, and includes buttons, levers, a touch panel, and the like. The operation unit 110 may also include an input device that can be operated by using voice, line of sight, or the like.
本実施形態の撮像装置100は、画像処理装置106が撮影画像に適用する画像処理パターンを複数有し、画像処理パターンを撮像モードとして操作部110により設定可能である。画像処理装置106は、いわゆる現像処理と呼ばれる画像処理に加えて、撮影モードに応じた色調の調整などの各種の画像処理を行う。なお、画像処理装置106の機能の少なくとも一部は、CPU103によるソフトウエア処理で実現してもよい。 The image processing device 100 of the present embodiment has a plurality of image processing patterns applied to the captured image by the image processing device 106, and the image processing pattern can be set by the operation unit 110 as the image processing mode. In addition to the so-called development process, the image processing device 106 performs various image processes such as color tone adjustment according to the shooting mode. At least a part of the functions of the image processing device 106 may be realized by software processing by the CPU 103.
次に、図2を参照して、本実施形態における流し撮り成功割合の算出処理について説明する。図2(a)は、流し撮り成功割合の算出処理を示すフローチャートである。図2(b)は、図2(a)のステップS207の詳細を示すフローチャートである。図2(a)、(b)の各ステップは、主に、CPU103の各部により実行される。 Next, the calculation process of the panning success rate in the present embodiment will be described with reference to FIG. FIG. 2A is a flowchart showing a process of calculating the success rate of panning. FIG. 2B is a flowchart showing the details of step S207 of FIG. 2A. Each step of FIGS. 2A and 2B is mainly executed by each part of the CPU 103.
まず、ステップS201において、CPU103はフレーム(フレーム画像)を取得する。CPU103は、例えば、図4の撮影前フレーム(a−1)として示されるように、流し撮りの本撮影の前のフレーム画像を取得する。なおステップS201は、後述のように複数回実行されるため、図4の撮影前フレーム(a−1)よりも前に、複数のフレームが存在する。続いてステップS202において、CPU103は、ステップS201にて取得したフレーム画像から被写体(被写体情報)を検出する。なお、被写体の検出に関しては、例えば特許文献1に開示されているような、フレーム画像から得られた動きベクトルを用いて被写体エリアを抽出する手法など種々の方法が知られているため、ここでの説明は省略する。 First, in step S201, the CPU 103 acquires a frame (frame image). The CPU 103 acquires, for example, a frame image before the main shooting of the panning shot, as shown as the pre-shooting frame (a-1) in FIG. Since step S201 is executed a plurality of times as described later, a plurality of frames exist before the pre-shooting frame (a-1) in FIG. Subsequently, in step S202, the CPU 103 detects a subject (subject information) from the frame image acquired in step S201. Regarding the detection of the subject, various methods such as a method of extracting the subject area using the motion vector obtained from the frame image, as disclosed in Patent Document 1, are known. The description of is omitted.
続いてステップS203において、CPU103は、流し撮りの本撮影の露光動作を行うか否かを判定する。本実施形態において、CPU103は、操作部110に含まれるシャッターボタンの全押し(以降、S2と表記)がなされたか否かを判定する。全押しS2が行われていない場合、CPU103はステップS201、S202の動作を繰り返し行い、図4の撮影前フレーム(a−1)、(a−2)のような画像を順次取得する。一方、ステップS203にて全押しS2がなされた場合、ステップS204へ進む。 Subsequently, in step S203, the CPU 103 determines whether or not to perform the exposure operation for the main shooting of the panning shot. In the present embodiment, the CPU 103 determines whether or not the shutter button included in the operation unit 110 is fully pressed (hereinafter referred to as S2). When the full press S2 is not performed, the CPU 103 repeats the operations of steps S201 and S202 to sequentially acquire images such as the pre-shooting frames (a-1) and (a-2) of FIG. On the other hand, if the full push S2 is performed in step S203, the process proceeds to step S204.
ステップS204において、CPU103(取得手段103a)は、露光前情報211を取得する。図5は、本実施形態における露光前後の情報の説明図である。本実施形態において、CPU103は、図5中のフレーム(a)として示されるように、画面を等間隔に分割して複数のブロック(被写体ブロック、背景ブロック)を設定する。CPU103は、最後に実施したステップS202にて得られた被写体情報に基づいて、複数のブロックのうち被写体が属するブロック(被写体ブロック)の位置を露光前情報211として記憶する。露光前情報211は、例えば一次記憶装置104に記憶される。 In step S204, the CPU 103 (acquisition means 103a) acquires the pre-exposure information 211. FIG. 5 is an explanatory diagram of information before and after exposure in the present embodiment. In the present embodiment, the CPU 103 divides the screen at equal intervals and sets a plurality of blocks (subject block, background block) as shown by the frame (a) in FIG. The CPU 103 stores the position of the block to which the subject belongs (subject block) among the plurality of blocks as the pre-exposure information 211 based on the subject information obtained in the last step S202. The pre-exposure information 211 is stored in, for example, the primary storage device 104.
続いてステップS205において、CPU103は、流し撮りの露光動作を開始する。CPU103は、例えば、光学系101に含まれるシャッタを制御する。続いてステップS206において、CPU103は、露光時間として予め定められた露光時間が経過したか否かを判定する。露光時間が経過していない場合、露光時間が経過するまでステップS206を繰り返す。一方、露光時間が経過した場合、ステップS207へ進む。ステップS207において、CPU103は、流し撮りの露光動作を終了する。続いてステップS208において、CPU103(取得手段103a)は、ステップS204と同様に、露光後情報212を取得する。 Subsequently, in step S205, the CPU 103 starts the exposure operation for panning. The CPU 103 controls, for example, the shutter included in the optical system 101. Subsequently, in step S206, the CPU 103 determines whether or not a predetermined exposure time as the exposure time has elapsed. If the exposure time has not elapsed, step S206 is repeated until the exposure time has elapsed. On the other hand, when the exposure time has elapsed, the process proceeds to step S207. In step S207, the CPU 103 ends the panning exposure operation. Subsequently, in step S208, the CPU 103 (acquisition means 103a) acquires the post-exposure information 212 in the same manner as in step S204.
ここで、図2(b)を参照して、露光後情報212の取得方法(ステップS208)について詳述する。図2(b)は、露光後情報212の取得方法(ステップS208)のフローチャートである。 Here, the method of acquiring the post-exposure information 212 (step S208) will be described in detail with reference to FIG. 2 (b). FIG. 2B is a flowchart of a method for acquiring post-exposure information 212 (step S208).
まず、ステップS2081において、CPU103は、フレームを取得する。CPU103は、例えば図4中の撮影後フレーム(a−3)、(a−4)として示されるような画像を取得する。なお、ここで取得した画像に関しては、必ずしも撮影者に見えるように表示する必要はない。続いてステップS2082において、CPU103は、被写体(被写体情報)を検出する。CPU103は、例えばステップS202と同様に、ステップS2081にて取得された撮影後フレーム(a−3)、(a−4)から被写体エリアを抽出することにより被写体を検出する。続いてステップS2083において、CPU103は、ステップS2082にて取得した被写体情報に基づいて、露光後情報212を取得する。本実施形態において、CPU103は、ステップS204と同様に露光後情報212を取得する。例えばCPU103は、図5中のフレーム(b)として示されるように、ステップS2082にて得られた被写体情報に基づいて、画面を等間隔に分割して得られた複数のブロックのうち被写体が属するブロックの位置を露光後情報212として記憶する。露光後情報212は、例えば一次記憶装置104に記憶される。 First, in step S2081, the CPU 103 acquires a frame. The CPU 103 acquires, for example, an image as shown as a post-shooting frame (a-3) and (a-4) in FIG. It should be noted that the image acquired here does not necessarily have to be displayed so as to be visible to the photographer. Subsequently, in step S2082, the CPU 103 detects the subject (subject information). Similar to step S202, the CPU 103 detects the subject by extracting the subject area from the post-shooting frames (a-3) and (a-4) acquired in step S2081. Subsequently, in step S2083, the CPU 103 acquires post-exposure information 212 based on the subject information acquired in step S2082. In the present embodiment, the CPU 103 acquires the post-exposure information 212 in the same manner as in step S204. For example, in the CPU 103, as shown as the frame (b) in FIG. 5, the subject belongs to a plurality of blocks obtained by dividing the screen at equal intervals based on the subject information obtained in step S2082. The position of the block is stored as post-exposure information 212. The post-exposure information 212 is stored in, for example, the primary storage device 104.
続いて、図2(a)のステップS209において、CPU103(算出手段103b)は、流し撮り成功割合を算出する。ここで、図5を参照して、本実施形態における流し撮り成功割合の算出処理を説明する。流し撮りの際には、前述のように適切な速度で撮像装置100(カメラ)を動かすことにより、撮像装置100が被写体を追うことができている状態である必要がある。被写体を追うことができている場合、撮像装置100の撮像面上(撮像素子102の面上)における被写体位置は、常に一定の位置にあることになる。例えば、露光前の被写体が図5中のフレーム(a)に示される位置にある場合、露光後の被写体はフレーム(b)のように、画面に対する被写体位置がフレーム(a)と同等の位置となっている必要がある。一方、流し撮りが失敗している場合、撮像装置100が被写体を適切に追うことができていないため、露光後の被写体はフレーム(c)のように、被写体位置がフレーム(a)とは異なる位置になっている可能性が高い。そこで本実施形態では、露光前後の被写体位置を比較することにより、流し撮りの成功割合を算出する。なお、被写体位置の検出方法としては、前述のように、特許文献1のようにフレーム画像から得られた動きベクトルを用いて被写体エリアを抽出する手法など、種々の方法が知られているため、ここでの説明は省略する。 Subsequently, in step S209 of FIG. 2A, the CPU 103 (calculation means 103b) calculates the panning success rate. Here, the calculation process of the panning success rate in the present embodiment will be described with reference to FIG. At the time of panning, it is necessary that the image pickup device 100 is able to follow the subject by moving the image pickup device 100 (camera) at an appropriate speed as described above. When the subject can be tracked, the position of the subject on the image pickup surface (on the surface of the image pickup element 102) of the image pickup apparatus 100 is always a constant position. For example, when the subject before exposure is at the position shown in the frame (a) in FIG. 5, the subject after exposure is at the same position as the frame (a) with respect to the screen, as in the frame (b). Must be. On the other hand, when the panning has failed, the image pickup apparatus 100 has not been able to properly follow the subject, so that the subject after exposure has a different subject position from the frame (a) like the frame (c). It is likely that it is in position. Therefore, in the present embodiment, the success rate of panning is calculated by comparing the subject positions before and after exposure. As a method for detecting the subject position, as described above, various methods such as a method for extracting a subject area using a motion vector obtained from a frame image as in Patent Document 1 are known. The description here will be omitted.
本実施形態では、例えば露光前後でどの程度被写体領域が重なっているかを判定することにより、流し撮りの成功割合を算出することが可能である。まず、図5中のフレーム(a)においては、画面を等間隔に分割して得られた複数のブロックのうち、実線で示される被写体ブロックが4ブロック存在している。一方、図5のフレーム(b)においては、図5のフレーム(a)の被写体ブロックと重複した位置にある被写体ブロックの数は4である。このときの流し撮り成功割合Rbは、例えば以下の式(1)のように算出される。 In the present embodiment, it is possible to calculate the success rate of panning by, for example, determining how much the subject areas overlap before and after exposure. First, in the frame (a) in FIG. 5, four blocks of subjects shown by solid lines exist among the plurality of blocks obtained by dividing the screen at equal intervals. On the other hand, in the frame (b) of FIG. 5, the number of subject blocks overlapping the subject block of the frame (a) of FIG. 5 is 4. The panning success rate R b at this time is calculated by, for example, the following equation (1).
一方、例えば図5のフレーム(c)においては、フレーム(a)の被写体ブロックと重複した位置にある被写体ブロックの数は2である。このときの流し撮り成功割合Rcは、例えば以下の式(2)のように算出される。 On the other hand, for example, in the frame (c) of FIG. 5, the number of subject blocks overlapping the subject block of the frame (a) is 2. The panning success rate R c at this time is calculated by, for example, the following equation (2).
このように本実施形態において、制御装置(CPU103)は、取得手段103aおよび算出手段103bを有する。取得手段103aは、撮像装置の流し撮り撮影の開始前の第1の画像(本撮影前の画像)から第1の情報(露光前情報211)を取得し、撮像装置の流し撮り撮影の終了後の第2の画像(本撮影後の画像)から第2の情報(露光後情報212)を取得する。算出手段は、第1の情報と第2の情報とに基づいて、流し撮りが成功したか否かに関するデータを算出する。 As described above, in the present embodiment, the control device (CPU 103) has the acquisition means 103a and the calculation means 103b. The acquisition means 103a acquires the first information (pre-exposure information 211) from the first image (image before the main shooting) before the start of the panning shooting of the imaging device, and after the panning shooting of the imaging device is completed. The second information (post-exposure information 212) is acquired from the second image (image after the main shooting). The calculation means calculates data regarding whether or not the panning is successful based on the first information and the second information.
好ましくは、算出手段103bは、流し撮りが成功したか否かに関するデータとして、流し撮り成功割合(成功度合い)を算出する。また好ましくは、取得手段103aは、第1の情報として、第1の画像から被写体領域(主被写体を含む領域)に関する情報を取得し、第2の情報として、第2の画像から被写体領域に関する情報を取得する。より好ましくは、取得手段103aは、被写体領域に関する情報として、移動体(移動被写体)を含む領域に関する情報を取得する。また好ましくは、取得手段103aは、被写体領域に関する情報として、被写体領域の位置(被写体ブロック)に関する情報を取得する。 Preferably, the calculation means 103b calculates the panning success rate (success degree) as data regarding whether or not the panning is successful. Further, preferably, the acquisition means 103a acquires information on the subject area (area including the main subject) from the first image as the first information, and information on the subject area from the second image as the second information. To get. More preferably, the acquisition means 103a acquires information about an area including a moving body (moving subject) as information about the subject area. Further, preferably, the acquisition means 103a acquires information on the position (subject block) of the subject area as information on the subject area.
本実施形態によれば、露光前の被写体情報(露光前情報211)および露光後の被写体情報(露光後情報212)に基づいて、流し撮り成功割合の算出を行うことができる。また、流し撮りの前後の被写体情報を利用することにより、被写体の検出が流し撮りの成功または失敗の影響を受けず、かつ、流し撮り成功割合の算出処理において同等の条件で撮影した画像に基づいて判定を行うことが可能である。 According to the present embodiment, it is possible to calculate the panning success rate based on the subject information before exposure (pre-exposure information 211) and the subject information after exposure (post-exposure information 212). In addition, by using the subject information before and after panning, the detection of the subject is not affected by the success or failure of panning, and it is based on the image taken under the same conditions in the calculation processing of the panning success rate. It is possible to make a judgment.
(第2の実施形態)
次に、図3を参照して、本発明の第2の実施形態について説明する。本実施形態において、光学系101は、光軸と直交する方向に移動することが可能なシフトレンズを含む。本実施形態の撮像装置100は、シフトレンズを移動させることにより、被写体の移動速度と撮像装置100の移動速度との差を吸収して撮影者の流し撮りを補助する機能を有する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. In the present embodiment, the optical system 101 includes a shift lens capable of moving in a direction orthogonal to the optical axis. The image pickup apparatus 100 of the present embodiment has a function of absorbing the difference between the moving speed of the subject and the moving speed of the imaging apparatus 100 by moving the shift lens to assist the photographer in panning.
図3は、本実施形態における流し撮り成功割合の算出処理を示すフローチャートである。図3の各ステップは、主に、CPU103の指令に基づいて実行される。図3において、シフトレンズ駆動(ステップS306)およびシフトレンズセンタリング(ステップS311)が追加されている点で、図2を参照して説明した第1の実施形態とは異なる。なお、図3の他のステップS301〜S305、S307〜S310は、図2のステップS201〜S209とそれぞれ同様であるため、それらの説明については省略する。 FIG. 3 is a flowchart showing the calculation process of the panning success rate in the present embodiment. Each step of FIG. 3 is mainly executed based on a command of the CPU 103. FIG. 3 differs from the first embodiment described with reference to FIG. 2 in that shift lens drive (step S306) and shift lens centering (step S311) are added. Since the other steps S301 to S305 and S307 to S310 in FIG. 3 are the same as the steps S201 to S209 in FIG. 2, their description will be omitted.
ステップS306において、CPU103は、シフトレンズを駆動する。シフトレンズの駆動により、被写体の移動速度と撮像装置100の移動速度との差を吸収して撮影者の流し撮りを補助することができる。なお、流し撮りの補助に関しても、例えば特許文献1に開示されているような、被写体の動きベクトルをシフトレンズの移動量に換算してシフトレンズを駆動する手法などの種々の方法が知られているため、ここでの説明は省略する。 In step S306, the CPU 103 drives the shift lens. By driving the shift lens, it is possible to absorb the difference between the moving speed of the subject and the moving speed of the image pickup apparatus 100 to assist the photographer in panning. As for the assistance of panning, various methods such as a method of driving a shift lens by converting a motion vector of a subject into a movement amount of the shift lens, as disclosed in Patent Document 1, are known. Therefore, the description here is omitted.
このようにして撮影者の流し撮りの補助が行われるが、撮影が完了した際には、次の撮影のためにシフトレンズの位置を初期位置に戻す必要がある。このため、ステップS311において、CPU103はシフトレンズのセンタリングを行う。シフトレンズセンタリング動作を行った場合、撮像される画像の撮像面上の位置も同様に動いてしまう。このとき、撮像面上の被写体の位置も変化するため、前述したような流し撮り成功割合の算出を行うことが難しい。このため、ステップS309における露光後情報212の取得よりも後にシフトレンズのセンタリングを行うことにより、流し撮り成功割合を容易かつ正確に算出することができる。 In this way, the photographer is assisted in panning, but when the shooting is completed, it is necessary to return the position of the shift lens to the initial position for the next shooting. Therefore, in step S311 the CPU 103 centers the shift lens. When the shift lens centering operation is performed, the position of the image to be captured on the imaging surface also moves. At this time, since the position of the subject on the imaging surface also changes, it is difficult to calculate the panning success rate as described above. Therefore, by centering the shift lens after the acquisition of the post-exposure information 212 in step S309, the panning success rate can be calculated easily and accurately.
このように本実施形態において、駆動手段103cは、流し撮りを補助するように、撮像光学系の光軸と直交する方向にシフトレンズを駆動する。好ましくは、駆動手段103cは、取得手段103aが第2の情報(露光後情報212)を取得した後に、シフトレンズを初期位置に駆動する(センタリングを行う)。このため本実施形態によれば、シフトレンズの移動による撮影者の流し撮りを補助しながら、流し撮り成功割合の算出処理を行うことが可能である。 As described above, in the present embodiment, the driving means 103c drives the shift lens in the direction orthogonal to the optical axis of the imaging optical system so as to assist the panning shot. Preferably, the driving means 103c drives the shift lens to the initial position (centering) after the acquiring means 103a acquires the second information (post-exposure information 212). Therefore, according to the present embodiment, it is possible to calculate the success rate of panning while assisting the panning shot of the photographer by moving the shift lens.
(第3の実施形態)
次に、図6を参照して、本発明の第3の実施形態について説明する。第1の実施形態では、露光前情報および露光後情報として被写体が属する画面内のブロック(被写体ブロック)の情報を利用する方法を説明したが、本実施形態では、露光前情報および露光後情報として被写体領域内の輝度情報を利用する方法を説明する。図6は、本実施形態における露光前情報および露光後情報の説明図である。
(Third Embodiment)
Next, a third embodiment of the present invention will be described with reference to FIG. In the first embodiment, a method of using information of a block (subject block) in the screen to which the subject belongs as pre-exposure information and post-exposure information has been described, but in the present embodiment, as pre-exposure information and post-exposure information. A method of using the brightness information in the subject area will be described. FIG. 6 is an explanatory diagram of pre-exposure information and post-exposure information in the present embodiment.
本実施形態では、ステップS203における露光前情報211として、画面を等間隔に分割して得られた複数のブロックのうち被写体が属するブロック(被写体ブロック)の輝度ヒストグラムを記憶する。このとき、例えば図6中の画像データ(a−2)から、輝度と度数との関係を示すヒストグラム(a−3)が取得される。露光後情報212も同様に、画像データ(b−2)または(c−2)から、ヒストグラム(b−3)、(c−3)がそれぞれ取得される。 In the present embodiment, as the pre-exposure information 211 in step S203, the luminance histogram of the block to which the subject belongs (subject block) among the plurality of blocks obtained by dividing the screen at equal intervals is stored. At this time, for example, from the image data (a-2) in FIG. 6, a histogram (a-3) showing the relationship between the brightness and the power is acquired. Similarly, for the post-exposure information 212, histograms (b-3) and (c-3) are acquired from the image data (b-2) or (c-2), respectively.
ここで、例えば、ヒストグラム(a−3)、(b−3)、(c−3)をそれぞれHa、Hb、Hcとすると、流し撮り成功割合Rb、Rcは例えば以下の式(3)、(4)のようにそれぞれ算出される。 Here, for example, a histogram (a-3), (b -3), (c-3) , respectively H a, H b, when the H c, shot success ratio R b, R c, for example the following formula It is calculated as in (3) and (4), respectively.
式(3)、(4)において、Min(a,b)は、a、bのうち小さいほうの値を選択することを意味する。なお本実施形態において、ヒストグラムHa、Hb、Hcのそれぞれを画素値0〜255の度数で表しており、ある画素値xの度数をHa[x]として表している。 In the formulas (3) and (4), Min (a, b) means to select the smaller value of a and b. In the present embodiment, the histogram H a, H b, represents each H c in degrees of pixel values 0 to 255, represents the frequency of a pixel value x as H a [x].
このようにして、露光前の被写体情報(露光前情報211)および露光後の被写体情報(露光後情報212)に基づいて、流し撮り成功割合を算出することができる。なお本実施形態において、被写体位置は露光前に取得してあり、露光後の再取得を行わない。このため、露光後に取得するフレームは最低1フレームで済むという利点がある。 In this way, the panning success rate can be calculated based on the subject information before exposure (pre-exposure information 211) and the subject information after exposure (post-exposure information 212). In this embodiment, the subject position is acquired before the exposure, and is not reacquired after the exposure. Therefore, there is an advantage that at least one frame is required to be acquired after exposure.
本実施形態の取得手段103aは、被写体領域に関する情報として、被写体領域の輝度情報(被写体領域の画素値)を取得する。そして算出手段103bは、流し撮り成功割合の算出を行うため、被写体領域に限定して画素値の差分を算出する。流し撮りにおいて、被写体は常に撮像面の同じ位置に撮像されていることが理想であるが、背景は流れているため、背景が撮像される位置は変化する。本実施形態によれば、被写体領域に限定して露光前後の被写体情報を比較することにより、流し撮り成功割合を算出することが可能となる。 The acquisition unit 103a of the present embodiment acquires the luminance information (pixel value of the subject area) of the subject area as the information regarding the subject area. Then, the calculation means 103b calculates the difference between the pixel values only in the subject area in order to calculate the panning success rate. In panning, it is ideal that the subject is always imaged at the same position on the imaging surface, but since the background is flowing, the position where the background is imaged changes. According to this embodiment, it is possible to calculate the panning success rate by comparing the subject information before and after exposure only in the subject area.
(第4の実施形態)
次に、図7を参照して、本発明の第4の実施形態について説明する。本実施形態では、露光前情報および露光後情報として被写体領域のベクトル情報を利用する方法を説明する。図7は、本実施形態における露光前情報および露光後情報の説明図である。
(Fourth Embodiment)
Next, a fourth embodiment of the present invention will be described with reference to FIG. 7. In this embodiment, a method of using the vector information of the subject area as the pre-exposure information and the post-exposure information will be described. FIG. 7 is an explanatory diagram of pre-exposure information and post-exposure information in the present embodiment.
例えば、図2のステップS201の被写体検出において、特許文献1に開示されている方法などにより、CPU103は、図7中のフレーム(a−1)のように、各ブロック内の動きベクトルを算出する。そしてCPU103は、算出された動きベクトルの中から被写体領域における動きベクトルを抽出する。続いて、CPU103は、移動量ごとにヒストグラムを取ることにより、ヒストグラム(a−2)を得ることができる。露光後情報も同様に、図7のヒストグラム(b−2)、(c−2)が得られる。例えば、ヒストグラム(a−2)、(b−2)、(c−2)の度数をそれぞれHa、Hb、Hcとすると、流し撮り成功割合Rb、Rcは例えば以下の式(5)、(6)のようにそれぞれ算出される。 For example, in the subject detection in step S201 of FIG. 2, the CPU 103 calculates the motion vector in each block as in the frame (a-1) in FIG. 7 by the method disclosed in Patent Document 1. .. Then, the CPU 103 extracts a motion vector in the subject area from the calculated motion vector. Subsequently, the CPU 103 can obtain a histogram (a-2) by taking a histogram for each movement amount. Similarly, the histograms (b-2) and (c-2) of FIG. 7 can be obtained for the post-exposure information. For example, a histogram (a-2), (b -2), (c-2) degrees of each H a of, H b, when the H c, shot success ratio R b, R c, for example the following formula ( It is calculated as in 5) and (6), respectively.
なお本実施形態では、ヒストグラムHaにおける、あるベクトル量xの度数をHa[x]として表しており、これを全移動量に対して積分する。 In the present embodiment, in the histogram H a, it represents the frequency of a certain vector quantity x as H a [x], integrating with respect to the total amount of movement of this.
このように本実施形態において、取得手段103aは、被写体領域に関する情報として、被写体領域の移動量に関する情報(動きベクトル、ベクトル情報)を取得する。好ましくは、取得手段103aは、被写体領域の移動量に関する情報として、第1の画像に関する第1の移動量(第1のベクトル情報)と第2の画像に関する第2の移動量(第2のベクトル情報)とを取得する。そして算出手段103bは、第1の移動量と第2の移動量とを比較して(第1の移動量と第2の移動量との類似度に基づいて)、流し撮り成功割合を算出する。 As described above, in the present embodiment, the acquisition means 103a acquires information (motion vector, vector information) regarding the amount of movement of the subject area as information regarding the subject area. Preferably, the acquisition unit 103a has a first movement amount (first vector information) related to the first image and a second movement amount (second vector) related to the second image as information regarding the movement amount of the subject area. Information) and get. Then, the calculation means 103b compares the first movement amount and the second movement amount (based on the similarity between the first movement amount and the second movement amount), and calculates the panning success rate. ..
このようにして、露光前の被写体情報(露光前情報211)と露光後の被写体情報(露光後情報212)とに基づいて、流し撮り成功割合の算出を行うことができる。なお本実施形態の方法によれば、第1の実施形態や第2の実施形態よりも、被写体のサイズや被写体のコントラストの影響を受けにくい。 In this way, the panning success rate can be calculated based on the subject information before exposure (pre-exposure information 211) and the subject information after exposure (post-exposure information 212). According to the method of the present embodiment, it is less affected by the size of the subject and the contrast of the subject than in the first embodiment and the second embodiment.
(第5の実施形態)
次に、図8を参照して、本発明の第5の実施形態について説明する。本実施形態では、露光前情報および露光後情報として露光前および露光後の動きベクトルを利用する方法を説明する。第4の実施形態では、図4の撮影前フレーム(a−1)、(a−2)間で算出された動きベクトル、および、撮影後フレーム(a−3)、(a−4)間で算出された動きベクトルの類似度を判定した。一方、本実施形態では、撮影前フレーム(a−2)と撮影後フレーム(a−3)との間で動きベクトルを算出する。
(Fifth Embodiment)
Next, a fifth embodiment of the present invention will be described with reference to FIG. In this embodiment, a method of using pre-exposure and post-exposure motion vectors as pre-exposure information and post-exposure information will be described. In the fourth embodiment, the motion vector calculated between the pre-shooting frames (a-1) and (a-2) in FIG. 4 and the post-shooting frames (a-3) and (a-4) The similarity of the calculated motion vectors was determined. On the other hand, in the present embodiment, the motion vector is calculated between the pre-shooting frame (a-2) and the post-shooting frame (a-3).
図8は、本実施形態における露光前情報および露光後情報の説明図である。例えば、図2のステップS204にて取得される露光前情報211として、動きベクトルを算出するために必要な情報を保持する。ステップS208の露光後情報212に関しても同様に、動きベクトルを算出するために必要な情報を保持する。ステップS209の成功割合の算出の際に、CPU103は、露光前情報211および露光後情報212を利用して、被写体領域における動きベクトルを算出する。ここで、流し撮りの際に、被写体に関しては移動速度に合わせて撮像装置100を追従させているため、理想的には動きベクトルは小さくなる。 FIG. 8 is an explanatory diagram of pre-exposure information and post-exposure information in the present embodiment. For example, as the pre-exposure information 211 acquired in step S204 of FIG. 2, information necessary for calculating the motion vector is retained. Similarly, the post-exposure information 212 in step S208 holds the information necessary for calculating the motion vector. When calculating the success rate in step S209, the CPU 103 calculates the motion vector in the subject area by using the pre-exposure information 211 and the post-exposure information 212. Here, in the case of panning, since the image pickup apparatus 100 follows the subject in accordance with the moving speed, the motion vector is ideally small.
そこで、図8中のヒストグラム(b−2)または(c−2)のように動きベクトルの度数をそれぞれHb、Hcとすると、流し撮り成功割合Rb、Rcは例えば以下の式(7)、(8)ようにそれぞれ算出される。 Therefore, assuming that the powers of the motion vectors are H b and H c , respectively, as shown in the histogram (b-2) or (c-2) in FIG. 8, the panning success ratios R b and R c are expressed by, for example, the following equations ( 7) and (8) are calculated respectively.
(|x|はxの絶対値)
式(7)、(8)において、|x|はxの絶対値を示す。また式(7)、(8)において、Nは任意の定数であり、Rb、Rcはそれぞれ0以上1以下の値を取る。また、ヒストグラムHbにおける、あるベクトル量xの度数をHb[x]として表わしており、これを全ベクトル量に対して積分する。
(| X | is the absolute value of x)
In the equations (7) and (8), | x | indicates the absolute value of x. Further, in the equations (7) and (8), N is an arbitrary constant, and R b and R c each take a value of 0 or more and 1 or less. Further, the frequency of a certain vector quantity x in the histogram H b is expressed as H b [x], and this is integrated with respect to the total vector quantity.
このように本実施形態において、取得手段103aは、第1の画像(本撮影前の画像)と第2の画像(本撮影後の画像)とを比較して被写体領域の移動量に関する情報(ベクトル情報)を取得する。このため本実施形態によれば、露光前の被写体情報(露光前情報211)および露光後の被写体情報(露光後情報212)に基づいて、流し撮り成功割合の算出を行うことができる。なお、本実施形態では、第3の実施形態と同様に、被写体のサイズや被写体のコントラストの影響を受けにくい。また、第2の実施形態と同様に、露光後に取得するフレームは最低1フレームで済むという利点がある。 As described above, in the present embodiment, the acquisition means 103a compares the first image (image before the main shooting) with the second image (image after the main shooting) and provides information (vector) regarding the amount of movement of the subject area. Information) is acquired. Therefore, according to the present embodiment, it is possible to calculate the panning success rate based on the subject information before exposure (pre-exposure information 211) and the subject information after exposure (post-exposure information 212). In this embodiment, as in the third embodiment, the size of the subject and the contrast of the subject are not easily affected. Further, as in the second embodiment, there is an advantage that at least one frame is required to be acquired after exposure.
(第6の実施形態)
次に、図9を参照して、本発明の第6の実施形態について説明する。第1から第5の実施形態では、被写体が静止した状態で流し撮り画像を撮影することができたか否かに着目したが、本実施形態のように背景の流し量に対する評価値を算出することも可能である。図9は、本実施形態における露光前情報および露光後情報の説明図である。第5の実施形態では被写体領域の動きベクトルを算出していたが、本実施形態では背景領域の動きベクトルを算出する。これにより、図9のヒストグラム(b−2)、(c−2)のような、背景の動きベクトルのヒストグラムを取得することができる。
(Sixth Embodiment)
Next, a sixth embodiment of the present invention will be described with reference to FIG. In the first to fifth embodiments, attention was paid to whether or not a panning image could be taken while the subject was stationary, but as in the present embodiment, an evaluation value for the amount of panning in the background is calculated. Is also possible. FIG. 9 is an explanatory diagram of pre-exposure information and post-exposure information in the present embodiment. In the fifth embodiment, the motion vector of the subject area was calculated, but in the present embodiment, the motion vector of the background area is calculated. As a result, it is possible to obtain a histogram of the motion vector of the background as shown in the histograms (b-2) and (c-2) of FIG.
このようにして得られた背景領域の移動量から、例えば図9のヒストグラム(b−2)、(c−2)として示される動きベクトルの度数をそれぞれHb、Hcとする。このとき、以下の式(9)、(10)で表されるように、流し撮り成功割合Rb、Rcと掛け合わせてRb’、Rc’を算出することができる。 From the amount of movement of the background region obtained in this way, for example, the frequencies of the motion vectors shown as the histograms (b-2) and (c-2) in FIG. 9 are defined as H b and H c , respectively. In this case, the following equation (9), can be calculated as expressed by (10), the rate of success panning R b, by multiplying the R c R b ', R c '.
式(9)、(10)において、Nは任意の定数である。 In equations (9) and (10), N is an arbitrary constant.
このように本実施形態において、取得手段103aは、第1の情報として、第1の画像から背景領域(背景を含む領域)の移動量に関する情報を取得し、第2の情報として、第2の画像から背景領域の移動量に関する情報(ベクトル情報)を取得する。このため本実施形態によれば、背景の流し量に対する評価値(背景領域の移動量に関する情報)を算出することにより、被写体が静止しており、かつ背景の流し量が多いほど高い成功割合として算出することができる。なお、第1から第6の実施形態において、種々の流し撮り成功割合の算出方法を説明したが、各算出方法において例えば被写体のサイズや撮影モードに応じて特定の方法を選択し、または複数の算出方法を組み合わせることも可能である。 As described above, in the present embodiment, the acquisition means 103a acquires the information regarding the movement amount of the background region (the region including the background) from the first image as the first information, and the second information as the second information. Obtain information (vector information) regarding the amount of movement of the background area from the image. Therefore, according to the present embodiment, by calculating the evaluation value (information about the movement amount of the background area) with respect to the background flow amount, the higher the success rate is, the more the subject is stationary and the background flow amount is large. Can be calculated. Although various methods for calculating the success rate of panning shots have been described in the first to sixth embodiments, in each calculation method, for example, a specific method is selected according to the size of the subject and the shooting mode, or a plurality of methods are selected. It is also possible to combine calculation methods.
(第7の実施形態)
次に、図10を参照して、本発明の第7の実施形態について説明する。第1から第6の実施形態では、流し撮り成功割合の算出方法を説明したが、本実施形態では、算出された流し撮り成功割合の利用方法を説明する。図10は、本実施形態における流し撮り成功割合の利用方法の説明図である。
(7th Embodiment)
Next, a seventh embodiment of the present invention will be described with reference to FIG. In the first to sixth embodiments, the method of calculating the panning success rate has been described, but in the present embodiment, the method of using the calculated panning success rate will be described. FIG. 10 is an explanatory diagram of a method of using the panning success rate in the present embodiment.
例えば流し撮り成功割合として、図10中のフレーム(a)、(b)、(c)、(d)に示されるように、0.98、0.60、0.50、0.90という値がそれぞれ得られたとする(数値が高いほうがより流し撮り成功割合が高い)。画像を記録する際に、撮影画像とともに流し撮り成功割合を合わせて保存させることにより、画像の閲覧ツールなどにおいて、保存した成功割合を参照することができる。例えば、撮影者が流し撮り画像を選択する際に、ソート順を「流し撮り成功割合順」とした場合、図10中のフレーム(e)、(f)、(g)、(h)のように、流し撮り成功割合の高い順にソートする。これにより、撮影者が簡易に適した流し撮り画像を選択することができる。 For example, the success rate of panning is 0.98, 0.60, 0.50, 0.90 as shown in the frames (a), (b), (c), and (d) in FIG. (The higher the number, the higher the success rate of panning). By saving the panning success rate together with the captured image when recording the image, the saved success rate can be referred to in an image viewing tool or the like. For example, when the photographer selects a panning image, if the sort order is "following success rate order", the frames (e), (f), (g), and (h) in FIG. In addition, sort in descending order of success rate of panning. This allows the photographer to easily select a suitable panning image.
本実施形態において、記録制御手段103dは、流し撮りによる画像データと流し撮り成功割合とを関連付けて記録媒体107に記録する。すなわち、撮影の際に算出した流し撮り成功割合を画像に記録する(付帯させる)ことにより、後から撮影者が画像を選択する際の手間を軽減させることが可能となる。 In the present embodiment, the recording control means 103d records the image data by the panning shot and the panning success rate in association with each other on the recording medium 107. That is, by recording (attaching) the panning success rate calculated at the time of shooting to the image, it is possible to reduce the time and effort for the photographer to select the image later.
(第8の実施形態)
次に、図11を参照して、本発明の第8の実施形態について説明する。本実施形態では、第7の実施形態と同様に、流し撮り成功割合の他の利用方法を説明する。図11は、本実施形態における流し撮り成功割合の利用方法の説明図である。
(8th Embodiment)
Next, an eighth embodiment of the present invention will be described with reference to FIG. In the present embodiment, as in the seventh embodiment, other usage methods of the panning success rate will be described. FIG. 11 is an explanatory diagram of a method of using the panning success rate in the present embodiment.
本実施形態では、流し撮りの連写において、図11中のフレーム(a−1)、(a−2)から検出された被写体の移動速度に基づいて、シフトレンズを光軸と直交する方向に移動させて光学補正を行い、撮影者の流し撮りを補助する場合を考える。まず、検出された被写体の移動速度を更新せずに連写し続ける場合を考えると、連写中に被写体の移動速度が変化した際に、以降の撮影で図11中の撮影画像(d)のような失敗画像を量産してしまう可能性がある。一方、毎回被写体を検出して移動速度を更新する場合、処理が増加するため、連写速度が低下する可能性がある。 In the present embodiment, in continuous shooting of panning, the shift lens is moved in a direction orthogonal to the optical axis based on the moving speed of the subject detected from the frames (a-1) and (a-2) in FIG. Consider the case where the photographer is moved to perform optical correction to assist the photographer in panning. First, considering the case where continuous shooting is continued without updating the movement speed of the detected subject, when the movement speed of the subject changes during continuous shooting, in the subsequent shooting, the captured image (d) in FIG. 11 There is a possibility of mass-producing such failed images. On the other hand, when the subject is detected and the moving speed is updated every time, the processing increases, so that the continuous shooting speed may decrease.
そこで、例えば流し撮りごとに図11中のフレーム(a−3)、(a−4)、(a−5)を取得し、各フレームに関して流し撮り成功割合を算出すると、図11中の撮影画像(d)の撮影においては、流し撮り成功割合が低くなる。ここで、例えば流し撮り成功割合が一定の閾値よりも低くなった場合、一度連写を中断してから再検出を行うことにより、連写速度を維持しつつ流し撮り成功画像を取得しやすくすることができる。 Therefore, for example, when the frames (a-3), (a-4), and (a-5) in FIG. 11 are acquired for each panning shot and the panning success rate is calculated for each frame, the captured image in FIG. 11 is obtained. In the shooting of (d), the success rate of panning shots is low. Here, for example, when the success rate of panning shot becomes lower than a certain threshold value, continuous shooting is interrupted once and then re-detection is performed to facilitate acquisition of a successful panning shot image while maintaining the continuous shooting speed. be able to.
このように本実施形態において、算出手段103bは連写撮影ごとに流し撮り成功割合を算出し、駆動手段103cは流し撮り成功割合に応じて動作を変更する。このため本実施形態によれば、連写速度を維持しながら、失敗画像が発生する頻度を軽減することが可能となる。 As described above, in the present embodiment, the calculation means 103b calculates the panning success rate for each continuous shooting, and the driving means 103c changes the operation according to the panning success rate. Therefore, according to the present embodiment, it is possible to reduce the frequency of occurrence of failed images while maintaining the continuous shooting speed.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
各実施形態によれば、流し撮りの際に、撮影画像の成否を判定するための流し撮り成功割合を算出することが可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。 According to each embodiment, a control device, an imaging device, a control method, a program, and a storage medium capable of calculating a panning success rate for determining the success or failure of a captured image at the time of panning are provided. can do.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.
103 CPU(制御装置)
103a 取得手段
103b 算出手段
103 CPU (control device)
103a Acquisition means 103b Calculation means
Claims (18)
前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出する算出手段と、を有することを特徴とする制御装置。 An acquisition means for acquiring the first information from the first image before the start of the panning shooting of the imaging device and acquiring the second information from the second image after the panning shooting of the imaging device is completed.
A control device comprising: a calculation means for calculating data regarding whether or not the panning shooting was successful based on the first information and the second information.
前記第1の情報として、前記第1の画像から被写体領域に関する情報を取得し、
前記第2の情報として、前記第2の画像から前記被写体領域に関する情報を取得することを特徴とする請求項1または2に記載の制御装置。 The acquisition means
As the first information, information about the subject area is acquired from the first image, and the information is obtained.
The control device according to claim 1 or 2, wherein as the second information, information about the subject area is acquired from the second image.
前記算出手段は、前記第1の移動量と前記第2の移動量とを比較して、前記流し撮り撮影が成功したか否かに関するデータを算出することを特徴とする請求項7に記載の制御装置。 The acquisition means acquires the first movement amount of the first image and the second movement amount of the second image as information about the movement amount of the subject area.
The calculation means according to claim 7, wherein the calculation means compares the first movement amount with the second movement amount to calculate data regarding whether or not the panning photography is successful. Control device.
前記第1の情報として、前記第1の画像から背景領域の移動量に関する情報を取得し、
前記第2の情報として、前記第2の画像から前記背景領域の移動量に関する情報を取得することを特徴とする請求項1または2に記載の制御装置。 The acquisition means
As the first information, information on the amount of movement of the background area is acquired from the first image, and the information is obtained.
The control device according to claim 1 or 2, wherein as the second information, information regarding the amount of movement of the background region is acquired from the second image.
前記駆動手段は、前記流し撮り撮影を補助するように前記シフトレンズを駆動することを特徴とする請求項1乃至10のいずれか1項に記載の制御装置。 Further having a driving means for driving the shift lens in a direction orthogonal to the optical axis of the imaging optical system,
The control device according to any one of claims 1 to 10, wherein the driving means drives the shift lens so as to assist the panning shooting.
撮像装置の流し撮り撮影の開始前の第1の画像から第1の情報を取得し、前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得する取得手段と、
前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出する算出手段と、を有することを特徴とする撮像装置。 An image sensor that photoelectrically converts an optical image formed via an image pickup optical system,
An acquisition means for acquiring the first information from the first image before the start of the panning shooting of the imaging device and acquiring the second information from the second image after the panning shooting of the imaging device is completed.
An image pickup apparatus comprising: a calculation means for calculating data regarding whether or not the panning shooting is successful based on the first information and the second information.
前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得するステップと、
前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出するステップと、を有することを特徴とする制御方法。 The step of acquiring the first information from the first image before the start of panning photography of the imaging device, and
A step of acquiring the second information from the second image after the panning shooting of the imaging device is completed, and
A control method comprising: a step of calculating data regarding whether or not the panning shooting is successful based on the first information and the second information.
前記撮像装置の流し撮り撮影の終了後の第2の画像から第2の情報を取得するステップと、
前記第1の情報と前記第2の情報とに基づいて、前記流し撮り撮影が成功したか否かに関するデータを算出するステップと、をコンピュータに実行させることを特徴とするプログラム。 The step of acquiring the first information from the first image before the start of panning photography of the imaging device, and
A step of acquiring the second information from the second image after the panning shooting of the imaging device is completed, and
A program characterized in that a computer is made to execute a step of calculating data regarding whether or not the panning shooting is successful based on the first information and the second information.
A computer-readable storage medium that stores the program of claim 17.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017093648A JP6833607B2 (en) | 2017-05-10 | 2017-05-10 | Control device, image pickup device, control method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017093648A JP6833607B2 (en) | 2017-05-10 | 2017-05-10 | Control device, image pickup device, control method, program, and storage medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018191205A JP2018191205A (en) | 2018-11-29 |
JP2018191205A5 JP2018191205A5 (en) | 2020-05-21 |
JP6833607B2 true JP6833607B2 (en) | 2021-02-24 |
Family
ID=64480381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017093648A Expired - Fee Related JP6833607B2 (en) | 2017-05-10 | 2017-05-10 | Control device, image pickup device, control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6833607B2 (en) |
-
2017
- 2017-05-10 JP JP2017093648A patent/JP6833607B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2018191205A (en) | 2018-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5507014B2 (en) | Moving object detection apparatus and method | |
JP6512810B2 (en) | Image pickup apparatus, control method and program | |
JP6157242B2 (en) | Image processing apparatus and image processing method | |
JP5484631B2 (en) | Imaging apparatus, imaging method, program, and program storage medium | |
EP1998558B1 (en) | Image pickup apparatus equipped with function of detecting image shaking | |
JP5029137B2 (en) | Imaging apparatus and program | |
US20060210264A1 (en) | Imaging apparatus and method for controlling display device | |
JP6671994B2 (en) | Imaging device and control method therefor, program, storage medium | |
JP6497987B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
WO2010128579A1 (en) | Electron camera, image processing device, and image processing method | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
CN101221341A (en) | Depth of field composition setting method | |
JP2009115981A (en) | Photographing device, its control method, and program | |
JP6338424B2 (en) | Image processing apparatus, control method therefor, imaging apparatus, and program | |
US10212348B2 (en) | Image processing apparatus, its control method, image capturing apparatus, and storage medium | |
JP2006211139A (en) | Imaging apparatus | |
JP2006067452A (en) | Video recording apparatus, and electronic camera | |
JP2019083364A (en) | Image processing device, imaging device, and control method | |
JP4807623B2 (en) | Imaging apparatus, imaging method, and imaging program | |
US10212349B2 (en) | Imaging apparatus and control method | |
JP6833607B2 (en) | Control device, image pickup device, control method, program, and storage medium | |
JP2009152725A (en) | Automatic tracing apparatus and method | |
JP7229709B2 (en) | Imaging device and its control method | |
JP5446660B2 (en) | Image recognition apparatus and imaging apparatus | |
JP7254555B2 (en) | IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200401 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210203 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6833607 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |