JP6305232B2 - Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. - Google Patents
Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. Download PDFInfo
- Publication number
- JP6305232B2 JP6305232B2 JP2014122534A JP2014122534A JP6305232B2 JP 6305232 B2 JP6305232 B2 JP 6305232B2 JP 2014122534 A JP2014122534 A JP 2014122534A JP 2014122534 A JP2014122534 A JP 2014122534A JP 6305232 B2 JP6305232 B2 JP 6305232B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- imaging units
- subjects
- grouping
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 228
- 230000010365 information processing Effects 0.000 title claims description 37
- 238000003672 processing method Methods 0.000 title claims 3
- 238000000034 method Methods 0.000 description 49
- 230000003287 optical effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 150000001875 compounds Chemical group 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は複数の撮像部のフォーカス合わせに関する技術である。 The present invention is a technique related to focusing of a plurality of imaging units.
複数の撮像部で撮像した画像を用いた技術として、複数のカメラで同一の被写体を異なる視点から撮像した複数の画像間の画素値の整合を取ることで被写体の形状を推定する技術が存在する。このように画像から高精度に被写体形状を推定するためには、各撮像部が形状を推定したい被写体にフォーカスを合わせて撮像を行う必要がある。更に、形状を推定したい被写体が複数存在する場合には、全ての被写体にフォーカスを合わせて撮像を行う必要がある。 As a technique using images captured by a plurality of imaging units, there is a technique for estimating the shape of a subject by matching pixel values between a plurality of images obtained by capturing the same subject from different viewpoints with a plurality of cameras. . Thus, in order to estimate the subject shape with high accuracy from the image, it is necessary for each imaging unit to perform imaging while focusing on the subject whose shape is to be estimated. Further, when there are a plurality of subjects whose shapes are to be estimated, it is necessary to focus on all the subjects and perform imaging.
複数の撮像部が複数の被写体にフォーカスを合わせる技術として、特許文献1記載の技術が知られている。特許文献1には、各撮像装置で異なる被写体にフォーカスし、かつ各撮像部のフォーカス位置が互いの撮像部の被写界深度内に入るように、各撮像部の撮像条件を設定することが記載されている。 A technique described in Patent Document 1 is known as a technique in which a plurality of imaging units focus on a plurality of subjects. In Patent Literature 1, the imaging conditions of each imaging unit are set so that each imaging device focuses on a different subject and the focus position of each imaging unit falls within the depth of field of each imaging unit. Have been described.
しかしながら、特許文献1に記載の技術では、被写体が複数の場合、各撮像部が別々の被写体上にフォーカス位置を算出し、それら全てのフォーカス位置が被写界深度内に入るように、各撮像部について大きなF値が設定されてしまう。F値が大きい場合、露出を適正にするためにISO感度を大きくするか、シャッタースピードを遅くする必要がある。しかし、ISO感度を大きくすればノイズが増加してしまい、シャッタースピードを遅くすれば被写体ぶれが発生してしまうという課題があった。 However, in the technique described in Patent Document 1, when there are a plurality of subjects, each imaging unit calculates a focus position on a separate subject, and each imaging is performed so that all the focus positions are within the depth of field. A large F value is set for the part. When the F value is large, it is necessary to increase the ISO sensitivity or reduce the shutter speed in order to make the exposure appropriate. However, if the ISO sensitivity is increased, noise increases, and if the shutter speed is decreased, subject blurring occurs.
そこで本発明では、複数の撮像装置が複数の被写体を異なる方向から撮像する場合に、F値が小さな状態でも全ての被写体にフォーカスして撮像するための技術を提供することを目的とする。 Therefore, an object of the present invention is to provide a technique for focusing and imaging all subjects even when the F value is small when a plurality of imaging devices capture a plurality of subjects from different directions.
上記課題を解決するために、本発明の情報処理装置は、複数の被写体が存在するシーンを複数の異なる視点位置から撮像する複数の撮像部の、フォーカス位置を示す情報を含むフォーカスパラメータを決定する情報処理装置であって、前記フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状と位置とを示す形状情報を取得する取得手段と、前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段と、前記取得手段によって取得された前記形状情報と、前記組分け手段による組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、前記フォーカスパラメータを決定する決定手段とを有することを特徴とする。 In order to solve the above problems, an information processing apparatus according to the present invention determines a focus parameter including information indicating a focus position of a plurality of imaging units that capture a scene including a plurality of subjects from a plurality of different viewpoint positions. The information processing apparatus, wherein the shapes and positions of the plurality of subjects are derived based on a plurality of images captured by the plurality of imaging units with an F value larger than an F value in imaging using the focus parameter. And a plurality of imaging units each of which corresponds to at least one of the plurality of subjects based on the shape information acquired by the acquisition unit. Based on the grouping means to be divided into groups, the shape information acquired by the acquiring means, and the grouping by the grouping means, the plurality of imaging Part is to focus on the corresponding object, respectively, and having a determining means for determining the focus parameter.
複数の撮像装置が複数の被写体を異なる方向から撮像する場合に、F値が小さな状態でも全ての被写体にフォーカスして撮像することができる。 When a plurality of imaging devices capture a plurality of subjects from different directions, all the subjects can be focused and imaged even when the F value is small.
<実施例1>
本実施例では、複数の撮像部を利用して、複数の被写体を含むシーンを異なる方向から撮影する場合に、撮像部を複数の組に分割し、組ごとに異なる被写体にフォーカスを合わせて撮影する例について説明する。これにより、全ての被写体にフォーカスを合わせた状態で撮像を行うことができる。なお、本実施例で用いられる撮像部の数は、撮像対象の被写体の数に比べると十分に多いものとする。
<Example 1>
In this embodiment, when shooting a scene including a plurality of subjects from different directions using a plurality of imaging units, the imaging unit is divided into a plurality of groups, and shooting is performed by focusing on different subjects for each group. An example will be described. Thereby, imaging can be performed in a state where all the subjects are in focus. Note that the number of imaging units used in this embodiment is sufficiently larger than the number of subjects to be imaged.
以下、本実施例の撮像システムの構成について説明する。図1は、本実施例の撮像システム構成例を示す図である。本実施例の撮像システムは8つの撮像部101〜108と情報処理装置109とを含み、撮像部101〜108は、2つの被写体を取り囲むようにそれぞれ異なる視点位置に配置されている。撮像部101〜108は、被写体の光情報をセンサで受光し、A/D変換を施すことによって撮像した画像のデジタルデータ(撮像画像データ)を取得する。情報処理装置109は、撮像部101〜108の撮像条件を算出し、算出した撮像条件に応じて撮像部101〜108を制御する。尚、本実施例では、8つの撮像部101〜108を用いる場合を例として説明を行うが、撮像部の数はこれに限られず、任意の数の撮像部を用いることができる。
Hereinafter, the configuration of the imaging system of the present embodiment will be described. FIG. 1 is a diagram illustrating a configuration example of an imaging system according to the present embodiment. The imaging system of the present embodiment includes eight
次に、情報処理装置109の構成について説明する。図2は、情報処理装置109の内部構成を示すブロック図である。情報処理装置109は、CPU201、RAM202、ROM203、HDD I/F204、HDD205、入力I/F206、出力I/F207、システムバス208とを有している。
Next, the configuration of the
CPU201は情報処理装置109の各構成部を制御するプロセッサであり、RAM202とROM203は、それぞれ情報処理装置109で扱われる種々のデータを記憶するメモリである。CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを実行し、システムバス208を介して情報処理装置109の各構成部を統括的に制御する。これにより、後述する様々な処理が実行される。
The
HDDI/F204は、例えばシリアルATA(SATA)等のインタフェイスであり、二次記憶装置としてのHDD205を接続する。CPU201は、HDDI/F204を介したHDD205からのデータ読み出し及びHDD205へのデータ書き込みが可能である。さらにCPU201は、HDD205に格納されたデータをRAM202に展開し、同様に、RAM202に展開されたデータをHDD205に保存することが可能である。そしてCPU201は、RAM202に展開したデータをプログラムとみなし、実行することができる。なお、二次記憶装置はHDDの他、光ディスクドライブ等の記憶デバイスでもよい。
The HDD I / F 204 is an interface such as serial ATA (SATA), for example, and connects the
入力I/F206は、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU201は、入力I/F206を介して、撮像部101〜108、操作部209(例えば、マウスやキーボード)、外部メモリ211(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)などからデータを取得する。どのようなデータを取得するかについては後述する。
The input I / F 206 is a serial bus interface such as USB or IEEE1394. The
出力I/F207は、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスである。CPU201は、出力I/F207を介して、表示部210(ディスプレイなどの各種出力デバイス)に、撮像部101〜108の撮像画像や、撮像画像に対し何らかの処理を行い合成した画像を表示することができる。なお、タッチパネル式のディスプレイが操作部209と表示部210を兼ねてもよい。なお、情報処理装置109の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
The output I / F 207 is a video output interface such as DVI or HDMI (registered trademark). The
次に、本実施例の情報処理装置109における撮像部101〜108のフォーカス位置決定処理の流れについて、図3に示すブロック図と、図4に示すフローチャートを参照して説明する。本実施例の情報処理装置109は、CPU201がROM203に格納された、図4のフローチャートに示すプログラムを実行し、図3に示す機能構成部としての役割を果たすことでフォーカス位置の決定処理を行う。なお、全ての処理をCPU201が行わずともよく、一部又は全部の処理を、同様の機能を有する処理回路などで置き換えてもよい。また、以下の処理に先立ちユーザによって撮像部101〜108についてそれぞれF値とシャッタースピードが設定済みで、ROM203に記憶してあるものとする。なお、ここで、各撮像部のF値は各撮像部で設定可能な最小値(開放値)に設定してある。
Next, the flow of focus position determination processing of the
まず、ステップS401では、位置取得部301において、被写体形状測定時の撮像部101〜108の三次元位置、及び姿勢(撮像部の前方を表す三次元ベクトルと、撮像部の上方を表す三次元ベクトル)を示す情報を取得する。撮像部の三次元位置、及び姿勢は、入力I/F206を介して撮像部101〜108や外部メモリ211から取得する。または、操作部209を介してユーザに入力された値を取得するようにしてもよい。なお、外部から入力された値を撮像部の位置姿勢を示す情報として取得する代わりに、撮像部が取得した撮像画像データからstructure from motionなどの既存手法により、撮像部の位置姿勢を示す情報を算出するようにしても構わない。位置取得部301は、ここで取得した各撮像部の位置姿勢を示す情報を、比較部303とパラメータ決定部305に出力してステップS402に進む。
First, in step S401, in the
ステップS402では、形状取得部302において、撮像する複数の被写体のおおまかな位置と形状とを示す形状情報を取得する。形状情報は、被写体と撮像部101〜108との三次元的な相対位置を示す情報と各被写体の空間的な広がりを示す情報とを含み、例えば三次元空間にプロットされた複数の点群の座標で表わされる。被写体の形状情報は、予め何らかの方法で測定しRAM202やROM203に記憶してあるものとする。なお、被写体の形状情報の測定にはどのような方法を用いてもよく、3次元デジタイザ(3Dスキャナ)など不図示の外部センサを利用して測定してもよいし、撮像部101〜108のプレビューとして得られる多視点画像を利用して形状を推定してもよい。多視点画像から被写体の形状を推定する方法としては、例えば、多視点画像間の画素の位置ずれに基づいて距離を測定する既存手法であるMulti View Stereoを利用することができる。被写体の形状情報の取得方法については、本発明の主眼ではないため詳細な説明は省略する。いずれの方法で被写体の形状を取得するにしても、撮影前のプレビューの段階において逐次被写体の形状を取得し、ROM203を更新することが望ましい。なお、プレビューで得られた多視点画像から形状推定を行う場合には、各撮像部のF値を大きくして被写界深度を深くした状態で撮像された画像を用いると、各被写体の大まかな形状情報を容易に得ることができる。形状取得部302は、取得した形状情報を比較部303に出力し、ステップS403に進む。
In step S402, the
続いてステップS403では、比較部303が、各撮像部の被写界深度を取得する。ここでは、撮像前にあらかじめ設定されたF値と撮像部から被写体までの距離とから被写界深度を算出する方法を示す。まず、ROM203から撮像部101〜108のF値をそれぞれ取得する。また、形状取得部302から入力された形状情報に基づいて、各撮像部から被写体までの距離である被写体距離を取得する。ここでは、各撮像部から全被写体の形状の重心位置までの距離を被写体距離とする。n番目の撮像部における被写界深度DnはF値をFn、被写体距離をdnとすると下記式で算出することができる。
Subsequently, in step S403, the
ここで、εは許容錯乱円の直径、fnはレンズの焦点距離を表している。許容錯乱円の直径εは、どのくらいまでの大きさのボケを許容するかを示す値である。許容錯乱円の直径は撮像部のセンササイズ、センサ上の画素ピッチなどによって変わる値だが、例えばAPS−Cサイズのセンサの場合、一般に0.019mmという値を用いられる。尚、被写界深度を算出するには上記以外のどのような方法を用いてもよい。また、上記のように処理の度に算出するのではなく、予め算出した値をテーブルとしてROM203に記憶しておき、それを参照することで被写体深度を取得するようにしてもよい。比較部303は、上記いずれかの方法によって、撮像部101〜108の全てについて被写界深度Dnを取得する。
Here, ε represents the diameter of the allowable circle of confusion, and fn represents the focal length of the lens. The diameter ε of the allowable circle of confusion is a value indicating how much blur is allowed. The diameter of the permissible circle of confusion varies depending on the sensor size of the imaging unit, the pixel pitch on the sensor, and the like. For example, in the case of an APS-C size sensor, a value of 0.019 mm is generally used. Any method other than the above may be used to calculate the depth of field. In addition, instead of calculating each time as described above, values calculated in advance may be stored in the
続いて、ステップS404では、比較部303が、ステップS403で取得した被写界深度と、形状取得部302から入力された形状情報とを比較し、撮像部101〜108が一度の撮影で全ての被写体を被写界深度内に収めることができるかを判断する。被写体の形状情報を利用して各撮像部の光軸上での被写体の奥行きを算出し、ステップS403で取得した被写界深度と比較する。ここで、光軸上での被写体の奥行きとは、撮像部の光軸上において被写体のうちの最も手前にある被写体の最も手前にある点から、最も奥にある被写体の最も奥にある点までの距離である。被写界深度の方が大きい場合は全ての被写体が被写界深度内に収まり、他方、被写界深度の方が小さい場合は被写界深度に収まらないと判断される。ここで、撮像部の光軸は撮像部の三次元位置を始点として、撮像部の前方を表す三次元ベクトルと平行な方向を持つ線分である。
Subsequently, in step S404, the
図5に処理の概念図を示す。尚、図5は図示の都合上2次元で被写体や撮像部、被写体深度を記載するが、実際にはこれらは3次元で表現され、以下の説明は3次元に単純に拡張が可能である。図5(a)は、撮像部501で2つの被写体を撮影する場合を示している。線分502は撮像部501の光軸を表しており、範囲503が光軸上の被写体の奥行きを表わしている。また、グレーで色づけした領域505は、撮像部501の被写界深度内に含まれるフォーカス領域を表している。この領域外にある被写体は、フォーカス範囲外になってしまうため、撮影画像中ではぼけてしまう。従って、この場合は一度の撮影では全ての被写体を被写界深度内に収めることはできない。一方、図5(b)は撮像部501とは位置が異なる撮像部506を用いた場合を示す図である。図5(b)では、光軸上の被写体奥行き508よりもフォーカス領域509の方が大きいため、一度の撮影で全ての被写体を被写界深度内に収めることができる。ここでは、比較部303が、全ての撮像部について上述の比較を行い、各撮像部について、被写界深度内に収めることができない被写体が存在するかどうかを判定する。撮像部101〜108のうち、一度に被写体全体を被写界深度内に収めることができない撮像部がある場合はステップS405へ進む。他方、全ての撮像部において、被写体全体を被写界深度内に収めて撮像することができる場合にはステップS406へ進む。
FIG. 5 shows a conceptual diagram of the processing. Note that FIG. 5 illustrates the subject, the imaging unit, and the subject depth in two dimensions for convenience of illustration, but in actuality, these are represented in three dimensions, and the following description can be simply expanded to three dimensions. FIG. 5A shows a case where the
続いて、ステップS405では、組分け部304が、一度に全ての被写体を被写界深度に収めることができない撮像部が存在する場合に、撮像部101〜108を、それぞれが少なくとも一つの被写体に対応する複数の組に分ける。なお、組分け部304で行われる処理の詳細については後述する。組分け部304は、ここで行われた組分けの結果をパラメータ決定部305に出力し、ステップS406に進む。
Subsequently, in step S405, when there is an imaging unit in which the
最後に、ステップS406では、パラメータ決定部305が、組分け部304から入力された組分けの結果と、各撮像部と各被写体との位置関係に基づいて、撮像部101〜108のそれぞれについて、フォーカス距離を示すフォーカスパラメータを決定する。ここでは、同一組に割り振られた撮像部は同一の被写体にフォーカスを合わせ、グループごとに異なる被写体にフォーカスを合わせるように、フォーカスパラメータを決定する。なお、ここで、フォーカスパラメータは、各撮像部のフォーカス距離でもよいし、各撮像部のレンズ―センサ間距離などでもよい。なお、パラメータ決定部305で行われる処理の詳細は後述する。パラメータ決定部305は、ここで決定されたフォーカスパラメータを撮像部101〜108に出力し、処理を終了する。以下、ステップS405の組分け処理とステップS406のパラメータ決定処理の詳細について説明する。
Lastly, in step S406, the
<組分け処理>
まず、前述のステップS405の組分け処理の詳細について説明する。なお、本処理は、一度に全ての被写体を被写界深度に収めることができない撮像部が存在する場合に実施する。
<Grouping process>
First, details of the grouping process in step S405 described above will be described. This process is performed when there is an imaging unit that cannot fit all subjects within the depth of field at one time.
本実施例の組分け処理では、撮像部101〜108を被写体の数と等しい数の組に分ける。例えば、被写体が2つ存在する場合は、撮像部101〜108を1つ目の被写体に対応する第1の組と、2つ目の被写体に対応する第2の組へと分割する。各撮像部の組分け方法としては任意の方法を用いることが可能である。例えば、本実施例では、図6(a)に示すように、隣り合う各撮像部を交互に異なる組に割り振る。図6(a)の例では、被写体1に対応する第1の組には撮像部101、103、105、107の4つの撮像部が、被写体2に対応する第2の組には撮像部102、104、106、108の4つの撮像部が割り振られている。
In the grouping process of the present embodiment, the
被写体が3つの場合は、図6(b)に示すように、被写体1に対応する第1の組には撮像部101、104、107が、被写体2に対応する第2の組には撮像部102、105、108が、被写体3に対応する第3の組には撮像部103、106が割り振られる。このように、上記の例では各撮像部を順番に各組へ割り振った。このような組分けの仕方であれば、各被写体に対して均等に撮像部を割り振ることができる。なお、ここで用いることができる組分け方法は上記の物に限られず、ランダムに割り振りを行ってもよいし、他の規則に従って割り振りを行ってもよい。また、各組には均等な数の撮像部を割り当てる例を示したが、各グループの撮像部の数は必ずしも均等である必要はない。さらに、組分けは撮像ごとに固定である必要はなく、撮影の度に新たに設定し直したり、時刻に応じて組分けを変更するようにしてもよい。
When there are three subjects, as shown in FIG. 6B, the
<パラメータ決定処理>
次に、前述のステップS406の、フォーカスパラメータ決定処理の詳細について説明する。本処理では、各組に対応する被写体にフォーカスが合うように、各組に属する撮像部のフォーカス距離を設定する。
<Parameter determination process>
Next, details of the focus parameter determination processing in step S406 described above will be described. In this process, the focus distances of the imaging units belonging to each group are set so that the subject corresponding to each group is in focus.
図7(a)に示すように、パラメータ決定部305は、被写体1に対応する第1の組に属する撮像部101、103、105、107について、被写体1にフォーカスが合うようにフォーカス距離を決定する。このとき、パラメータ決定部305は、被写体の形状情報から被写体1の重心位置701を求め、各撮像部から重心位置までの距離702、703、704、705を算出し、対応する各撮像部のフォーカス距離とする。
As illustrated in FIG. 7A, the
同様に、図7(b)に示すように、パラメータ決定部305は、被写体2に対応する第2の組に属する撮像部102、104、106、108について、被写体2にフォーカスが合うようにフォーカス距離を決定する。なお、ステップS404において、一度の撮影で全ての被写体を被写界深度内に収めることができると判断された場合には、組数が1であるとして扱い、全ての被写体の重心位置と各撮像部との距離を、各撮像部のフォーカス距離とする。
Similarly, as shown in FIG. 7B, the
パラメータ決定部305は、ここで設定されたフォーカス距離に基づいて、各撮像部に出力するためのフォーカスパラメータを決定する。フォーカスパラメータとしては、フォーカス距離そのものを出力するようにしてもよいし、フォーカス距離を示す情報であれば、各撮像部のレンズ―センサ間距離などをフォーカスパラメータとして出力するようにしてもよい。出力するフォーカスパラメータの種類は、出力先の撮像部の構成に応じて決定すればよい。例えば、出力先の撮像部が、入力されたフォーカス距離に応じて光学系の制御信号を生成する機能を有している場合には、フォーカスパラメータとしてフォーカス距離そのものを出力すればよい。
The
以上が本実施例の撮像システムで行われる処理である。上記の処理によれば、複数の撮像部が複数の被写体を異なる方向から撮像する場合に、F値が小さな状態でも全ての被写体にフォーカスして撮像することができる。なお、上記では撮像する被写体が複数存在する場合について説明を行ったが、本発明は、被写体のサイズが大きく一度の撮影では被写界深度内に収まらない場合にも適用が可能である。その場合、一つの被写体を各撮像部の被写界深度に収まるサイズの複数のパーツへ分けることで上記の方法を適用することが可能である。また、被写界深度に入らない大きなサイズの被写体と複数の被写体とが存在する場合についても同様に適用が可能である。 The above is the processing performed in the imaging system of the present embodiment. According to the above processing, when a plurality of imaging units capture a plurality of subjects from different directions, all the subjects can be focused and imaged even when the F value is small. In the above description, the case where there are a plurality of subjects to be imaged has been described. However, the present invention can also be applied to a case where the size of the subject is large and the image does not fall within the depth of field in one shooting. In that case, it is possible to apply the above method by dividing one subject into a plurality of parts having a size that fits within the depth of field of each imaging unit. Further, the present invention can be similarly applied to a case where there are a large-size subject and a plurality of subjects that do not fall within the depth of field.
なお、本実施例において、形状取得部302は、フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で撮像された複数の画像に基づいて導出された、複数の被写体の形状と撮像部との位置関係を示す形状情報を取得する取得手段として機能する。また、組分け部304は、前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段として機能する。また、パラメータ決定部305は、取得手段によって取得された形状情報と、組分け手段による組分けとに基づいて、複数の撮像部がそれぞれ対応する被写体にフォーカスするように、フォーカスパラメータを決定する決定手段として機能する。
In this embodiment, the
<実施例2>
実施例1では、予め決められたパターンを用いて撮像部を各被写体へ割り振ることで組分け処理を行う例を示した。本実施例では、撮像部の組分けの際に、各撮像部から被写体が見えているかどうかを考慮して、各被写体へ割り振る撮像部を決定する。これによって、撮像部から見えていない被写体に対してその撮像部を割り振ってしまい、結果として撮影が無駄になってしまうことを防ぐことができる。
<Example 2>
In the first embodiment, an example in which the grouping process is performed by allocating the imaging unit to each subject using a predetermined pattern is shown. In this embodiment, when grouping the imaging units, the imaging units to be allocated to each subject are determined in consideration of whether the subject is visible from each imaging unit. Accordingly, it is possible to prevent the imaging unit from being allocated to a subject that is not visible from the imaging unit, and as a result, shooting is not wasted.
本実施例の情報処理装置109の構成は、実施例1と同様である。ただし、組分け部304で行われる処理が実施例1とは異なる。以下では、本実施例の組分け部304で行われる処理について説明し、実施例1と同様の動作をする他の要素に関する説明は省略する。
The configuration of the
図8に、本実施例における組分け処理のフローチャートを示す。まず、ステップS801において、組分け部304は、各撮像部について各被写体に関するビジビリティ情報を算出する。ここで、ビジビリティ情報とは、各撮像部から各被写体がどれぐらい見えているかの度合いを示す情報である。
FIG. 8 shows a flowchart of the grouping process in this embodiment. First, in step S801, the
ビジビリティ情報は、位置取得部301で取得した各撮像部の位置・姿勢と、形状取得部302で取得した被写体の形状情報から算出することができる。例えば、撮像部101からの被写体1のビジビリティを算出する場合、撮像部101から被写体1の間に遮る物体がないかどうかを調べればよい。被写体1上の様々な点について撮像部101との間に遮る物体がないことが確認できた場合、撮像部101から被写体1は「見える」と判定することができる。逆に、被写体1上の複数の点について撮像部101との間に遮る物体が所定の閾値以上の割合で存在する場合、撮像部101から被写体1は「見えない」と判定することができる。なお、被写体が見えるか見えないかを判定するための閾値としては任意の値を用いることができるが、本実施例では50%という値を用いる。なお、ビジビリティは、各被写体の像を各撮像部の撮像センサに、各撮像部に近い被写体が優先されるように射影した時に、本来撮像センサに射影されるはずの像の何%が他の被写体の像に置き換わっているかを算出することで計算することができる。
Visibility information can be calculated from the position / posture of each imaging unit acquired by the
その他のビジビリティ情報の算出方法として、ビジビリティ情報を算出する被写体、撮像部、その他の被写体を結んで成す角度が所定の値より大きい場合は「見える」と判定し、逆に所定の値より小さい場合は「見えない」と判定する方法もある。上述の2方法以外にもあらゆる方法でビジビリティを算出することができる。 As another method for calculating the visibility information, if the angle formed by connecting the subject for which the visibility information is calculated, the imaging unit, and the other subject is larger than a predetermined value, it is determined to be “visible”, and conversely, it is smaller than the predetermined value. There is also a method to determine that is “invisible”. Visibility can be calculated by any method other than the two methods described above.
前述の図6(a)の状況におけるビジビリティを図9に示す。ここでは、各撮像部から被写体が見える場合を○、被写体が見えない場合を×で表わしている。例えば、撮像部101は被写体1、被写体2ともに○であり、撮像部1からはどちらの被写体も見えることを表している。また、撮像部102からは、被写体1は見えないが、被写体2は見えることを表す。組分け部304は、各撮像部の各被写体に対するビジビリティを算出し、各撮像部から各被写体が見えるか見えないかの判定を行ったら、ステップS802に進む。
FIG. 9 shows the visibility in the situation shown in FIG. Here, the case where the subject is visible from each imaging unit is indicated by ◯, and the case where the subject is not visible is indicated by ×. For example, the
ステップS802では、組分け部304が、各撮像部を、各撮像部から見えている被写体に基づいて組分けする。各被写体への撮像部の割り振りは、ビジビリティ情報のうち○の数が少ない撮像部から行われる。まず、ビジビリティ情報に○が1つしかない撮像部、つまり1つの被写体しか見えていない撮像部は、○がついた被写体へ割り振られる。次にビジビリティ情報に○が2つある撮像部は、○がついた2つの被写体のうちのいずれかの被写体へ割り振られる。この時、2つの被写体のうちどちらに割り振るかはランダムに決定される。続いて○が3つある撮像部は、○がついた3つの被写体から、ランダムにひとつの被写体が選択され、その被写体に割り振られる。以降、○の数を増やしていき、全ての撮像部について、いずれかの被写体への割り振りが行われる。上記では、各撮像部をランダムにひとつの被写体へ割り振ると説明したが、各被写体に割り振る撮像部の数が均一になるように撮像部を割り振るようにしてもよい。
In step S <b> 802, the
図10に図6(a)の状況において、ビジビリティに基づく撮像部の組分けが行われた結果の例を示す。図10(a)において、被写体1が見えている撮像部のうち、撮像部101、撮像部104、撮像部106、撮像部107が被写体1に対応する第1の組として割り振られた。また、図10(b)において、被写体2が見えている撮像部のうち、撮像部102、撮像部103、撮像部105、撮像部108が被写体2に対応する第2の組として割り振られた。
FIG. 10 shows an example of the result of grouping the imaging units based on visibility in the situation of FIG. In FIG. 10A, among the imaging units in which the subject 1 is visible, the
以上が本実施例の各撮像部の組分け処理である。以上の処理によれば、見えない被写体に撮像部が割り振られてしまい、撮影の結果が無駄になってしまうことを防ぐことができる。その結果、全ての被写界深度を被写界深度内に収めた良好な多視点画像を撮像することができるようになる。 The above is the grouping process of each imaging unit of the present embodiment. According to the above processing, it is possible to prevent the imaging unit from being assigned to the invisible subject and the result of the imaging from being wasted. As a result, it becomes possible to capture a good multi-viewpoint image in which all the depths of field fall within the depth of field.
<実施例3>
本実施例では、情報処理装置109で決定されたフォーカスパラメータを用いて撮像された画像データに基づいて、被写体の形状情報を精度よく算出する例について説明する。実施例1および2との共通点については説明を省略し、差異点についてのみ述べる。本実施例の情報処理装置109の構成は、図11に示すように、実施例1および2の構成に形状推定部1101を加えたものである。以下、本実施例の情報処理装置109で行われる処理について、図12に示すフローチャートを参照して説明する。
<Example 3>
In the present embodiment, an example will be described in which shape information of a subject is accurately calculated based on image data captured using a focus parameter determined by the
ステップS401〜S406の処理が終了すると、形状推定部1101は、ステップS406で決定されたフォーカスパラメータを用いて撮像部101〜108により新たに撮像された撮像画像データを取得する(ステップS1201)。次に、形状推定部1101は、ステップS1201で取得した撮像画像データに基づいて、各被写体のより詳細な形状情報を推定する。各被写体の形状情報の推定には、実施例1で述べたものと同様に、Multiview Stereoなどの公知の手法を用いることができる。この時、各被写体の距離情報を取得するために用いる画像データは、対応する撮像部により撮像された画像データが用いられる。対応する撮像部により撮像された画像データは、対応する被写体にフォーカスが合った、ノイズの少ない画像データであるため、被写体の形状情報を高精度に求めることができる。なお、この時、各被写体に対応する撮像部が分かるように、各撮像部は、各撮像画像データに対応する被写体を示すメタデータを付加して出力するようにしてもよい。
When the processes in steps S401 to S406 are completed, the
また、被写体の形状情報の推定精度をより向上させるために、各撮像部の組分けの際に、隣接する少なくとも2つの撮像部を1つの小グループとし、各撮像部の組を複数の小グループの集合で構成するようにしてもよい。このように組分けを行うことによって、被写体の同じ面を撮像する撮像部が少なくとも2つ確保されるようになるので、各被写体の形状情報を精度よく求めることができる可能性が上昇する。同様の効果を得るためには、各撮像部を、少なくとも2つ以上の光学系を有する複眼カメラに置き換えてもよい。 Further, in order to further improve the estimation accuracy of the shape information of the subject, at the time of grouping each imaging unit, at least two adjacent imaging units are set as one small group, and each imaging unit set is divided into a plurality of small groups. You may make it comprise by the set of. By performing the grouping in this way, at least two imaging units that capture the same surface of the subject are secured, so that the possibility that the shape information of each subject can be obtained with high accuracy is increased. In order to obtain the same effect, each imaging unit may be replaced with a compound eye camera having at least two or more optical systems.
<その他の実施形態>
本発明の実施形態は上記に挙げたものに限られずその他の様々な形態をとることができる。例えば、上記の実施例では、組分け部304が、各撮像部がそれぞれ一つの被写体に対応するように撮像部の組分けを行ったが、複数の被写体が被写界深度内に含まれる場合には、各撮像部がそれぞれ複数の被写体に対応するように組分けを行うようにしてもよい。
また、上記の実施例では、比較部303が、F値が各撮像部の開放値である場合に、各被写体の奥行きと各撮像部の被写界深度を比較したが、F値は開放値に限られず、所定の閾値を超えない範囲でF値を変化させながら比較を行うようにしてもよい。被写体の形状に応じて撮像に用いるF値を変更させる場合は、パラメータ決定部305は、F値など、撮像に用いる被写界深度を示す情報をフォーカスパラメータに追加して撮像部101〜108に追加するようにすればよい。
<Other embodiments>
Embodiments of the present invention are not limited to those described above, and can take other various forms. For example, in the above embodiment, the
In the above embodiment, the
実施例2では、各撮像部を、ビジビリティが閾値を超えている被写体にランダムで振り分ける例について説明したが、ビジビリティが閾値を超えている被写体が複数存在する場合に、よりビジビリティが大きい被写体を優先的に割り当てるようにしてもよい。
また、上記の実施例では、被写体を囲むように撮像部を配置した撮像システムについて説明したが、撮像部の配置例はこれに限られず、各撮像部がある一つの平面上に並べて配置された多眼カメラなどにも適用することができる。
In the second embodiment, an example has been described in which each imaging unit is randomly assigned to a subject whose visibility exceeds the threshold. However, when there are a plurality of subjects whose visibility exceeds the threshold, priority is given to a subject with greater visibility May be assigned automatically.
In the above embodiment, the imaging system in which the imaging units are arranged so as to surround the subject has been described. However, the arrangement example of the imaging units is not limited to this, and each imaging unit is arranged side by side on one plane. It can also be applied to multi-lens cameras.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101〜108 撮像部
109 情報処理装置
201 CPU
202 RAM
203 ROM
301 位置取得部
302 形状取得部
303 比較部
304 組分け部
305 パラメータ決定部
101-108
202 RAM
203 ROM
301
Claims (11)
前記フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状と位置とを示す形状情報を取得する取得手段と、
前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段と、
前記取得手段によって取得された前記形状情報と、前記組分け手段による組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、前記フォーカスパラメータを決定する決定手段とを有することを特徴とする情報処理装置。 An information processing apparatus for determining a focus parameter including information indicating a focus position of a plurality of imaging units that capture a scene including a plurality of subjects from a plurality of different viewpoint positions,
Obtaining shape information indicating the shape and position of the plurality of subjects derived based on a plurality of images captured by the plurality of image capturing units with an F value larger than an F value in imaging using the focus parameter Acquisition means to
Grouping means for dividing the plurality of imaging units into a plurality of groups each corresponding to at least one of the plurality of subjects based on the shape information acquired by the acquisition unit;
Determining means for determining the focus parameter based on the shape information acquired by the acquiring means and the grouping by the grouping means so that the plurality of imaging units respectively focus on corresponding subjects; An information processing apparatus comprising:
前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状および前記複数の撮像部との位置関係を示す形状情報を取得する取得手段と、
前記取得手段により取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段と、
前記取得手段により取得された前記形状情報と、前記組分け手段による組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、かつ、前記複数の画像の撮像に用いたF値よりも小さなF値となるように、前記複数の撮像部を制御する制御手段とを有することを特徴とする撮像装置。 A plurality of imaging units for imaging a scene including a plurality of subjects from a plurality of different viewpoint positions;
Obtaining means for obtaining shape information indicating a shape of the plurality of subjects and a positional relationship with the plurality of imaging units, derived from a plurality of images captured by the plurality of imaging units;
Grouping means for dividing the plurality of imaging units into a plurality of groups each corresponding to at least one of the plurality of subjects based on the shape information acquired by the acquisition unit;
Based on the shape information acquired by the acquisition unit and the grouping by the grouping unit, the plurality of imaging units focus on corresponding subjects and are used for imaging the plurality of images. An image pickup apparatus comprising: a control unit that controls the plurality of image pickup units so as to have an F value smaller than a given F value.
前記フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状と前記複数の撮像部との位置関係を示す形状情報を取得する取得手段と、
前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段と、
前記取得手段によって取得された前記形状情報と、前記組分け手段による組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、前記フォーカスパラメータを決定する決定手段と、
前記決定手段により決定された前記フォーカスパラメータに基づいて、それぞれが対応する被写体にフォーカスするように前記複数の撮像部を制御する制御手段を有することを特徴とする撮像システム。 An imaging system including: a plurality of imaging units that capture a scene including a plurality of subjects from a plurality of different viewpoint positions; and an information processing apparatus that determines focus parameters including information indicating a focus position of the plurality of imaging units. There,
Positions of the shapes of the plurality of subjects and the plurality of imaging units derived based on a plurality of images captured by the plurality of imaging units with an F value larger than an F value in imaging using the focus parameter Acquisition means for acquiring shape information indicating the relationship;
Grouping means for dividing the plurality of imaging units into a plurality of groups each corresponding to at least one of the plurality of subjects based on the shape information acquired by the acquisition unit;
A determination unit that determines the focus parameter so that the plurality of imaging units focus on corresponding subjects, based on the shape information acquired by the acquisition unit and the grouping by the grouping unit;
An imaging system comprising: a control unit that controls the plurality of imaging units so that each of them focuses on a corresponding subject based on the focus parameter determined by the determination unit.
前記フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状と前記複数の撮像部との位置関係を示す形状情報を取得する取得ステップと、
前記取得ステップで取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分けステップと、
前記取得ステップで取得された前記形状情報と、前記組分けステップでの組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、前記フォーカスパラメータを決定する決定ステップとを含むことを特徴とする情報処理方法。 An information processing method for determining a focus parameter including information indicating a focus position of a plurality of imaging units that capture a scene including a plurality of subjects from a plurality of different viewpoint positions,
Positions of the shapes of the plurality of subjects and the plurality of imaging units derived based on a plurality of images captured by the plurality of imaging units with an F value larger than an F value in imaging using the focus parameter An acquisition step of acquiring shape information indicating the relationship;
A grouping step of dividing the plurality of imaging units into a plurality of groups each corresponding to at least one of the plurality of subjects based on the shape information acquired in the acquisition step;
A determining step for determining the focus parameter so that the plurality of imaging units focus on corresponding subjects based on the shape information acquired in the acquiring step and the grouping in the grouping step; An information processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014122534A JP6305232B2 (en) | 2014-06-13 | 2014-06-13 | Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014122534A JP6305232B2 (en) | 2014-06-13 | 2014-06-13 | Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018041221A Division JP6602412B2 (en) | 2018-03-07 | 2018-03-07 | Information processing apparatus and method, information processing system, and program. |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016005027A JP2016005027A (en) | 2016-01-12 |
JP6305232B2 true JP6305232B2 (en) | 2018-04-04 |
Family
ID=55224052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014122534A Active JP6305232B2 (en) | 2014-06-13 | 2014-06-13 | Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6305232B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2017154606A1 (en) * | 2016-03-10 | 2019-01-10 | ソニー株式会社 | Information processing apparatus and information processing method |
JP7059937B2 (en) * | 2016-11-14 | 2022-04-26 | ソニーグループ株式会社 | Control device for movable image pickup device, control method and program for movable image pickup device |
WO2020084894A1 (en) * | 2018-10-24 | 2020-04-30 | ソニー株式会社 | Multi-camera system, control value calculation method and control device |
JP7576013B2 (en) | 2021-09-30 | 2024-10-30 | キヤノン株式会社 | Information processing device, information processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006261999A (en) * | 2005-03-16 | 2006-09-28 | Olympus Corp | Camera, camera system, and cooperative photographing method using multiple cameras |
JP5661373B2 (en) * | 2010-08-20 | 2015-01-28 | キヤノン株式会社 | Imaging system, imaging apparatus, and control method thereof |
JP5968107B2 (en) * | 2011-09-01 | 2016-08-10 | キヤノン株式会社 | Image processing method, image processing apparatus, and program |
-
2014
- 2014-06-13 JP JP2014122534A patent/JP6305232B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016005027A (en) | 2016-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101803712B1 (en) | Image processing apparatus, control method, program, and recording medium | |
JP4752918B2 (en) | Image processing apparatus, image collation method, and program | |
WO2019105214A1 (en) | Image blurring method and apparatus, mobile terminal and storage medium | |
JP2015035658A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
CN104363377B (en) | Display methods, device and the terminal of focus frame | |
JP6319972B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6694234B2 (en) | Distance measuring device | |
JP6305232B2 (en) | Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. | |
DK3189493T3 (en) | PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP | |
JP6602412B2 (en) | Information processing apparatus and method, information processing system, and program. | |
JP5968379B2 (en) | Image processing apparatus and control method thereof | |
JP6622575B2 (en) | Control device, control method, and program | |
JP6655869B2 (en) | Image processing apparatus, image processing method, and program | |
JP6395429B2 (en) | Image processing apparatus, control method thereof, and storage medium | |
WO2017187935A1 (en) | Information processing apparatus, information processing method, and program | |
JP7195785B2 (en) | Apparatus, method and program for generating 3D shape data | |
JP5925109B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP6915016B2 (en) | Information processing equipment and methods, information processing systems, and programs | |
JP6843552B2 (en) | Image processing equipment, image processing methods and programs. | |
JP5086120B2 (en) | Depth information acquisition method, depth information acquisition device, program, and recording medium | |
JP6351364B2 (en) | Information processing apparatus, information processing method, and program | |
JP6344903B2 (en) | Image processing apparatus, control method therefor, imaging apparatus, and program | |
JP2016072924A (en) | Image processing system and image processing method | |
JP6639155B2 (en) | Image processing apparatus and image processing method | |
JP6066765B2 (en) | Imaging device, control method thereof, and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180306 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6305232 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |