JP2013171494A - Image processing device, method, and program - Google Patents
Image processing device, method, and program Download PDFInfo
- Publication number
- JP2013171494A JP2013171494A JP2012035995A JP2012035995A JP2013171494A JP 2013171494 A JP2013171494 A JP 2013171494A JP 2012035995 A JP2012035995 A JP 2012035995A JP 2012035995 A JP2012035995 A JP 2012035995A JP 2013171494 A JP2013171494 A JP 2013171494A
- Authority
- JP
- Japan
- Prior art keywords
- user
- face
- detected
- eyes
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】より確実に、安定してユーザの視点位置を求める。
【解決手段】検出処理部は、表示部を観察するユーザを被写体として撮影された撮影画像から、ユーザの顔と眼を検出する。撮影画像からユーザの顔と眼が検出された場合、位置算出処理部は、撮影画像上の眼の位置と、ユーザの統計的な眼間距離とに基づいて、ユーザの視点位置を算出する。このとき、位置算出処理部は、得られた視点位置と顔の検出結果とから、ユーザの実際の眼間距離と顔幅の関係を示す関係情報も算出する。また、撮影画像からユーザの顔のみが検出された場合、位置算出処理部は、顔の検出結果と、過去に算出した関係情報とからユーザの視点位置を算出する。本技術は、画像処理装置に適用することができる。
【選択図】図3A user's viewpoint position is obtained more reliably and stably.
A detection processing unit detects a user's face and eyes from a photographed image taken with a user observing the display unit as a subject. When the user's face and eyes are detected from the captured image, the position calculation processing unit calculates the user's viewpoint position based on the eye position on the captured image and the user's statistical interocular distance. At this time, the position calculation processing unit also calculates relationship information indicating the relationship between the user's actual interocular distance and the face width from the obtained viewpoint position and face detection result. When only the user's face is detected from the captured image, the position calculation processing unit calculates the user's viewpoint position from the face detection result and the relationship information calculated in the past. The present technology can be applied to an image processing apparatus.
[Selection] Figure 3
Description
本技術は画像処理装置および方法、並びにプログラムに関し、特に、より確実に、安定してユーザの視点位置を求めることができるようにした画像処理装置および方法、並びにプログラムに関する。 The present technology relates to an image processing device and method, and a program, and more particularly, to an image processing device and method, and a program that can obtain a user's viewpoint position more reliably and stably.
例えば、ディスプレイに対するユーザの眼の位置(視点位置)に基づいて、ディスプレイへの3D映像の表示を制御する裸眼立体表示技術が知られている(例えば、特許文献1参照)。このような技術では、ディスプレイからユーザまでの距離、すなわち3次元におけるユーザの視点位置が必要となる。 For example, there is known an autostereoscopic display technology for controlling the display of 3D video on a display based on the position of the user's eyes (viewpoint position) with respect to the display (see, for example, Patent Document 1). Such a technique requires the distance from the display to the user, that is, the user's viewpoint position in three dimensions.
そこで、撮影された画像からユーザの眼の位置を検出し、その検出結果からユーザの視点位置を求める技術が提案されている。 Therefore, a technique has been proposed in which the position of the user's eye is detected from the captured image, and the user's viewpoint position is obtained from the detection result.
しかしながら、上述した技術では、安定して、確実にユーザの視点位置を求めることは困難であった。例えば、撮影された画像からユーザの眼を検出し、その検出結果からユーザの視点位置を求める方法では、ユーザが俯いたときなど、画像上にユーザの眼がない場合には、ユーザの視点位置を得ることができなくなってしまうことがあった。 However, with the above-described technique, it has been difficult to stably and reliably obtain the user's viewpoint position. For example, in the method of detecting the user's eye from the photographed image and obtaining the user's viewpoint position from the detection result, when the user's eye is not on the image, such as when the user crawls, the user's viewpoint position I couldn't get it.
本技術は、このような状況に鑑みてなされたものであり、より確実に、安定してユーザの視点位置を求めることができるようにするものである。 The present technology has been made in view of such a situation, and enables the user's viewpoint position to be obtained more reliably and stably.
本技術の一側面の画像処理装置は、ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出する顔検出部と、前記撮影画像から前記ユーザの眼を検出する眼検出部と、前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出する位置算出部と、前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出する関係情報算出部とを備え、前記位置算出部は、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する。 An image processing apparatus according to an aspect of the present technology detects a face of the user from the photographed image based on a photographed image photographed with the user as a subject, and detects the user's eye from the photographed image. When the user's eyes are detected, a position calculation unit that calculates the position of the user in real space is detected based on a detection result of the user's eyes, and the user's eyes are detected A relation information calculation unit that calculates relation information indicating a relation between the interocular distance of the user and a face width based on the calculated position of the user and the detection result of the user's face, When the user's face is detected and the user's eyes are not detected, the calculation unit calculates the position of the user based on the detection result of the user's face and the relationship information.
前記位置算出部には、前記ユーザの眼が検出された場合、平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出させることができる。 When the user's eyes are detected, the position calculation unit can calculate the user's position based on an average user's interocular distance and a detection result of the user's eyes.
画像処理装置には、前記撮影画像に基づいて、前記ユーザの性別、年齢、または人種の少なくとも何れかを判定する判定部をさらに設け、前記位置算出部には、前記判定部による判定結果により定まる前記平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出させることができる。 The image processing apparatus further includes a determination unit that determines at least one of the sex, age, or race of the user based on the captured image, and the position calculation unit includes a determination result by the determination unit. The position of the user can be calculated based on the determined average distance between the eyes of the user and the detection result of the eyes of the user.
前記関係情報算出部には、前記関係情報として実際の前記ユーザの顔幅を算出させることができる。 The relationship information calculation unit can calculate an actual face width of the user as the relationship information.
画像処理装置には、前記撮影画像から検出された前記ユーザの顔の領域から特徴量を抽出する顔識別部と、前記特徴量と前記関係情報を対応付けて保持する関係情報保持部と
をさらに設け、前記位置算出部には、処理対象の前記撮影画像の直前の前記撮影画像から前記ユーザの顔が検出されず、かつ前記処理対象の前記撮影画像から前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記特徴量に基づいて選択した前記関係情報、および前記ユーザの顔の検出結果に基づいて、前記ユーザの位置を算出させることができる。
The image processing apparatus further includes a face identification unit that extracts a feature amount from the user's face area detected from the captured image, and a relationship information holding unit that holds the feature amount and the relationship information in association with each other. The position calculating unit detects the user's face from the captured image immediately before the captured image to be processed and detects the user's face from the captured image to be processed; When the first eye is not detected, the position of the user can be calculated based on the relation information selected based on the feature amount and the detection result of the user's face.
本技術の一側面の画像処理方法またはプログラムは、ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出し、前記撮影画像から前記ユーザの眼を検出し、前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出し、前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出し、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出するステップを含む。 An image processing method or program according to one aspect of the present technology detects the user's face from the captured image based on a captured image captured using the user as a subject, detects the user's eyes from the captured image, When the user's eyes are detected, the position of the user in real space is calculated based on the detection result of the users' eyes, and when the user's eyes are detected, the calculated position of the user and Based on the detection result of the user's face, calculating relationship information indicating the relationship between the distance between the eyes of the user and the face width, when the user's face is detected, and the user's eyes are not detected, Calculating a position of the user based on a detection result of the user's face and the relationship information.
本技術の一側面においては、ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔が検出され、前記撮影画像から前記ユーザの眼が検出され、前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置が算出され、前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報が算出され、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置が算出される。 In one aspect of the present technology, the user's face is detected from the captured image based on a captured image captured with the user as a subject, the user's eyes are detected from the captured image, and the user's eyes are If detected, the position of the user in real space is calculated based on the detection result of the user's eyes. If the user's eyes are detected, the calculated position of the user and the face of the user are detected. Based on the detection result, relationship information indicating the relationship between the user's interocular distance and the face width is calculated, and when the user's face is detected and the user's eyes are not detected, Based on the detection result and the relation information, the position of the user is calculated.
本技術の一側面によれば、より確実に、安定してユーザの視点位置を求めることができる。 According to one aspect of the present technology, the viewpoint position of the user can be obtained more reliably and stably.
以下、図面を参照して、本技術を適用した実施の形態について説明する。 Hereinafter, embodiments to which the present technology is applied will be described with reference to the drawings.
〈第1の実施の形態〉
[視点位置の算出について]
本技術は、例えば顔検出や眼検出の結果を用いて、表示部(ディスプレイ)に対するユーザの眼の位置(視点位置)を推定し、その推定結果に基づいて、表示部への3D映像(立体画像)の表示を制御するヘッドトラッキング方式の裸眼立体表示に関する技術である。なお、本技術は、ユーザの視点位置に基づいて画像表示等、各種の制御を行なう場合に適用可能であるが、以下では、本技術を立体画像の表示制御に利用する場合を例として説明を続ける。
<First Embodiment>
[About calculation of viewpoint position]
The present technology estimates the position (viewpoint position) of the user's eyes with respect to the display unit (display) using, for example, the results of face detection and eye detection, and based on the estimation result, 3D video (3D This is a technique related to autostereoscopic display of a head tracking system that controls display of (image). Note that the present technology can be applied to various types of control such as image display based on the user's viewpoint position. However, in the following description, the present technology is used as an example of stereoscopic image display control. to continue.
本技術では、表示部に対する3次元のユーザの眼の位置(視点位置)を求める手法として、ユーザの顔の検出結果を用いて視点位置を求める手法と、ユーザの眼の検出結果を用いて視点位置を求める手法とが、適宜切り替えられながら用いられる。 In the present technology, as a method for obtaining a three-dimensional user's eye position (viewpoint position) with respect to the display unit, a method for obtaining a viewpoint position using the detection result of the user's face and a viewpoint using the detection result of the user's eye The method for obtaining the position is used while being appropriately switched.
このとき、ユーザの眼の検出結果から視点位置が求められた場合には、その視点位置に基づいて、ユーザの実際の眼間距離と顔サイズの関係を示す関係情報が求められる。そして、ユーザの顔の検出結果を用いて視点位置を求める場合には、ユーザの顔の検出結果だけでなく、関係情報も用いられてユーザの視点位置が求められる。 At this time, when the viewpoint position is obtained from the detection result of the user's eyes, the relationship information indicating the relationship between the user's actual interocular distance and the face size is obtained based on the viewpoint position. When obtaining the viewpoint position using the detection result of the user's face, not only the detection result of the user's face but also the related information is used to obtain the user's viewpoint position.
なお、以下、ユーザの顔の検出結果を用いて視点位置を求める手法を顔幅方式とも称し、ユーザの眼の検出結果を用いて視点位置を求める手法を眼幅方式とも称することとする。 Hereinafter, a method for obtaining a viewpoint position using a user's face detection result is also referred to as a face width method, and a method for obtaining a viewpoint position using a user's eye detection result is also referred to as a eye width method.
それでは、以下において本技術によるユーザの視点位置の算出について説明する。 The calculation of the user's viewpoint position according to the present technology will be described below.
まず、顔検出を利用して、ユーザの視点位置を求める手法について説明する。 First, a method for obtaining a user's viewpoint position using face detection will be described.
例えば、図1に示すように、画像が表示される表示部11が3次元空間上に配置されており、ユーザが図中、上側から下方向を向いて表示部11を観察するとする。また、表示部11の中心の位置には、ユーザを撮影する撮影部12が配置され、撮影部12によりユーザを被写体とした撮影画像PC11が撮影されるとする。つまり、撮影画像PC11が図示されている位置にある被写体が撮影されて、撮影画像PC11が得られるとする。
For example, as shown in FIG. 1, it is assumed that a
なお、図中、横方向は表示部11を観察するユーザの両眼が並んでいる方向であり、図1は、表示部11とユーザを、ユーザの真上から見下ろした図となっている。
In the figure, the horizontal direction is the direction in which both eyes of the user observing the
図1において、撮影部12の画角がAHであるとし、撮影部12の光軸と平行な直線DR11と、撮影画像PC11との交点の位置、つまり撮影画像PC11の図中、横方向の中心位置が位置Oであるとする。例えば、撮影部12の図中、横方向の画角が63.24度であれば、画角AHは、AH=63.24×π/180などとされる。
In FIG. 1, it is assumed that the angle of view of the photographing
このとき、撮影画像PC11の図中、横方向の幅を「1」とすると、撮影部12から撮影画像PC11上の位置Oまでの図中、縦方向の距離IWDは、次式(1)により求められる。
At this time, if the width in the horizontal direction is “1” in the figure of the photographed image PC11, the vertical distance IWD in the figure from the
また、撮影画像PC11上の領域FCがユーザの顔の領域であり、領域FCの図中、横方向の幅がwidthであったとする。ここで、領域FCは、撮影画像PC11上の位置xから位置x’までの間の領域である。 Further, it is assumed that the area FC on the photographed image PC11 is a user's face area, and the width in the horizontal direction in the figure of the area FC is width. Here, the area FC is an area between the position x and the position x ′ on the captured image PC11.
撮影画像PC11の横方向の幅は「1」であるから、位置Oを「0」とすると、撮影画像PC11の図中、横方向の任意の位置、例えば位置xや位置x’は-0.5乃至0.5の範囲内の数値により表現することができる。また、撮影画像PC11上のユーザの顔の領域FCの幅widthは、0乃至1の間の値となる。 Since the horizontal width of the captured image PC11 is “1”, if the position O is “0”, arbitrary positions in the horizontal direction in the figure of the captured image PC11, for example, the position x and the position x ′ are −0.5 to It can be expressed by a numerical value within the range of 0.5. The width width of the user's face area FC on the photographed image PC11 is a value between 0 and 1.
いま、撮影部12の中心からユーザの顔の図中、左端までの角度、つまり、直線DR11と直線DR12とのなす角度が角度φであるとする。また、ユーザの顔幅に相当する角度、つまり直線DR12と直線DR13とがなす角度が角度θであるとする。
Assume that the angle from the center of the photographing
ここで、直線DR12は、撮影部12と領域FCの図中、左端の位置xとを結ぶ直線であり、直線DR13は、撮影部12と領域FCの図中、右端の位置x’とを結ぶ直線である。
Here, the straight line DR12 is a straight line connecting the photographing
このとき角度φは、ユーザの顔の領域FCの位置xと、上述した距離IWDとから次式(2)により求まる。 At this time, the angle φ is obtained by the following equation (2) from the position x of the user's face area FC and the above-described distance IWD.
したがって、ユーザの顔幅に相当する角度θは、式(2)により求まった角度φ、距離IWD、ユーザの顔の領域FCの位置x、およびユーザの顔の領域FCの幅widthを用いて、次式(3)により求めることができる。 Therefore, the angle θ corresponding to the user's face width is obtained by using the angle φ obtained by the equation (2), the distance IWD, the position x of the user's face area FC, and the width width of the user's face area FC. It can obtain | require by following Formula (3).
このように、ユーザの顔幅に相当する角度θが求まると、この角度θと、ユーザの実際の顔幅FWとから、次式(4)により実空間(3次元)における表示部11(撮影部12)から、ユーザの視点位置(顔)までの距離Rを求めることができる。ここで、ユーザの視点位置は、例えばユーザの左右の眼の中間の位置である。 Thus, when the angle θ corresponding to the user's face width is obtained, the display unit 11 (photographing in real space (three-dimensional)) is obtained from the angle θ and the user's actual face width FW by the following equation (4). The distance R from the unit 12) to the user's viewpoint position (face) can be obtained. Here, the viewpoint position of the user is, for example, an intermediate position between the left and right eyes of the user.
なお、ユーザの実際の顔幅FWは、例えばユーザが子供であれば、12.5cm程度であり、ユーザが大人であれば17.0cm程度である。また、ユーザの顔幅FWは、幅widthに対応する、実空間上におけるユーザの顔の横方向の幅である。 The actual face width FW of the user is, for example, about 12.5 cm if the user is a child, and about 17.0 cm if the user is an adult. The user's face width FW is a width in the horizontal direction of the user's face in real space, corresponding to the width width.
以上のように、顔幅方式によるユーザの視点位置の算出では、撮影部12の画角AH、撮影画像PC11上のユーザの顔の位置xと幅width、およびユーザの実際の顔幅FWが分かれば、3次元におけるユーザの視点位置(距離R)を求めることができる。なお、後述するように顔幅方式では、顔幅FWの値は、ユーザの実際の眼間距離と顔幅の関係を示す関係情報が用いられて求められる。
As described above, in the calculation of the user's viewpoint position by the face width method, the angle of view AH of the photographing
次に、眼幅方式によるユーザの視点位置の算出について説明する。 Next, calculation of the user's viewpoint position by the eye width method will be described.
眼幅方式においても、顔幅方式と同様の計算によりユーザの視点位置を算出することができる。具体的には、例えば図1における位置xおよび位置x’が、仮にユーザの右眼の位置および左眼の位置であったとする。この場合、位置xをユーザの右眼位置とし、幅widthをユーザの左右の眼の幅、つまり眼間距離として式(3)を計算すれば、角度θとしてユーザの眼幅に相当する角度を得ることができる。 Also in the eye width method, the viewpoint position of the user can be calculated by the same calculation as in the face width method. Specifically, for example, it is assumed that the position x and the position x ′ in FIG. 1 are the position of the right eye and the position of the left eye of the user. In this case, if the equation (3) is calculated with the position x as the right eye position of the user and the width width as the width of the left and right eyes of the user, that is, the interocular distance, an angle corresponding to the user's eye width is set as the angle θ. Can be obtained.
したがって、この角度θから、式(4)と同様の計算により、撮影部12からユーザの視点位置までの距離Rを得ることができる。つまり、ユーザの眼幅に相当する角度をθ’とし、実際のユーザの眼間距離をEWとすると、次式(5)を計算することで視点位置までの距離Rを求めることができる。
Therefore, the distance R from the photographing
以上のことから、眼幅方式によるユーザの視点位置の算出では、撮影部12の画角AH、撮影画像PC11上のユーザの眼の位置と眼間距離、およびユーザの実際の眼間距離EWが分かれば、3次元におけるユーザの視点位置(距離R)を求めることができる。
From the above, in the calculation of the viewpoint position of the user by the eye width method, the angle of view AH of the
なお、以下では、撮影画像PC11上におけるユーザの眼の位置(図1の例ではユーザの右眼位置)をxeとし、撮影画像PC11上におけるユーザの眼間距離をHEとする。 In the following description, the position of the user's eyes on the captured image PC11 (the user's right eye position in the example of FIG. 1) is xe, and the interocular distance of the user on the captured image PC11 is HE.
ところで、上述したように顔幅方式によるユーザの視点位置の算出では、ユーザの実際の顔幅FWが必要となり、眼幅方式によるユーザの視点位置の算出では、ユーザの実際の眼間距離EWが必要となる。 By the way, as described above, the calculation of the user's viewpoint position by the face width method requires the user's actual face width FW, and the calculation of the user's viewpoint position by the eye width method requires the user's actual interocular distance EW. Necessary.
これらの計算に用いられる顔幅FWや眼間距離EWについては、個人ごとに直接、顔幅FWや眼間距離EWを測定して得られた値を用いる方法と、統計的な平均値を顔幅FWや眼間距離EWの値として用いる方法が考えられる。 Regarding the face width FW and the interocular distance EW used for these calculations, a method using values obtained by directly measuring the face width FW and the interocular distance EW for each individual, and a statistical average value of the face A method of using the width FW or the interocular distance EW as a value can be considered.
例えば、顔幅FWや眼間距離EWとして統計的な平均値を用いる場合、顔幅FWの個人差よりも眼間距離EWの個人差の方が少ないため、顔幅方式と比べて眼幅方式の方が、より正確にユーザの視点位置を求めることが可能である。 For example, when a statistical average value is used as the face width FW or the interocular distance EW, the individual difference in the interocular distance EW is smaller than the individual difference in the face width FW. It is possible to determine the user's viewpoint position more accurately.
また、顔幅方式または眼幅方式の何れかにより、ユーザの視点位置までの距離Rが求まれば、実際の顔幅FWと眼間距離EWの関係を求めることができる。 Further, if the distance R to the user's viewpoint position is obtained by either the face width method or the eye width method, the relationship between the actual face width FW and the interocular distance EW can be obtained.
そこで、本技術では、撮影画像からユーザの顔と眼が検出されている間は、眼間距離EWとして統計的な平均値が用いられて眼幅方式により距離Rが算出される。また、眼幅方式により距離Rが算出されると、算出された距離Rや眼間距離EW、顔検出結果から、実際の顔幅FWと眼間距離EWの関係を示す関係情報が求められ、保持される。例えば関係情報は、距離Rから求まる各個人の顔幅FWとされる。 Therefore, in the present technology, while the user's face and eyes are detected from the captured image, a statistical average value is used as the interocular distance EW, and the distance R is calculated by the eye width method. When the distance R is calculated by the eye width method, the relationship information indicating the relationship between the actual face width FW and the interocular distance EW is obtained from the calculated distance R, the interocular distance EW, and the face detection result. Retained. For example, the relationship information is the face width FW of each individual obtained from the distance R.
これに対して、撮影画像からユーザの顔のみが検出され、ユーザの眼が検出されなかった場合には、関係情報として求められた顔幅FWが用いられて、顔幅方式により距離Rが算出される。 On the other hand, when only the user's face is detected from the photographed image and the user's eyes are not detected, the face width FW obtained as the relationship information is used, and the distance R is calculated by the face width method. Is done.
具体的には、例えば図2に示すように、眼幅方式と顔幅方式とが切り替えられてユーザの視点位置(距離R)が算出される。なお、図2において、図中、横方向は時間方向を示している。また、斜線が施された長方形は、撮影画像からユーザの顔が検出された区間を示しており、斜線が施されていない長方形は、撮影画像からユーザの眼が検出された区間を示している。 Specifically, for example, as shown in FIG. 2, the user's viewpoint position (distance R) is calculated by switching between the eye width method and the face width method. In FIG. 2, the horizontal direction indicates the time direction. Further, the hatched rectangle indicates a section where the user's face is detected from the captured image, and the rectangle without the hatched line indicates a section where the user's eyes are detected from the captured image. .
図2の例では、区間Q1から区間Q3までの間は、継続してユーザの顔が検出されている。また、区間Q1と区間Q3では継続してユーザの眼が検出されているが、区間Q2ではユーザの眼は検出されていない。 In the example of FIG. 2, the user's face is continuously detected from the section Q1 to the section Q3. In addition, the user's eyes are continuously detected in the sections Q1 and Q3, but the user's eyes are not detected in the sections Q2.
なお、ユーザの顔が継続して検出されている区間では、検出されたユーザの顔のトラッキングと、検出されたユーザの顔の識別が行なわれる。例えば、顔の識別は、撮影画像上の顔の領域から抽出された特徴量により行なわれる。 In the section where the user's face is continuously detected, tracking of the detected user's face and identification of the detected user's face are performed. For example, the face is identified by the feature amount extracted from the face area on the photographed image.
図2において、区間Q1に注目すると、区間Q1ではユーザの顔も眼も検出されている。そこで、この区間Q1では、ユーザの眼の検出結果から眼幅方式により距離R(視点位置)が算出されるとともに、関係情報としての顔幅FWが算出され、保持される。 In FIG. 2, when attention is paid to the section Q1, the user's face and eyes are detected in the section Q1. Therefore, in this section Q1, the distance R (viewpoint position) is calculated from the detection result of the user's eyes by the eye width method, and the face width FW as the related information is calculated and held.
ここで、保持される顔幅FWは、より詳細には例えば区間Q1を構成する各フレームにおいて求められた顔幅FWの平均値とされる。また、求められた関係情報としての顔幅FWは、撮影画像上のユーザの顔の領域から抽出された特徴量と対応付けられて保持される。これにより、ユーザ個人ごとに関係情報としての顔幅FWを保持することができる。 Here, the held face width FW is, for example, an average value of the face width FW obtained in each frame constituting the section Q1. Further, the face width FW as the obtained relation information is held in association with the feature amount extracted from the user's face area on the captured image. Thereby, the face width FW as the related information can be held for each individual user.
区間Q1に続く区間Q2では、撮影画像からユーザの顔は検出されているが、ユーザの眼は検出されていない。そこで、区間Q2では、検出されている顔について保持されている関係情報としての顔幅FWと、顔の検出結果とが用いられて顔幅方式により距離R(視点位置)が算出される。 In a section Q2 following the section Q1, the user's face is detected from the captured image, but the user's eyes are not detected. Therefore, in the section Q2, the distance R (viewpoint position) is calculated by the face width method using the face width FW as the relation information held for the detected face and the face detection result.
例えば、区間Q2のように、ユーザが下を向いた場合など、条件によっては撮影画像からユーザの顔は検出されるが、ユーザの眼は検出されないということがある。 For example, as in the section Q2, the user's face may be detected from the captured image depending on the conditions, such as when the user faces down, but the user's eyes may not be detected.
そのような場合に、ユーザの眼が検出されている間は眼幅方式により視点位置が算出されていたが、眼が検出されなくなったときに、統計的な顔幅が用いられて顔幅方式により視点位置が算出されると、時系列に並ぶ視点位置が不連続になったり、視点位置の誤差が大きくなったりしてしまう。 In such a case, the viewpoint position was calculated by the eye width method while the user's eyes were detected, but when the eyes are no longer detected, the statistical face width is used and the face width method is used. If the viewpoint position is calculated by the above, the viewpoint positions arranged in time series become discontinuous or the viewpoint position error becomes large.
そこで、区間Q2のようなユーザの顔のみが検出された区間では、予め求めておいた関係情報を用いて顔幅方式により視点位置を算出することで、時間方向にみて連続的で、より正確な視点位置を得ることができる。つまり、ユーザの眼が検出されない区間があっても、より確実に、安定してユーザの視点位置を求めることができる。 Therefore, in the section where only the user's face is detected, such as the section Q2, the viewpoint position is calculated by the face width method using the relationship information obtained in advance, so that it is continuous and more accurate in the time direction. Can be obtained. That is, even if there is a section in which the user's eyes are not detected, the user's viewpoint position can be obtained more reliably and stably.
また、区間Q2の後の区間Q3では、再びユーザの顔と眼が検出されている。また、顔のトラッキング結果から、区間Q1乃至区間Q3で検出されていた顔は同じユーザの顔である。そこで、区間Q3では、これまでの顔幅方式から眼幅方式に切り替えられて、距離R(視点位置)が算出されるとともに、関係情報としての顔幅FWが算出され、保持される。つまり、関係情報の更新が行なわれる。 Further, in the section Q3 after the section Q2, the user's face and eyes are detected again. Further, from the face tracking results, the faces detected in the sections Q1 to Q3 are the faces of the same user. Therefore, in the section Q3, the face width method is switched from the conventional face width method, the distance R (viewpoint position) is calculated, and the face width FW as the related information is calculated and held. That is, the related information is updated.
区間Q3と区間Q4の間では、ユーザの顔の眼も検出されないので、この区間では、ユーザの視点位置の算出は行われない。 Between the section Q3 and the section Q4, since the eyes of the user's face are not detected, the viewpoint position of the user is not calculated in this section.
その後、区間Q4において、再びユーザの顔が検出されている。なお、区間Q4では、ユーザの顔は検出されているが、ユーザの眼は検出されていないため、関係情報が用いられて、顔幅方式により距離R(視点位置)が算出される。 Thereafter, the user's face is detected again in the section Q4. In section Q4, since the user's face is detected, but the user's eyes are not detected, the relationship information is used and the distance R (viewpoint position) is calculated by the face width method.
但し、区間Q4の直前の区間では、ユーザの顔は検出されていないので、区間Q4において検出された顔と、区間Q4よりも前にある区間で検出された顔とが同じユーザの顔であるかが、顔から抽出された特徴量により特定される。そして、それらの区間で検出された顔が同じ顔である場合には、その顔についての関係情報が、区間Q4での視点位置の算出に用いられる。 However, since the user's face is not detected in the section immediately before section Q4, the face detected in section Q4 and the face detected in the section before section Q4 are the same user's face. Is identified by the feature amount extracted from the face. When the faces detected in these sections are the same face, the relationship information about the faces is used for calculating the viewpoint position in the section Q4.
このように、撮影画像上の顔領域の追跡が途切れた場合であっても、特徴量を比較して同一のユーザ(顔)であるかを特定することで、より確実に、安定してユーザの視点位置を求めることができる。 As described above, even when the tracking of the face area on the photographed image is interrupted, the feature amount is compared to identify whether the user is the same user (face). The viewpoint position can be obtained.
さらに、区間Q4以降においては、ユーザの顔も眼も検出されているので、この区間では眼幅方式によりユーザの視点位置が算出され、関係情報の更新も行なわれることになる。 Further, since the user's face and eyes are detected in and after the section Q4, the viewpoint position of the user is calculated by the eye width method in this section, and the related information is also updated.
[画像処理システムの構成例]
次に、本技術を適用した具体的な実施の形態について説明する。図3は、本技術を適用した画像処理システムの一実施の形態の構成例を示す図である。なお、図3において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
[Image processing system configuration example]
Next, specific embodiments to which the present technology is applied will be described. FIG. 3 is a diagram illustrating a configuration example of an embodiment of an image processing system to which the present technology is applied. In FIG. 3, the same reference numerals are given to the portions corresponding to those in FIG. 1, and the description thereof will be omitted as appropriate.
図3の画像処理システムは、撮影部12、画像処理装置41、表示制御部42、および表示部11から構成される。この画像処理システムは、例えばユーザの視点位置に応じて表示部11に表示する立体画像の視差制御を行なうものであり、テレビジョン受像機やパーソナルコンピュータ、携帯電話機などに内蔵されている。
The image processing system in FIG. 3 includes an
撮影部12は表示部11の上部中央に設けられており、表示部11をほぼ正面から観察するユーザを被写体として撮影し、その結果得られた撮影画像を画像処理装置41に供給する。
The photographing
画像処理装置41は、撮影部12から供給された撮影画像からユーザの顔や眼を検出し、その検出結果に基づいてユーザの視点位置を算出して表示制御部42に供給する。画像処理装置41は、検出処理部51および位置算出処理部52から構成される。
The
検出処理部51は、撮影部12から供給された撮影画像からユーザの顔や眼を検出し、その検出結果を位置算出処理部52に供給する。検出処理部51は、顔検出部61、眼検出部62、判定部63、および顔識別部64を備えている。
The
顔検出部61は、撮影部12からの撮影画像からユーザの顔を検出する。眼検出部62は、撮影部12からの撮影画像からユーザの眼を検出する。また、判定部63は、撮影部12からの撮影画像に基づいて、検出されたユーザの性別、年齢、および人種の判定を行なう。なお、ユーザの性別等の判定結果は、ユーザの実際の眼間距離EWの特定に用いられる。
The
顔識別部64は、撮影画像から検出されたユーザの顔の領域から特徴量を抽出することで、顔識別を行なう。
The
顔検出部61乃至顔識別部64で得られた顔の検出結果、眼の検出結果、ユーザの性別等の判定結果、および顔領域の特徴量は、適宜、検出処理部51から位置算出処理部52に供給される。
The face detection result obtained by the
位置算出処理部52は、検出処理部51から供給された顔の検出結果等に基づいて、3次元におけるユーザの視点位置(距離R)を算出し、表示制御部42に供給する。位置算出処理部52は、視点位置算出部71、関係情報算出部72、および関係情報保持部73を備えている。
The position
視点位置算出部71は、検出処理部51から供給された顔や眼の検出結果に基づいて、ユーザの視点位置を算出する。このとき、視点位置算出部71は、必要に応じて関係情報保持部73に保持されている関係情報を用いてユーザの視点位置を算出する。
The viewpoint
関係情報算出部72は、検出処理部51からの顔の検出結果と、視点位置算出部71による視点位置の算出結果とに基づいて関係情報を算出し、関係情報保持部73に保持させる。関係情報保持部73は、関係情報算出部72により算出された関係情報を、検出処理部51から供給された特徴量と対応付けて保持する。
The relationship
また、表示制御部42は、図示せぬ記録部等から取得した立体画像を表示部11に供給し、立体表示させる。このとき表示制御部42は、位置算出処理部52から供給されたユーザの視点位置に応じて、表示部11に表示させる立体画像の視差制御を行なう。具体的には、例えば表示制御部42は、ユーザの視点位置に応じて、表示部11の各表示領域に対して立体画像を構成する右眼画像または左眼画像を割り当てることで、ユーザが適切に立体画像を視聴できるようにする。
In addition, the
表示部11は、裸眼方式で立体画像を表示させるディスプレイからなり、表示制御部42の制御にしたがって、表示制御部42から供給された立体画像を表示する。
The
[視点位置算出処理の説明]
ところで、図3の画像処理システムに対して、立体画像の表示が指示されると、撮影部12は、撮影画像を撮影して順次、画像処理装置41に供給する。すると、画像処理装置41は、視点位置算出処理を行なって、ユーザの視点位置を表示制御部42に出力する。そして、表示制御部42は、画像処理装置41からの視点位置に応じて視差制御を行い、表示部11に立体画像を表示させる。
[Description of viewpoint position calculation processing]
By the way, when the display of a stereoscopic image is instructed to the image processing system of FIG. Then, the
以下、図4のフローチャートを参照して、画像処理装置41による視点位置算出処理について説明する。
Hereinafter, the viewpoint position calculation process performed by the
ステップS11において、顔検出部61は、撮影部12から供給された撮影画像に基づいて顔検出を行い、撮影画像からユーザの顔の領域を検出する。なお、顔検出の方法は、例えば識別器を用いる方法など、どのような方法であってもよい。
In step S <b> 11, the
ステップS12において、顔検出部61はステップS11における顔検出の結果と、過去の顔検出の結果とに基づいて、撮影画像上における顔の領域のトラッキング(追跡)を行なう。これにより、各時刻の撮影画像において検出された顔が同一ユーザの顔であるかを特定することができる。
In step S12, the
ステップS13において、眼検出部62は、撮影部12から供給された撮影画像に基づいて眼検出を行い、撮影画像からユーザの眼の領域を検出する。このとき、眼検出部62は、必要に応じて顔検出部61による顔検出の結果を利用し、撮影画像上の顔の領域内からユーザの眼の領域を検出する。なお、眼の検出方法は、識別器やテンプレートを用いる方法など、どのような方法であってもよい。
In step S <b> 13, the
ステップS14において、判定部63は、撮影部12から供給された撮影画像と、顔検出部61による顔検出の結果とに基づいて、撮影画像から検出されたユーザの性別、年齢、および人種の判定を行なう。
In step S <b> 14, the
ステップS15において、顔識別部64は、撮影部12から供給された撮影画像と、顔検出部61による顔検出の結果とに基づいて、撮影画像から検出された顔の識別を行なう。すなわち、顔識別部64は、撮影画像上の顔の領域から特徴量を抽出する。なお、この特徴量は、必要に応じて顔のトラッキングに用いられるようにしてもよい。
In step S <b> 15, the
ステップS16において、検出処理部51は、撮影画像から顔が検出されたか否かを判定する。例えば、ステップS11の処理において、撮影画像からユーザの顔が検出された場合、顔が検出されたと判定される。
In step S <b> 16, the
ステップS16において、顔が検出されなかったと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、次のフレームの撮影画像が処理対象とされ、撮影画像に対する顔検出等が行なわれる。 If it is determined in step S16 that no face has been detected, the process returns to step S11 and the above-described process is repeated. That is, the captured image of the next frame is set as a processing target, and face detection or the like is performed on the captured image.
なお、撮影画像から顔が検出されなかった場合には、実質的には上述したステップS12乃至ステップS15の処理は行なわれないことになる。 If no face is detected from the photographed image, the processes in steps S12 to S15 described above are not substantially performed.
これに対してステップS16において、顔が検出されたと判定された場合、処理はステップS17へと進む。このとき検出処理部51は、適宜、ステップS11乃至ステップS15の処理で得られた、顔検出の結果、顔のトラッキング結果、眼検出の結果、性別等の判定結果、および顔の特徴量を位置算出処理部52に供給する。
On the other hand, if it is determined in step S16 that a face has been detected, the process proceeds to step S17. At this time, the
ステップS17において、位置算出処理部52は、検出処理部51から供給された眼検出の結果に基づいて、撮影画像からユーザの眼が検出されたか否かを判定する。
In step S <b> 17, the position
ステップS17において、眼が検出されたと判定された場合、ステップS18において、視点位置算出部71は、撮影画像上のユーザの眼の位置と、ユーザの眼間距離EWとに基づいて3次元のユーザの眼の位置、つまり実空間におけるユーザの視点位置(距離R)を算出する。
If it is determined in step S17 that an eye has been detected, in step S18, the viewpoint
例えば、視点位置算出部71は、性別、年齢、および人種と、それらの性別、年齢、および人種が同じであるユーザの平均的(統計的)な眼間距離EWとが対応付けられた眼幅テーブルを予め記録している。視点位置算出部71は、記録している眼幅テーブルから、検出処理部51から供給されたユーザの性別、年齢、および人種の判定結果から特定される眼間距離EWを取得する。つまり、判定の結果得られた性別、年齢、および人種により特定される眼間距離EWが読み出される。
For example, the viewpoint
また、視点位置算出部71は、検出処理部51から供給された眼検出の結果としての撮影画像上におけるユーザの眼の位置xeおよび眼間距離HEと、既知である撮影部12の画角AHとに基づいて式(1)乃至式(3)と同様の計算を行う。
The viewpoint
この計算により、ユーザの眼幅に相当する角度θ’が得られるので、視点位置算出部71は、得られた角度θ’と、眼幅テーブルから読み出した眼間距離EWとから上述した式(5)を計算し、表示部11からユーザまでの距離Rを視点位置として算出する。なお、ユーザの視点位置は、距離Rでもよいし、距離Rから求まる3次元座標空間上におけるユーザの視点位置の座標でもよい。
Since the angle θ ′ corresponding to the user's eye width is obtained by this calculation, the viewpoint
このように、眼間距離EWとして、性別,年齢,人種ごとの統計的な値のなかから、撮影画像上のユーザの性別,年齢,人種と合致するものを選択して用いることで、より高精度にユーザの視点位置(距離R)を求めることができる。 As described above, by selecting and using the interocular distance EW that matches the sex, age, and race of the user on the captured image from among the statistical values for each sex, age, and race, The user's viewpoint position (distance R) can be obtained with higher accuracy.
なお、ユーザの性別、年齢、および人種の判定結果により特定される眼間距離EWが用いられると説明したが、ユーザの性別、年齢、人種のうちの少なくとも何れか1つが用いられて眼間距離EWが特定されるようにしてもよい。 In addition, although it has been described that the interocular distance EW specified by the determination result of the user's sex, age, and race is used, at least one of the user's sex, age, and race is used. The inter-distance EW may be specified.
また、センサ等によりユーザの眼間距離EWを直接測定し、その測定結果を予め視点位置算出部71に記録しておくようにしてもよいし、ユーザにより直接入力または選択された眼間距離EWを予め視点位置算出部71に記録しておくようにしてもよい。
Alternatively, the interocular distance EW of the user may be directly measured by a sensor or the like, and the measurement result may be recorded in the viewpoint
ステップS19において関係情報算出部72は、検出処理部51からの顔の検出結果と、視点位置算出部71による視点位置の算出結果とに基づいて関係情報を算出する。
In step S <b> 19, the relationship
具体的には関係情報算出部72は、検出処理部51からの顔検出結果としての撮影画像上におけるユーザの顔の位置x、および撮影画像上におけるユーザの顔の幅widthと、既知である撮影部12の画角AHとに基づいて式(1)乃至式(3)を計算する。
Specifically, the relational
この計算により、ユーザの顔幅に相当する角度θが得られるので、関係情報算出部72は、得られた角度θと、視点位置算出部71により算出された距離Rとから、式(4)よりユーザの実際の顔幅FWを関係情報として算出する。
Since the angle θ corresponding to the face width of the user is obtained by this calculation, the relationship
ステップS20において、関係情報保持部73は、ステップS19の処理において関係情報算出部72により算出された関係情報を保持する。
In step S20, the relationship
より具体的には、関係情報保持部73は、保持している関係情報としての顔幅FWのうち、その関係情報に対応付けられている特徴量が、検出処理部51から供給された特徴量と最も類似している関係情報を特定する。例えば、特徴量の差分など、特徴量間の距離が最も短いものが類似する特徴量とされる。また、顔のトラッキングにより顔が継続して検出されている場合には、その顔について求められた関係情報が特定される。
More specifically, the relationship
そして、関係情報保持部73は、特定された関係情報としての顔幅FWと、ステップS19において算出された関係情報としての顔幅FWとに基づいて関係情報を更新し、更新後の関係情報を保持する。
Then, the relationship
例えば、関係情報の更新では、新たにステップS19で算出された顔幅FWと、過去に求められたいくつかの顔幅FWとの平均値が求められ、得られた平均値が更新後の顔幅FW(関係情報)とされる。 For example, in updating the relationship information, an average value of the face width FW newly calculated in step S19 and several face widths FW obtained in the past is obtained, and the obtained average value is the updated face value. The width is FW (related information).
なお、例えば顔幅FWの更新は、予め定められた回数だけ更新された後は行なわれないようにしてもよいし、顔が連続して検出されている区間でのみ顔幅FWの更新が行なわれ、新たに顔が検出された場合には、新たな関係情報が保持されるようにしてもよい。 Note that, for example, the face width FW may not be updated after being updated a predetermined number of times, or the face width FW is updated only in a section where the face is continuously detected. If a new face is detected, new relationship information may be held.
ステップS21において、位置算出処理部52は、視点位置算出部71により算出されたユーザの視点位置(距離R)、つまり3次元の眼の位置を表示制御部42に出力する。これらのステップS18乃至ステップS21で行なわれる処理が、例えば図2の区間Q1や区間Q3で行なわれる処理である。
In step S <b> 21, the position
ステップS22において、位置算出処理部52は、視点位置を算出する処理を終了するか否かを判定する。例えば、ユーザにより立体画像の再生停止が指示された場合、処理を終了すると判定される。
In step S22, the position
ステップS22において、処理を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。 If it is determined in step S22 that the process is not terminated, the process returns to step S11, and the above-described process is repeated.
また、ステップS22において、処理を終了すると判定された場合、視点位置算出処理は終了する。 If it is determined in step S22 that the process is to be terminated, the viewpoint position calculation process is terminated.
さらに、上述したステップS17において、眼が検出されなかったと判定された場合、処理はステップS23に進む。 Furthermore, when it is determined in step S17 described above that no eye has been detected, the process proceeds to step S23.
ステップS23において、視点位置算出部71は、検出処理部51からの顔検出結果や特徴量と、関係情報保持部73に保持されている関係情報とに基づいて、3次元のユーザの眼の位置、つまり実空間におけるユーザの視点位置(距離R)を算出する。
In step S <b> 23, the viewpoint
具体的には、検出処理部51から供給された顔のトラッキング結果が、撮影画像からユーザの顔と眼が検出された区間から、継続して顔が検出されているという結果であるとする。この場合、視点位置算出部71は、継続して検出されている顔について求められた関係情報を、関係情報保持部73から取得する。すなわち、処理対象となっているフレームが、例えば図2の区間Q2内のフレームである場合、継続して検出されている顔の関係情報が取得される。このとき、必要に応じて、顔識別部64により顔の領域から抽出された特徴量が用いられる。
Specifically, it is assumed that the face tracking result supplied from the
また、検出処理部51から供給された顔のトラッキング結果が、最後に撮影画像からユーザの顔と眼が検出された区間から、処理対象の撮影画像までの間に、顔が検出されていない区間があるという結果であったとする。この場合、視点位置算出部71は、処理対象となっている撮影画像から検出された顔と同じ顔について算出された関係情報を関係情報保持部73から取得する。
Further, the face tracking result supplied from the
例えば、処理対象の撮影画像よりも前の撮影画像のうち、最後に顔と眼が検出された撮影画像についての顔の特徴量と、処理対象の撮影画像の顔の特徴量とが類似している場合には、それらの顔は同じ顔であるとして、その顔の関係情報が取得される。また、例えば顔識別部64により処理対象の撮影画像上の顔の領域から抽出された特徴量との類似度が最も高い特徴量に対応付けられた関係情報が、関係情報保持部73から取得されるようにしてもよい。
For example, among the captured images before the processing target captured image, the facial feature amount of the captured image in which the face and eyes are detected last is similar to the facial feature amount of the processing target captured image. If they are, they are assumed to be the same face, and related information about the faces is acquired. Further, for example, the relationship information associated with the feature amount having the highest similarity with the feature amount extracted from the face region on the captured image to be processed by the
なお、最後に撮影画像からユーザの顔と眼が検出された区間から、処理対象の撮影画像までの間に、顔が検出されていない区間がある場合とは、例えば処理対象の撮影画像が、図2の区間Q4内にある場合などである。例えば、図2の区間Q4において、区間Q4で顔から抽出された特徴量と、直前の区間Q3で顔から抽出された特徴量とから、これらの顔が同じであると特定されたときには、区間Q3で検出された顔の関係情報が取得される。 In addition, when there is a section where no face is detected between the section in which the user's face and eyes were detected from the last captured image and the captured image to be processed, for example, the captured image to be processed is This is the case in the section Q4 of FIG. For example, in the section Q4 of FIG. 2, when it is determined that the feature amount extracted from the face in the section Q4 and the feature amount extracted from the face in the immediately preceding section Q3 are the same, the section The relationship information of the face detected in Q3 is acquired.
視点位置算出部71は、関係情報保持部73から関係情報としての顔幅FWを取得すると、ユーザの顔幅に相当する角度θを算出する。
Upon obtaining the face width FW as the relationship information from the relationship
すなわち、視点位置算出部71は、検出処理部51からの顔検出結果としての撮影画像上におけるユーザの顔の位置x、および撮影画像上におけるユーザの顔の幅widthと、既知である撮影部12の画角AHとに基づいて式(1)乃至式(3)を計算し、角度θを求める。そして、視点位置算出部71は、得られた角度θと関係情報としての顔幅FWとから、式(4)を計算することで、ユーザの視点位置(距離R)を算出する。
In other words, the viewpoint
ステップS23において、ユーザの視点位置が算出されると、その後、ステップS21およびステップS22の処理が行なわれて視点位置算出処理は終了する。 In step S23, when the viewpoint position of the user is calculated, the processes in steps S21 and S22 are then performed, and the viewpoint position calculation process ends.
以上のようにして、画像処理装置41は、顔検出と眼検出の結果に応じて、眼幅方式と顔幅方式とを切り替えてユーザの視点位置(距離R)を算出する。また、画像処理装置41は、眼幅方式により視点位置を算出した場合には、その算出結果から実際のユーザの眼間距離と顔幅の関係を求め、関係情報として保持しておく。
As described above, the
このように、眼幅方式により視点位置を算出した場合には、関係情報を求めて保持しておき、顔幅方式で視点位置を算出する場合には関係情報を用いることで、より確実に、安定してユーザの視点位置を求めることができる。その結果、表示制御部42による立体画像の視差制御において、より安定した、正確な視差制御を行なうことができるようになり、表示部11に表示する立体画像のクロストークを減少させたり、逆視を抑制したりできるようになる。
As described above, when the viewpoint position is calculated by the eye width method, the relationship information is obtained and held, and when the viewpoint position is calculated by the face width method, the relationship information is used, thereby more reliably. The viewpoint position of the user can be obtained stably. As a result, in the parallax control of the stereoscopic image by the
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。 By the way, the above-described series of processing can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
図5は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 5 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
In a computer, a central processing unit (CPU) 201, a read only memory (ROM) 202, and a random access memory (RAM) 203 are connected to each other by a
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、入力部206、出力部207、記録部208、通信部209、及びドライブ210が接続されている。
An input /
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記録部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインターフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
The
以上のように構成されるコンピュータでは、CPU201が、例えば、記録部208に記録されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。 The program executed by the computer (CPU 201) can be provided by being recorded on the removable medium 211 as a package medium or the like, for example. The program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記録部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記録部208にインストールすることができる。その他、プログラムは、ROM202や記録部208に、あらかじめインストールしておくことができる。
In the computer, the program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and is jointly processed.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
さらに、本技術は、以下の構成とすることも可能である。 Furthermore, this technique can also be set as the following structures.
[1]
ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出する顔検出部と、
前記撮影画像から前記ユーザの眼を検出する眼検出部と、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出する位置算出部と、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出する関係情報算出部と
を備え、
前記位置算出部は、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
画像処理装置。
[2]
前記位置算出部は、前記ユーザの眼が検出された場合、平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
[1]に記載の画像処理装置。
[3]
前記撮影画像に基づいて、前記ユーザの性別、年齢、または人種の少なくとも何れかを判定する判定部をさらに備え、
前記位置算出部は、前記判定部による判定結果により定まる前記平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
[2]に記載の画像処理装置。
[4]
前記関係情報算出部は、前記関係情報として実際の前記ユーザの顔幅を算出する
[1]乃至[3]の何れかに記載の画像処理装置。
[5]
前記撮影画像から検出された前記ユーザの顔の領域から特徴量を抽出する顔識別部と、
前記特徴量と前記関係情報を対応付けて保持する関係情報保持部と
をさらに備え、
前記位置算出部は、処理対象の前記撮影画像の直前の前記撮影画像から前記ユーザの顔が検出されず、かつ前記処理対象の前記撮影画像から前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記特徴量に基づいて選択した前記関係情報、および前記ユーザの顔の検出結果に基づいて、前記ユーザの位置を算出する
[1]乃至[4]の何れかに記載の画像処理装置。
[1]
A face detection unit that detects the user's face from the photographed image based on a photographed image photographed with the user as a subject;
An eye detector that detects the eyes of the user from the captured image;
A position calculating unit that calculates the position of the user in real space based on a detection result of the user's eye when the user's eye is detected;
When the user's eyes are detected, the relationship information that calculates the relationship information indicating the relationship between the user's interocular distance and the face width based on the calculated position of the user and the detection result of the user's face A calculation unit and
When the user's face is detected and the user's eyes are not detected, the position calculation unit calculates the user's position based on the detection result of the user's face and the relation information. .
[2]
The position calculation unit calculates the position of the user based on an average user's interocular distance and a detection result of the user's eyes when the user's eyes are detected. [1] Image processing apparatus.
[3]
A determination unit that determines at least one of gender, age, or race of the user based on the captured image;
The position calculation unit calculates the position of the user based on the average interocular distance of the user determined by the determination result by the determination unit and the detection result of the user's eyes. Image processing device.
[4]
The image processing apparatus according to any one of [1] to [3], wherein the relationship information calculation unit calculates an actual face width of the user as the relationship information.
[5]
A face identifying unit that extracts a feature amount from an area of the user's face detected from the captured image;
A relation information holding unit that holds the feature quantity and the relation information in association with each other; and
The position calculation unit does not detect the user's face from the captured image immediately before the captured image to be processed, detects the user's face from the captured image to be processed, and the user's eyes If not detected, the position of the user is calculated based on the relation information selected based on the feature amount and a detection result of the user's face. [1] to [4] Image processing device.
41 画像処理装置, 61 顔検出部, 62 眼検出部, 63 判定部, 64 顔識別部, 71 視点位置算出部, 72 関係情報算出部, 73 関係情報保持部
41
Claims (7)
前記撮影画像から前記ユーザの眼を検出する眼検出部と、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出する位置算出部と、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出する関係情報算出部と
を備え、
前記位置算出部は、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
画像処理装置。 A face detection unit that detects the user's face from the photographed image based on a photographed image photographed with the user as a subject;
An eye detector that detects the eyes of the user from the captured image;
A position calculating unit that calculates the position of the user in real space based on a detection result of the user's eye when the user's eye is detected;
When the user's eyes are detected, the relationship information that calculates the relationship information indicating the relationship between the user's interocular distance and the face width based on the calculated position of the user and the detection result of the user's face A calculation unit and
When the user's face is detected and the user's eyes are not detected, the position calculation unit calculates the user's position based on the detection result of the user's face and the relation information. .
請求項1に記載の画像処理装置。 The position calculation unit calculates the position of the user based on an average distance between the eyes of the user and a detection result of the eyes of the user when the user's eyes are detected. Image processing apparatus.
前記位置算出部は、前記判定部による判定結果により定まる前記平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
請求項2に記載の画像処理装置。 A determination unit that determines at least one of gender, age, or race of the user based on the captured image;
The position calculation unit calculates the position of the user based on the average user's interocular distance determined by the determination result by the determination unit and the detection result of the user's eyes. Image processing device.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the relationship information calculation unit calculates an actual face width of the user as the relationship information.
前記特徴量と前記関係情報を対応付けて保持する関係情報保持部と
をさらに備え、
前記位置算出部は、処理対象の前記撮影画像の直前の前記撮影画像から前記ユーザの顔が検出されず、かつ前記処理対象の前記撮影画像から前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記特徴量に基づいて選択した前記関係情報、および前記ユーザの顔の検出結果に基づいて、前記ユーザの位置を算出する
請求項1に記載の画像処理装置。 A face identifying unit that extracts a feature amount from an area of the user's face detected from the captured image;
A relation information holding unit that holds the feature quantity and the relation information in association with each other; and
The position calculation unit does not detect the user's face from the captured image immediately before the captured image to be processed, detects the user's face from the captured image to be processed, and the user's eyes The image processing apparatus according to claim 1, wherein if not detected, the position of the user is calculated based on the relation information selected based on the feature amount and a detection result of the user's face.
前記撮影画像から前記ユーザの眼を検出し、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出し、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出し、
前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
ステップを含む画像処理方法。 Based on a photographed image photographed with the user as a subject, the user's face is detected from the photographed image,
Detecting the user's eyes from the captured image;
When the user's eyes are detected, the position of the user in real space is calculated based on the detection results of the user's eyes,
When the user's eyes are detected, based on the calculated position of the user and the detection result of the user's face, calculate relationship information indicating the relationship between the user's interocular distance and the face width;
An image processing method including a step of calculating the position of the user based on a detection result of the user's face and the relationship information when the user's face is detected and the user's eyes are not detected.
前記撮影画像から前記ユーザの眼を検出し、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出し、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出し、
前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
ステップを含む処理をコンピュータに実行させるプログラム。 Based on a photographed image photographed with the user as a subject, the user's face is detected from the photographed image,
Detecting the user's eyes from the captured image;
When the user's eyes are detected, the position of the user in real space is calculated based on the detection results of the user's eyes,
When the user's eyes are detected, based on the calculated position of the user and the detection result of the user's face, calculate relationship information indicating the relationship between the user's interocular distance and the face width;
When the user's face is detected and the user's eyes are not detected, the computer executes a process including a step of calculating the user's position based on the detection result of the user's face and the relation information. program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012035995A JP2013171494A (en) | 2012-02-22 | 2012-02-22 | Image processing device, method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012035995A JP2013171494A (en) | 2012-02-22 | 2012-02-22 | Image processing device, method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013171494A true JP2013171494A (en) | 2013-09-02 |
Family
ID=49265372
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012035995A Pending JP2013171494A (en) | 2012-02-22 | 2012-02-22 | Image processing device, method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013171494A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018106419A (en) * | 2016-12-26 | 2018-07-05 | 大日本印刷株式会社 | Marketing apparatus |
| JP7780609B1 (en) | 2024-10-30 | 2025-12-04 | ソフトバンク株式会社 | Display control device, display control method, and program |
-
2012
- 2012-02-22 JP JP2012035995A patent/JP2013171494A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018106419A (en) * | 2016-12-26 | 2018-07-05 | 大日本印刷株式会社 | Marketing apparatus |
| JP7780609B1 (en) | 2024-10-30 | 2025-12-04 | ソフトバンク株式会社 | Display control device, display control method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9600714B2 (en) | Apparatus and method for calculating three dimensional (3D) positions of feature points | |
| JP5911846B2 (en) | Viewpoint detector based on skin color area and face area | |
| WO2020023727A1 (en) | Personalized hrtfs via optical capture | |
| US9813693B1 (en) | Accounting for perspective effects in images | |
| JP2017022694A (en) | Method and apparatus for displaying light field based image on user's device, and corresponding computer program product | |
| JP2022046260A5 (en) | Image processing device, image processing method, recording medium and program | |
| CN105674878A (en) | Device and method of displaying heat map on perspective drawing | |
| JP2012057974A (en) | Photographing object size estimation device, photographic object size estimation method and program therefor | |
| JP5769755B2 (en) | Image processing system, image processing apparatus, and image processing method | |
| US10068339B2 (en) | Image processing device, image processing system, image processing method and image processing program | |
| JP2013207745A (en) | Image pickup device, image processing method, and program | |
| EP3278709B1 (en) | Medical observation device, information processing method, program and video microscope device | |
| US10634891B2 (en) | Medical observation device, lens driving control device, lens driving control method, and video microscope device | |
| TWI491244B (en) | Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object | |
| TWI502271B (en) | Controlling method and electronic apparatus | |
| JP2013171494A (en) | Image processing device, method, and program | |
| EP4589530A1 (en) | Binocular image generation method and apparatus, electronic device and storage medium | |
| CN102740100A (en) | Display control device, display control method, and program | |
| KR20250161550A (en) | Image based reconstruction of 3D landmarks for use in generating personalized head transfer functions. | |
| JP2017011397A (en) | Image processing apparatus, image processing method, and program | |
| JP5962125B2 (en) | Display device, synchronization method, and program | |
| CN114390267A (en) | Method and device for synthesizing stereo image data, electronic equipment and storage medium | |
| JP5981460B2 (en) | Device and method for managing the position of a focal plane in a stereoscopic scene | |
| JP2024173424A (en) | Information processing device, information processing method, imaging system, and program | |
| JP2017228873A (en) | Image processing apparatus, imaging apparatus, control method, and program |
