JP2013171494A - 画像処理装置および方法、並びにプログラム - Google Patents
画像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2013171494A JP2013171494A JP2012035995A JP2012035995A JP2013171494A JP 2013171494 A JP2013171494 A JP 2013171494A JP 2012035995 A JP2012035995 A JP 2012035995A JP 2012035995 A JP2012035995 A JP 2012035995A JP 2013171494 A JP2013171494 A JP 2013171494A
- Authority
- JP
- Japan
- Prior art keywords
- user
- face
- detected
- eyes
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】より確実に、安定してユーザの視点位置を求める。
【解決手段】検出処理部は、表示部を観察するユーザを被写体として撮影された撮影画像から、ユーザの顔と眼を検出する。撮影画像からユーザの顔と眼が検出された場合、位置算出処理部は、撮影画像上の眼の位置と、ユーザの統計的な眼間距離とに基づいて、ユーザの視点位置を算出する。このとき、位置算出処理部は、得られた視点位置と顔の検出結果とから、ユーザの実際の眼間距離と顔幅の関係を示す関係情報も算出する。また、撮影画像からユーザの顔のみが検出された場合、位置算出処理部は、顔の検出結果と、過去に算出した関係情報とからユーザの視点位置を算出する。本技術は、画像処理装置に適用することができる。
【選択図】図3
【解決手段】検出処理部は、表示部を観察するユーザを被写体として撮影された撮影画像から、ユーザの顔と眼を検出する。撮影画像からユーザの顔と眼が検出された場合、位置算出処理部は、撮影画像上の眼の位置と、ユーザの統計的な眼間距離とに基づいて、ユーザの視点位置を算出する。このとき、位置算出処理部は、得られた視点位置と顔の検出結果とから、ユーザの実際の眼間距離と顔幅の関係を示す関係情報も算出する。また、撮影画像からユーザの顔のみが検出された場合、位置算出処理部は、顔の検出結果と、過去に算出した関係情報とからユーザの視点位置を算出する。本技術は、画像処理装置に適用することができる。
【選択図】図3
Description
本技術は画像処理装置および方法、並びにプログラムに関し、特に、より確実に、安定してユーザの視点位置を求めることができるようにした画像処理装置および方法、並びにプログラムに関する。
例えば、ディスプレイに対するユーザの眼の位置(視点位置)に基づいて、ディスプレイへの3D映像の表示を制御する裸眼立体表示技術が知られている(例えば、特許文献1参照)。このような技術では、ディスプレイからユーザまでの距離、すなわち3次元におけるユーザの視点位置が必要となる。
そこで、撮影された画像からユーザの眼の位置を検出し、その検出結果からユーザの視点位置を求める技術が提案されている。
しかしながら、上述した技術では、安定して、確実にユーザの視点位置を求めることは困難であった。例えば、撮影された画像からユーザの眼を検出し、その検出結果からユーザの視点位置を求める方法では、ユーザが俯いたときなど、画像上にユーザの眼がない場合には、ユーザの視点位置を得ることができなくなってしまうことがあった。
本技術は、このような状況に鑑みてなされたものであり、より確実に、安定してユーザの視点位置を求めることができるようにするものである。
本技術の一側面の画像処理装置は、ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出する顔検出部と、前記撮影画像から前記ユーザの眼を検出する眼検出部と、前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出する位置算出部と、前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出する関係情報算出部とを備え、前記位置算出部は、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する。
前記位置算出部には、前記ユーザの眼が検出された場合、平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出させることができる。
画像処理装置には、前記撮影画像に基づいて、前記ユーザの性別、年齢、または人種の少なくとも何れかを判定する判定部をさらに設け、前記位置算出部には、前記判定部による判定結果により定まる前記平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出させることができる。
前記関係情報算出部には、前記関係情報として実際の前記ユーザの顔幅を算出させることができる。
画像処理装置には、前記撮影画像から検出された前記ユーザの顔の領域から特徴量を抽出する顔識別部と、前記特徴量と前記関係情報を対応付けて保持する関係情報保持部と
をさらに設け、前記位置算出部には、処理対象の前記撮影画像の直前の前記撮影画像から前記ユーザの顔が検出されず、かつ前記処理対象の前記撮影画像から前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記特徴量に基づいて選択した前記関係情報、および前記ユーザの顔の検出結果に基づいて、前記ユーザの位置を算出させることができる。
をさらに設け、前記位置算出部には、処理対象の前記撮影画像の直前の前記撮影画像から前記ユーザの顔が検出されず、かつ前記処理対象の前記撮影画像から前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記特徴量に基づいて選択した前記関係情報、および前記ユーザの顔の検出結果に基づいて、前記ユーザの位置を算出させることができる。
本技術の一側面の画像処理方法またはプログラムは、ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出し、前記撮影画像から前記ユーザの眼を検出し、前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出し、前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出し、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出するステップを含む。
本技術の一側面においては、ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔が検出され、前記撮影画像から前記ユーザの眼が検出され、前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置が算出され、前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報が算出され、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置が算出される。
本技術の一側面によれば、より確実に、安定してユーザの視点位置を求めることができる。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[視点位置の算出について]
本技術は、例えば顔検出や眼検出の結果を用いて、表示部(ディスプレイ)に対するユーザの眼の位置(視点位置)を推定し、その推定結果に基づいて、表示部への3D映像(立体画像)の表示を制御するヘッドトラッキング方式の裸眼立体表示に関する技術である。なお、本技術は、ユーザの視点位置に基づいて画像表示等、各種の制御を行なう場合に適用可能であるが、以下では、本技術を立体画像の表示制御に利用する場合を例として説明を続ける。
[視点位置の算出について]
本技術は、例えば顔検出や眼検出の結果を用いて、表示部(ディスプレイ)に対するユーザの眼の位置(視点位置)を推定し、その推定結果に基づいて、表示部への3D映像(立体画像)の表示を制御するヘッドトラッキング方式の裸眼立体表示に関する技術である。なお、本技術は、ユーザの視点位置に基づいて画像表示等、各種の制御を行なう場合に適用可能であるが、以下では、本技術を立体画像の表示制御に利用する場合を例として説明を続ける。
本技術では、表示部に対する3次元のユーザの眼の位置(視点位置)を求める手法として、ユーザの顔の検出結果を用いて視点位置を求める手法と、ユーザの眼の検出結果を用いて視点位置を求める手法とが、適宜切り替えられながら用いられる。
このとき、ユーザの眼の検出結果から視点位置が求められた場合には、その視点位置に基づいて、ユーザの実際の眼間距離と顔サイズの関係を示す関係情報が求められる。そして、ユーザの顔の検出結果を用いて視点位置を求める場合には、ユーザの顔の検出結果だけでなく、関係情報も用いられてユーザの視点位置が求められる。
なお、以下、ユーザの顔の検出結果を用いて視点位置を求める手法を顔幅方式とも称し、ユーザの眼の検出結果を用いて視点位置を求める手法を眼幅方式とも称することとする。
それでは、以下において本技術によるユーザの視点位置の算出について説明する。
まず、顔検出を利用して、ユーザの視点位置を求める手法について説明する。
例えば、図1に示すように、画像が表示される表示部11が3次元空間上に配置されており、ユーザが図中、上側から下方向を向いて表示部11を観察するとする。また、表示部11の中心の位置には、ユーザを撮影する撮影部12が配置され、撮影部12によりユーザを被写体とした撮影画像PC11が撮影されるとする。つまり、撮影画像PC11が図示されている位置にある被写体が撮影されて、撮影画像PC11が得られるとする。
なお、図中、横方向は表示部11を観察するユーザの両眼が並んでいる方向であり、図1は、表示部11とユーザを、ユーザの真上から見下ろした図となっている。
図1において、撮影部12の画角がAHであるとし、撮影部12の光軸と平行な直線DR11と、撮影画像PC11との交点の位置、つまり撮影画像PC11の図中、横方向の中心位置が位置Oであるとする。例えば、撮影部12の図中、横方向の画角が63.24度であれば、画角AHは、AH=63.24×π/180などとされる。
このとき、撮影画像PC11の図中、横方向の幅を「1」とすると、撮影部12から撮影画像PC11上の位置Oまでの図中、縦方向の距離IWDは、次式(1)により求められる。
また、撮影画像PC11上の領域FCがユーザの顔の領域であり、領域FCの図中、横方向の幅がwidthであったとする。ここで、領域FCは、撮影画像PC11上の位置xから位置x’までの間の領域である。
撮影画像PC11の横方向の幅は「1」であるから、位置Oを「0」とすると、撮影画像PC11の図中、横方向の任意の位置、例えば位置xや位置x’は-0.5乃至0.5の範囲内の数値により表現することができる。また、撮影画像PC11上のユーザの顔の領域FCの幅widthは、0乃至1の間の値となる。
いま、撮影部12の中心からユーザの顔の図中、左端までの角度、つまり、直線DR11と直線DR12とのなす角度が角度φであるとする。また、ユーザの顔幅に相当する角度、つまり直線DR12と直線DR13とがなす角度が角度θであるとする。
ここで、直線DR12は、撮影部12と領域FCの図中、左端の位置xとを結ぶ直線であり、直線DR13は、撮影部12と領域FCの図中、右端の位置x’とを結ぶ直線である。
このとき角度φは、ユーザの顔の領域FCの位置xと、上述した距離IWDとから次式(2)により求まる。
したがって、ユーザの顔幅に相当する角度θは、式(2)により求まった角度φ、距離IWD、ユーザの顔の領域FCの位置x、およびユーザの顔の領域FCの幅widthを用いて、次式(3)により求めることができる。
このように、ユーザの顔幅に相当する角度θが求まると、この角度θと、ユーザの実際の顔幅FWとから、次式(4)により実空間(3次元)における表示部11(撮影部12)から、ユーザの視点位置(顔)までの距離Rを求めることができる。ここで、ユーザの視点位置は、例えばユーザの左右の眼の中間の位置である。
なお、ユーザの実際の顔幅FWは、例えばユーザが子供であれば、12.5cm程度であり、ユーザが大人であれば17.0cm程度である。また、ユーザの顔幅FWは、幅widthに対応する、実空間上におけるユーザの顔の横方向の幅である。
以上のように、顔幅方式によるユーザの視点位置の算出では、撮影部12の画角AH、撮影画像PC11上のユーザの顔の位置xと幅width、およびユーザの実際の顔幅FWが分かれば、3次元におけるユーザの視点位置(距離R)を求めることができる。なお、後述するように顔幅方式では、顔幅FWの値は、ユーザの実際の眼間距離と顔幅の関係を示す関係情報が用いられて求められる。
次に、眼幅方式によるユーザの視点位置の算出について説明する。
眼幅方式においても、顔幅方式と同様の計算によりユーザの視点位置を算出することができる。具体的には、例えば図1における位置xおよび位置x’が、仮にユーザの右眼の位置および左眼の位置であったとする。この場合、位置xをユーザの右眼位置とし、幅widthをユーザの左右の眼の幅、つまり眼間距離として式(3)を計算すれば、角度θとしてユーザの眼幅に相当する角度を得ることができる。
したがって、この角度θから、式(4)と同様の計算により、撮影部12からユーザの視点位置までの距離Rを得ることができる。つまり、ユーザの眼幅に相当する角度をθ’とし、実際のユーザの眼間距離をEWとすると、次式(5)を計算することで視点位置までの距離Rを求めることができる。
以上のことから、眼幅方式によるユーザの視点位置の算出では、撮影部12の画角AH、撮影画像PC11上のユーザの眼の位置と眼間距離、およびユーザの実際の眼間距離EWが分かれば、3次元におけるユーザの視点位置(距離R)を求めることができる。
なお、以下では、撮影画像PC11上におけるユーザの眼の位置(図1の例ではユーザの右眼位置)をxeとし、撮影画像PC11上におけるユーザの眼間距離をHEとする。
ところで、上述したように顔幅方式によるユーザの視点位置の算出では、ユーザの実際の顔幅FWが必要となり、眼幅方式によるユーザの視点位置の算出では、ユーザの実際の眼間距離EWが必要となる。
これらの計算に用いられる顔幅FWや眼間距離EWについては、個人ごとに直接、顔幅FWや眼間距離EWを測定して得られた値を用いる方法と、統計的な平均値を顔幅FWや眼間距離EWの値として用いる方法が考えられる。
例えば、顔幅FWや眼間距離EWとして統計的な平均値を用いる場合、顔幅FWの個人差よりも眼間距離EWの個人差の方が少ないため、顔幅方式と比べて眼幅方式の方が、より正確にユーザの視点位置を求めることが可能である。
また、顔幅方式または眼幅方式の何れかにより、ユーザの視点位置までの距離Rが求まれば、実際の顔幅FWと眼間距離EWの関係を求めることができる。
そこで、本技術では、撮影画像からユーザの顔と眼が検出されている間は、眼間距離EWとして統計的な平均値が用いられて眼幅方式により距離Rが算出される。また、眼幅方式により距離Rが算出されると、算出された距離Rや眼間距離EW、顔検出結果から、実際の顔幅FWと眼間距離EWの関係を示す関係情報が求められ、保持される。例えば関係情報は、距離Rから求まる各個人の顔幅FWとされる。
これに対して、撮影画像からユーザの顔のみが検出され、ユーザの眼が検出されなかった場合には、関係情報として求められた顔幅FWが用いられて、顔幅方式により距離Rが算出される。
具体的には、例えば図2に示すように、眼幅方式と顔幅方式とが切り替えられてユーザの視点位置(距離R)が算出される。なお、図2において、図中、横方向は時間方向を示している。また、斜線が施された長方形は、撮影画像からユーザの顔が検出された区間を示しており、斜線が施されていない長方形は、撮影画像からユーザの眼が検出された区間を示している。
図2の例では、区間Q1から区間Q3までの間は、継続してユーザの顔が検出されている。また、区間Q1と区間Q3では継続してユーザの眼が検出されているが、区間Q2ではユーザの眼は検出されていない。
なお、ユーザの顔が継続して検出されている区間では、検出されたユーザの顔のトラッキングと、検出されたユーザの顔の識別が行なわれる。例えば、顔の識別は、撮影画像上の顔の領域から抽出された特徴量により行なわれる。
図2において、区間Q1に注目すると、区間Q1ではユーザの顔も眼も検出されている。そこで、この区間Q1では、ユーザの眼の検出結果から眼幅方式により距離R(視点位置)が算出されるとともに、関係情報としての顔幅FWが算出され、保持される。
ここで、保持される顔幅FWは、より詳細には例えば区間Q1を構成する各フレームにおいて求められた顔幅FWの平均値とされる。また、求められた関係情報としての顔幅FWは、撮影画像上のユーザの顔の領域から抽出された特徴量と対応付けられて保持される。これにより、ユーザ個人ごとに関係情報としての顔幅FWを保持することができる。
区間Q1に続く区間Q2では、撮影画像からユーザの顔は検出されているが、ユーザの眼は検出されていない。そこで、区間Q2では、検出されている顔について保持されている関係情報としての顔幅FWと、顔の検出結果とが用いられて顔幅方式により距離R(視点位置)が算出される。
例えば、区間Q2のように、ユーザが下を向いた場合など、条件によっては撮影画像からユーザの顔は検出されるが、ユーザの眼は検出されないということがある。
そのような場合に、ユーザの眼が検出されている間は眼幅方式により視点位置が算出されていたが、眼が検出されなくなったときに、統計的な顔幅が用いられて顔幅方式により視点位置が算出されると、時系列に並ぶ視点位置が不連続になったり、視点位置の誤差が大きくなったりしてしまう。
そこで、区間Q2のようなユーザの顔のみが検出された区間では、予め求めておいた関係情報を用いて顔幅方式により視点位置を算出することで、時間方向にみて連続的で、より正確な視点位置を得ることができる。つまり、ユーザの眼が検出されない区間があっても、より確実に、安定してユーザの視点位置を求めることができる。
また、区間Q2の後の区間Q3では、再びユーザの顔と眼が検出されている。また、顔のトラッキング結果から、区間Q1乃至区間Q3で検出されていた顔は同じユーザの顔である。そこで、区間Q3では、これまでの顔幅方式から眼幅方式に切り替えられて、距離R(視点位置)が算出されるとともに、関係情報としての顔幅FWが算出され、保持される。つまり、関係情報の更新が行なわれる。
区間Q3と区間Q4の間では、ユーザの顔の眼も検出されないので、この区間では、ユーザの視点位置の算出は行われない。
その後、区間Q4において、再びユーザの顔が検出されている。なお、区間Q4では、ユーザの顔は検出されているが、ユーザの眼は検出されていないため、関係情報が用いられて、顔幅方式により距離R(視点位置)が算出される。
但し、区間Q4の直前の区間では、ユーザの顔は検出されていないので、区間Q4において検出された顔と、区間Q4よりも前にある区間で検出された顔とが同じユーザの顔であるかが、顔から抽出された特徴量により特定される。そして、それらの区間で検出された顔が同じ顔である場合には、その顔についての関係情報が、区間Q4での視点位置の算出に用いられる。
このように、撮影画像上の顔領域の追跡が途切れた場合であっても、特徴量を比較して同一のユーザ(顔)であるかを特定することで、より確実に、安定してユーザの視点位置を求めることができる。
さらに、区間Q4以降においては、ユーザの顔も眼も検出されているので、この区間では眼幅方式によりユーザの視点位置が算出され、関係情報の更新も行なわれることになる。
[画像処理システムの構成例]
次に、本技術を適用した具体的な実施の形態について説明する。図3は、本技術を適用した画像処理システムの一実施の形態の構成例を示す図である。なお、図3において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
次に、本技術を適用した具体的な実施の形態について説明する。図3は、本技術を適用した画像処理システムの一実施の形態の構成例を示す図である。なお、図3において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図3の画像処理システムは、撮影部12、画像処理装置41、表示制御部42、および表示部11から構成される。この画像処理システムは、例えばユーザの視点位置に応じて表示部11に表示する立体画像の視差制御を行なうものであり、テレビジョン受像機やパーソナルコンピュータ、携帯電話機などに内蔵されている。
撮影部12は表示部11の上部中央に設けられており、表示部11をほぼ正面から観察するユーザを被写体として撮影し、その結果得られた撮影画像を画像処理装置41に供給する。
画像処理装置41は、撮影部12から供給された撮影画像からユーザの顔や眼を検出し、その検出結果に基づいてユーザの視点位置を算出して表示制御部42に供給する。画像処理装置41は、検出処理部51および位置算出処理部52から構成される。
検出処理部51は、撮影部12から供給された撮影画像からユーザの顔や眼を検出し、その検出結果を位置算出処理部52に供給する。検出処理部51は、顔検出部61、眼検出部62、判定部63、および顔識別部64を備えている。
顔検出部61は、撮影部12からの撮影画像からユーザの顔を検出する。眼検出部62は、撮影部12からの撮影画像からユーザの眼を検出する。また、判定部63は、撮影部12からの撮影画像に基づいて、検出されたユーザの性別、年齢、および人種の判定を行なう。なお、ユーザの性別等の判定結果は、ユーザの実際の眼間距離EWの特定に用いられる。
顔識別部64は、撮影画像から検出されたユーザの顔の領域から特徴量を抽出することで、顔識別を行なう。
顔検出部61乃至顔識別部64で得られた顔の検出結果、眼の検出結果、ユーザの性別等の判定結果、および顔領域の特徴量は、適宜、検出処理部51から位置算出処理部52に供給される。
位置算出処理部52は、検出処理部51から供給された顔の検出結果等に基づいて、3次元におけるユーザの視点位置(距離R)を算出し、表示制御部42に供給する。位置算出処理部52は、視点位置算出部71、関係情報算出部72、および関係情報保持部73を備えている。
視点位置算出部71は、検出処理部51から供給された顔や眼の検出結果に基づいて、ユーザの視点位置を算出する。このとき、視点位置算出部71は、必要に応じて関係情報保持部73に保持されている関係情報を用いてユーザの視点位置を算出する。
関係情報算出部72は、検出処理部51からの顔の検出結果と、視点位置算出部71による視点位置の算出結果とに基づいて関係情報を算出し、関係情報保持部73に保持させる。関係情報保持部73は、関係情報算出部72により算出された関係情報を、検出処理部51から供給された特徴量と対応付けて保持する。
また、表示制御部42は、図示せぬ記録部等から取得した立体画像を表示部11に供給し、立体表示させる。このとき表示制御部42は、位置算出処理部52から供給されたユーザの視点位置に応じて、表示部11に表示させる立体画像の視差制御を行なう。具体的には、例えば表示制御部42は、ユーザの視点位置に応じて、表示部11の各表示領域に対して立体画像を構成する右眼画像または左眼画像を割り当てることで、ユーザが適切に立体画像を視聴できるようにする。
表示部11は、裸眼方式で立体画像を表示させるディスプレイからなり、表示制御部42の制御にしたがって、表示制御部42から供給された立体画像を表示する。
[視点位置算出処理の説明]
ところで、図3の画像処理システムに対して、立体画像の表示が指示されると、撮影部12は、撮影画像を撮影して順次、画像処理装置41に供給する。すると、画像処理装置41は、視点位置算出処理を行なって、ユーザの視点位置を表示制御部42に出力する。そして、表示制御部42は、画像処理装置41からの視点位置に応じて視差制御を行い、表示部11に立体画像を表示させる。
ところで、図3の画像処理システムに対して、立体画像の表示が指示されると、撮影部12は、撮影画像を撮影して順次、画像処理装置41に供給する。すると、画像処理装置41は、視点位置算出処理を行なって、ユーザの視点位置を表示制御部42に出力する。そして、表示制御部42は、画像処理装置41からの視点位置に応じて視差制御を行い、表示部11に立体画像を表示させる。
以下、図4のフローチャートを参照して、画像処理装置41による視点位置算出処理について説明する。
ステップS11において、顔検出部61は、撮影部12から供給された撮影画像に基づいて顔検出を行い、撮影画像からユーザの顔の領域を検出する。なお、顔検出の方法は、例えば識別器を用いる方法など、どのような方法であってもよい。
ステップS12において、顔検出部61はステップS11における顔検出の結果と、過去の顔検出の結果とに基づいて、撮影画像上における顔の領域のトラッキング(追跡)を行なう。これにより、各時刻の撮影画像において検出された顔が同一ユーザの顔であるかを特定することができる。
ステップS13において、眼検出部62は、撮影部12から供給された撮影画像に基づいて眼検出を行い、撮影画像からユーザの眼の領域を検出する。このとき、眼検出部62は、必要に応じて顔検出部61による顔検出の結果を利用し、撮影画像上の顔の領域内からユーザの眼の領域を検出する。なお、眼の検出方法は、識別器やテンプレートを用いる方法など、どのような方法であってもよい。
ステップS14において、判定部63は、撮影部12から供給された撮影画像と、顔検出部61による顔検出の結果とに基づいて、撮影画像から検出されたユーザの性別、年齢、および人種の判定を行なう。
ステップS15において、顔識別部64は、撮影部12から供給された撮影画像と、顔検出部61による顔検出の結果とに基づいて、撮影画像から検出された顔の識別を行なう。すなわち、顔識別部64は、撮影画像上の顔の領域から特徴量を抽出する。なお、この特徴量は、必要に応じて顔のトラッキングに用いられるようにしてもよい。
ステップS16において、検出処理部51は、撮影画像から顔が検出されたか否かを判定する。例えば、ステップS11の処理において、撮影画像からユーザの顔が検出された場合、顔が検出されたと判定される。
ステップS16において、顔が検出されなかったと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、次のフレームの撮影画像が処理対象とされ、撮影画像に対する顔検出等が行なわれる。
なお、撮影画像から顔が検出されなかった場合には、実質的には上述したステップS12乃至ステップS15の処理は行なわれないことになる。
これに対してステップS16において、顔が検出されたと判定された場合、処理はステップS17へと進む。このとき検出処理部51は、適宜、ステップS11乃至ステップS15の処理で得られた、顔検出の結果、顔のトラッキング結果、眼検出の結果、性別等の判定結果、および顔の特徴量を位置算出処理部52に供給する。
ステップS17において、位置算出処理部52は、検出処理部51から供給された眼検出の結果に基づいて、撮影画像からユーザの眼が検出されたか否かを判定する。
ステップS17において、眼が検出されたと判定された場合、ステップS18において、視点位置算出部71は、撮影画像上のユーザの眼の位置と、ユーザの眼間距離EWとに基づいて3次元のユーザの眼の位置、つまり実空間におけるユーザの視点位置(距離R)を算出する。
例えば、視点位置算出部71は、性別、年齢、および人種と、それらの性別、年齢、および人種が同じであるユーザの平均的(統計的)な眼間距離EWとが対応付けられた眼幅テーブルを予め記録している。視点位置算出部71は、記録している眼幅テーブルから、検出処理部51から供給されたユーザの性別、年齢、および人種の判定結果から特定される眼間距離EWを取得する。つまり、判定の結果得られた性別、年齢、および人種により特定される眼間距離EWが読み出される。
また、視点位置算出部71は、検出処理部51から供給された眼検出の結果としての撮影画像上におけるユーザの眼の位置xeおよび眼間距離HEと、既知である撮影部12の画角AHとに基づいて式(1)乃至式(3)と同様の計算を行う。
この計算により、ユーザの眼幅に相当する角度θ’が得られるので、視点位置算出部71は、得られた角度θ’と、眼幅テーブルから読み出した眼間距離EWとから上述した式(5)を計算し、表示部11からユーザまでの距離Rを視点位置として算出する。なお、ユーザの視点位置は、距離Rでもよいし、距離Rから求まる3次元座標空間上におけるユーザの視点位置の座標でもよい。
このように、眼間距離EWとして、性別,年齢,人種ごとの統計的な値のなかから、撮影画像上のユーザの性別,年齢,人種と合致するものを選択して用いることで、より高精度にユーザの視点位置(距離R)を求めることができる。
なお、ユーザの性別、年齢、および人種の判定結果により特定される眼間距離EWが用いられると説明したが、ユーザの性別、年齢、人種のうちの少なくとも何れか1つが用いられて眼間距離EWが特定されるようにしてもよい。
また、センサ等によりユーザの眼間距離EWを直接測定し、その測定結果を予め視点位置算出部71に記録しておくようにしてもよいし、ユーザにより直接入力または選択された眼間距離EWを予め視点位置算出部71に記録しておくようにしてもよい。
ステップS19において関係情報算出部72は、検出処理部51からの顔の検出結果と、視点位置算出部71による視点位置の算出結果とに基づいて関係情報を算出する。
具体的には関係情報算出部72は、検出処理部51からの顔検出結果としての撮影画像上におけるユーザの顔の位置x、および撮影画像上におけるユーザの顔の幅widthと、既知である撮影部12の画角AHとに基づいて式(1)乃至式(3)を計算する。
この計算により、ユーザの顔幅に相当する角度θが得られるので、関係情報算出部72は、得られた角度θと、視点位置算出部71により算出された距離Rとから、式(4)よりユーザの実際の顔幅FWを関係情報として算出する。
ステップS20において、関係情報保持部73は、ステップS19の処理において関係情報算出部72により算出された関係情報を保持する。
より具体的には、関係情報保持部73は、保持している関係情報としての顔幅FWのうち、その関係情報に対応付けられている特徴量が、検出処理部51から供給された特徴量と最も類似している関係情報を特定する。例えば、特徴量の差分など、特徴量間の距離が最も短いものが類似する特徴量とされる。また、顔のトラッキングにより顔が継続して検出されている場合には、その顔について求められた関係情報が特定される。
そして、関係情報保持部73は、特定された関係情報としての顔幅FWと、ステップS19において算出された関係情報としての顔幅FWとに基づいて関係情報を更新し、更新後の関係情報を保持する。
例えば、関係情報の更新では、新たにステップS19で算出された顔幅FWと、過去に求められたいくつかの顔幅FWとの平均値が求められ、得られた平均値が更新後の顔幅FW(関係情報)とされる。
なお、例えば顔幅FWの更新は、予め定められた回数だけ更新された後は行なわれないようにしてもよいし、顔が連続して検出されている区間でのみ顔幅FWの更新が行なわれ、新たに顔が検出された場合には、新たな関係情報が保持されるようにしてもよい。
ステップS21において、位置算出処理部52は、視点位置算出部71により算出されたユーザの視点位置(距離R)、つまり3次元の眼の位置を表示制御部42に出力する。これらのステップS18乃至ステップS21で行なわれる処理が、例えば図2の区間Q1や区間Q3で行なわれる処理である。
ステップS22において、位置算出処理部52は、視点位置を算出する処理を終了するか否かを判定する。例えば、ユーザにより立体画像の再生停止が指示された場合、処理を終了すると判定される。
ステップS22において、処理を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。
また、ステップS22において、処理を終了すると判定された場合、視点位置算出処理は終了する。
さらに、上述したステップS17において、眼が検出されなかったと判定された場合、処理はステップS23に進む。
ステップS23において、視点位置算出部71は、検出処理部51からの顔検出結果や特徴量と、関係情報保持部73に保持されている関係情報とに基づいて、3次元のユーザの眼の位置、つまり実空間におけるユーザの視点位置(距離R)を算出する。
具体的には、検出処理部51から供給された顔のトラッキング結果が、撮影画像からユーザの顔と眼が検出された区間から、継続して顔が検出されているという結果であるとする。この場合、視点位置算出部71は、継続して検出されている顔について求められた関係情報を、関係情報保持部73から取得する。すなわち、処理対象となっているフレームが、例えば図2の区間Q2内のフレームである場合、継続して検出されている顔の関係情報が取得される。このとき、必要に応じて、顔識別部64により顔の領域から抽出された特徴量が用いられる。
また、検出処理部51から供給された顔のトラッキング結果が、最後に撮影画像からユーザの顔と眼が検出された区間から、処理対象の撮影画像までの間に、顔が検出されていない区間があるという結果であったとする。この場合、視点位置算出部71は、処理対象となっている撮影画像から検出された顔と同じ顔について算出された関係情報を関係情報保持部73から取得する。
例えば、処理対象の撮影画像よりも前の撮影画像のうち、最後に顔と眼が検出された撮影画像についての顔の特徴量と、処理対象の撮影画像の顔の特徴量とが類似している場合には、それらの顔は同じ顔であるとして、その顔の関係情報が取得される。また、例えば顔識別部64により処理対象の撮影画像上の顔の領域から抽出された特徴量との類似度が最も高い特徴量に対応付けられた関係情報が、関係情報保持部73から取得されるようにしてもよい。
なお、最後に撮影画像からユーザの顔と眼が検出された区間から、処理対象の撮影画像までの間に、顔が検出されていない区間がある場合とは、例えば処理対象の撮影画像が、図2の区間Q4内にある場合などである。例えば、図2の区間Q4において、区間Q4で顔から抽出された特徴量と、直前の区間Q3で顔から抽出された特徴量とから、これらの顔が同じであると特定されたときには、区間Q3で検出された顔の関係情報が取得される。
視点位置算出部71は、関係情報保持部73から関係情報としての顔幅FWを取得すると、ユーザの顔幅に相当する角度θを算出する。
すなわち、視点位置算出部71は、検出処理部51からの顔検出結果としての撮影画像上におけるユーザの顔の位置x、および撮影画像上におけるユーザの顔の幅widthと、既知である撮影部12の画角AHとに基づいて式(1)乃至式(3)を計算し、角度θを求める。そして、視点位置算出部71は、得られた角度θと関係情報としての顔幅FWとから、式(4)を計算することで、ユーザの視点位置(距離R)を算出する。
ステップS23において、ユーザの視点位置が算出されると、その後、ステップS21およびステップS22の処理が行なわれて視点位置算出処理は終了する。
以上のようにして、画像処理装置41は、顔検出と眼検出の結果に応じて、眼幅方式と顔幅方式とを切り替えてユーザの視点位置(距離R)を算出する。また、画像処理装置41は、眼幅方式により視点位置を算出した場合には、その算出結果から実際のユーザの眼間距離と顔幅の関係を求め、関係情報として保持しておく。
このように、眼幅方式により視点位置を算出した場合には、関係情報を求めて保持しておき、顔幅方式で視点位置を算出する場合には関係情報を用いることで、より確実に、安定してユーザの視点位置を求めることができる。その結果、表示制御部42による立体画像の視差制御において、より安定した、正確な視差制御を行なうことができるようになり、表示部11に表示する立体画像のクロストークを減少させたり、逆視を抑制したりできるようになる。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図5は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、入力部206、出力部207、記録部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記録部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインターフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記録部208に記録されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記録部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記録部208にインストールすることができる。その他、プログラムは、ROM202や記録部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、本技術は、以下の構成とすることも可能である。
[1]
ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出する顔検出部と、
前記撮影画像から前記ユーザの眼を検出する眼検出部と、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出する位置算出部と、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出する関係情報算出部と
を備え、
前記位置算出部は、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
画像処理装置。
[2]
前記位置算出部は、前記ユーザの眼が検出された場合、平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
[1]に記載の画像処理装置。
[3]
前記撮影画像に基づいて、前記ユーザの性別、年齢、または人種の少なくとも何れかを判定する判定部をさらに備え、
前記位置算出部は、前記判定部による判定結果により定まる前記平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
[2]に記載の画像処理装置。
[4]
前記関係情報算出部は、前記関係情報として実際の前記ユーザの顔幅を算出する
[1]乃至[3]の何れかに記載の画像処理装置。
[5]
前記撮影画像から検出された前記ユーザの顔の領域から特徴量を抽出する顔識別部と、
前記特徴量と前記関係情報を対応付けて保持する関係情報保持部と
をさらに備え、
前記位置算出部は、処理対象の前記撮影画像の直前の前記撮影画像から前記ユーザの顔が検出されず、かつ前記処理対象の前記撮影画像から前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記特徴量に基づいて選択した前記関係情報、および前記ユーザの顔の検出結果に基づいて、前記ユーザの位置を算出する
[1]乃至[4]の何れかに記載の画像処理装置。
ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出する顔検出部と、
前記撮影画像から前記ユーザの眼を検出する眼検出部と、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出する位置算出部と、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出する関係情報算出部と
を備え、
前記位置算出部は、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
画像処理装置。
[2]
前記位置算出部は、前記ユーザの眼が検出された場合、平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
[1]に記載の画像処理装置。
[3]
前記撮影画像に基づいて、前記ユーザの性別、年齢、または人種の少なくとも何れかを判定する判定部をさらに備え、
前記位置算出部は、前記判定部による判定結果により定まる前記平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
[2]に記載の画像処理装置。
[4]
前記関係情報算出部は、前記関係情報として実際の前記ユーザの顔幅を算出する
[1]乃至[3]の何れかに記載の画像処理装置。
[5]
前記撮影画像から検出された前記ユーザの顔の領域から特徴量を抽出する顔識別部と、
前記特徴量と前記関係情報を対応付けて保持する関係情報保持部と
をさらに備え、
前記位置算出部は、処理対象の前記撮影画像の直前の前記撮影画像から前記ユーザの顔が検出されず、かつ前記処理対象の前記撮影画像から前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記特徴量に基づいて選択した前記関係情報、および前記ユーザの顔の検出結果に基づいて、前記ユーザの位置を算出する
[1]乃至[4]の何れかに記載の画像処理装置。
41 画像処理装置, 61 顔検出部, 62 眼検出部, 63 判定部, 64 顔識別部, 71 視点位置算出部, 72 関係情報算出部, 73 関係情報保持部
Claims (7)
- ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出する顔検出部と、
前記撮影画像から前記ユーザの眼を検出する眼検出部と、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出する位置算出部と、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出する関係情報算出部と
を備え、
前記位置算出部は、前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
画像処理装置。 - 前記位置算出部は、前記ユーザの眼が検出された場合、平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
請求項1に記載の画像処理装置。 - 前記撮影画像に基づいて、前記ユーザの性別、年齢、または人種の少なくとも何れかを判定する判定部をさらに備え、
前記位置算出部は、前記判定部による判定結果により定まる前記平均的なユーザの眼間距離と、前記ユーザの眼の検出結果とに基づいて、前記ユーザの位置を算出する
請求項2に記載の画像処理装置。 - 前記関係情報算出部は、前記関係情報として実際の前記ユーザの顔幅を算出する
請求項1に記載の画像処理装置。 - 前記撮影画像から検出された前記ユーザの顔の領域から特徴量を抽出する顔識別部と、
前記特徴量と前記関係情報を対応付けて保持する関係情報保持部と
をさらに備え、
前記位置算出部は、処理対象の前記撮影画像の直前の前記撮影画像から前記ユーザの顔が検出されず、かつ前記処理対象の前記撮影画像から前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記特徴量に基づいて選択した前記関係情報、および前記ユーザの顔の検出結果に基づいて、前記ユーザの位置を算出する
請求項1に記載の画像処理装置。 - ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出し、
前記撮影画像から前記ユーザの眼を検出し、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出し、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出し、
前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
ステップを含む画像処理方法。 - ユーザを被写体として撮影された撮影画像に基づいて、前記撮影画像から前記ユーザの顔を検出し、
前記撮影画像から前記ユーザの眼を検出し、
前記ユーザの眼が検出された場合、前記ユーザの眼の検出結果に基づいて、実空間における前記ユーザの位置を算出し、
前記ユーザの眼が検出された場合、算出された前記ユーザの位置と前記ユーザの顔の検出結果とに基づいて、前記ユーザの眼間距離と顔幅の関係を示す関係情報を算出し、
前記ユーザの顔が検出され、前記ユーザの眼が検出されなかった場合、前記ユーザの顔の検出結果および前記関係情報に基づいて、前記ユーザの位置を算出する
ステップを含む処理をコンピュータに実行させるプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012035995A JP2013171494A (ja) | 2012-02-22 | 2012-02-22 | 画像処理装置および方法、並びにプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012035995A JP2013171494A (ja) | 2012-02-22 | 2012-02-22 | 画像処理装置および方法、並びにプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013171494A true JP2013171494A (ja) | 2013-09-02 |
Family
ID=49265372
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012035995A Pending JP2013171494A (ja) | 2012-02-22 | 2012-02-22 | 画像処理装置および方法、並びにプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013171494A (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018106419A (ja) * | 2016-12-26 | 2018-07-05 | 大日本印刷株式会社 | マーケティング装置 |
| JP7780609B1 (ja) | 2024-10-30 | 2025-12-04 | ソフトバンク株式会社 | 表示制御装置、表示制御方法、及びプログラム |
-
2012
- 2012-02-22 JP JP2012035995A patent/JP2013171494A/ja active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018106419A (ja) * | 2016-12-26 | 2018-07-05 | 大日本印刷株式会社 | マーケティング装置 |
| JP7780609B1 (ja) | 2024-10-30 | 2025-12-04 | ソフトバンク株式会社 | 表示制御装置、表示制御方法、及びプログラム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9600714B2 (en) | Apparatus and method for calculating three dimensional (3D) positions of feature points | |
| JP5911846B2 (ja) | 肌色領域及び顔領域に基づく視点検出器 | |
| WO2020023727A1 (en) | Personalized hrtfs via optical capture | |
| US9813693B1 (en) | Accounting for perspective effects in images | |
| JP2017022694A (ja) | ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品 | |
| JP2022046260A5 (ja) | 画像処理装置、画像処理方法、記録媒体およびプログラム | |
| CN105674878A (zh) | 在透视图上显示热图的装置和方法 | |
| JP2012057974A (ja) | 撮影対象サイズ推定装置及び撮影対象サイズ推定方法並びにそのプログラム | |
| JP5769755B2 (ja) | 画像処理システム、画像処理装置及び画像処理方法 | |
| US10068339B2 (en) | Image processing device, image processing system, image processing method and image processing program | |
| JP2013207745A (ja) | 画像撮像装置、画像処理方法およびプログラム | |
| EP3278709B1 (en) | Medical observation device, information processing method, program and video microscope device | |
| US10634891B2 (en) | Medical observation device, lens driving control device, lens driving control method, and video microscope device | |
| TWI491244B (zh) | 調整物件三維深度的方法與裝置、以及偵測物件三維深度的方法與裝置 | |
| TWI502271B (zh) | 控制方法及電子裝置 | |
| JP2013171494A (ja) | 画像処理装置および方法、並びにプログラム | |
| EP4589530A1 (en) | Binocular image generation method and apparatus, electronic device and storage medium | |
| CN102740100A (zh) | 显示控制设备、显示控制方法和程序 | |
| KR20250161550A (ko) | 개인화된 머리 전달 함수의 생성에 사용하기 위한 3d 랜드마크의 재구성에 기초한 이미지 | |
| JP2017011397A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| JP5962125B2 (ja) | 表示装置、同期方法及びプログラム | |
| CN114390267A (zh) | 立体图像数据合成方法、装置、电子设备及存储介质 | |
| JP5981460B2 (ja) | 立体シーンにおける焦点面の位置を管理するためのデバイスおよび方法 | |
| JP2024173424A (ja) | 情報処理装置、情報処理方法、撮像システム、及びプログラム | |
| JP2017228873A (ja) | 画像処理装置、撮像装置、制御方法およびプログラム |
