【0001】
【発明の属する技術分野】
本発明は、画像処理装置及びそれを備えた撮影システムに関し、特に、所定の照明条件下で連続的に撮影した被写体の撮影画像から他の照明条件下で見込まれる撮影画像を生成する技術に関するものである。
【0002】
【従来の技術】
従来の仮想スタジオシステムでは、合成元となる予め用意された映像(背景映像)と、該背景映像と同等の照明条件をスタジオ内で再現し、この照明条件の元で撮影された出演者(被写体)の映像とを合成することによって、リアルタイムで違和感のない合成映像を得ていた。
【0003】
しかしながら、刻一刻と変化する照明条件をスタジオ内で連続して再現することは不可能であり、また、スタジオ内で再現可能な照明条件は限られたものとなる。このために、刻一刻と変化する照明条件やスタジオで再現不可能な背景映像を用いた仮想スタジオシステムでは、代表的な照明条件を再現し、出演者はこの代表的な照明条件で演技を行うことによって、違和感の小さい合成映像を得る構成となっていた。
【0004】
一方、近年のCG(コンピュータグラフィック)技術の進展に伴い、背景映像に表現される照明条件も複雑なものとなっており、背景映像に合致した照明条件をスタジオ内で再現することが困難である。
【0005】
この問題を解決する技術として、出演者を撮影した映像を3次元CG処理することによって、背景映像と同等な照明条件の映像を生成することが検討されている。この3次元CG技術を用いた方法では、所定の照明条件で撮影された出演者の映像から出演者の形状及び表面の反射特性(テクスチャ)を作成し、背景映像の照明条件に合致するように出演者の映像を加工するものである。
【0006】
【発明が解決しようとする課題】
本発明者は、前記従来技術を検討した結果、以下の問題点を見いだした。
被写体形状および表面の反射特性を作成することは非常に煩雑な作業が必要であり、現実味のあるリアルな3次元CG映像を作成するためには、作成者の高い能力や膨大な作業時間が必要となっていた。
【0007】
このために、映画や録画映像のように、撮影から放送(放映)までの期間に、3次元CG映像の作成に要する時間を確保することができる場合には適用可能である。しかしながら、生放送のようにテレビカメラで撮影した映像を順次放送する場合には、テレビカメラが次の映像の撮影を終了するまでに3次元CG映像の作成を終了する必要があるので、生放送の番組には適用できないという問題がった。
【0008】
ただし、従来の被写体表面における反射特性の計測方法は、例えば暗室に被写体を設置し、光源情報のわかるものを一点に設置した環境下で、その設置位置が既知である計測装置によって計測するものであった。また、従来の被写体表面の反射特性の推定方法には、例えば、特願2001−145192(以下、文献1と記す)に開示される被写体表面の反射特性計測装置があった。
【0009】
本発明の目的は、所定の照明条件の映像を実時間で順次生成することが可能な技術を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかになるであろう。
【0010】
【課題を解決するための手段】
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記のとおりである。
【0011】
(1)、入力画像として映像される被写体の反射係数を演算する反射係数演算手段と、前記入力画像と異なる照明条件を設定する新規照明条件設定手段と、前記設定された照明条件と前記反射係数とに基づいて、前記入力画像から前記新規照明条件設定手段で設定される照明条件の画像を生成する照明条件付加手段とを有する画像処理装置において、前記入力画像は前記被写体の奥行き情報を含む画像からなり、前記反射係数演算手段は、前記被写体の奥行き情報に基づいて前記入力画像から鏡面反射領域を特定し鏡面反射画素を補正する補正手段と、前記補正された入力画像から前記被写体の反射係数を演算する拡散反射係数演算手段とを備えた。
【0012】
(2)被写体の奥行き情報を含む撮影画像を撮影する撮影手段と、前記撮影画像に映像される前記被写体の反射係数を演算する反射係数演算手段と、前記画像と異なる照明条件を設定する新規照明条件設定手段と、前記設定された照明条件と前記反射係数とに基づいて、前記撮影画像から前記新規照明条件設定手段で設定される照明条件の画像を生成する照明条件付加手段とを有する撮影システムにおいて、前記反射係数演算手段は、前記被写体の奥行き情報に基づいて前記撮影画像から鏡面反射領域を特定し鏡面反射画素を補正する補正手段と、前記補正された撮影画像から前記被写体の反射係数を演算する拡散反射係数演算手段とを備えた。
【0013】
前述した手段によれば、入力画像として被写体の奥行き情報を含む画像が入力されると、まず、被写体の奥行き情報に基づいて、補正手段が入力画像から鏡面反射領域を特定し、この領域内の画素である鏡面反射画素を補正する。次に、補正手段により補正された入力画像から、拡散反射係数演算手段が被写体の反射係数を演算する。この後に、新規照明条件設定手段で設定された照明条件と、拡散反射係数演算手段で演算された反射係数とに基づいて、照明条件付加手段が鏡面反射の影響が補正された入力画像から新規照明条件の画像を生成する構成となっている、すなわち膨大な演算が必要となる鏡面反射係数の算出処理を必要としない構成となっているので、所定の照明条件の映像を実時間(リアルタイム)で順次生成することが可能となり、1フレーム期間内での画像処理を実現できる。
【0014】
従って、被写体の奥行き情報を含む撮影画像を撮影する撮影手段で撮影された撮影画像を入力画像とすることによって、所定の照明条件の映像を実時間(リアルタイム)で順次生成する、1フレーム期間内での画像処理が可能な撮影システムを構成できる。
【0015】
【発明の実施の形態】
以下、本発明について、発明の実施の形態(実施例)とともに図面を参照して詳細に説明する。
なお、発明の実施の形態を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
【0016】
(実施の形態1)
図1は本発明の実施の形態1の撮影システムの概略構成を説明するための図である。ただし、以下の説明では、周知のビデオカメラの撮影と同じ赤、青、緑の色毎の2次元の輝度分布画像を、例えば30分の1秒毎に順次撮影し出力する装置をRGBカメラと記す。
図1において、101は被写体、102は計測部、103は半透鏡(ハーフミラー)、104は照明光源、105はレンズ、106は奥行き抽出RGBカメラ、107は法線推定部、108は入射光量推定部、109は閾値設定部、110は照明効果除去部、111は新規照明条件設定部、112は新規照明条件付加部、113は分光測色計、114は領域Aを示す。
【0017】
図1から明らかなように、実施の形態1の撮影システムでは、被写体101となる出演者を照明するための照明光源104と、この照明光源104から照射される照明光を出演者側に照射するハーフミラー103と、照明光源104から照射される照明光のRGBの各色毎の分光特性を計測する分光測色計113と、被写体101の体表で反射されハーフミラー103を介して入射された光線(出演者の光学像)を結像させるレンズ105と、出演者の光学像を撮影する奥行き抽出RGBカメラ106とから計測部102が形成される。
【0018】
ただし、実施の形態1の奥行き抽出RGBカメラ106は、RGBカメラで得られる画像の座標毎に、レンズ主点から被写体までの奥行き距離が例えば30分の1秒毎に実時間で順次に得られる周知のカメラである。また、RGBの3枚の画像の内の少なくとも一枚のRGB画像に対応する奥行き情報の集まりを、撮影奥行き画像と記す。さらには、実施の形態1では、奥行き距離が30分の1秒毎に得られることが必要条件ではなく、60分の1秒毎以外にもさらに高速なものや、あるいは低速なものでも適用可能であることはいうまでもない。この機能を有するカメラ(奥行き抽出RGBカメラ106)については、既にいくつかの手法が実用化されており、周知のアクシビジョンと称されるテレビカメラや、2台のカメラを所定間隔で配置したステレオカメラによる手法などがあるが、実施の形態1では、他の手法を適用したカメラでも適用可能なことはいうまでもない。しかしながら、得られるRGB画像の各画素の奥行き情報が、1対1の対応で得られる必要がある。すなわち、RGB画像を取得する際のレンズ主点と奥行き情報を得るためのレンズ主点は同一位置となる必要がある。
【0019】
また、実施の形態1の撮影システムでは、奥行き抽出RGBカメラ106で撮影された奥行き画像(撮影奥行き画像)から各画素位置での法線ベクトルを演算する法線推定部107と、法線ベクトルに基づいて出演者の体表面における照明光の入射光量を演算する入射光量推定部108と、奥行き抽出RGBカメラ106で撮影されたRGBの各色毎の映像及び分光測色計113で計測されたRGBの各色毎の分光特性並びに各画素毎の入射光量情報及び閾値情報に基づいて反射係数情報を演算する照明効果除去部110と、閾値を設定する閾値設定部109と、法線情報及び反射係数情報に基づいて新規照明条件で画像を生成する新規照明条件付加部112と、この新規照明条件付加部112に新たな照明条件を設定する新規照明条件設定部111とから画像情報の処理部が形成される。
【0020】
従って、実施の形態1の撮影システムでは、照明光源104から照射された照明光で撮影された光学像(奥行き情報を有する撮影奥行き画像)に基づいて、まず、法線推定部107により前記撮影奥行き画像の各画素における法線ベクトルが演算され、得られた法線ベクトルが入射光量推定部108に入力される。入射光量推定部108に入力された法線ベクトルは、出演者の体表面における照明光の入射光量を演算する際の基準データとされ、入射光量推定部108により撮影奥行き画像と法線ベクトルとに基づいた照明光の入射光量が演算され、得られた入射光量が照明効果除去部110に出力される。この入射光量推定部108で得られた入射光量と、照明光源104から照射された照明光で撮影されたRGBの光学像(撮影RGB画像)と、閾値設定部109からの閾値に基づいて、照明効果除去部110により撮影RGB画像中での各画素毎の反射係数が算出され、反射係数情報として新規照明条件付加部112に出力される。
【0021】
このとき、実施の形態1の撮影システムでは、法線推定部107からの法線情報と、新規照明条件として新規照明条件設定部111からの新規照明条件情報とが、新規照明条件付加部112に入力される構成となっている。従って、実施の形態1の新規照明条件付加部112では、各画素毎の反射係数、法線情報及び新規照明条件に基づいて、撮影RGB画像の各画素毎に彩度及び輝度情報を演算して、新規照明条件に適合した画像(出力画像)を生成する。
【0022】
このように、実施の形態1の撮影システムでは、被写体101の奥行き情報に基づいて算出された法線ベクトルを基準として、入射光量及び各画素における反射係数が算出されると共に、この法線ベクトル情報に基づいて新規の照明条件での撮影RGB画像が生成される構成となっている。すなわち、リアルタイムで1フレーム期間内での画像処理を実現することが可能となる。
【0023】
次に、実施の形態1の撮影システムの各部の詳細構成を説明する。
【0024】
(計測部)
図2は、実施の形態1の計測部の光学的構成を説明するための図である。ただし、以下の説明では、RGBカメラ(奥行き抽出RGBカメラ106)をピンホールカメラと想定した場合のピンホール位置をレンズ主点201と記す。また、照明光源104を点光源と想定した場合の光源位置を照明主点202と記す。
【0025】
実施の形態1の計測部102では、被写体101に対し、ハーフミラー103を用いて仮想的に同一光軸上に被写体101を撮影する奥行き抽出RGBカメラ106、および照明光源104が設置される構成となっている。この際、奥行き抽出RGBカメラ106のレンズ主点201と、照明光源104の照明主点202とは、被写体101からの光路長が図2のL1,L2,L3を用いて、下記(式1)に示すように、同一となるように設置する。
【0026】
【式1】
L1+L2=L1+L3 ・・・・(式1)
このように、実施の形態1の撮影システムでは、レンズ主点201と照明主点202とが一致する配置で計測部102を形成することにより、被写体101の形状によっては、被写体101自身により照明光が遮蔽され、被写体101の表面に影が撮影されてしまうことを防止する構成となっている。すなわち、レンズ105と照明光源104の主点201,202が一致していないことに起因する被写体101自身の影が撮影画像中の被写体上に生じることとなるが、前記した計測部102の形成により後述する画像処理過程における陰部分の演算精度の低下を防止するものである。
【0027】
ここで、ハーフミラー103を用いる目的の一つは、照明光源104から照射される照明光を、ハーフミラー103による反射を介して被写体101に照射するためである。また、ハーフミラー103を用いる他の目的は、被写体像のハーフミラー103による透過を利用して、奥行き抽出RGBカメラ106で撮影を行うためである。奥行き抽出RGBカメラ106には、カメラ側から赤外線を被写体101に投光し、その反射光を撮像する必要のある手法があるが、この点についても、ハーフミラー103が透過する性質を利用することで、奥行き抽出RGBカメラ106の機能を制限することは無い。
【0028】
また、実施の形態1では、ハーフミラー103を用いた場合に説明するが、ハーフミラー103の代わりに、周知の光学プリズムを用いることにより、同一の機能を実現することは可能である。また、レンズ主点201と照明主点202とが同一となるような条件が得られる場合には、ハーフミラー103やカメラのレンズ105などの被写体に対する前後関係が、図1に示す構成と異なっても問題ない。例えば、図3に示すように、ハーフミラー103をレンズ105と奥行き抽出カメラ106との間に配置してた場合であっても、実施の形態1の計測部102を構成可能となる。
【0029】
特に、図3に示すように、レンズ105、ハーフミラー103及び奥行き抽出RGBカメラ106を配置した場合、図2に示す構成に比較して、照明光源104の主点である照明主点202と、奥行き抽出RGBカメラ106に光学像を結像させるためのレンズ105の主点であるレンズ主点201とを合致させるために必要となる照明光源104の移動量が少なくできるので、装置全体を小型化できるという効果を得ることも可能となる。従って、専用システムとして構成する場合は、計測部102は、図3に示すように、被写体101の側からレンズ105、ハーフミラー103、奥行き抽出RGBカメラ106の順に配置した構成がよい。
【0030】
一方、図1に点線で示す領域A114以外の部分を組み込み接続する形態とすることによって、普段は奥行き抽出RGBカメラ106として使用し、本願発明の目的を達成したい場合にのみ、奥行き抽出RGBカメラ106を多目的に利用できる。
【0031】
(法線推定部)
実施の形態1の法線推定部107は、計測部102から得られた撮影奥行き画像における被写体101の各部位の法線ベクトルを推定する手段である。ただし、以下の説明では、法線ベクトルとは被写体101の表面に垂直なベクトルであり、面の向きを表すものである。特に、実施の形態1では、撮影奥行き画像を構成する各画素における法線ベクトルを推定する。当該画素の法線ベクトルは、当該画素と周辺の画素との奥行き情報を用いることで演算できる。
【0032】
例えば、計測部102で得られた撮影奥行き画像が、横640画素,縦480画素で図4の(a)に示すように構成されている場合には、画像の左下の2次元座標を基準位置(0,0)とする。任意の画素をこの左下の座標を基準に画素数の距離で座標を与えるものとする。
【0033】
2次元座標(100,100)の法線ベクトルを計算する場合には、図4の(b)に示すように、当該画素である(100,100)の奥行き情報と、当該画素に隣接する画素として周囲4画素(座標(100,101)、(99,100)、(101,100)、(100,99))の情報を用いる。まず、それぞれの2次元座標と奥行き情報とは、レンズ主点201を原点とした3次元座標に変換可能となるので、実施の形態1では予め3次元座標に変換する。次に、当該画素と周囲画素とに対応する3次元座標がなす線分をそれぞれ求める。さらに、隣り合う線分同士で外積を求めることによって、線分が成す平面の法線ベクトルが求まる。この演算により4つの法線ベクトルが求まるが、実施の形態1では、4つの法線ベクトルを平均し正規化することで、当該画素の法線ベクトルとする構成となっている。ただし、法線ベクトルの計算手法は限定しないが、前述するようなコンピュータグラフィックス分野で用いられている一般的な計算手法で実現できる。また、法線推定部107で得られた法線ベクトル情報および3次元座標は、それぞれ次段の入射光量推定部108に送られる。
【0034】
(入射光量推定部)
実施の形態1の入射光量推定部108は、被写体101の各部位への入射光量を推定する手段である。ただし、入射光量の推定には、照明光源104からの距離と照明光の被写体101への入射角とが必要となる。
【0035】
従って、実施の形態1の撮影システムでは、入射角度および照明光源104からの距離は、前段の法線推定部107で得られた被写体101の各部位の法線ベクトル情報と3次元座標とを用いて求める構成となっている。このとき、前段である放線推定部107で得られた3次元座標は、レンズ主点201すなわち照明主点202が原点になっており、法線ベクトル情報とともに用いることで容易に照明の入射角度が推定できる。また、照明光源104から被写体101の各部位までの距離についても、各部位の3次元座標と原点(0,0,0)との間の距離を求めることで推定可能である。例えば、被写体101の所定部位の座標を(x1,y1,z1)、その法線ベクトルを(x2,y2,z2)とした場合、入射角度θは(x1,y1,z1)、(x2,y2,z2)をベクトルとした場合の内積から求まる。
【0036】
まず、照明光源104からの距離L1は、下記の式2となる。
【0037】
【数1】
L1=(X1 2+y1 2+z1 2)1/2 ・・・・(式2)
照明光源104から距離L1離れた場合の照明の光強度が距離L1の2乗に反比例することから照明光源104の光強度の基準をpとすると、距離L1離れた場所への光強度p1は、下記の式3となる。
【0038】
【数2】
p1=p/L12 ・・・・(式3)
また、被写体への入射光量Iは、コンピュータグラフィックスの分野で古典的なLambertの余弦則から、下記の式4となる。
【0039】
【数3】
I=p1/cosθ ・・・・(式4)
入射光量推定部108では、以上に説明した演算により、入射光量Iを画像の全画素にわたって計算し、得られた入射光量Iを次段の照明効果除去部110に送る。
【0040】
(照明効果除去部)
実施の形態1の照明効果除去部110は、計測部102で得られた撮影RGB画像と、前段の入射光量推定部108で得られた入射光量Iとを用いて、照明効果を除去した被写体101の表面の反射係数を求める手段である。
【0041】
被写体101からの反射光の成分は、これまで種々提案されている反射モデルごとに異なる分類がなされている。しかし、その多くは経験的に広く用いられている2色性反射モデルに基づき、鏡面反射成分と拡散反射成分とに大別されている。鏡面反射成分は、一部の被写体領域で拡散反射成分に比べ極端に支配的となる現象を引き起こし、照明効果の除去を行う上で妨害となる。この領域は、ハイライト領域と呼ばれている。
【0042】
これらの反射成分(鏡面反射成分と拡散反射成分)は、多様に提案されている反射モデル毎に表し方が異なる。拡散反射成分については、多くの反射モデルで照明光の入射角度に依存したLambertの余弦則が用いられており、実施の形態1においても、同様に利用する。一方、鏡面反射成分は、照明光の入射角度との関係だけでは容易に表せず、なんらかの反射モデルに当てはめたとしても高品質、高速かつ被写体101の材質を選ばず万能的に適用できる除去手法は未だない。従って、実施の形態1の照明効果除去部110では、反射モデルを考慮しない手法として、ハイライト領域を推定し、その周りの画素値で内挿する仕組みを組み込んだ構成となっている。ただし、将来、より高品質で精度の良い鏡面反射成分の除去手法が提案されれば、実施の形態1に組み込むことが可能であることはいうまでもない。
【0043】
鏡面反射をしている部位の特徴は、画像中で比較的明るくかつ物体の色よりも光源色が支配的になる。例えば、白色照明下にある赤い物体色の表面で鏡面反射を起こしている部位は白く輝いて見える。この様な領域はハイライト領域と称されており、被写体101の反射係数推定の妨害となる。また、被写体101の材質に依存するが、被写体101の表面への照明光の入射角と被写体101の表面からカメラ側への反射光の出射角度とが近い値であると、鏡面反射が生じやすくなることが知られている。すなわち、実施の形態1の光学的条件下では、図5に示すように、レンズ主点201から被写体101の各部位に伸ばした直線L4に対して、被写体101の表面が垂直であるほど鏡面反射を生じやすくなる。
【0044】
従って、実施の形態1の照明効果除去部110では、前述した性質から次の3つの判定基準を複合的に用いて、鏡面反射部分すなわちハイライト領域を判定する構成となっている。
(直線L4に対する判定に用いる値)
まず、レンズ主点201から被写体101の各部位に伸ばした直線L4と、被写体101の表面の法線ベクトルとがなす角度をθaとする。このθaは被写体101の法線ベクトル情報および3次元座標より算出できる。
(色の判定に用いる値)
次に、当該被写体部位の色と光源色の比較とは、以下のように行う。予め光原色の赤、青、緑の分光特性を計測しておき、図6に示すように、赤、青、緑の強度を軸とする3次元座標上に正規化して、点S1として投影する。一方、奥行き抽出RGBカメラ106で撮影した撮影RGB画像から被写体101の当該部位の赤、青、緑の各成分を、赤、青、緑の強度を軸とする3次元座標上に正規化して、点S2として3次元座標上に投影する。このときの光源色点S1と被写体当該部位の色点S2との3次元座標上での距離を求め、この距離をn1とする。このように距離n1を設定することにより、距離n1が小さいほど色が似通っていると判定できる。ただし、実施の形態1では、予め光源色の分光特性を計測し、この計測値を用いる構成としているが、比較基準をこれに限定するものではなく、計測部内の照明近くあるいは図1に示すような部位に分光測色計113を内蔵し、直接に労力を掛けずに分光特性を自動で計測し、利用することも可能である。
(明るさの判定に用いる値)
図7に示すように、奥行き抽出RGBカメラ106で撮影した撮影RGB画像の輝度値のピーク値Imaxと、全画素の輝度値に対するヒストグラムとを作成し、最も明るい輝度値Imaxから一つ目のヒストグラム上のピークとなる輝度値Ipeakを演算する。次に、Ipeak−(Imax−Ipeak)なる輝度値をIsとする。このように輝度値Isを設定することによって、鏡面反射によるハイライト部分が、輝度値Ipeakを中心かつ最大値としたガウス関数で表せる分布に近似出来るので、輝度値Ipeakを中心にIpeak−Imax間を折り返した左右対称の分布となる。ただし、輝度値Isは輝度値Imaxを折り返した部分に相当する。
(3つの判定基準の利用)
3つの判定基準に対し、予め手動で第1〜第3の閾値Th1,Th2,Th3を閾値設定部109により設定しておく。
【0045】
まず、奥行き抽出RGBカメラ106で撮影した撮影RGB画像の各画素の角度θaと第1の閾値Th1とを比較し、角度θaが第1の閾値Th1より小さい場合には、鏡面反射による反射が支配的な部位とみなし、この条件を満たす領域の情報R1を保存する。
【0046】
次に、R1の領域に限り、領域内の全画素の輝度値Ioutと輝度値Isとの差分値Idiffを、下記の式5より求める。
【0047】
【数4】
Idiff=Iout−Is ・・・・(式5)
差分値Idiffが第2の閾値Th2よりも大きい場合は、鏡面反射による反射が支配的な部位とみなし、この条件を満たす領域の情報R2を保存する。
【0048】
最後にR2の領域に限り、領域内の全画素について距離n1を求める。ここで、距離n1が第3の閾値Th3より小さい部分は、鏡面反射による反射が支配的な部位とみなし、この条件を満たす領域の情報R3を保存する。
【0049】
最終的にR3の領域を鏡面反射が支配的な部位とみなす。ここで、R3の領域について、一般的な画像処理手法であるセグメンテーション処理を行い、R3の領域を画像中で最小面積の閉区間に分割し、それぞれ領域ごとに周りの画素値でその領域の画素値を置き換える。
【0050】
以上のように鏡面反射が原因となる反射係数が処理された撮影RGB画像について、実施の形態1の撮影システムでは、以下に示す手順で拡散反射が原因となる反射係数を演算する。
拡散反射光Idは、入射光をIで拡散反射係数をKdで表すと、下記の式6及び式7となる。
【0051】
【数5】
Id=Kd×I ・・・・(式6)
Kd=Id/I ・・・・(式7)
拡散反射光Idに対応する観測された撮影RGB画像の赤成分、青成分、緑成分を(Cr,Cb,Cg)とし、入射光Iの赤成分、青成分、緑成分を(Ir,Ib,Ig)とすると、拡散反射係数Kdの赤成分、青成分、緑成分(Kr,Kb,Kg)は、下記の式8〜式10により計算される。
【0052】
【数6】
Kr=Cr/Ir ・・・・(式8)
Kb=Cb/Ib ・・・・(式9)
Kg=Cg/Ig ・・・・(式10)
この得られた拡散反射係数(Kr,Kb,Kg)は、照明効果を除去した情報として、次段の新規照明条件付加部112に送られる。
【0053】
図8は実施の形態1の照明効果除去部の概略構成を説明するための図である。ただし、801は照射入射角判定部(第1の領域特定手段)、802は色判定部(分光特性演算手段、第2の領域特定手段)、803は明るさ判定部(輝度値演算手段、第3の領域特定手段)、804は領域内挿部(補正手段)、805は拡散反射光除去部(拡散反射係数演算手段)を示す。
【0054】
図8において、照明入射角判定部801は、入射光量推定部108からの入射光量情報、法線推定部107からの法線ベクトルと3次元位置情報、奥行き抽出RGBカメラ106からの撮影RGB画像、及び閾値設定部109からの第1の閾値Th1が入力される構成となっており、前述する「直線L4に対する判定に用いる値」に記載した判定処理を行う手段である。この照明入射角判定部801で得られた領域情報R1は、色判定部802に入力される。
【0055】
色判定部802は、入射光量推定部108からの入射光量情報、法線推定部107からの法線ベクトルと3次元位置情報、奥行き抽出RGBカメラ106からの撮影RGB画像、及び閾値設定部109からの第2の閾値Th2が入力される構成となっており、前述する「色の判定に用いる値」に記載した判定処理を行う手段である。ただし、色判定部802は、前述するように、照明入射角判定部801から入力される領域情報R1に基づいて、照明入射角判定部801で得られた領域に対してのみ判定処理を行う。この色判定部802で得られた領域情報R2は、次段の明るさ判定部803に入力される。
【0056】
明るさ判定部803は、入射光量推定部108からの入射光量情報、法線推定部107からの法線ベクトルと3次元位置情報、奥行き抽出RGBカメラ106からの撮影RGB画像、及び閾値設定部109からの第3の閾値Th3が入力される構成となっており、前述する「明るさの判定に用いる値」に記載した判定処理を行う手段である。ただし、明るさ判定部803は、前述するように、色判定部802から入力される領域情報R2に基づいて、色判定部802で得られた領域に対してのみ判定処理を行う。この明るさ判定部803で得られた領域情報R3は、次段の領域内挿部804に入力される。
【0057】
領域内挿部804は、明るさ判定部803で得られた領域情報R3に基づいて、撮影RGB画像の当該領域をその周囲の画素値で内挿する手段であり、この内挿処理は、前述する「3つの判定基準の利用」に記載した処理である。この領域内挿部804で得られた内挿処理後の撮影RGB画像は、次段の拡散反射光除去部805に入力される。
【0058】
拡散反射光除去部805は、前述する式8、式9、式10に基づき拡散反射係数を計算する手段であり、得られた拡散反射係数(Kr,Kb,Kg)が、照明効果除去部110の出力として、新規照明条件付加部112に入力される。
【0059】
(閾値設定部)
照明効果除去部110で用いる第1〜第3の閾値Th1,Th2,Th3を設定する手段である。例えば、閾値の設定釦としてつまみ状のボリュームを3つ配置し、これらを操作することで各閾値を手動で設定することが可能となる。この第1〜第3の閾値Th1,Th2,Th3の設定は、使用前あるいは使用中に出力画像を見ながら、操作者の判断で行うことが可能である。ただし、本願発明では、このユーザインターフェースを限定しない。また、計測部内の分光測色計より照明の輝度値I1を求め、この輝度値I1に比例するように第2の閾値Th2を自動的に設定するなど、自動的にこれらの閾値を設定することも可能であることはいうまでもない。
【0060】
(新規照明条件設定部)
新規照明条件設定部111は、必要とされる照明条件を設定する手段である。実施の形態1の新規照明条件設定部111では、設定項目は、照明の数、3次元空間での配置、配光特性、色温度などを設定することが可能となっている。
【0061】
これらの設定項目は、周知のコンピュータグラフィックスによる画像を製作する上で必要となる項目で、一般的なコンピュータグラフィックス用ソフトウェアの機能の一部と同等の機能を、新規照明条件設定部111に組み込むことでも実現可能である。特に、実時間で順次照明条件を変更する必要がない場合には、予め決定されている照明条件を送り続ける仕組みでも良い。また、照明条件の設定の類の操作性に慣れていない人でも直感的に操作が可能とする場合には、例えば、照明の方向のみを周知のジョイスティックで指定し、指定された方向の情報を次段の新規照明条件付加部112に順次送るような構成でもよい。さらには、設定項目を限定することも可能である。
【0062】
また、テレビ番組の映像制作手法である仮想スタジオシステムと組み合わせて用いることも可能である。ただし、仮想スタジオシステムとは、被写体101を撮影しているカメラと同一の条件で背景となるコンピュータグラフィックス映像を生成し、この生成された画像とカメラで撮影された被写体画像とを合成し、あたかもコンピュータグラフィックスで生成した映像上に被写体101が存在するかのような映像効果を生成するシステムである。このコンピュータグラフィックスで生成している背景映像の照明条件は、コンピュータの中に設定してあるので、この設定条件を本手法の新規照明条件設定部111に与えることが可能である。
また、実際の日時あるいは使用者が指定した日時に応じた屋外の照明条件を物理法則に則り推定し、次段の新規照明条件付加部112に送ることも可能である。
【0063】
実施の形態1では、このユーザインターフェースについては限定しないが、照明条件を実時間で、順次次段の新規照明条件付加部112に送る必要があることはいうまでもない。
【0064】
(新規照明条件付加部)
新規照明条件付加部112は、法線推定部107からの法線ベクトル情報、照明効果除去部110からの反射係数(鏡面反射係数と拡散反射係数)、及び新規照明条件設定部111からの新規照明条件の情報が入力される構成となっており、これらの入力情報に基づいて、新規照明条件で見込まれる被写体映像を生成し出力する手段である。ただし、新規条件の被写体映像の生成は、周知のコンピュータグラフィックスで用いられる一般的な手法で実現できるので、詳細な説明は省略する。
【0065】
ここで、新規照明条件設定部111に仮想スタジオシステムから得られる照明条件を与えた場合、仮想スタジオシステムで生成したコンピュータグラフィックス映像と同一の照明条件の被写体映像が生成できる。このとき、奥行き情報を利用して、被写体101と仮想スタジオの背景に用いるコンピュータグラフィックスのセットとの前後関係を判定する手段を設けることによって、コンピュータグラフィックスのセットより前に位置する被写体101の領域のみを、コンピュータグラフィックスのセットによる背景映像に合成することが可能となるので、被写体101が背景映像を撮影した場所とは異なる場所にいる場合であっても、被写体101が背景映像の撮影位置で撮影しているような効果(合成効果)が得られる。
【0066】
なお、以上説明を行った装置のカメラや同期発生器は、30分の1秒や60分の1秒を基準に説明を行ったが、NTSC信号の機器を用いた場合は同期信号が59.94Hzであるので、59.94分の1秒あるいは2/59.94秒となることはいうまでもない。また、高速度カメラや、長時間露光カメラなど、様々な周波数のビデオカメラが存在するが、本願発明はその周波数を限定するものではなく、画像を構成する最小単位毎に処理が順次繰り返されるように構成することによって、他の周波数の撮影カメラを用いた撮影システムにも適用可能である。
【0067】
また、以上に説明した実施の形態1の撮影システムでは、被写体101は暗室にあり、計測部102にある照明以外の照明が存在しない環境で被写体101の映像を撮影する必要があることはいうまでもない。
【0068】
以上説明したように、実施の形態1の撮影システムでは、照明光源104から照射された照明光のもと、奥行き抽出RGBカメラ106を用いて撮影された撮影奥行き画像に基づいて、法線推定部107が撮影奥行き画像の各画素における法線ベクトルを演算し、入射光量推定部108が入力された法線ベクトルから出演者である被写体101の体表面における照明光の入射光量を演算し、照明効果除去部110が入射光量推定部108で得られた入射光量と、照明光源104から照射された照明光で撮影された撮影RGB画像と、閾値設定部109からの第1〜第3の閾値Th1,Th2,Th3に基づいて、撮影RGB画像中での各画素毎の反射係数を算出し、新規照明条件付加部112が反射係数に基づいて新規照明条件での被写体映像を生成し出力する。
【0069】
このとき、実施の形態1の撮影システムでは、被写体101の反射特性すなわち反射係数を演算する照明効果除去部110が、照射入射角判定部801、色判定部802、明るさ判定部803、領域内挿部804、及び拡散反射光除去部805で構成されている。
【0070】
ここで、鏡面反射に係わる演算として、まず、照明入射角判定部801が入射光量情報、法線ベクトル、3次元位置情報、撮影RGB画像、及び第1の閾値Th1に基づいた領域の特定を行う。次に、照明入射角判定部801で特定された領域に対して、色判定部802が入射光量情報、法線ベクトル、3次元位置情報、撮影RGB画像、及び第2の閾値Th2に基づいた領域の特定を行う。次に、色判定部802で特定された領域に対して、明るさ判定部803が入射光量情報、法線ベクトル、3次元位置情報、撮影RGB画像、及び第3の閾値Th3に基づいた領域の特定を行う。次に、明るさ判定部803で特定された領域に対して、領域内挿部804が撮影RGB画像の当該領域をその周囲の画素値で内挿する。この後に、領域内挿部804でハイライト領域が内挿(補正)された撮影RGB画像に対して、拡散反射光除去部805が拡散反射光に係わる反射係数を演算する構成となっている。
【0071】
このように、実施の形態1の照明効果除去部110が奥行き抽出RGBカメラ106で得られた撮影RGB画像から鏡面反射の影響を取り除いた撮影RGB画像を生成する構成、すなわち膨大な演算が必要となる鏡面反射係数の算出処理を必要としない構成となっているので、所定の照明条件の映像を実時間(リアルタイム)で順次生成することが可能となり、特に1フレーム期間内での画像処理を必要とする生放送への適用が可能となる。
【0072】
(実施の形態2)
図9は本発明の実施の形態2の撮影システムの概略構成を説明するための図である。ただし、901は光学シャッタ、902は同期発生器、903は分周器、904は画像メモリ部、905は差分画像生成部を示す。また、以下の説明では、実施の形態1の撮影システムと構成が異なる、光学シャッタ901、同期発生器902、分周器903、画像メモリ部904、及び差分画像生成部905に係わる動作及びその効果について、詳細に説明する。
【0073】
図9から明らかなように、実施の形態1の撮影システムでは、被写体101となる出演者を照明するための照明光源104と、この照明光源104から照射される照明光を被写体101の側に照射するハーフミラー103と、照明光源104とハーフミラー103との間に配置されて照明光源104から出射される照明光の透過と遮蔽とを制御する光学シャッタ901と、照明光源104から照射される照明光のRGBの各色毎の分光特性を計測する分光測色計113と、被写体101の体表で反射されハーフミラー103を介して入射された光線(被写体101の光学像)を結像させるレンズ105と、被写体101の光学像を撮影する奥行き抽出RGBカメラ106と、奥行き抽出RGBカメラ106が備える外部同期入力端子に適合した同期信号を生成する同期発生器902と、同期発生器902からの同期信号を分周する分周器903とから計測部102が形成される。
【0074】
このように、実施の形態2の計測部102では、同期発生器902で生成された同期信号に同期して、奥行き抽出RGBカメラ106の撮影タイミングを制御する構成となっている。また、同期信号を分周器で分周した信号(分周信号)により、光学シャッタ901の動作を制御する構成となっている。従って、奥行き抽出RGBカメラ106による被写体101の撮影と、被写体101への照明とを同期させることが可能となっている。なお、計測部102の詳細については後述する。
【0075】
また、実施の形態1の撮影システムでは、奥行き抽出カメラ106で撮影された奥行き画像(撮影奥行き画像)から各画素位置での法線ベクトルを演算する法線推定部107と、法線ベクトルに基づいて出演者の体表面における照明光の入射光量を演算する入射光量推定部108と、奥行き抽出RGBカメラ106で撮影された撮影RGB画像を順次格納する画像メモリ部904と、画像メモリ部904から読み出した1フレーム(1撮影周期)分遅れた画像(遅延画像)と奥行き抽出RGBカメラ106で撮影された撮影RGB画像とからRGBの各色毎の差分画像を生成する差分画像生成部905と、差分画像生成部で生成されたRGBの各色毎の映像及び分光測色計113で計測されたRGBの各色毎の分光特性並びに各画素毎の入射光量情報及び閾値情報に基づいて反射係数情報を演算する照明効果除去部110と、閾値を設定する閾値設定部109と、法線情報及び反射係数情報に基づいて新規照明条件で画像を生成する新規照明条件付加部112と、この新規照明条件付加部112に新たな照明条件を設定する新規照明条件設定部111とから画像情報の処理部が形成される。
【0076】
このように、実施の形態2の処理部では、奥行き抽出RGBカメラ106で撮影された撮影RGB画像を画像メモリ部904に一旦格納し、この格納した撮影RGB画像とリアルタイムで撮影される撮影RGB画像との差分画像を順次差分画像生成部905で生成し、この差分画像を照明効果除去部110が用いる構成となっている。
【0077】
図9において、同期発生器902は、奥行き抽出RGBカメラ106のカメラ画像の撮像周波数である30分の1秒、あるいは60分の1秒単位の同期信号をパルスとして発生される周知の同期信号発生手段である。ただし、同期信号は奥行き抽出RGBカメラ106を構成するビデオカメラが有する外部同期入力端子に適合した波形であり、この同期信号がビデオカメラに入力される。このビデオカメラは入力した同期信号に同期して撮像するように調整する。ただし、一般的な業務用テレビカメラには外部同期入力端子あるいはゲンロック端子と呼ばれる外部同期信号を入力するための端子があり、内蔵されるPLL回路(PhaseLocked Loop:位相同期回路)により、外部同期信号に同期してカメラ内部回路用の同期信号を発生させるための発振を行う回路が組み込まれている。従って、実施の形態2における同期処理は容易に実現できる。
【0078】
また、分周器903は、30分の1秒あるいは60分の1秒の同期信号を2分周する手段であり、同期信号の半分の15分の1秒あるいは30分の1秒の周期の信号(分周信号)を生成する。特に、実施の形態2では、分周信号のデューティ比を50%のデジタル信号としておき、分周信号が入力される各部での判定が容易となるように、波形整形する。
【0079】
また、照明投光方向に対して垂直に配置される光学シャッタ901は、電気信号で開閉が可能な周知の光学シャッタであり、閉状態で光を遮断し、開状態で光を透過する構成となっている。また、実施の形態2の光学シャッタ901は、駆動信号あるいは制御信号として入力される分周信号が、High(1)の期間では閉状態となり、Low(0)の期間では開状態となる。なお、光学シャッタ901としては、機械式のシャッタや液晶シャッタを用いることにより、実施の形態2の光学シャッタを実現できる。
【0080】
画像メモリ部904は、奥行き抽出RGBカメラ106で撮影された撮影RGB画像を順次格納する手段であり、実施の形態2では、次の撮影RGB画像の入力タイミングで、格納している一つ前の入力タイミングで格納した撮影RGB画像を出力する構成となっている。すなわち、画像メモリ部904は、撮影RGB画像が入力し終わり、次の撮影RGB画像が奥行き抽出RGBカメラ106より送られてくると、そのタイミングで画像メモリに蓄えられた内容すなわち撮影RGB画像を、次段の差分画像生成部905に送る。すなわち、画像メモリ部904を通過した撮影RGB画像は、奥行き抽出RGBカメラ106から出力されるRGB画像に対して、画像一枚分遅れることとなる。
【0081】
差分画像生成部905は、奥行き抽出RGBカメラ106から直接に入力される現在の撮影RGB画像Gpと、画像メモリ部904から入力される画像一枚分遅延した画像Gdとの差の画像(差分画像)Gdiffを生成する手段である。特に、実施の形態2の差分画像生成部905では、下記の式11と式12とを同期発生器を分周器で2分周した信号を基に、30分の1秒あるいは60分の一秒ごとに切り替えることによって、差分画像Gdiffを得る構成となっている。
【0082】
【数7】
Gdiff=Gp−Gd ・・・・(式11)
Gdiff=Gd−Gp ・・・・(式12)
特に、実施の形態2の差分画像生成部905では、計測部102の照明光源104が点灯した際の画像が右辺の左の変数となり、消灯している際の画像が右辺の右の変数となるように制御する構成となっている。すなわち、点灯している状態の画像から点灯していない状態の画像を差し引くことで、計測部102内の照明光源104による反射光のみを、差分画像Gdiffとして取り出す構成となっている。
【0083】
これを実現するために、分周器903からの分周信号が0の際には式11、分周信号が1の際には式12を選択して差分画像を取得し、次段の照明効果除去部110に出力する。
【0084】
このような工夫を行うことで、計測部102以外の他の光源により被写体101が照明されている場合であっても、実施の形態1の撮影システムと同様の効果を得る構成となっている。
【0085】
図10は実施の形態2における奥行き抽出カメラによる撮影RGB画像の収集タイミングと照明光の照射タイミングとを説明するための図である。ただし、図10に示す画像名は、奥行き抽出RGBカメラ106で順次撮影される撮影RGB画像を示すものであり、本明細書中では1,2,3,4,5,6・・・の自然数で示される連続する番号を画像名とする。
【0086】
まず、図10に基づいて、計測部102における撮影RGB画像の撮影動作について説明する。
【0087】
前述するように、実施の形態2の計測部102では、奥行き抽出RGBカメラ106には同期信号が入力される構成となっているのに対して、光学シャッタ901には同期信号が2分周された分周信号が入力される構成となっている。従って、実施の形態2の計測部102では、同期信号に同期して奥行き抽出RGBカメラ106は同期信号の入力に同期して撮影を行うこととなる。
【0088】
一方、光学シャッタ901では、同期信号が2分周されたデューティ比50%の分周信号のHigh(1)期間とLow(0)期間に応じて、閉状態と開状態と順番に切り替わる構成となっている。すなわち、実施の形態2の光学シャッタ901では、同期信号に同期して照明光源104から照射された照明光の透過と遮蔽とが切り替え制御されることとなるので、照明光源104から被写体101への照明光の照射も同期信号に同期した照射となる。
【0089】
その結果、図10に示すように、画像1,2,3,4,5,6・・・と連続する撮影RGB画像の撮影が、同期信号に同期して動作する奥行き抽出RGBカメラによってなされた場合には、分周器903の出力である分周信号は、例えば画像1、3、5・・・を撮影中は1となり、画像2,4,6・・・を撮影中は0となる。従って、画像1、3、5・・・を撮影中すなわち分周信号が1の期間では、光学シャッタ901は閉じて照明光源104からの照明光を遮蔽するので、この照明光による被写体101の照明は行われないこととなる。これに対して、画像2、4、6・・・を撮影中すなわち分周信号が0の期間では、光学シャッタ901は開いて照明光源104からの照明光を透過するので、この照明光により被写体101が照明されることとなる。
【0090】
このように、実施の形態2の計測部102では、奥行き抽出RGBカメラ106の撮影周期(フレーム期間)毎に、照明光源104からの照明光で被写体101を照明した撮影RGB画像と、照明光源104からの照明光で被写体101を照明していない撮影RGB画像とを撮影する構成となっている。
【0091】
次に、図10に基づいて、処理部における出力画像の生成動作を説明する。ただし、照明効果除去部110に入力される画像データが異なる以外は、実施の形態1の処理部における出力画像の生成動作と同じとなる。従って、以下の説明では、画像メモリ部904及び差分画像生成部905による差分画像Gdiffの生成動作についてのみ詳細に説明する。
【0092】
奥行き抽出RGBカメラ106で撮影された撮影RGB画像は、順次画像メモリ部904に格納される。このとき、同じ撮影RGB画像が差分画像生成部905にも入力される。従って、図10に示す画像名1の撮影RGB画像が撮影された場合には、画像メモリ部904と差分画像生成部905には、この画像名1の撮影RGB画像が現在の撮影RGB画像Gpとして入力されることとなる。このとき、画像メモリ部904にはそれ以前の画像が格納されていないので、差分画像生成部905からの差分画像Gdiffの出力もなされないこととなる。
【0093】
次の撮影周期で画像名2の撮影RGB画像が撮影された場合には、画像メモリ部904と差分画像生成部905には、この画像名2の撮影RGB画像が現在の撮影RGB画像Gpとして入力されることとなる。このとき、まず、差分画像生成部905は画像メモリ部904から一つ前の撮影周期で撮影された画像となる、画像名1の撮影RGB画像を画像一枚分遅延した画像Gdとして読み出す。次に、差分画像生成部905は画像メモリ部904からの画像名1の撮影RGB画像(画像一枚分遅延した画像Gd)と、奥行き抽出RGBカメラ106からの画像名2の撮影RGB画像(現在の撮影RGB画像Gp)とから、その差分画像Gdiffを生成する。このときの演算は、前述するように、式11に従って、照明光源104からの照射光が照射されて撮影された画像である画像名2の撮影RGB画像(現在の撮影RGB画像Gp)から、照明光源104からの照射光が照射されないときに撮影された画像名1の撮影RGB画像(画像一枚分遅延した画像Gd)を減算することによって、差分画像Gdiffを生成する。
【0094】
次の撮影周期で画像名3の撮影RGB画像が撮影された場合には、画像メモリ部904と差分画像生成部905には、この画像名3の撮影RGB画像が現在の撮影RGB画像Gpとして入力される。このとき、差分画像生成部905は画像メモリ部904から一つ前の撮影周期で撮影された画像となる、画像名2の撮影RGB画像を画像一枚分遅延した画像Gdとして読み出す。次に、差分画像生成部905は画像メモリ部904からの画像名2の撮影RGB画像(画像一枚分遅延した画像Gd)と、奥行き抽出RGBカメラ106からの画像名3の撮影RGB画像(現在の撮影RGB画像Gp)とから、その差分画像Gdiffを生成する。このときの演算は、前述するように、式12に従って、照明光源104からの照射光が照射されて撮影された画像である画像名2の撮影RGB画像(画像一枚分遅延した画像Gd)から、照明光源104からの照射光が照射されないときに撮影された画像名3の撮影RGB画像(現在の撮影RGB画像Gp)を減算することによって、差分画像Gdiffを生成する。
【0095】
以上に説明した画像メモリ部904への現在の撮影RGB画像Gpの格納と、差分画像生成手段905による、式11もしくは式12に従った、照射光が照射されて撮影された撮影RGB画像から、照明光源104からの照射光が照射されないときに撮影された撮影RGB画像の減算処理を順次行うことにより得られた差分画像Gdiffは、照明効果除去部110に出力され、実施の形態1と同様の処理がなされることとなるので、実施の形態1の撮影システムと同様の効果が得られることとなる。
【0096】
また、実施の形態2では、以上に説明した画像メモリ部904への現在の撮影RGB画像Gpの格納と、差分画像生成手段905による、式11もしくは式12に従った、照射光が照射されて撮影された撮影RGB画像から、照明光源104からの照射光が照射されないときに撮影された撮影RGB画像の減算処理を順次行うことにより、計測部102の照明光源104による反射光のみを差分画像Gdiffとして取り出すことが可能となる。その結果、計測部102以外の照明光源104により、被写体101が照明されている場合であっても、暗室に被写体101を入れて撮影した実施の形態1の撮影システムと同様の効果が得られるという格別の効果を有する。
【0097】
(実施の形態3)
図11は本発明の実施の形態3の撮影システムにおける照明光源の概略構成を説明するための図である。ただし、実施の形態3の撮影システムは、計測部103を構成する奥行き抽出RGBカメラ106及び照明光源104の構成を除く他の構成は、実施の形態1もしくは実施の形態2の撮影システムと同様の構成となる。従って、以下の説明では、計測部102の構成について、詳細に説明する。
【0098】
図11において、1101はテレビカメラ、1102はレンズリモコン、1103は第1のA/D変換器、1104は第2のA/D変換器、1105はルックアップテーブル検索部、1106は主点位置情報電圧変換部、1107はサーボモータ、1108は回転軸、1109は摺動部、1110は光源ランプを示す。
【0099】
図11に示すように、実施の形態3の撮影システムでは、レンズリモコン1102から遠隔操作信号(例えば、電圧信号等)に応じて、奥行き抽出RGBカメラ106とレンズ105とからなるテレビカメラ1101の図示しないズーム機構及びフォーカス機構が動作して、テレビカメラ1101の撮影視野(画角)が任意に設定可能なテレビカメラ1101を用いることによって、奥行き抽出カメラ106とレンズ105とが構成されている。また、ズーム機構及びフォーカス機構を制御する遠隔操作信号は、第1及び第2のA/D変換器1103,1104に入力される構成となっている。
【0100】
第1及び第2のA/D変換器1103,1104では、レンズリモコン1102からの遠隔操作信号(レンズのズーム量及びフォーカス量)がデジタル信号に変換され、ルックアップテーブル検索部1105に出力される。このデジタル信号に変換されたズーム量及びフォーカス量が入力されたルックアップテーブル検索部1105は、ズーム量及びフォーカス量に応じた照明主点202の位置情報を格納する図示しないテーブルを参照して、ズーム量及びフォーカス量の組み合わせに適合した照明主点202を検索する。検索によって得られた照明主点202の位置情報は、主点位置情報電圧変換部1106により、サーボモータ1107を駆動する駆動電力に変換され、サーボモータ1107が駆動される。
【0101】
ここで、実施の形態3では、サーボモータ1107の回転軸1108にはネジ山が形成され、この回転軸1108のネジ山と摺動部1109のネジ山とが嵌合されている。その結果、回転軸1108の回転量に応じて、光源ランプ1110が取り付けられる摺動部1109が図中に矢印で示す方向(照明光源104の照明主点202が増減する方向)に移動して、光源ランプ1110の位置すなわち照明主点202の位置を移動させる構成となっている。
【0102】
従って、サーボモータ1107の駆動によって、光源ランプ1110と共に摺動部1109が回転軸1108に沿って移動し、光源ランプ1110がズーム量及びフォーカス量に応じた照明主点202に移動される。
【0103】
このように、実施の形態3の撮影システムでは、フォーカス量とズーム量とに対する主点(照明主点)の位置をルックアップテーブルに予め格納しておき、いわゆるリモコンズームレンズのリモコンであるレンズリモコン1102から出力される遠隔操作信号から、フォーカス量とズーム量に応じた照明主点202の位置を得る。次に、得られた照明主点202の位置情報に基づいて、光源ランプ1110を照明主点202に移動制御する構成となっているので、ズーム機能付きのテレビカメラ1101を使用した場合であっても、照明の死角をなくした撮影が可能となる。
【0104】
なお、実施の形態3の撮影システムでは、レンズリモコン1102から出力される遠隔操作信号を監視することによって、レンズ105のズーム量及びフォーカス量に対応したレンズ主点201に光源ランプ1110を移動させる構成となっているが、これに限定されることはなく、テレビカメラ1101のズーム量及びフォーカス量を直接検出し、この検出量に応じて照明主点202を移動させる構成でもよい。
【0105】
図12はテレビカメラのズーム量及びフォーカス量を直接検出する機構を備えた照明光源の概略構成を説明するための図である。以下、図12に基づいて、ズーム量及びフォーカス量の検出機構及び検出量に応じた照明主点202の移動を説明する。ただし、図12に示す照明光源104は、フォーカスリング1201、第1のロータリーエンコーダ1202、ズームリング1203、第2のロータリーエンコーダ1204、第1のカウンタ1205、及び第2のカウンタ1206を除く他の構成は、図11に示す実施の形態3の照明光源104と同様となる。
【0106】
図12に示すように、他の実施の形態3の撮影システムでは、テレビカメラ1101がフォーカスリング1201及びズームリング1203の移動量を検出する第1及び第2のロータリーエンコーダ1202,1204を備える構成となっている。すなわち、フォーカスリング1201の回転量を検出することによりフォーカス量を検出し、ズームリング1203の回転量を検出することによりズーム量を検出する構成となっている。
【0107】
第1のロータリーエンコーダ1202の出力は、第1のカウンタ1205により計数されており、その計数値がルックアップテーブル検索部1105に入力される構成となっている。また、第2のロータリーエンコーダ1204の出力は、第2のカウンタ1206により計数されており、その計数値もルックアップテーブル検索部1105に入力される構成となっている。
【0108】
ここで、第1及び第2のカウンタ1205,1206からの計数値に基づいて、ルックアップテーブル検索部1105がズーム量及びフォーカス量に応じた照明主点202の位置情報を格納する図示しないテーブルを参照して、ズーム量及びフォーカス量の組み合わせに適合した照明主点202を検索する。検索によって得られた照明主点202の位置情報は、主点位置情報電圧変換部1106により、サーボモータ1107を駆動する駆動電力に変換され、サーボモータ1107が駆動されることとなるので、前述する実施の形態3の照明光源104と同様にして、光源ランプ1110が照明主点202に移動する。その結果、照明の死角をなくした撮影が可能となる。
【0109】
このとき、この図12に示すように、フォーカスリング1201及びズームリング1203の回転量を機械的に読み出す構成とするほうが、図10に示す実施の形態3の構成よりも、ズーム量やフォーカス量によるレンズ主点201の位置を正確に把握することができるので、正確な制御が可能となる。
【0110】
ただし、図12に示す構成は、フォーカスリング1201及びズームリング1203の回転を取り出す機構及びロータリーエンコーダ1202,1204等が必要となるので、図9に示す実施の形態3の構成とした方が簡易な構成とすることができる。
【0111】
なお、実施の形態3の照明光源104は、実施の形態1及び実施の形態2の撮影システムに適用可能なことはいうまでもない。
【0112】
また、実施の形態1〜3の撮影システムでは、照明効果除去部110において、鏡面反射による影響を受けた画素を当該画素の周辺の画素値で補正する構成としたが、鏡面反射がないものとして、拡散反射係数のみを演算して反射係数としてもよいことはいうまでもない。
【0113】
また、実施の形態1〜3の撮影システムは、シールプリント装置のように、被写体101である人物の映像と、予め用意している背景映像とを合成するシステムにも適用可能である。この場合、背景映像に合致した照明条件の人物映像を生成し、背景映像と合成することで違和感の無いプリントシールを生成できる。この場合、実時間かつ順次照明条件を変更できる効果を利用して、シールへの印刷前に合成の具合を利用者が確認できるとともに、撮影時の照明の死角がないため、人物の画像全体に一様に、十分な光量で撮影できる。
【0114】
また、既存のシールプリント装置等の簡易な撮影システムでは、被写体101となる人物の後ろにフラッシュライトを反射しやすいシートを設置し、撮影画像の明るさで人物領域と背景領域とを判定し合成しているが、本願発明では距離情報を同時に取得しているので、特殊なシートを人物の後ろに配置しなくても、距離情報を基に、人物領域を判定できる。
【0115】
また、現在普及しつつある従来のインターネットあるいは電話回線など通信媒体を用いたテレビ電話やテレビ会議などでは、一般家庭内で見栄えが良く自然な照明を設営することは、スペース的に困難であり、現実的には部屋の天井に設置してある照明あるいはテレビ電話付近にある照明を用いることになる。しかしながら、本願発明を適用することにより、種々に照明条件を変更できるので、自然な順光の照明に設定できる。
【0116】
さらには、本願発明を適用することにより、撮影日時に応じて新規照明条件設定部で照明条件を変更することが可能となるので、屋内にいても季節感や、時間(例えば秋の夕方)などの効果を自動的に表現できる。また、奥行き情報を利用して、人物よりも、奥にある領域は別の画像に差し替えることで、自室を相手に見せないことで、プライバシーを守ることが出来る。
【0117】
以上、本発明者によってなされた発明を、前記発明の実施の形態に基づき具体的に説明したが、本発明は、前記発明の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【0118】
【発明の効果】
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
【0119】
(1)膨大な演算が必要となる鏡面反射係数の算出処理を必要としない構成となっているので、所定の照明条件の映像を実時間(リアルタイム)で順次生成することができる。
【0120】
(2)照射光が照射されて撮影された撮影RGB画像から、照射光が照射されないときに撮影された撮影RGB画像の減算処理を順次行うことにより得られた差分画像に基づいて、照明効果除去部が鏡面反射係数の算出処理を必要としない反射係数の算出を行うので、被写体が照明されている場合であっても、所定の照明条件の映像を実時間(リアルタイム)で順次生成することができる。
【0121】
(3)テレビカメラのズーム量及びフォーカス量に応じて照明主点に光源ランプを移動することができるので、テレビカメラにズームレンズを使用した場合であっても、照明の死角をなくした撮影ができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1の撮影システムの概略構成を説明するための図である。
【図2】実施の形態1の計測部の光学的構成を説明するための図である。
【図3】実施の形態1の計測部の他の光学的構成を説明するための図である。
【図4】実施の形態1の法線推定部の動作を説明するための図である。
【図5】実施の形態1の照明効果除去部の動作を説明するための図である。
【図6】実施の形態1の照明効果除去部における分光特性の測定原理を説明するための図である。
【図7】実施の形態1の照明効果除去部における明るさの判定に用いる値の算出手順を説明するための図である。
【図8】実施の形態1の照明効果除去部の概略構成を説明するための図である。
【図9】本発明の実施の形態2の撮影システムの概略構成を説明するための図である。
【図10】実施の形態2における奥行き抽出カメラによる撮影RGB画像の収集タイミングと照明光の照射タイミングとを説明するための図である。
【図11】本発明の実施の形態3の撮影システムにおける照明光源の概略構成を説明するための図である。
【図12】本発明の実施の形態3の撮影システムにおける他の照明光源の概略構成を説明するための図である。
【符号の説明】
101…被写体 102…計測部
103…半透鏡(ハーフミラー) 104…照明光源
105…レンズ 106…奥行き抽出RGBカメラ
107…法線推定部 108…入射光量推定部
109…閾値設定部 110…照明効果除去部
111…新規照明条件設定部 112…新規照明条件付加部
113…分光測色計 114…領域A
201…レンズ主点 202…照明主点
801…照射入射角判定部 802…色判定部
803…明るさ判定部 804…領域内挿部
805…拡散反射光除去部
901…光学シャッタ 902…同期発生器
903…分周器 904…画像メモリ部
905…差分画像生成部
1101…テレビカメラ 1102…レンズリモコン
1103…第1のA/D変換器 1104…第2のA/D変換器
1105…ルックアップテーブル検索部
1106…主点位置情報電圧変換部 1107…サーボモータ
1108…回転軸 1109…摺動部
1110…光源ランプ
1201…フォーカスリング 1202…第1のロータリーエンコーダ
1203…ズームリング 1204…第2のロータリーエンコーダ
1205…第1のカウンタ 1206…第2のカウンタ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and an imaging system including the same, and more particularly, to a technique for generating a captured image that can be expected under another illumination condition from a captured image of a subject continuously captured under a predetermined illumination condition. It is.
[0002]
[Prior art]
In a conventional virtual studio system, a prepared video (background video) serving as a synthesis source and lighting conditions equivalent to the background video are reproduced in the studio, and performers (subjects) photographed under the lighting conditions are reproduced. By combining the video with the video of (2), a synthesized video without a sense of incongruity was obtained in real time.
[0003]
However, it is impossible to continuously reproduce the lighting conditions that change every moment in the studio, and the lighting conditions that can be reproduced in the studio are limited. For this reason, in a virtual studio system using lighting conditions that change every moment or background images that cannot be reproduced in the studio, typical lighting conditions are reproduced, and the performers perform in these typical lighting conditions. As a result, it is configured to obtain a composite image having a small uncomfortable feeling.
[0004]
On the other hand, with the progress of CG (computer graphic) technology in recent years, lighting conditions expressed in a background image have become complicated, and it is difficult to reproduce lighting conditions that match the background image in a studio. .
[0005]
As a technique for solving this problem, generation of a video under illumination conditions equivalent to a background video by performing three-dimensional CG processing on a video of a performer has been studied. According to the method using the three-dimensional CG technique, the shape and the reflection characteristics (texture) of the performer are created from the performer's video taken under a predetermined lighting condition, and the performance of the performer is adjusted to match the lighting condition of the background video. This is to process the performer's video.
[0006]
[Problems to be solved by the invention]
The present inventor has found the following problems as a result of studying the above-mentioned conventional technology.
Creating the shape of the subject and the reflection characteristics of the surface requires extremely complicated work, and the creation of realistic and realistic three-dimensional CG images requires the creator's high ability and enormous work time. It was.
[0007]
For this reason, the present invention can be applied to a case where the time required for creating a three-dimensional CG image can be ensured during a period from shooting to broadcasting (broadcasting), such as a movie or a recorded video. However, in the case of sequentially broadcasting video shot by a television camera as in live broadcasting, it is necessary to finish creating a three-dimensional CG video before the TV camera finishes shooting the next video. There was a problem that could not be applied to.
[0008]
However, the conventional method of measuring the reflection characteristics on the surface of a subject is, for example, to place the subject in a dark room and measure it with a measuring device whose installation position is known in an environment in which light source information is known at one point. there were. As a conventional method of estimating the reflection characteristic of the subject surface, for example, there has been an apparatus for measuring the reflection characteristic of the subject surface disclosed in Japanese Patent Application No. 2001-145192 (hereinafter referred to as Document 1).
[0009]
An object of the present invention is to provide a technique capable of sequentially generating images under predetermined lighting conditions in real time.
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.
[0010]
[Means for Solving the Problems]
The following is a brief description of an outline of typical inventions disclosed in the present application.
[0011]
(1) reflection coefficient calculating means for calculating a reflection coefficient of a subject imaged as an input image, new lighting condition setting means for setting lighting conditions different from the input image, the set lighting conditions and the reflection coefficient An illumination condition adding unit that generates an image of illumination conditions set by the new illumination condition setting unit from the input image based on the input image. The reflection coefficient calculating means comprises: a correction means for specifying a specular reflection area from the input image based on the depth information of the subject and correcting specular reflection pixels; and a reflection coefficient of the subject from the corrected input image. And a diffuse reflection coefficient calculating means for calculating
[0012]
(2) photographing means for photographing a photographed image including depth information of a subject, reflection coefficient computing means for computing a reflection coefficient of the subject imaged in the photographed image, and new lighting for setting lighting conditions different from the image A photographing system comprising: a condition setting unit; and an illumination condition adding unit configured to generate an image of the illumination condition set by the new illumination condition setting unit from the captured image based on the set illumination condition and the reflection coefficient. In the reflection coefficient calculating means, a correction means for specifying a specular reflection region from the captured image based on the depth information of the subject and correcting specular reflection pixels, and a reflection coefficient of the subject from the corrected captured image And a diffuse reflection coefficient calculating means for calculating.
[0013]
According to the above-described means, when an image including depth information of a subject is input as an input image, first, based on the depth information of the subject, the correction unit specifies a specular reflection region from the input image, and within this region, The specular reflection pixel which is a pixel is corrected. Next, the diffuse reflection coefficient calculation means calculates the reflection coefficient of the subject from the input image corrected by the correction means. Thereafter, based on the illumination condition set by the new illumination condition setting means and the reflection coefficient calculated by the diffuse reflection coefficient calculation means, the illumination condition adding means sets a new illumination from the input image in which the influence of the specular reflection has been corrected. Since it is configured to generate an image of the condition, that is, the configuration does not require the calculation processing of the specular reflection coefficient which requires an enormous amount of operation, the image of the predetermined illumination condition can be generated in real time (real time). This can be sequentially generated, and image processing within one frame period can be realized.
[0014]
Therefore, by using a photographed image photographed by the photographing means for photographing a photographed image including depth information of a subject as an input image, images under predetermined lighting conditions are sequentially generated in real time (real time). An imaging system capable of performing image processing on a computer can be configured.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings together with embodiments (examples) of the present invention.
In all the drawings for describing the embodiments of the present invention, components having the same functions are denoted by the same reference numerals, and their repeated description will be omitted.
[0016]
(Embodiment 1)
FIG. 1 is a diagram for explaining a schematic configuration of the imaging system according to the first embodiment of the present invention. However, in the following description, a device that sequentially captures and outputs two-dimensional luminance distribution images of the same red, blue, and green colors as in a known video camera, for example, every 1/30 second is referred to as an RGB camera. Write.
1, reference numeral 101 denotes a subject, 102 denotes a measurement unit, 103 denotes a semi-transparent mirror (half mirror), 104 denotes an illumination light source, 105 denotes a lens, 106 denotes a depth extraction RGB camera, 107 denotes a normal line estimation unit, and 108 denotes an incident light amount estimation. Unit, 109 a threshold setting unit, 110 a lighting effect removing unit, 111 a new lighting condition setting unit, 112 a new lighting condition adding unit, 113 a spectrocolorimeter, and 114 an area A.
[0017]
As is clear from FIG. 1, in the imaging system according to the first embodiment, an illumination light source 104 for illuminating a performer serving as a subject 101, and illumination light emitted from the illumination light source 104 is applied to the performer. A half mirror 103, a spectrocolorimeter 113 for measuring the spectral characteristics of each color of RGB of the illumination light emitted from the illumination light source 104, and a ray reflected by the body surface of the subject 101 and incident via the half mirror 103 A measurement unit 102 is formed by a lens 105 for forming an optical image of the performer and a depth extracting RGB camera 106 for capturing an optical image of the performer.
[0018]
However, the depth extraction RGB camera 106 of the first embodiment can sequentially obtain the depth distance from the lens principal point to the subject in real time, for example, every 1/30 second for each coordinate of the image obtained by the RGB camera. It is a well-known camera. Also, a group of depth information corresponding to at least one of the three RGB images will be referred to as a photographed depth image. Further, in the first embodiment, it is not a necessary condition that the depth distance is obtained every 1/30 second, and a higher speed or a lower speed can be applied other than every 1/60 second. Needless to say, For a camera having this function (the depth extraction RGB camera 106), several methods have already been put into practical use, and a television camera called a well-known axivision and a stereo camera in which two cameras are arranged at a predetermined interval are used. Although there is a method using a camera and the like, it goes without saying that the first embodiment can be applied to a camera to which another method is applied. However, the depth information of each pixel of the obtained RGB image needs to be obtained in a one-to-one correspondence. That is, the principal point of the lens for acquiring the RGB image and the principal point of the lens for obtaining the depth information need to be at the same position.
[0019]
Further, in the imaging system of the first embodiment, a normal estimating unit 107 that calculates a normal vector at each pixel position from a depth image (photographed depth image) captured by the depth extraction RGB camera 106, An incident light amount estimating unit 108 that calculates an incident light amount of illumination light on the performer's body surface based on the performer; and an image of each color of RGB captured by the depth extracting RGB camera 106 and RGB values measured by the spectrophotometer 113. An illumination effect removing unit 110 that calculates reflection coefficient information based on spectral characteristics of each color, incident light amount information and threshold information of each pixel, a threshold setting unit 109 that sets a threshold, and a normal line information and a reflection coefficient information. A new lighting condition adding unit 112 for generating an image based on a new lighting condition based on the new lighting condition, and a new lighting condition setting for setting a new lighting condition in the new lighting condition adding unit 112 Processor of the image information is formed from 111..
[0020]
Therefore, in the imaging system according to the first embodiment, based on an optical image (an imaging depth image having depth information) captured by the illumination light emitted from the illumination light source 104, the imaging depth is first determined by the normal estimation unit 107. A normal vector at each pixel of the image is calculated, and the obtained normal vector is input to the incident light amount estimation unit 108. The normal vector input to the incident light amount estimating unit 108 is used as reference data when calculating the incident light amount of the illumination light on the performer's body surface, and is converted into a shooting depth image and a normal vector by the incident light amount estimating unit 108. The amount of incident light of the illumination light is calculated based on the calculated amount of light, and the obtained amount of incident light is output to the illumination effect removing unit 110. Lighting is performed based on the incident light amount obtained by the incident light amount estimating unit 108, an RGB optical image (photographed RGB image) captured by the illumination light emitted from the illumination light source 104, and a threshold from the threshold setting unit 109. The effect removing unit 110 calculates a reflection coefficient for each pixel in the captured RGB image, and outputs the reflection coefficient information to the new illumination condition adding unit 112.
[0021]
At this time, in the imaging system of the first embodiment, the normal line information from the normal line estimating unit 107 and the new lighting condition information from the new lighting condition setting unit 111 as the new lighting condition are transmitted to the new lighting condition adding unit 112. It is configured to be input. Therefore, the new illumination condition adding unit 112 according to the first embodiment calculates saturation and luminance information for each pixel of the captured RGB image based on the reflection coefficient, normal line information, and the new illumination condition for each pixel. , An image (output image) suitable for the new lighting condition is generated.
[0022]
As described above, in the imaging system according to the first embodiment, the incident light amount and the reflection coefficient at each pixel are calculated based on the normal vector calculated based on the depth information of the subject 101, and the normal vector information is calculated. Is configured to generate a captured RGB image under a new lighting condition based on. That is, it is possible to realize image processing within one frame period in real time.
[0023]
Next, a detailed configuration of each unit of the imaging system according to the first embodiment will be described.
[0024]
(Measurement unit)
FIG. 2 is a diagram for explaining the optical configuration of the measurement unit according to the first embodiment. However, in the following description, the pinhole position when the RGB camera (depth extraction RGB camera 106) is assumed to be a pinhole camera is described as a lens principal point 201. The light source position when the illumination light source 104 is assumed to be a point light source is referred to as an illumination principal point 202.
[0025]
The measurement unit 102 according to the first embodiment has a configuration in which a depth extraction RGB camera 106 and an illumination light source 104 that virtually photograph the subject 101 on the same optical axis using the half mirror 103 are provided for the subject 101. Has become. At this time, the lens principal point 201 of the depth extraction RGB camera 106 and the illumination principal point 202 of the illumination light source 104 have the optical path length from the subject 101 using L1, L2, and L3 in FIG. As shown in the figure, they are installed to be the same.
[0026]
(Equation 1)
L1 + L2 = L1 + L3 (Formula 1)
As described above, in the imaging system according to the first embodiment, the measurement unit 102 is formed in an arrangement in which the lens principal point 201 and the illumination principal point 202 coincide with each other. Is shielded to prevent a shadow from being photographed on the surface of the subject 101. In other words, the shadow of the subject 101 itself occurs on the subject in the captured image due to the fact that the principal points 201 and 202 of the lens 105 and the illumination light source 104 do not match. This is to prevent a decrease in calculation accuracy of a hidden part in an image processing process described later.
[0027]
Here, one of the purposes of using the half mirror 103 is to irradiate the subject 101 with illumination light emitted from the illumination light source 104 via reflection by the half mirror 103. Another purpose of using the half mirror 103 is to use the transmission of the subject image by the half mirror 103 to capture an image with the depth extraction RGB camera 106. The depth extraction RGB camera 106 has a method that needs to project infrared light from the camera side to the subject 101 and take an image of the reflected light, and this point also uses the property that the half mirror 103 transmits. Therefore, the function of the depth extraction RGB camera 106 is not limited.
[0028]
In the first embodiment, the case where the half mirror 103 is used will be described. However, the same function can be realized by using a known optical prism instead of the half mirror 103. In addition, when a condition is obtained such that the lens principal point 201 and the illumination principal point 202 are the same, the anteroposterior relationship with respect to the subject such as the half mirror 103 and the camera lens 105 differs from the configuration shown in FIG. No problem. For example, as shown in FIG. 3, even when the half mirror 103 is disposed between the lens 105 and the depth extraction camera 106, the measurement unit 102 according to the first embodiment can be configured.
[0029]
In particular, as shown in FIG. 3, when the lens 105, the half mirror 103, and the depth extraction RGB camera 106 are arranged, compared with the configuration shown in FIG. 2, the illumination principal point 202 which is the principal point of the illumination light source 104, Since the amount of movement of the illumination light source 104 required to match the lens principal point 201 which is the principal point of the lens 105 for forming an optical image on the depth extraction RGB camera 106 can be reduced, the entire apparatus can be downsized. It is also possible to obtain the effect of being able to do so. Therefore, when configured as a dedicated system, as shown in FIG. 3, the measurement unit 102 is preferably arranged in the order of the lens 105, the half mirror 103, and the depth extraction RGB camera 106 from the subject 101 side.
[0030]
On the other hand, by incorporating and connecting a part other than the area A114 indicated by the dotted line in FIG. Can be used for multiple purposes.
[0031]
(Normal estimation unit)
The normal estimating unit 107 according to the first embodiment is a unit that estimates a normal vector of each part of the subject 101 in the captured depth image obtained from the measuring unit 102. However, in the following description, the normal vector is a vector perpendicular to the surface of the subject 101 and represents the direction of the surface. In particular, in the first embodiment, the normal vector at each pixel constituting the captured depth image is estimated. The normal vector of the pixel can be calculated by using the depth information between the pixel and peripheral pixels.
[0032]
For example, in the case where the photographed depth image obtained by the measuring unit 102 is composed of 640 pixels horizontally and 480 pixels vertically as shown in FIG. 4A, the lower left two-dimensional coordinates of the image are used as the reference position. (0, 0). Assume that given pixels are given coordinates at a distance of the number of pixels based on the lower left coordinates.
[0033]
When calculating the normal vector of the two-dimensional coordinates (100, 100), as shown in FIG. 4B, the depth information of the pixel (100, 100) and the pixel adjacent to the pixel are calculated. Information of four surrounding pixels (coordinates (100, 101), (99, 100), (101, 100), (100, 99)). First, since the respective two-dimensional coordinates and depth information can be converted into three-dimensional coordinates with the lens principal point 201 as the origin, the first embodiment converts them into three-dimensional coordinates in advance. Next, line segments formed by the three-dimensional coordinates corresponding to the pixel and the surrounding pixels are obtained. Further, by obtaining an outer product between adjacent line segments, a normal vector of a plane formed by the line segments is obtained. Four normal vectors are obtained by this operation. In the first embodiment, the normal vector of the pixel is obtained by averaging and normalizing the four normal vectors. However, the calculation method of the normal vector is not limited, but can be realized by a general calculation method used in the computer graphics field as described above. The normal vector information and the three-dimensional coordinates obtained by the normal estimating unit 107 are sent to the incident light amount estimating unit 108 at the next stage.
[0034]
(Incident light quantity estimation unit)
The incident light amount estimating unit 108 according to the first embodiment is means for estimating the amount of incident light on each part of the subject 101. However, the estimation of the amount of incident light requires the distance from the illumination light source 104 and the angle of incidence of the illumination light on the subject 101.
[0035]
Therefore, in the imaging system according to the first embodiment, the incident angle and the distance from the illumination light source 104 are determined by using the normal vector information and the three-dimensional coordinates of each part of the subject 101 obtained by the normal estimating unit 107 in the preceding stage. Configuration. At this time, the three-dimensional coordinates obtained by the radiation estimating unit 107 in the former stage have the origin at the lens principal point 201, that is, the illumination principal point 202, and when used together with normal vector information, the incident angle of illumination can be easily determined. Can be estimated. The distance from the illumination light source 104 to each part of the subject 101 can also be estimated by obtaining the distance between the three-dimensional coordinates of each part and the origin (0, 0, 0). For example, the coordinates of a predetermined part of the subject 101 are represented by (x1, Y1, Z1) And its normal vector to (x2, Y2, Z2), The incident angle θ is (x1, Y1, Z1), (X2, Y2, Z2) As a vector.
[0036]
First, the distance L1 from the illumination light source 104 is represented by the following equation (2).
[0037]
(Equation 1)
L1 = (X1 2+ Y1 2+ Z1 2)1/2... (Equation 2)
Since the light intensity of the illumination at a distance L1 from the illumination light source 104 is inversely proportional to the square of the distance L1, the light intensity of the illumination light source 104 at a location L1 away from the light intensity p1Becomes the following Expression 3.
[0038]
(Equation 2)
p1= P / L12... (Equation 3)
Further, the amount of incident light I on the subject is expressed by the following equation 4 based on Lambert's cosine law, which is classic in the field of computer graphics.
[0039]
(Equation 3)
I = p1/ Cos θ (Equation 4)
The incident light amount estimating unit 108 calculates the incident light amount I for all the pixels of the image by the above-described calculation, and sends the obtained incident light amount I to the illumination effect removing unit 110 at the next stage.
[0040]
(Lighting effect removal section)
The illumination effect removal unit 110 according to the first embodiment uses the captured RGB image obtained by the measurement unit 102 and the incident light amount I obtained by the incident light amount estimation unit 108 in the preceding stage to remove the illumination effect of the subject 101. Is a means for determining the reflection coefficient of the surface.
[0041]
The components of the reflected light from the subject 101 are classified differently for each of various reflection models proposed so far. However, many of them are roughly classified into specular reflection components and diffuse reflection components based on a dichroic reflection model widely used empirically. The specular reflection component causes a phenomenon that is extremely dominant in some object regions as compared with the diffuse reflection component, and hinders the removal of the illumination effect. This area is called a highlight area.
[0042]
These reflection components (specular reflection component and diffuse reflection component) are expressed differently for each of various reflection models proposed. As for the diffuse reflection component, Lambert's cosine law depending on the incident angle of illumination light is used in many reflection models, and is used in the first embodiment in the same manner. On the other hand, the specular reflection component is not easily represented only by the relationship with the incident angle of the illumination light, and even if it is applied to any reflection model, a high-quality, high-speed and universally applicable removal method regardless of the material of the subject 101 is required. Not yet. Therefore, the illumination effect removal unit 110 according to the first embodiment has a configuration in which a mechanism for estimating a highlight region and interpolating the same with pixel values around the highlight region is incorporated as a method not considering the reflection model. However, it goes without saying that if a higher quality and more accurate specular reflection component removal method is proposed in the future, it can be incorporated in the first embodiment.
[0043]
The feature of the portion that is specularly reflected is relatively bright in the image, and the light source color is dominant over the color of the object. For example, a part of the surface of a red object color under white illumination that causes specular reflection appears to glow white. Such an area is called a highlight area and interferes with the estimation of the reflection coefficient of the subject 101. Further, depending on the material of the subject 101, if the incident angle of the illumination light on the surface of the subject 101 and the exit angle of the reflected light from the surface of the subject 101 to the camera side are close to each other, mirror reflection easily occurs. It is known to be. That is, under the optical conditions of the first embodiment, as shown in FIG. 5, the more the surface of the subject 101 is perpendicular to the straight line L4 extending from the lens principal point 201 to each part of the subject 101, the more the specular reflection occurs. Tends to occur.
[0044]
Therefore, the illumination effect removing unit 110 according to the first embodiment is configured to determine the specular reflection portion, that is, the highlight region, by using the following three determination criteria in combination from the above-described properties.
(Value used for determination on straight line L4)
First, an angle between a straight line L4 extending from the lens principal point 201 to each part of the subject 101 and a normal vector of the surface of the subject 101 is defined as θa. This θa can be calculated from the normal vector information of the subject 101 and the three-dimensional coordinates.
(Value used for color judgment)
Next, the comparison between the color of the subject part and the light source color is performed as follows. The red, blue and green spectral characteristics of the light primary colors are measured in advance, and as shown in FIG. 6, the points S are normalized on three-dimensional coordinates with the intensities of red, blue and green as axes.1Projected as On the other hand, the red, blue, and green components of the relevant portion of the subject 101 are normalized on three-dimensional coordinates around the red, blue, and green intensities from the captured RGB image captured by the depth extraction RGB camera 106, Point S2Projected on three-dimensional coordinates. The light source color point S at this time1And the color point S of the subject2And the distance on the three-dimensional coordinate with1And Thus the distance n1By setting the distance n1Is smaller, it can be determined that the colors are more similar. However, in the first embodiment, the spectral characteristics of the light source color are measured in advance, and the measured values are used. However, the comparison standard is not limited to this. It is also possible to incorporate the spectrocolorimeter 113 in an appropriate part and automatically measure and use the spectral characteristics without direct effort.
(Value used to judge brightness)
As shown in FIG. 7, the peak value I of the luminance value of the captured RGB image captured by the depth extraction RGB camera 106maxAnd a histogram for the luminance values of all the pixels, and the brightest luminance value ImaxBrightness value I that becomes the peak on the first histogrampeakIs calculated. Then Ipeak− (Imax-Ipeak) Is IsAnd Thus, the luminance value IsIs set, the highlight portion due to the specular reflection becomes the luminance value IpeakCan be approximated to a distribution that can be expressed by a Gaussian function with the center value and the maximum value.peakI aroundpeak-ImaxThe distribution is symmetrical with the space turned back. However, the luminance value IsIs the luminance value ImaxCorresponds to the folded part.
(Use of three criteria)
The first to third threshold values Th are manually determined in advance for the three determination criteria.1, Th2, Th3Is set by the threshold setting unit 109 in advance.
[0045]
First, the angle θa of each pixel of the captured RGB image captured by the depth extraction RGB camera 106 and the first threshold Th1And the angle θa is equal to the first threshold Th.1If it is smaller, it is considered that the reflection by specular reflection is the dominant part, and the information R of the region satisfying this condition is considered.1Save.
[0046]
Next, R1, The brightness value I of all pixels in the regionoutAnd luminance value IsAnd the difference value IdiffIs calculated by the following equation (5).
[0047]
(Equation 4)
Idiff= Iout-Is... (Equation 5)
Difference value IdiffIs the second threshold Th2If it is larger than this, it is considered that the reflection by the specular reflection is dominant, and the information R of the region satisfying this condition is considered.2Save.
[0048]
Finally R2Distance n for all pixels in the region1Ask for. Where the distance n1Is the third threshold Th3The smaller portion is regarded as a portion where the reflection by specular reflection is dominant, and information R of a region satisfying this condition is obtained.3Save.
[0049]
Finally R3Is regarded as a region where specular reflection is dominant. Where R3Is subjected to a segmentation process, which is a general image processing technique,3Is divided into closed sections having the minimum area in the image, and the pixel values of the area are replaced with the surrounding pixel values for each area.
[0050]
With respect to the captured RGB image in which the reflection coefficient caused by specular reflection has been processed as described above, the imaging system of the first embodiment calculates the reflection coefficient caused by diffuse reflection in the following procedure.
Diffuse reflection light IdMeans that the incident light is I and the diffuse reflection coefficient is KdAre represented by the following Expressions 6 and 7.
[0051]
(Equation 5)
Id= Kd× I (Equation 6)
Kd= Id/ I (Equation 7)
Diffuse reflection light IdThe red, blue, and green components of the observed captured RGB image corresponding tor, Cb, Cg), And the red, blue, and green components of the incident light I are represented by (Ir, Ib, Ig), The diffuse reflection coefficient KdRed component, blue component, green component (Kr, Kb, Kg) Is calculated by the following Expressions 8 to 10.
[0052]
(Equation 6)
Kr= Cr/ Ir... (Equation 8)
Kb= Cb/ Ib... (Equation 9)
Kg= Cg/ Ig... (Equation 10)
The obtained diffuse reflection coefficient (Kr, Kb, Kg) Is sent to the new lighting condition adding unit 112 at the next stage as information from which the lighting effect has been removed.
[0053]
FIG. 8 is a diagram for explaining a schematic configuration of the illumination effect removing unit according to the first embodiment. Here, reference numeral 801 denotes an irradiation incident angle determination unit (first region specifying unit), 802 denotes a color determination unit (spectral characteristic calculation unit, second region specification unit), and 803 denotes a brightness determination unit (brightness value calculation unit; 3, an area interpolating unit (correction unit) 804, and a diffuse reflection light removing unit (diffuse reflection coefficient calculation unit) 805.
[0054]
8, the illumination incident angle determination unit 801 includes: an incident light amount information from the incident light amount estimation unit 108; a normal vector and three-dimensional position information from the normal line estimation unit 107; a captured RGB image from the depth extraction RGB camera 106; And the first threshold Th from the threshold setting unit 1091Is a means for performing the determination processing described in “Value used for determination on straight line L4” described above. Region information R obtained by this illumination incident angle determination unit 8011Is input to the color determination unit 802.
[0055]
The color determination unit 802 receives the incident light amount information from the incident light amount estimation unit 108, the normal vector and three-dimensional position information from the normal line estimation unit 107, the captured RGB image from the depth extraction RGB camera 106, and the threshold setting unit 109. Of the second threshold Th2Is a means for performing the determination processing described in the above-mentioned “value used for color determination”. However, as described above, the color determination unit 802 uses the region information R input from the illumination incident angle determination unit 801.1, The determination process is performed only on the region obtained by the illumination incident angle determination unit 801. The region information R obtained by the color determination unit 8022Is input to the next-stage brightness determination unit 803.
[0056]
The brightness determination unit 803 includes the incident light amount information from the incident light amount estimation unit 108, the normal vector and three-dimensional position information from the normal line estimation unit 107, the captured RGB image from the depth extraction RGB camera 106, and the threshold setting unit 109. From the third threshold Th3Is a means for performing the determination processing described in the above “value used for determining brightness”. However, as described above, the brightness determination unit 803 uses the region information R input from the color determination unit 802.2, The determination process is performed only on the region obtained by the color determination unit 802. The region information R obtained by the brightness determination unit 8033Is input to the area interpolation unit 804 at the next stage.
[0057]
The region interpolation unit 804 outputs the region information R obtained by the brightness determination unit 803.3Is used to interpolate the area of the captured RGB image with the pixel values around the area based on the above. This interpolation processing is the processing described in the above-mentioned “Use of Three Determination Criteria”. The captured RGB image after interpolation processing obtained by the area interpolation unit 804 is input to the diffuse reflection light removal unit 805 at the next stage.
[0058]
The diffuse reflection light removing unit 805 is a unit that calculates the diffuse reflection coefficient based on the above-described equations 8, 9, and 10, and obtains the obtained diffuse reflection coefficient (Kr, Kb, Kg) Is input to the new lighting condition adding unit 112 as an output of the lighting effect removing unit 110.
[0059]
(Threshold setting part)
First to third threshold values Th used in the lighting effect removing unit 1101, Th2, Th3Is a means for setting. For example, three knob-shaped volumes are arranged as threshold setting buttons, and these thresholds can be manually set by operating these knobs. The first to third threshold values Th1, Th2, Th3Can be set at the discretion of the operator while viewing the output image before or during use. However, the present invention does not limit the user interface. Also, the luminance value I of the illumination is obtained from the spectral colorimeter in the measuring section.1And obtain the luminance value I1The second threshold value Th is proportional to2It is needless to say that these thresholds can be automatically set, for example, by automatically setting the threshold.
[0060]
(New lighting condition setting section)
The new lighting condition setting unit 111 is a means for setting a required lighting condition. In the new lighting condition setting unit 111 according to the first embodiment, the setting items can set the number of lights, arrangement in a three-dimensional space, light distribution characteristics, color temperature, and the like.
[0061]
These setting items are necessary for producing an image by well-known computer graphics, and a function equivalent to a part of the function of general computer graphics software is added to the new lighting condition setting unit 111. It can also be realized by incorporating. In particular, when it is not necessary to sequentially change the lighting conditions in real time, a mechanism that continues to send predetermined lighting conditions may be used. In addition, in a case where even a person who is not used to the operability of setting the lighting conditions can intuitively operate, for example, only the direction of the lighting is designated by a well-known joystick, and information of the designated direction is obtained. It is also possible to adopt a configuration in which the information is sequentially sent to the new lighting condition adding unit 112 at the next stage. Further, the setting items can be limited.
[0062]
Further, it can be used in combination with a virtual studio system which is a video production method of a television program. However, the virtual studio system generates a computer graphics image serving as a background under the same conditions as the camera that is shooting the subject 101, and combines the generated image with the subject image shot by the camera, This is a system that generates a video effect as if the subject 101 exists on a video generated by computer graphics. Since the lighting conditions of the background image generated by the computer graphics are set in the computer, the setting conditions can be given to the new lighting condition setting unit 111 of the present method.
It is also possible to estimate outdoor lighting conditions according to the actual date and time or the date and time designated by the user in accordance with physical laws, and to send it to the new lighting condition adding unit 112 at the next stage.
[0063]
In the first embodiment, the user interface is not limited, but it is needless to say that the lighting conditions need to be sequentially transmitted in real time to the new lighting condition adding unit 112 at the next stage.
[0064]
(New lighting condition addition section)
The new lighting condition adding unit 112 includes normal vector information from the normal estimating unit 107, the reflection coefficient (specular reflection coefficient and diffuse reflection coefficient) from the lighting effect removing unit 110, and the new lighting from the new lighting condition setting unit 111. This is a means for inputting condition information, and for generating and outputting a subject image expected under new lighting conditions based on the input information. However, since the generation of the subject image under the new condition can be realized by a general method used in known computer graphics, a detailed description is omitted.
[0065]
Here, when the lighting conditions obtained from the virtual studio system are given to the new lighting condition setting unit 111, a subject image under the same lighting conditions as the computer graphics video generated by the virtual studio system can be generated. At this time, by using the depth information, means for determining the order of the subject 101 and the set of computer graphics used for the background of the virtual studio is provided, so that the subject 101 located before the set of computer graphics is provided. Since only the area can be combined with the background video by the set of computer graphics, even when the subject 101 is in a place different from the location where the background video was captured, the subject 101 can capture the background video. An effect (compositing effect) as if shooting at a position is obtained.
[0066]
The camera and the synchronization generator of the apparatus described above have been described on the basis of 1/30 second or 1/60 second. However, when the equipment of the NTSC signal is used, the synchronization signal is 59. Since it is 94 Hz, it goes without saying that it is 1 / 59.94 second or 2 / 59.94 second. In addition, there are video cameras of various frequencies such as a high-speed camera and a long-time exposure camera, but the present invention does not limit the frequency, and the processing is sequentially repeated for each minimum unit constituting an image. , The present invention can be applied to a photographing system using a photographing camera of another frequency.
[0067]
In the above-described imaging system according to the first embodiment, it is needless to say that the subject 101 needs to be captured in an environment where there is no illumination other than the illumination in the measurement unit 102 in the dark room. Nor.
[0068]
As described above, in the imaging system according to the first embodiment, the normal estimating unit based on the captured depth image captured using the depth extraction RGB camera 106 under the illumination light emitted from the illumination light source 104. 107 calculates a normal vector at each pixel of the photographed depth image, and an incident light amount estimating unit 108 calculates an incident light amount of illumination light on the body surface of the subject 101 as a performer based on the input normal vector. The removal unit 110 detects the incident light amount obtained by the incident light amount estimation unit 108, the captured RGB image captured by the illumination light emitted from the illumination light source 104, and the first to third threshold values Th from the threshold value setting unit 109.1, Th2, Th3, A reflection coefficient for each pixel in the captured RGB image is calculated, and the new lighting condition adding unit 112 generates and outputs a subject image under new lighting conditions based on the reflection coefficient.
[0069]
At this time, in the imaging system according to the first embodiment, the illumination effect removing unit 110 that calculates the reflection characteristic of the subject 101, that is, the reflection coefficient, includes the irradiation incident angle determination unit 801, the color determination unit 802, the brightness determination unit 803, An insertion section 804 and a diffuse reflection light removing section 805 are provided.
[0070]
Here, as an operation related to specular reflection, first, the illumination incident angle determination unit 801 sets the incident light amount information, the normal vector, the three-dimensional position information, the captured RGB image, and the first threshold Th.1The region is specified based on. Next, for the area specified by the illumination incident angle determination unit 801, the color determination unit 802 performs the incident light amount information, the normal vector, the three-dimensional position information, the captured RGB image, and the second threshold Th.2The region is specified based on. Next, for the area specified by the color determination unit 802, the brightness determination unit 803 determines the incident light amount information, the normal vector, the three-dimensional position information, the captured RGB image, and the third threshold value Th.3The region is specified based on. Next, with respect to the area specified by the brightness determination unit 803, the area interpolation unit 804 interpolates the area of the captured RGB image with the pixel values around the area. Thereafter, the diffuse reflection light removing unit 805 calculates a reflection coefficient related to the diffuse reflection light with respect to the captured RGB image in which the highlight region is interpolated (corrected) by the region interpolation unit 804.
[0071]
As described above, the configuration in which the illumination effect removing unit 110 according to the first embodiment generates a captured RGB image in which the influence of specular reflection is removed from the captured RGB image obtained by the depth extraction RGB camera 106, that is, an enormous amount of calculation is required. Since the configuration does not require the calculation processing of the specular reflection coefficient, it is possible to sequentially generate an image under a predetermined illumination condition in real time (real time). In particular, image processing within one frame period is required. To live broadcasts.
[0072]
(Embodiment 2)
FIG. 9 is a diagram for explaining a schematic configuration of the imaging system according to the second embodiment of the present invention. Here, reference numeral 901 denotes an optical shutter, 902 denotes a synchronization generator, 903 denotes a frequency divider, 904 denotes an image memory unit, and 905 denotes a difference image generation unit. Further, in the following description, operations and effects related to the optical shutter 901, the synchronization generator 902, the frequency divider 903, the image memory unit 904, and the difference image generation unit 905, which are different in configuration from the imaging system of the first embodiment. Will be described in detail.
[0073]
As is apparent from FIG. 9, in the imaging system according to the first embodiment, an illumination light source 104 for illuminating a performer who is an object 101 and illumination light emitted from the illumination light source 104 is applied to the object 101 side. A half mirror 103, an optical shutter 901 disposed between the illumination light source 104 and the half mirror 103 to control transmission and blocking of illumination light emitted from the illumination light source 104, and illumination emitted from the illumination light source 104. A spectrocolorimeter 113 for measuring the spectral characteristics of each of the RGB colors of light, and a lens 105 for forming a light beam (optical image of the subject 101) reflected by the body surface of the subject 101 and incident via the half mirror 103. And a depth extracting RGB camera 106 for photographing an optical image of the subject 101, and an external synchronization input terminal of the depth extracting RGB camera 106. A sync generator 902 for generating a synchronization signal, the measurement unit 102 from the frequency divider 903 for dividing the synchronization signal from sync generator 902 is formed.
[0074]
As described above, the measuring unit 102 according to the second embodiment is configured to control the shooting timing of the depth extraction RGB camera 106 in synchronization with the synchronization signal generated by the synchronization generator 902. Further, the operation of the optical shutter 901 is controlled by a signal (frequency-divided signal) obtained by dividing the synchronization signal by the frequency divider. Therefore, it is possible to synchronize the shooting of the subject 101 with the depth extraction RGB camera 106 and the illumination of the subject 101. The details of the measuring unit 102 will be described later.
[0075]
Further, in the imaging system according to the first embodiment, a normal estimating unit 107 that calculates a normal vector at each pixel position from a depth image (captured depth image) captured by the depth extraction camera 106, and An incident light amount estimating unit 108 for calculating an incident light amount of illumination light on the performer's body surface, an image memory unit 904 for sequentially storing captured RGB images captured by the depth extracting RGB camera 106, and reading from the image memory unit 904. A difference image generation unit 905 that generates a difference image for each color of RGB from an image (delayed image) delayed by one frame (one shooting cycle) and the captured RGB image captured by the depth extraction RGB camera 106; The image for each color of RGB generated by the generation unit, the spectral characteristics of each color of RGB measured by the spectral colorimeter 113, and the incidence for each pixel. A lighting effect removing unit 110 that calculates reflection coefficient information based on the amount information and the threshold information, a threshold setting unit 109 that sets a threshold, and a new image generating unit that generates an image under new lighting conditions based on the normal information and the reflection coefficient information. An image information processing unit is formed by the lighting condition adding unit 112 and the new lighting condition setting unit 111 for setting a new lighting condition in the new lighting condition adding unit 112.
[0076]
As described above, the processing unit according to the second embodiment temporarily stores the captured RGB image captured by the depth extraction RGB camera 106 in the image memory unit 904, and stores the stored captured RGB image and the captured RGB image captured in real time. Are sequentially generated by the difference image generation unit 905, and the difference image is used by the illumination effect removal unit 110.
[0077]
In FIG. 9, a synchronization generator 902 is a well-known synchronization signal generator that generates a pulse of a synchronization signal in units of 1/30 second or 1/60 second, which is the imaging frequency of the camera image of the depth extraction RGB camera 106. Means. However, the synchronization signal has a waveform suitable for an external synchronization input terminal of the video camera constituting the depth extraction RGB camera 106, and this synchronization signal is input to the video camera. This video camera adjusts so as to capture an image in synchronization with the input synchronization signal. However, a general commercial TV camera has a terminal for inputting an external synchronization signal called an external synchronization input terminal or a genlock terminal, and an external synchronization signal is output by a built-in PLL circuit (PhaseLocked @ Loop: phase synchronization circuit). A circuit for oscillating to generate a synchronization signal for a camera internal circuit in synchronism with the circuit is incorporated. Therefore, the synchronization processing in the second embodiment can be easily realized.
[0078]
The frequency divider 903 is a means for dividing the synchronization signal of 1/30 or 1/60 second by 2, and has a period of 1/15 second or 1/30 second, which is half of the synchronization signal. Generate a signal (divided signal). In particular, in the second embodiment, the duty ratio of the frequency-divided signal is set to a digital signal of 50%, and the waveform is shaped so that the determination at each unit to which the frequency-divided signal is input is easy.
[0079]
An optical shutter 901 arranged perpendicularly to the illumination projection direction is a well-known optical shutter that can be opened and closed by an electric signal, and blocks light in a closed state and transmits light in an open state. Has become. In addition, the optical shutter 901 according to the second embodiment is in a closed state when a frequency-divided signal input as a drive signal or a control signal is High (1), and is opened in a Low (0) period. The optical shutter of the second embodiment can be realized by using a mechanical shutter or a liquid crystal shutter as the optical shutter 901.
[0080]
The image memory unit 904 is a unit for sequentially storing captured RGB images captured by the depth extraction RGB camera 106. In the second embodiment, at the input timing of the next captured RGB image, It is configured to output the captured RGB images stored at the input timing. In other words, when the captured RGB image has been input and the next captured RGB image is sent from the depth extraction RGB camera 106, the image memory unit 904 stores the content stored in the image memory, that is, the captured RGB image at that timing. This is sent to the difference image generation unit 905 at the next stage. That is, the captured RGB image that has passed through the image memory unit 904 is delayed by one image from the RGB image output from the depth extraction RGB camera 106.
[0081]
The difference image generation unit 905 outputs the current captured RGB image G directly input from the depth extraction RGB camera 106.pAnd an image G delayed by one image input from the image memory unit 904dImage (difference image) G from the differencediffIs a means for generating. In particular, in the difference image generation unit 905 of the second embodiment, 1/30 second or 1/60 of the following equation 11 and equation 12 are obtained based on the signal obtained by dividing the synchronization generator by 2 using the frequency divider. By switching every second, the difference image GdiffIs obtained.
[0082]
(Equation 7)
Gdiff= Gp-Gd··· (Equation 11)
Gdiff= Gd-Gp... (Equation 12)
In particular, in the difference image generation unit 905 of the second embodiment, the image when the illumination light source 104 of the measurement unit 102 is turned on becomes the left variable on the right side, and the image when it is turned off becomes the right variable on the right side. Control. That is, by subtracting the non-lighted image from the lighted image, only the reflected light from the illumination light source 104 in the measuring unit 102 is converted into the difference image GdiffIt is configured to take out as.
[0083]
In order to realize this, when the frequency-divided signal from the frequency divider 903 is 0, Expression 11 is selected, and when the frequency-divided signal is 1, Expression 12 is selected to obtain a difference image. Output to the effect removing unit 110.
[0084]
By performing such a contrivance, even when the subject 101 is illuminated by a light source other than the measuring unit 102, the same effect as the imaging system of the first embodiment is obtained.
[0085]
FIG. 10 is a diagram for explaining the collection timing of captured RGB images and the irradiation timing of illumination light by the depth extraction camera according to the second embodiment. However, the image names shown in FIG. 10 indicate captured RGB images sequentially captured by the depth extraction RGB camera 106, and in this specification, natural numbers of 1, 2, 3, 4, 5, 6,. The consecutive numbers indicated by are designated as image names.
[0086]
First, the photographing operation of the photographed RGB image in the measurement unit 102 will be described based on FIG.
[0087]
As described above, the measuring unit 102 according to the second embodiment has a configuration in which a synchronization signal is input to the depth extraction RGB camera 106, whereas the synchronization signal is divided into two by the optical shutter 901. The divided frequency signal is inputted. Therefore, in the measurement unit 102 according to the second embodiment, the depth extraction RGB camera 106 shoots in synchronization with the input of the synchronization signal in synchronization with the synchronization signal.
[0088]
On the other hand, the optical shutter 901 is configured to switch between the closed state and the open state in order according to the High (1) period and the Low (0) period of a frequency-divided signal having a duty ratio of 50% obtained by dividing the synchronization signal by two. Has become. That is, in the optical shutter 901 of the second embodiment, transmission and shielding of the illumination light emitted from the illumination light source 104 are controlled to be switched in synchronization with the synchronization signal. The irradiation of the illumination light is also synchronized with the synchronization signal.
[0089]
As a result, as shown in FIG. 10, shooting of captured RGB images continuous with images 1, 2, 3, 4, 5, 6,... Was performed by a depth extraction RGB camera operating in synchronization with a synchronization signal. In this case, the frequency-divided signal output from the frequency divider 903 becomes 1 while, for example, images 1, 3, 5,... Are taken, and becomes 0 while images 2, 4, 6,. . .., I.e., while the frequency-divided signal is 1, the optical shutter 901 is closed to block the illumination light from the illumination light source 104, and the illumination light illuminates the subject 101. Will not be performed. On the other hand, during shooting of images 2, 4, 6,..., That is, during the period in which the frequency-divided signal is 0, the optical shutter 901 is opened and the illumination light from the illumination light source 104 is transmitted. 101 will be illuminated.
[0090]
As described above, in the measuring unit 102 according to the second embodiment, the captured RGB image obtained by illuminating the subject 101 with the illumination light from the illumination light source 104 and the illumination light source 104 for each imaging cycle (frame period) of the depth extraction RGB camera 106 And a captured RGB image that does not illuminate the subject 101 with illumination light from the camera.
[0091]
Next, an operation of generating an output image in the processing unit will be described with reference to FIG. However, the operation is the same as the operation of generating the output image in the processing unit of the first embodiment except that the image data input to the illumination effect removing unit 110 is different. Accordingly, in the following description, the difference image G by the image memory unit 904 and the difference image generation unit 905 will be described.diffOnly the generating operation will be described in detail.
[0092]
The captured RGB images captured by the depth extraction RGB camera 106 are sequentially stored in the image memory unit 904. At this time, the same captured RGB image is also input to the difference image generation unit 905. Accordingly, when the captured RGB image of the image name 1 shown in FIG. 10 is captured, the image memory unit 904 and the difference image generation unit 905 store the captured RGB image of the image name 1 in the current captured RGB image G.pWill be entered as At this time, since the previous image is not stored in the image memory unit 904, the difference image G from the difference image generation unit 905 is output.diffIs not output.
[0093]
When the captured RGB image of the image name 2 is captured in the next capturing cycle, the captured RGB image of the image name 2 is stored in the image memory unit 904 and the difference image generating unit 905.pWill be entered as At this time, first, the difference image generation unit 905 outputs the image G obtained by delaying the captured RGB image of the image name 1 by one image from the image memory unit 904, which is an image captured in the immediately preceding imaging cycle.dRead as Next, the difference image generation unit 905 outputs the captured RGB image of the image name 1 from the image memory unit 904 (the image G delayed by one image).d) And the captured RGB image of the image name 2 from the depth extraction RGB camera 106 (the current captured RGB image Gp) And the difference image GdiffGenerate The calculation at this time is, as described above, the photographed RGB image of the image name 2 (the current photographed RGB image G), which is an image photographed by irradiating the irradiation light from the illumination light source 104 according to Expression 11.p), The photographed RGB image of the image name 1 photographed when the irradiation light from the illumination light source 104 is not irradiated (the image G delayed by one image)d), The difference image GdiffGenerate
[0094]
When the captured RGB image of the image name 3 is captured in the next capturing cycle, the captured RGB image of the image name 3 is stored in the image memory unit 904 and the difference image generating unit 905.pIs entered as At this time, the difference image generation unit 905 outputs the image G obtained by delaying the captured RGB image of the image name 2 by one image from the image memory unit 904, which is an image captured in the immediately preceding imaging cycle.dRead as Next, the difference image generation unit 905 outputs the captured RGB image of the image name 2 from the image memory unit 904 (the image G delayed by one image).d) And a captured RGB image of the image name 3 from the depth extraction RGB camera 106 (current captured RGB image Gp) And the difference image GdiffGenerate The calculation at this time is, as described above, a captured RGB image of image name 2 (an image G delayed by one image), which is an image captured by irradiation with the illumination light from the illumination light source 104, according to Expression 12.d), The photographed RGB image of the image name 3 photographed when the irradiation light from the illumination light source 104 is not irradiated (the current photographed RGB image Gp), The difference image GdiffGenerate
[0095]
The currently captured RGB image G stored in the image memory unit 904 described abovepAnd a photograph taken when the irradiation light from the illumination light source 104 is not irradiated, from the photographed RGB image photographed by irradiation with the irradiation light according to the expression 11 or 12 by the differential image generation means 905. Difference image G obtained by sequentially performing subtraction processing of RGB imagesdiffIs output to the illumination effect removing unit 110, and the same processing as in the first embodiment is performed. Therefore, the same effect as in the imaging system of the first embodiment can be obtained.
[0096]
In the second embodiment, the currently captured RGB image G stored in the image memory unit 904 described above is stored.pAnd a photograph taken when the irradiation light from the illumination light source 104 is not irradiated, from the photographed RGB image photographed by irradiation with the irradiation light according to the expression 11 or 12 by the differential image generation means 905. By sequentially performing the subtraction processing of the RGB images, only the light reflected by the illumination light source 104 of the measurement unit 102 is subtracted from the difference image G.diffCan be taken out. As a result, even when the subject 101 is illuminated by the illumination light source 104 other than the measurement unit 102, the same effect as that of the imaging system according to the first embodiment in which the subject 101 is placed in a dark room and imaged is obtained. It has a special effect.
[0097]
(Embodiment 3)
FIG. 11 is a diagram for explaining a schematic configuration of an illumination light source in the imaging system according to the third embodiment of the present invention. However, the configuration of the imaging system according to the third embodiment is the same as that of the imaging system according to the first or second embodiment except for the configurations of the depth extracting RGB camera 106 and the illumination light source 104 that configure the measuring unit 103. Configuration. Therefore, in the following description, the configuration of the measurement unit 102 will be described in detail.
[0098]
11, 1101 is a television camera, 1102 is a lens remote controller, 1103 is a first A / D converter, 1104 is a second A / D converter, 1105 is a lookup table search unit, 1106 is principal point position information A voltage conversion unit, 1107 is a servomotor, 1108 is a rotating shaft, 1109 is a sliding unit, and 1110 is a light source lamp.
[0099]
As shown in FIG. 11, in the imaging system according to the third embodiment, a television camera 1101 including a depth-extracting RGB camera 106 and a lens 105 according to a remote operation signal (for example, a voltage signal or the like) from a lens remote controller 1102 is illustrated. The depth extraction camera 106 and the lens 105 are configured by using the television camera 1101 in which the zoom mechanism and the focus mechanism that do not operate and the shooting field of view (angle of view) of the television camera 1101 can be arbitrarily set. Further, a remote operation signal for controlling the zoom mechanism and the focus mechanism is input to the first and second A / D converters 1103 and 1104.
[0100]
In the first and second A / D converters 1103 and 1104, remote operation signals (the zoom amount and the focus amount of the lens) from the lens remote controller 1102 are converted into digital signals and output to the lookup table search unit 1105. . The lookup table search unit 1105, to which the zoom amount and the focus amount converted into the digital signal are input, refers to a table (not shown) that stores the position information of the illumination principal point 202 corresponding to the zoom amount and the focus amount, An illumination principal point 202 suitable for the combination of the zoom amount and the focus amount is searched. The position information of the illumination principal point 202 obtained by the search is converted into driving power for driving the servo motor 1107 by the principal point position information voltage converter 1106, and the servo motor 1107 is driven.
[0101]
Here, in the third embodiment, a thread is formed on the rotating shaft 1108 of the servomotor 1107, and the thread of the rotating shaft 1108 and the thread of the sliding portion 1109 are fitted. As a result, the sliding portion 1109 to which the light source lamp 1110 is attached moves in the direction indicated by the arrow in the drawing (the direction in which the illumination principal point 202 of the illumination light source 104 increases or decreases) in accordance with the amount of rotation of the rotation shaft 1108, The position of the light source lamp 1110, that is, the position of the illumination principal point 202 is moved.
[0102]
Therefore, by driving the servo motor 1107, the sliding portion 1109 moves along the rotation axis 1108 together with the light source lamp 1110, and the light source lamp 1110 is moved to the illumination principal point 202 according to the zoom amount and the focus amount.
[0103]
As described above, in the imaging system according to the third embodiment, the positions of the principal points (illumination principal points) with respect to the focus amount and the zoom amount are stored in the look-up table in advance, and the lens remote controller which is a remote controller for a so-called remote control zoom lens is used. From the remote control signal output from 1102, the position of the illumination principal point 202 according to the focus amount and the zoom amount is obtained. Next, since the movement of the light source lamp 1110 is controlled to the lighting principal point 202 based on the obtained position information of the lighting principal point 202, this is the case where the television camera 1101 with a zoom function is used. In addition, it is possible to take a picture without blind spots of the lighting.
[0104]
In the imaging system according to the third embodiment, the light source lamp 1110 is moved to the lens principal point 201 corresponding to the zoom amount and the focus amount of the lens 105 by monitoring a remote operation signal output from the lens remote controller 1102. However, the present invention is not limited to this, and the configuration may be such that the zoom amount and the focus amount of the television camera 1101 are directly detected, and the illumination principal point 202 is moved according to the detected amounts.
[0105]
FIG. 12 is a diagram for explaining a schematic configuration of an illumination light source provided with a mechanism for directly detecting a zoom amount and a focus amount of a television camera. Hereinafter, a mechanism for detecting the zoom amount and the focus amount and the movement of the illumination principal point 202 according to the detected amount will be described with reference to FIG. Note that the illumination light source 104 illustrated in FIG. 12 has another configuration except for a focus ring 1201, a first rotary encoder 1202, a zoom ring 1203, a second rotary encoder 1204, a first counter 1205, and a second counter 1206. Is the same as the illumination light source 104 of the third embodiment shown in FIG.
[0106]
As shown in FIG. 12, in the imaging system according to the third embodiment, the television camera 1101 includes first and second rotary encoders 1202 and 1204 for detecting the movement amounts of the focus ring 1201 and the zoom ring 1203. Has become. That is, the focus amount is detected by detecting the rotation amount of the focus ring 1201, and the zoom amount is detected by detecting the rotation amount of the zoom ring 1203.
[0107]
The output of the first rotary encoder 1202 is counted by a first counter 1205, and the counted value is input to the lookup table search unit 1105. The output of the second rotary encoder 1204 is counted by a second counter 1206, and the counted value is also input to the lookup table search unit 1105.
[0108]
Here, based on the count values from the first and second counters 1205 and 1206, the lookup table search unit 1105 stores a table (not shown) in which the position information of the illumination principal point 202 according to the zoom amount and the focus amount is stored. The illumination principal point 202 suitable for the combination of the zoom amount and the focus amount is searched with reference to the reference. The position information of the illumination principal point 202 obtained by the search is converted into drive power for driving the servo motor 1107 by the principal point position information voltage conversion unit 1106, and the servo motor 1107 is driven. The light source lamp 1110 moves to the main illumination point 202 in the same manner as the illumination light source 104 of the third embodiment. As a result, it is possible to take a picture without eliminating the blind spot of the illumination.
[0109]
At this time, as shown in FIG. 12, the configuration in which the rotation amounts of the focus ring 1201 and the zoom ring 1203 are read out mechanically is more effective than the configuration of the third embodiment shown in FIG. Since the position of the lens principal point 201 can be accurately grasped, accurate control becomes possible.
[0110]
However, the configuration shown in FIG. 12 requires a mechanism for extracting the rotation of the focus ring 1201 and the zoom ring 1203, the rotary encoders 1202 and 1204, and the like. Therefore, the configuration of the third embodiment shown in FIG. It can be configured.
[0111]
It is needless to say that the illumination light source 104 according to the third embodiment can be applied to the imaging systems according to the first and second embodiments.
[0112]
In the imaging systems of the first to third embodiments, the illumination effect removing unit 110 corrects a pixel affected by specular reflection with a pixel value around the pixel, but it is assumed that there is no specular reflection. Needless to say, only the diffuse reflection coefficient may be calculated and used as the reflection coefficient.
[0113]
Further, the photographing systems according to the first to third embodiments are also applicable to a system that combines a video of a person who is the subject 101 and a background video prepared in advance, such as a sticker printing apparatus. In this case, a print sticker without a sense of incongruity can be generated by generating a person image under lighting conditions that match the background image and combining it with the background image. In this case, by utilizing the effect that the lighting conditions can be changed in real time and sequentially, the user can check the degree of synthesis before printing on the sticker, and since there is no blind spot of lighting at the time of shooting, the entire image of the person is A uniform amount of light can be taken.
[0114]
In a simple photographing system such as an existing sticker printing apparatus, a sheet that easily reflects a flashlight is installed behind a person who is the subject 101, and a person area and a background area are determined and synthesized based on the brightness of a photographed image. However, in the present invention, since the distance information is obtained at the same time, the person area can be determined based on the distance information without arranging a special sheet behind the person.
[0115]
In addition, it is difficult to set up good-looking and natural lighting in ordinary households in terms of space, for example, in the conventional telephone or video conference using a communication medium such as the Internet or a telephone line, which is currently spreading, In practice, the lighting installed on the ceiling of the room or the lighting near the videophone is used. However, by applying the invention of the present application, the illumination conditions can be changed in various ways, so that the illumination can be set to a natural normal light.
[0116]
Furthermore, by applying the present invention, it is possible to change the lighting conditions in the new lighting condition setting unit according to the shooting date and time, so that even when indoors, the sense of season, time (for example, autumn evening), etc. The effect of can be expressed automatically. In addition, by using the depth information, an area that is deeper than the person is replaced with another image, so that privacy can be protected by not showing the room to the other party.
[0117]
As described above, the invention made by the inventor has been specifically described based on the embodiment of the present invention. However, the present invention is not limited to the embodiment of the present invention, and does not depart from the gist of the invention. It goes without saying that various changes can be made in.
[0118]
【The invention's effect】
The following is a brief description of an effect obtained by a representative one of the inventions disclosed in the present application.
[0119]
(1) Since the configuration does not require the calculation processing of the specular reflection coefficient which requires an enormous amount of calculation, it is possible to sequentially generate images under predetermined illumination conditions in real time (real time).
[0120]
(2) Lighting effect removal based on a difference image obtained by sequentially performing a subtraction process of a photographed RGB image photographed when irradiation light is not irradiated from a photographed RGB image photographed by irradiation light irradiation. Since the unit calculates the reflection coefficient which does not require the calculation processing of the specular reflection coefficient, even if the subject is illuminated, it is possible to sequentially generate images under predetermined illumination conditions in real time (real time). it can.
[0121]
(3) Since the light source lamp can be moved to the main lighting point according to the zoom amount and the focus amount of the TV camera, even when a zoom lens is used for the TV camera, it is possible to take a picture without eliminating the blind spot of the lighting. it can.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining a schematic configuration of an imaging system according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating an optical configuration of a measurement unit according to the first embodiment.
FIG. 3 is a diagram for explaining another optical configuration of the measurement unit according to the first embodiment.
FIG. 4 is a diagram for explaining an operation of a normal estimation unit according to the first embodiment;
FIG. 5 is a diagram for explaining an operation of a lighting effect removing unit according to the first embodiment.
FIG. 6 is a diagram for explaining the principle of measuring spectral characteristics in the illumination effect removing unit according to the first embodiment.
FIG. 7 is a diagram for explaining a procedure of calculating a value used for determining brightness in the illumination effect removing unit according to the first embodiment.
FIG. 8 is a diagram for explaining a schematic configuration of a lighting effect removing unit according to the first embodiment.
FIG. 9 is a diagram for explaining a schematic configuration of an imaging system according to a second embodiment of the present invention.
FIG. 10 is a diagram for explaining the collection timing of captured RGB images and the irradiation timing of illumination light by a depth extraction camera according to Embodiment 2.
FIG. 11 is a diagram for explaining a schematic configuration of an illumination light source in a photographing system according to a third embodiment of the present invention.
FIG. 12 is a diagram for explaining a schematic configuration of another illumination light source in the imaging system according to the third embodiment of the present invention.
[Explanation of symbols]
101 subject 102 measuring unit
103: semi-transparent mirror (half mirror) 104: illumination light source
105: Lens # 106: Depth extraction RGB camera
107: normal line estimation unit # 108: incident light amount estimation unit
109: threshold setting unit # 110: lighting effect removing unit
111: New lighting condition setting unit # 112: New lighting condition adding unit
113: spectral colorimeter 測 114: area A
201: Lens principal point 202: Illumination principal point
801: Irradiation incident angle determination unit # 802: Color determination unit
803: brightness determination unit 804: region interpolation unit
805: Diffuse reflected light removal unit
901: Optical shutter # 902: Synchronous generator
903: frequency divider $ 904: image memory unit
905: Difference image generation unit
1101 ... TV camera $ 1102 ... Lens remote control
1103: first A / D converter # 1104: second A / D converter
1105 Lookup table search unit
1106: Principal point position information voltage converter # 1107: Servo motor
1108: Rotating shaft # 1109: Sliding part
1110 ... Light source lamp
1201: Focus ring # 1202: First rotary encoder
1203: Zoom ring # 1204: Second rotary encoder
1205: first counter 第 1206: second counter