JP5206366B2 - 3D data creation device - Google Patents
3D data creation device Download PDFInfo
- Publication number
- JP5206366B2 JP5206366B2 JP2008302126A JP2008302126A JP5206366B2 JP 5206366 B2 JP5206366 B2 JP 5206366B2 JP 2008302126 A JP2008302126 A JP 2008302126A JP 2008302126 A JP2008302126 A JP 2008302126A JP 5206366 B2 JP5206366 B2 JP 5206366B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- dimensional
- image
- facial expression
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 118
- 230000008921 facial expression Effects 0.000 claims description 95
- 230000005477 standard model Effects 0.000 claims description 69
- 230000033001 locomotion Effects 0.000 claims description 48
- 230000008859 change Effects 0.000 claims description 43
- 238000012937 correction Methods 0.000 claims description 26
- 230000001815 facial effect Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000007935 neutral effect Effects 0.000 claims description 10
- 230000004118 muscle contraction Effects 0.000 claims description 8
- 210000001097 facial muscle Anatomy 0.000 claims description 7
- 230000008451 emotion Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 210000004209 hair Anatomy 0.000 claims description 4
- 230000008602 contraction Effects 0.000 claims description 3
- 230000009471 action Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 86
- 238000012545 processing Methods 0.000 description 70
- 230000008569 process Effects 0.000 description 48
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 27
- 230000014509 gene expression Effects 0.000 description 25
- 210000003128 head Anatomy 0.000 description 23
- 238000005259 measurement Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 10
- 238000000354 decomposition reaction Methods 0.000 description 10
- 238000003754 machining Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 8
- 239000000843 powder Substances 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000005520 cutting process Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 210000003205 muscle Anatomy 0.000 description 5
- 239000003550 marker Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 229910000906 Bronze Inorganic materials 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 2
- 210000000481 breast Anatomy 0.000 description 2
- 239000010974 bronze Substances 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 229910052802 copper Inorganic materials 0.000 description 2
- 239000010949 copper Substances 0.000 description 2
- KUNSUQLRTQLHQQ-UHFFFAOYSA-N copper tin Chemical compound [Cu].[Sn] KUNSUQLRTQLHQQ-UHFFFAOYSA-N 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000011505 plaster Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 208000001613 Gambling Diseases 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical class OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000004927 clay Substances 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012946 outsourcing Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000005070 sphincter Anatomy 0.000 description 1
- 230000008961 swelling Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
本発明は、3次元データ作成装置に関する。本発明の産業上の利用分野としては、例えば、デジタルカメラ等で撮影した画像データを受信(入力)して胸像や銅像等の3次元人物像を作成するための加工用モデルデータや、CGキャラクタ、アバータ用の3次元データの作成と、画像データの受付から3次元人物像加工用データ作成装置で作成した3次元データを用いたシステムを構築することである。 The present invention relates to a three-dimensional data creation device. Industrial application fields of the present invention include, for example, processing model data for receiving (inputting) image data taken by a digital camera or the like and creating a three-dimensional human image such as a chest image or a bronze image, or a CG character The creation of a three-dimensional data for an averter and the construction of a system using the three-dimensional data created by the three-dimensional human image processing data creation device from the reception of the image data.
従来、胸像や銅像などを作成するには、対象者の周囲からの画像を撮影して、彫刻作家や鋳物師などに注文し、彫刻作家は写真と実物モデルとを元に、彫塑原型を手作業で作成し、それを元に石膏型取りし、石膏像を基に鋳物師が銅像などに加工し、着色加工して仕上げたりしていた。このような彫刻家による従来工法では、ユーザーにとってもはじっとしている必要があるなどの手間がかかり、彫刻家にとっても作成日数がかかるなど難点があった。また、彫刻家の技量やセンスに左右されるため、芸術性は高いがモデルに対する忠実度(リアリティ)は必ずしも高くなかった。 Traditionally, to create a bust or bronze statue, take an image of the subject's surroundings and place an order with a sculptor or founder. The sculptor manually works on the sculpture prototype based on the photograph and the actual model. The mold was made from this, and a plaster mold was made based on it, and the founder processed it into a copper image based on the plaster image, and finished it by coloring it. In the conventional method by such a sculptor, there is a problem that it is necessary for the user to be reluctant, and the sculptor takes a long time to create. Also, because it depends on the skill and sense of the sculptor, the artistry is high, but the fidelity (reality) to the model is not necessarily high.
また、従来から、人体モデルの立体像やレリーフ像(浮彫像)を制作する方法として、モデルを被写体として写真撮影し、この写真(撮影画像)をもとに像を制作する方法が各種提案されている。
このような方法の例として、モデルを被写体として写真撮影し、または平行線スクリーン(縞模様)などをモデルに投影して写真撮影し、この写真像を、粘土など材料表面上に投影して、それをなぞるように、手動で彫塑加工して、像を制作する方法などが、提案されている(例えば、特許文献1参照)。同特許文献1には、被写物の周囲に、多数のカメラと投光機と多数の平行線を描いたスクリーンを配して、被写物に平行線スクリーンを投影したときの画像を多数のカメラで撮影した後、相似位置の投光機で原型の材料面上に、前記撮影された写真画像と前記平行線スクリーンを投影し、材料上でのスクリーンと写真上の線条が相重なるように、材料を加工する立体写真像製作方法が開示されている。
In addition, various methods have been proposed for producing stereoscopic images and relief images (relief images) of human models, and taking images of the model as a subject and producing images based on these photos (photographed images). ing.
As an example of such a method, a model is photographed as a subject, or a parallel line screen (striped pattern) is projected on the model and photographed, and this photographic image is projected on the surface of a material such as clay, In order to trace this, a method of manually engraving and creating an image has been proposed (see, for example, Patent Document 1). In
しかし、上述の立体写真像製作方法では、撮影や彫塑加工作業などを人手で行なうもので、彫刻家による方法よりはいくらか自動化されているものの、半手動式であるため、効率が悪く、加工精度や忠実度(リアリティ)に難点があった。 However, in the above-described stereoscopic photo image production method, photographing and sculpting work are performed manually, and although it is somewhat automated than the method by the sculptor, it is semi-manual, so it is inefficient and processing accuracy is low. And fidelity (reality).
このような立体像(3次元像)作成の問題点を解消するものとして、自動撮影機などで撮影した周囲360度からの画像から3次元データを計測する技術がある(例えば、特許文献2参照)。同特許文献2には、被写物の周囲に、多数のカメラを配して、同一の被写物を撮影した後、前記カメラと相似位置の投光機で原型の材料面上に、前記カメラ撮影された写真画像を投影し、写真による材料上での線条が互いに重なるように、材料を加工する立体写真像製作方法が開示されている。
As a technique for solving such a problem of creating a three-dimensional image (three-dimensional image), there is a technique for measuring three-dimensional data from an image taken from a surrounding 360 degrees photographed by an automatic photographing machine or the like (for example, see Patent Document 2). ). In
そして、このような技術に基づいて、自動切削機や3次元粉体プリンターなどで、胸像や銅像などを製作するサービスも実施されている。また、工業用の製品や部品の試作やサンプル作成には、最近では、光造形加工や、3Dの粉体プリンターなども用いられるようになってきた。 Based on such technology, a service for producing a chest image, a copper image, etc. is also carried out with an automatic cutting machine, a three-dimensional powder printer, or the like. In addition, recently, optical modeling and 3D powder printers have come to be used for prototyping of industrial products and parts and sample preparation.
また、自動撮影機などで撮影した画像から3次元データを生成するソフトウェア技術がある(例えば非特許文献1参照)。 Further, there is a software technique for generating three-dimensional data from an image photographed by an automatic photographing machine (see, for example, Non-Patent Document 1).
しかしながら、特許文献2に開示されているように、自動撮影機から3次元データを自動作成する場合でも、周囲360度から多数枚の画像やアクティブスキャン画像などを撮影する360度撮影台や専用撮影機を必要とするので、ユーザーは、専用撮影機の設置場所まで赴いて写真を撮影する必要があり、面倒であった。また、写真画像から3次元データを生成するには、専門家による調整作業や胸像加工用のデータ変換作業などが必要であった。
However, as disclosed in
本発明の主たる目的は、同一被写体を任意の角度で撮影した複数の画像から自動的に3次元データを作成する3次元データ作成装置を提供することである。 A main object of the present invention is to provide a three-dimensional data creation apparatus that automatically creates three-dimensional data from a plurality of images obtained by photographing the same subject at an arbitrary angle.
上記課題を解決するために、請求項1に記載の発明では、立体像の標準モデルデータからなるデータベースと、複数枚の多視点画像の画像データを取得する画像データ取得手段と、3次元データ作成装置を、前記複数枚の多視点画像から3次元形状データを生成する3次元形状データ生成手段として機能させる3次元形状データ生成プログラムと、前記画像データ取得手段により取得した複数枚の画像データからそれぞれ人物領域を抽出し、抽出した人物領域から検出した顔の特徴部位と前記データベースの標準モデルデータとの対応点を取得してから、前記3次元形状データ生成プログラムにより3次元形状データを得る3次元データ作成制御手段と、前記3次元形状データを補正して顔の表情変化モデルデータを得る表情変化補正手段と、を備え、前記表情変化補正手段は、表情の種類と表情動作単位の組合せを対応付けた対応表データと、表情動作単位と顔の筋肉の収縮部位を対応付けた対応表データを含み、顔の表情を表情単位動作の組合せで表現し、各表上単位動作を対応する部位の顔の筋肉の収縮に変換することにより、喜怒哀楽を示している表情のデータを中立顔のデータに補正する、または中立顔のデータを喜怒哀楽を示している表情のデータに補正する、ことを特徴とする3次元データ作成装置を提供する。
In order to solve the above-described problems, in the invention described in
また、請求項2に記載の発明では、前記画像データ取得手段は、取得する画像データの撮影位置や撮影方向等のカメラ情報が既知の場合にそのカメラ情報を取得するカメラ情報取得手段を含み、前記立体像の標準モデルデータは、人物の顔および頭部の標準モデルデータ、表情変化の標準モデルデータを含み、前記3次元データ作成制御手段は、抽出した人物領域から検出した顔の特徴部位と前記人物の顔の標準モデルデータとの対応点から表情データを取得し、表情データにおける顔の表情と前記標準モデルデータの表情とを比較して表情データにおける顔の表情の変化が閾値より大きい場合には前記表情変化のモデルデータに基づいて顔の表情を所定の表情に補正し、前記カメラ情報取得手段によりカメラ情報が既知の場合には3次元形状データ生成プログラムに含まれている第1の3次元形状データ生成プログラムにより前記人物の3次元形状データを生成し、カメラ情報が未知の場合には3次元形状データ生成プログラムに含まれている第2の3次元形状データ生成プログラムにより前記人物の3次元形状データを生成する、ことを特徴とする請求項1に記載の3次元データ作成装置を提供する。
また、請求項3に記載の発明では、前記第1の3次元形状データ生成プログラムは、3次元データ作成装置を、前記画像データ取得手段によって取得した複数枚の多視点画像の画像データと前記カメラ情報取得手段によって取得されたカメラ情報を元に3次元形状データを生成する3次元形状データ生成手段として機能することを特徴とする請求項1に記載の3次元データ作成装置を提供する。
Further, in the invention according to
According to a third aspect of the present invention, the first three-dimensional shape data generation program uses a three-dimensional data generation apparatus to obtain image data of a plurality of multi-viewpoint images acquired by the image data acquisition unit and the camera. The three-dimensional data creation device according to
また、請求項4に記載の発明では、前記第2の3次元形状データ生成プログラムは、3次元データ作成装置を、前記画像データ取得手段によって取得した複数枚の多視点画像の画像データを元に視体積交差法によって3次元形状データを生成する3次元形状データ生成手段として機能することを特徴とする請求項1に記載の3次元データ作成装置を提供する。
According to a fourth aspect of the present invention, the second three-dimensional shape data generation program uses a three-dimensional data generation device based on image data of a plurality of multi-viewpoint images acquired by the image data acquisition unit. The three-dimensional data creation device according to
また、請求項5に記載の発明では、前記第2の3次元形状データ生成プログラムは、3次元データ作成装置を、前記画像データ取得手段によって取得した複数枚の多視点画像の画像データを元に因子分解法によって3次元形状データを生成する3次元形状データ生成手段として機能することを特徴とする請求項1に記載の3次元データ作成装置を提供する。
According to a fifth aspect of the present invention, the second three-dimensional shape data generation program uses a three-dimensional data generation device based on image data of a plurality of multi-viewpoint images acquired by the image data acquisition unit. The three-dimensional data creation device according to
また、請求項6に記載の発明では、前記立体像の標準モデルデータは、人物の顔および頭部の標準モデルデータ、表情変化の標準モデルデータ、服装および髪型の標準モデルデータを含み、前記3次元データ作成制御手段は、抽出した人物領域から検出した顔の特徴部位を元に各画像データから頭部の形および顔貌の特徴を抽出し、前記人物の顔および頭部の標準モデルデータを検索して頭部の形および顔貌の特徴に最も類似する3次元モデルデータを取得し、取得した3次元モデルデータの曲面上に前記複数枚の多視点画像の画像データを射影変換して顔および頭部の3次元形状データを生成する、ことを特徴とする請求項1に記載の3次元データ作成装置を提供する。
Further, in the invention described in
本発明によれば、任意の角度(および任意の時期、服装、表情)で撮影された画像でも、同一人物が写った複数の画像があればそれらの画像に基づいて、自動的に3次元データを生成できるので、従来のように、周囲360度の所定角度から撮影したり、専用の撮影台や自動撮影機を必要とせず、わざわざ自動撮影機の設置場所や彫刻作家の所に赴かなくても、写真や画像データを送付や送信するだけで作成される3次元データに基づいてリアルな胸像やフィギュアを、簡単且つ安価に作成できる。 According to the present invention, even if an image is taken at an arbitrary angle (and at an arbitrary time, clothes, facial expression), if there are a plurality of images showing the same person, three-dimensional data is automatically generated based on those images. As usual, you can shoot from a predetermined angle of 360 degrees around, and do not need a dedicated shooting stand or automatic camera, so you can go to the place of the automatic camera and the sculptor. However, it is possible to easily and inexpensively create a realistic bust and figure based on the three-dimensional data that is created simply by sending and transmitting photographs and image data.
図1は、本発明の3次元データ作成装置を用いた3次元画像作成受託システム100の構成例を示す図であり、3次元画像作成受託システム100は3次元形状標準モデルデータ等の標準モデルデータを検索可能に格納した標準モデルデータベース30(図4参照)を備え、任意の異なった角度で撮影した複数写真10の画像データから3次元データを作成する3次元データ作成装置1(図3参照)、3次元データ作成装置1とインターネット等の通信ネットワーク4を介して接続するカメラ付き携帯電話5やデジタルカメラ6等の撮像端末や、3次元データ作成装置1で作成された3次元データを用いて3次元画像を表示するパソコン7等の表示端末、3次元データ作成装置1で作成された3次元データ(実施例では3次元モデル加工データ)を用いて3次元画像を自動的に製作する3次元像加工装置8(例えば、3次元自動切削加工機8−1、または光造形加工機8−2、または3次元粉体プリンター8−3)からなる。
FIG. 1 is a diagram showing a configuration example of a 3D image
図1で、3次元データ作成装置1、標準モデルデータベース30、および3次元画像加工装置3は受託会社側の装置であり、カメラ付き携帯電話5やデジタルカメラ6等の撮像端末や、パソコン7等の表示端末、3次元像加工装置8は委託者側の装置である。
In FIG. 1, a three-dimensional
ここで、3次元自動切削加工機8−1、光造形加工機8−2、3次元粉体プリンター8−3は公知の3次元像加工装置であり、3次元自動切削加工機8−1は作成された3次元データを元に金属や固形樹脂、ガラス、木等を自動的に切削して胸像等の立体像を製作する装置であり、光造形加工機8−2は作成された3次元データを元に紫外線硬化樹脂を自動的にレーザ加工して立体像を製作する装置であり、3次元粉体プリンター8−3は作成された3次元データを元に粉体と接着剤の混合物をプリント技術により積層加工して立体像を製作する装置である。 Here, the three-dimensional automatic cutting machine 8-1, the stereolithography processing machine 8-2, and the three-dimensional powder printer 8-3 are known three-dimensional image processing apparatuses, and the three-dimensional automatic cutting machine 8-1 is It is a device that automatically cuts metal, solid resin, glass, wood, etc. based on the created three-dimensional data to produce a three-dimensional image such as a breast image. This is a device that automatically produces a 3D image by laser processing UV curable resin based on the data. The 3D powder printer 8-3 uses a mixture of powder and adhesive based on the created 3D data. It is a device that produces a three-dimensional image by laminating using a printing technique.
なお、実施例では3次元像加工装置8−1,8−2、8−3、・・は3次元データ作成装置1から通信ネットワーク7を介してデータを受信するための通信制御を備えているものとしたが、パソコン等7等の通信制御機能を備えた端末に接続するように構成し、3次元データ作成装置1から通信ネットワーク7を介してパソコン等7等の通信制御機能を備えた端末が受信した3次元データを用いて3次元画像を自動的に製作するようにしてもよい。
In the embodiment, the three-dimensional image processing apparatuses 8-1, 8-2, 8-3,... Have communication control for receiving data from the three-dimensional
また、図1に示すように、3次元データ作成装置1に3次元像加工装置3(例えば、3次元像加工装置8−1,8−2、8−3とほぼ同様な機能を有する3次元自動切削加工機3−1、または光造形加工機3−2、または3次元粉体プリンター3−3)を接続し、作成された3次元データを用いて3次元画像を自動的に製作するように構成してもよい。
Further, as shown in FIG. 1, the three-dimensional
図2は、図1に示した3次元画像作成受託システム100における3次元画像の受託作成プロセスを示すプロセスチャートである。図2で、委託者は、撮像端末5または6で撮影した多視点カメラ画像データ(同一人物を同じ撮影日時、同じ場所で、任意の異なった角度で撮影した複数の画像データ(図7(b)参照)または同一人物を異なる撮影日時、異なる場所で撮影した異なる複数の画像データ(図7(a)参照)と、納入日、委託内容、作成委託するデータの種類、納入条件等の委託条件を、インターネット4を介して3次元データ作成装置1に送信する(プロセスP1)。なお、このプロセス1で画像データを送信する代わりに同一人物を任意の異なった角度で撮影した複数の写真または同一人物の複数の写真(撮影時期は異なっていてもよい)10や人物画を郵送等の方法で委託者に渡すようにしてもよい。
FIG. 2 is a process chart showing a 3D image contract creation process in the 3D image
3次元データ作成装置1は、画像データを受信すると受信した委託条件をメモリに登録すると共に、委託者の認証、課金処理等を行ない、受信した画像データをRAM等の一時記憶メモリに記憶する(プロセスP2)。
なお、プロセスP1で郵送等の方法で委託者から写真や人物画等を受け取った場合は、このプロセス2で受託者側のオペレータの指示操作に基づいて3次元データ作成装置1の画像入力処理部14で写真等の読取および画像データ作成を行うと共に受付登録、委託者の認証、課金処理を行ない、画像データをRAM等の一時記憶メモリに記憶する。
When receiving the image data, the three-dimensional
When a photograph or a portrait is received from the contractor by mail or the like in the process P1, the image input processing unit of the three-dimensional
次に、3次元データ作成装置1は、多視点カメラ画像データからそれぞれ顔領域を検出して、顔の大きさや向き、回転などを正規化した後、「Lucas-Kanade法(勾配法)」や、「Kanade-Lucas-Tomasiトラッカー」などにより、特徴点の移動や相違を追跡し、対応点を探索し、各点の移動、距離の深さ、カメラ位置、エッジモーションなどを解析して、カメラの位置や動き情報を求めて、任意の多視点画像とカメラ情報から形状データを求める(図12参照)(プロセスP3)。
Next, the three-dimensional
また、プロセスP3として、「射影グリッド空間における視体積交差法」などを用いて、3次元ボクセル(立体画素)空間を多数の立体格子に分割し、異なる視点の各画像におけるシルエット画像を3次元ボクセル空間に逆投影して(すなわち、各ボクセルが各画像に投影される場合にそのシルエットに含まれるか否かを判断して)、顔および頭部の3次元データを生成してもよい(図13参照)。 In addition, as a process P3, a “3D voxel (stereopixel) space” is divided into a number of 3D grids using “view volume intersection method in projective grid space” or the like, and silhouette images in each image from different viewpoints are 3D voxels. 3D data of the face and head may be generated by backprojecting to space (ie, determining whether each voxel is included in the silhouette when projected on each image) (see FIG. 13).
また、プロセスP3として、複数画像における対応点から、「因子分解法」などにより、(計測行列)=(移動行列)×(形状行列)における(移動行列)と(形状行列)とを同時に求め、(形状行列)から顔および頭部の3次元データを生成する方法等、他の方法を用いても良い(図14参照)。 Further, as process P3, (measurement matrix) = (movement matrix) × (movement matrix) in (shape matrix) and (shape matrix) are simultaneously obtained from corresponding points in a plurality of images by a “factorization method” or the like. Other methods such as a method of generating face and head 3D data from the (shape matrix) may be used (see FIG. 14).
3次元データ作成装置1は、プロセス2で登録した委託条件を調べ(プロセスP4)、3次元データの作成の委託の場合は通信ネットワーク4を介して委託者のパソコン5または携帯電話6に作成した3次元モデルデータを送信すると共に請求書を発行する(プロセスP5)。
The 3D
委託条件が加工用3次元モデルデータの作成または立体像(または原型)の製作の場合は、加工装置の種類に応じた加工用3次元モデルデータを作成し、委託条件が加工用3次元モデルデータの納入の場合は納入条件に基づいて通信ネットワーク4を介して委託者の3次元像加工装置8(またはそれを接続するコンピュータ)に作成した加工用3次元モデルデータを送信すると共に請求書を発行する。なお、納入条件がCD等の記録媒体納入の場合は作成した3次元モデルデータをCDに記録すると共に請求書を発行する(プロセスP6)。
If the consignment conditions are creation of 3D model data for processing or 3D image (or prototype) production, 3D model data for processing corresponding to the type of processing equipment is created, and the consignment conditions are 3D model data for processing. In the case of delivery, the processing 3D model data created and transmitted to the contractor's 3D image processing device 8 (or the computer to which it is connected) via the
また、委託条件が立体像(または原型)の製作の場合は、作成した加工用3次元モデルデータを受託者側の3次元像加工装置3−1、または3−2、または3−3に送信して加工を行わせ、加工が終了すると請求書を発行する(プロセス7)。 Further, when the consignment condition is production of a three-dimensional image (or a prototype), the created three-dimensional model data for processing is transmitted to the three-dimensional image processing device 3-1, 3-2, or 3-3 on the trustee side. Then, processing is performed, and when processing is completed, a bill is issued (process 7).
図3は本発明の3次元データ作成装置の構成例を示す図である。3次元データ作成装置1は、パソコン程度の処理能力を有するコンピュータからなり、3次元データ作成装置1全体の動作制御を行うと共に、3次元データ作成時には3次元データ作成プログラム(後述)に基づいて3次元データ作成処理制御を行うCPU11、プログラムやデータを一時記憶したり作業領域として用いるRAM等の一時記憶メモリ12、インターネット等の通信ネットワーク4を介して画像データや撮影位置や方向等のカメラ情報等のデータの送受信を行う送受信処理部13、写真やデザイン画等の画像を読み取って画像データを作成する画像入力処理部14、各種プログラム21〜23や顔形標準モデルデータベース30や、委託者から受信した委託条件や課金情報、作成した3次元画像データ等を記録した保存メモリ2、操作用のキーボード15、表示部16および、図示していないが、作成した3次元データをCD等の記録媒体に記録可能な媒体記録装置を備えている。なお、画像入力処理部14、表示部16は必須ではない。
FIG. 3 is a diagram showing a configuration example of the three-dimensional data creation apparatus of the present invention. The three-dimensional
また、3次元データ作成装置1に3次元像加工装置3−1、3−2、3−3等の3次元像加工装置3や3次元像加工装置8−1、8−2、8−3等の3次元像加工装置8に作成した3次元データを送信するためのインターフェイス17を備えるようにしてもよい。
Further, the three-dimensional
図4は3次元標準モデルデータベース30の構成例を示す図であり、3次元標準モデルデータベース30は、顔(人物の顔や頭部)の3次元標準モデルデータ31や、表情変化の3次元標準モデルデータ32、および服装、髪型等の3次元モデルデータ33を体系的かつ検索可能に格納してなる。図3の例では3次元標準モデルデータベース30を保存メモリ2に格納するようにしたが、3次元標準モデルデータベース30を格納したメモリと保存メモリ2は別体でもよい。
FIG. 4 is a diagram illustrating a configuration example of the three-dimensional
顔の3次元標準モデルデータ31は、同一人物を任意の角度で撮影した複数枚の画像(任意の多視点画像)データの顔領域から得られる顔や頭部の特徴点から導かれる立体形状に対応する顔の3次元標準モデルの形状を構成する諸元(特徴点およびそのモデルの形状を構成する形状データ(例えば、正規化された座標等からなる形状行列))である。なお、顔や頭部の立体形状に対応する顔の3次元標準モデルは一つとは限られない。顔の3次元標準モデルデータ31には、通常、顔や頭部の特徴点の組ごとに複数の3次元モデルが対応付けられている。図8に顔の3次元標準モデルの一例を示す。
The three-dimensional
表情変化の標準モデルデータ32は、顔の表情表現の要素(例えば、目の開閉、大きさ、眼球の位置、口の開閉、口元の形状、鼻のふくらみ等)からなる表情と表情形成(例えば、笑い、怒り、安堵、喜び、悲しみ等の大きさを引き起こす筋肉部位とその収縮の度合いを示す指数)を対応付けたデータからなる。顔の表情変化の標準モデルデータ32は3次元モデルデータ作成時に3次元標準モデルデータ31を元に得た人物像の表情を補正若しくは補完するために用いられる。図9に、表情動作と表情変化を引き起こす表情筋などの筋肉の収縮部位等を対応付けた対応表データ32−1および表情(表情データ)とAUの組み合わせ表データ32−2からなる顔の表情変化の標準モデルデータの一例を示す。
The
服装、髪型等の標準モデルデータ33は、図示していないが、さまざまな服装、髪型等の3次元データを体系的に登録してなる。服装、髪型等の標準モデルデータ33は、3次元データ作成時に受信(入力)した画像の胴部や頭部から抽出した服装や髪の形状と登録されている標準モデルデータとの比較により最も類似する服装や髪型のモデルデータが選定され、3次元標準モデルデータ31を元に得た人物像を補正若しくは補完するために用いられる。
The
図5は保存メモリ2に格納されているプログラムの例を示す図であり、保存メモリ2のプログラム格納エリア20には、図5(a)に示すように、3次元データ作成装置1全体の動作を制御するための制御プログラム(例えば、OS)、通信ネットワーク4を介して端末5、6、7、・・・等とのデータ(電子メール、画像データ、制御データ等)の送受信を制御する通信制御プログラム等の制御プログラム群21、委託者からの3次元データの受託管理処理(委託受付処理、認証処理、課金処理、請求書発行処理等)を行う受託管理プログラム群22、任意の角度で撮影した同一人物の複数の画像の画像データ(以下、「複数の画像データ」と記す)から3次元データを作成する3次元データ作成プログラム23、加工用3次元モデルデータ作成プログラム24、3次元データ出力プログラム25等が格納されている。
FIG. 5 is a diagram showing an example of a program stored in the
なお、制御プログラム群21、受託管理プログラム群22、および3次元データ作成プログラム23等のプログラムは保存メモリ2とは別体のメモリに保存してもよく、RAM12に常駐しているものであってもよい。また、受託管理プログラム群22、および3次元データ作成プログラム23、加工用3次元モデルデータ作成プログラム24、3次元データ出力プログラム25等のプログラムは、3次元データ作成依頼のある都度、通信ネットワーク4を介して図示しないサーバからダウンロードされるものであってもよい。
Programs such as the
3次元データ作成プログラム23は図2のステップP3に相当する動作を3次元データ作成装置1に実行させるプログラムであり、図2のプロセスP2で受信した複数の画像データ(若しくは画像入力部14で読み取った写真、人物画等から生成された画像データ)の正規化等の前処理を行ってから人物の顔の特徴部位を検出し、検出された特徴に基づいて各画像から人物の領域を抽出する人物領域抽出プログラム231、抽出された各画像の人物領域の顔画像から所定の特徴点を検出し、標準モデルデータベース30に格納されている顔の3次元標準モデルデータ31の特徴点との対応付けを行う特徴点対応付プログラム232、顔の表情の違いや変化が所定値より大きい場合に(中立顔やすまし顔、微笑顔などの)所定の表情の顔画像になるよう顔の表情等の変化の補正を行う表情変化の補正処理プログラム233、所定の方法により人物の3次元形状データを生成する3次元形状データ生成プログラム234等のサブプログラムからなる。
The three-dimensional
加工用3次元モデルデータ作成プログラム24は、図2のステップP6に相当する動作を3次元データ作成装置1に実行させるプログラムであり、3次元データ作成プログラム23により作成された3次元形状データから3次元像加工装置の種類に応じた加工用3次元モデルデータを作成する。
The machining 3D model
また、3次元データ出力プログラム25は、図2のステップP5に相当する動作を3次元データ作成装置1に実行させるプログラムであり、加工用3次元モデルデータ作成プログラム235により作成された3次元データや3次元モデルデータを委託者の指定する方法で出力(通信ネットワーク4を介した委託者端末への送信、CDへの記録、受託者側の3次元像加工処理用のデータ出力)する。
The three-dimensional
なお、3次元データ作成プログラム23の変形例として、図5(b)に示すように、表情変化の補正処理プログラム233および3次元形状データ生成プログラム234を特徴点対応付けプログラム232によって対応付けされた対応点から対象者の頭部の形および顔貌の特徴点を抽出する特徴点抽出プログラム236、顔の3次元標準モデルデータ31を検索し、特徴点抽出プログラム236によって抽出された対象者の頭部や顔の特徴点に最も類似する3次元モデルデータを得る3次元モデルデータ検索プログラム237、3次元モデルデータ検索プログラム237によって検索されたモデルの3次元形状(曲面)上に射影変換して顔および頭部の3次元データを生成する3次元データ生成プログラム238、および表情変化の標準モデルデータ32や服装・髪型等の標準モデルデータ33を元に顔の表情の変化や服装・髪型等の補正を行う表情変化等の補正処理プログラム239に代えてもよい(図15参照)。
As a modification of the three-dimensional
図6は、本発明に基づく3次元形状データ作成過程の説明図である。3次元形状データ生成の際、同一人物が写った任意の複数枚の画像を用いる場合に、同一日時における同一被写体の撮影画像の代りに、同一人物だが、異なる日時や場所の画像を用いる場合には、同一人物でも、角度や向きだけでなく、髪形や服装、化粧などが変わっていたり、表情が異なっていたりする場合が生じるので、実施例では表情の変化が著しい場合に「無表情」または「微笑顔」等の「中立顔」の画像に補正するように構成したが、髪形や服装、化粧などが変わっていた場合にも同様に(例えば、標準的な服装や髪型に)補正することもできる。 FIG. 6 is an explanatory diagram of a process of creating three-dimensional shape data based on the present invention. When generating arbitrary 3D images of the same person when generating 3D shape data, when using images of the same person but different dates and places instead of captured images of the same subject at the same date and time The same person may change not only the angle and direction, but also the hairstyle, clothes, makeup, etc. or the expression may be different. Although it is configured to correct to “neutral face” images such as “smile”, it should be corrected in the same way (for example, standard clothes and hairstyles) when the hairstyle, clothes, makeup, etc. have changed. You can also.
図6で、(a)は同一人物を撮影した(撮影日時および撮影場所が異なる)複数枚の画像を示し、(b)は(a)に示した各画像の表情の変化の補正処理を施した画像を示し、(c)は対象物(人物)を多視点、つまり、任意の異なる視点(位置)から撮影した(撮影日時および撮影場所が同じ複数枚の画像)を示す。また、(d)は、上記(b)または(d)の各画像から得る対象人物の顔部分の多視点画像データを示し、(e)は(d)の多視点画像データから生成される3次元形状データの例を示す。 In FIG. 6, (a) shows a plurality of images of the same person (with different shooting date and time and shooting location), and (b) shows the correction processing for the change in facial expression of each image shown in (a). (C) shows an object (person) photographed from multiple viewpoints, that is, from arbitrary different viewpoints (positions) (a plurality of images having the same photographing date and time and photographing location). Further, (d) shows multi-viewpoint image data of the face portion of the target person obtained from each image of (b) or (d), and (e) is generated from the multi-viewpoint image data of (d) 3 An example of dimensional shape data is shown.
つまり、(a)のように同一人物の撮影画像であっても、撮影日時および撮影場所が異なると各画像の表情等が異なる場合があるので、(b)のように表情等の変化の補正処理(図7のステップS6、S7、図10参照)を施してから、(d)のような多視点画像データを得て(e)のような3次元形状データを生成する(図7のステップS9、図12〜図14参照)。また、(c)のように同一人物を同じ撮影日時および撮影場所で角度を代えて撮影した複数の画像では表情等の変化は小さいので、(b)のように表情等の変化の補正処理なしに(d)のような多視点画像データを得て(e)のような3次元形状データを生成する。 That is, even in the case of a photographed image of the same person as in (a), the facial expression and the like of each image may differ depending on the photographing date and time and the photographing location. After performing the processing (see steps S6, S7, and FIG. 10 in FIG. 7), multi-viewpoint image data as shown in (d) is obtained, and three-dimensional shape data as shown in (e) is generated (step in FIG. 7). S9, see FIGS. 12 to 14). In addition, since changes in facial expressions and the like are small in a plurality of images obtained by photographing the same person at the same shooting date and time and shooting location as shown in (c), there is no correction processing for changes in facial expressions and the like as shown in (b). In addition, multi-viewpoint image data as shown in (d) is obtained to generate three-dimensional shape data as shown in (e).
図7は、3次元データ作成装置1の3次元データ作成動作の一実施例を示すフローチャートである。
3次元データ作成装置1のCPU11は、3次元データ作成プログラム23により図7のステップS2〜S9に示すような動作(図2のステップP3の動作に相当する機能)を実行し加工用3次元モデルデータ作成プログラム24により、図7のステップS10〜S11に示すような動作(図2のステップP5の動作に相当する機能)を実行し、3次元データ出力プログラム25により、図7のステップS10〜S13に示すような動作(図2のステップP6の動作に相当する機能)を実行する。つまり、3次元データ作成装置1の動作は制御プログラム群21の制御下でCPU21によって保存メモリ2から取り出され、RAM12の実行プログラム領域に記憶される受託管理プログラム群22、3次元データ作成プログラム23、加工用3次元モデルデータ作成プログラム24、および3次元データ出力プログラム25に基づいて実行される。
FIG. 7 is a flowchart showing an embodiment of the three-dimensional data creation operation of the three-dimensional
The
CPU11は、委託者の撮像端末から任意の多視点画像データ(およびカメラ情報を含む)撮影情報若しくは連続動画像データを受信すると受信した画像データをRAM12の所定領域に記憶する。なお、委託者から郵送等の手段により3次元データ作成委託データを受け取った場合は、画像入力処理部14で各画像を読み取ってそれぞれの画像データを生成し、生成した画像データをRAM12の所定領域に記憶する(ステップS1)。
When the
次に、CPU11は、人物領域抽出プログラム231により、RAM12の所定領域に記憶されている各画像データの傾き補正、ノイズ除去、鮮鋭化処理、および画像サイズ等を合わせる正規化等の前処理を行う(ステップS2)。傾き補正、ノイズ除去、鮮鋭化処理、および正規化等の前処理は公知の画像処理技術を適用することができる。
Next, the
CPU11は、人物領域抽出プログラム231により、RAM12の所定領域に記憶されている各画像データからそれぞれ人物の顔の特徴部位を検出し(ステップS3)、検出された特徴に基づいて各画像から人物の領域を抽出する(ステップS4)。
多視点画像からの人物の顔の特徴部位の抽出についても公知の画像処理技術、例えば、「Lucas-Kanade法(勾配法)」や、「Kanade-Lucas-Tomasiトラッカー法」などを摘要して特徴点の移動や相違を追跡し、対応点を探索することによって行うことができる。
The
Extraction of human facial features from multi-viewpoint images using well-known image processing techniques such as “Lucas-Kanade method (gradient method)” and “Kanade-Lucas-Tomasi tracker method” This can be done by tracking point movement and differences and searching for corresponding points.
ここで、同一人物が写った任意の複数枚の画像を用いる場合に、同一日時における同一被写体の撮影画像の代りに、同一人物だが、異なる日時や場所の画像を用いる場合には、同一人物でも、角度や向きだけでなく、髪形や服装、化粧などが変わっていたり、表情が異なっていたりする場合が生じる。CPU11は、特徴点対応付プログラム232により、ステップS3、S4で異なる複数枚の多視点画像から検出された顔の特徴と、標準モデルデータベース30に格納されている顔の3次元標準モデルデータ31の特徴点との対応付けを行って、顔の表情データを検出する(ステップS5)。
Here, when using a plurality of arbitrary images of the same person, the same person is used instead of the photographed image of the same subject at the same date and time. , Not only the angle and direction, but also the hairstyle, clothes, makeup, etc. may change or the expression may differ. The
次に、CPU11は、表情変化の補正処理プログラム233により、多視点画像のうち、当該視点画像の顔の特徴や表情の違いや変化が顔の3次元標準モデルデータ31における顔の特徴や表情と比べて所定の閾値より大きい場合、または、表情変化の補正機能がON設定されている場合にはステップS7に進み、そうでない場合はステップS8に進む(ステップS6)。
Next, the
表情変化の補正処理プログラム233は、当該視点の画像における人物の顔領域の画像に対して、(中立顔やすまし顔、微笑顔などの)所定の表情の顔画像になるよう顔の表情等の変化の補正処理(図10参照)を施してからステップS9に進む(ステップS7)。ステップS7の顔の表情の変化の補正処理動作により、下記ステップS9で行う3次元形状データ生成処理により、より精度の高い3次元形状データを生成することができる。
The facial expression change
CPU11は、処理対称の複数枚の多視点画像の撮影位置や撮影方向などのカメラ情報が既知か否かを調べ(ステップS8)、既知の場合は3次元形状データ作成による、図12に示すような複数枚の多視点カメラ画像からの3次元形状データ作成動作により3次元形状データを生成してステップS10に進み、撮影情報が既知でない場合は図14に示すような因子分解法による3次元形状データ作成動作により3次元形状データを生成してステップS10に進む(ステップS9)。なお、撮影情報が既知でない場合に、図13に示すような視体積交差法による3次元形状データ作成動作により3次元形状データを生成するようにしてもよい。
The
次に、CPU11は、加工用3次元モデルデータ作成プログラム24により、図2のプロセス2で登録した委託条件を調べ、委託条件がCGキャラクタ、アバータ用3Dモデルモデルデータ等の3次元データ作成依頼の場合はステップS11に進み、委託条件が加工用3次元モデルデータの作成、または立体像(または原型)の製作の場合はステップS12に進む(ステップS10)。
Next, the
委託条件がCGキャラクタ、アバータ用3Dモデルモデルデータ等の3次元データ作成依頼の場合は、委託者のパソコン5または携帯電話6に作成したCGキャラクタ、アバータ用3Dモデルモデルデータを作成してネットワーク4を介して送信すると共に受託管理プログラム群22に含まれている請求書発行プログラムにより請求書を発行する(ステップS11)。
If the consignment condition is a request to create 3D data such as a CG character and 3D model data for averter, the
委託条件が加工用3次元モデルデータの作成、または立体像(または原型)の製作の場合は、CPU11は、加工用モデルデータ作成プログラム236により、加工装置の種類に応じた加工用3次元モデルデータを作成し、ステップS13に進む(ステップS12)。
When the consignment condition is creation of machining 3D model data or production of a three-dimensional image (or prototype), the
委託条件が立体像(または原型)の製作の場合は(図2のプロセスP6で立体像(または原型)の製作加工を行わせるために)作成した加工用3次元モデルデータを受託者側の3次元像加工装置3−1、または3−2、または3−3に送信する。また、加工用3次元モデルデータの納入の場合は(図2のプロセスP5に示したように)納入条件に基づいて通信ネットワーク4を介して委託者の3次元像加工装置8(またはそれを接続するコンピュータ)に作成した加工用3次元モデルデータを送信すると共に受託管理プログラム群22に含まれている請求書発行プログラムにより請求書を発行する。なお、納入条件がCD等の記録媒体納入の場合は作成した3次元モデルデータをCDに記録すると共に請求書を発行する(ステップS13)。
When the consignment condition is production of a three-dimensional image (or prototype) (to make a three-dimensional image (or prototype) produced by process P6 in FIG. 2), the processing 3D model data created by the
上述したように、本発明の3次元データ作成装置によれば、任意の角度(および任意の時期、服装、表情)で撮影された画像でも、同一人物が写った複数の画像があればそれらの画像に基づいて、自動的に3次元データを生成できるので、従来のように、周囲360度の所定角度から撮影したり、専用の撮影台や自動撮影機を必要とせず、わざわざ自動撮影機の設置場所や彫刻作家の所に赴かなくても、写真や画像データを送付や送信するだけで作成される3次元データに基づいてリアルな胸像やフィギュアを、簡単且つ安価に作成できる。また、インターネット等の通信ネットワークや電子メールを利用して、パソコンやカメラ付携帯電話から画像を送信して胸像やフィギュアを発注することもできる。 As described above, according to the three-dimensional data creation device of the present invention, even if an image is taken at an arbitrary angle (and at an arbitrary time, clothes, facial expression), if there are a plurality of images showing the same person, those Since 3D data can be automatically generated on the basis of images, it is not necessary to shoot from a predetermined angle of 360 degrees around as in the past, or to use an automatic shooter without the need for a dedicated shooting stand or automatic shooter. Even without going to the place of installation or the sculptor, a realistic bust or figure can be created easily and inexpensively based on the three-dimensional data created simply by sending or sending photographs and image data. It is also possible to order busts and figures by sending images from a personal computer or camera-equipped mobile phone using a communication network such as the Internet or electronic mail.
図8は、顔の3次元標準モデルおよび表情変化の補正後の3次元モデルの例を示す図であり、(a)は顔の標準モデルデータ31から生成される3次元標準モデルの一例を示し、(b)は、(a)に示した次元標準モデルに図9に示すような顔の括約筋と線形筋モデルによって補正された顔の表情変化モデルデータ32の例を示す。
FIG. 8 is a diagram showing an example of a three-dimensional standard model of a face and a three-dimensional model after correction of expression changes, and (a) shows an example of a three-dimensional standard model generated from the
図9は、顔の表情変化の標準モデルデータ32の一実施例を示す図であり、(a)はAU番号、AU(Action Unit、表情動作単位)とAUを引き起こす表情筋などの筋肉の収縮部位等を対応付けた表情変化と筋肉収縮対応表データ32−1を示し、(b)は表情(表情データ)とAUの組み合わせ表データ32−2を示す。
FIG. 9 is a diagram showing an example of the
図10は、表情変化の補正処理プログラムによる顔画像の表情の変化の補正処理動作の一実施例を示すフローチャートであり、図6、図8、図9を元に説明する。
図10において、図6のステップS5で検出した顔の表情データを、表情とAUの組み合わせ表データ32−2の表情データと比較して、AU(表情動作単位)の組み合わせを得る。つまり、検出された顔の表情を、例えば、「驚き」=AU1(内眉を上げる)+AU2(外眉を上げる)+AU5(上瞼を上げる)+AU26(口を開ける)といった表情動作単位AUで表現する(ステップS7−1)。
FIG. 10 is a flowchart showing an example of correction processing operation of facial expression change by a facial expression change correction processing program, which will be described with reference to FIGS. 6, 8, and 9.
In FIG. 10, the facial expression data detected in step S5 in FIG. 6 is compared with the facial expression data in the facial expression / AU combination table data 32-2 to obtain a combination of AUs (facial expression operation units). That is, the expression of the detected face is expressed in the expression operation unit AU, for example, “surprise” = AU1 (inner eyebrow raised) + AU2 (outer eyebrow raised) + AU5 (upper eyelid raised) + AU26 (mouth opened). (Step S7-1).
次に、各AUを表情変化と筋肉収縮対応表データ32−1を用いて対応する表情筋の収縮に変換する。例えば、AU(i)→内側前頭筋(0.14)+外側前頭筋(0.17)+眼瞼部眼輪筋(−0.48)といったように表情筋の収縮に変換する(ステップS7−2)。 Next, each AU is converted into a corresponding facial muscle contraction using the facial expression change and muscle contraction correspondence table data 32-1. For example, conversion into facial muscle contraction such as AU (i) → inner frontal muscle (0.14) + outer frontal muscle (0.17) + eyelid eyelid muscle (−0.48) (step S7−). 2).
そして、各表情に対応する、ステップS7−2で得た表情筋を収縮させた3次元顔画像をCG描画再生して3次元画像データを取得し、図7のステップS8に進む(ステップS7−3)。 Then, the 3D face image obtained by contracting the facial expression muscle obtained in step S7-2 corresponding to each facial expression is drawn and reproduced by CG to obtain 3D image data, and the process proceeds to step S8 in FIG. 7 (step S7-). 3).
図11は、表情変化の補正処理プログラムによる顔の表情等の補正の説明図であり、図10の表情変化の補正処理プログラム233(または235)では、(a)〜(f)に示すような、「喜び」、「驚き」、「悲しみ」、「恐れ」、「嫌悪」、「怒り」といったような喜怒哀楽を示している表情の画像を、補正して、(g)に示す「無表情」または「微笑顔」等の「中立顔」の画像とする。また、逆に、(g)に示す「無表情」または「微笑顔」等の「中立顔」の画像から(a)〜(f)に示すいずれかの表情の画像に補正することもできる。 FIG. 11 is an explanatory diagram of correction of facial expression and the like by the expression change correction processing program. In the expression change correction processing program 233 (or 235) of FIG. 10, as shown in (a) to (f) of FIG. , “Joy”, “surprise”, “sadness”, “fear”, “disgust”, “anger”, and other expressions of facial expressions showing emotions such as “anger” are corrected to “nothing” shown in (g). The image is a “neutral face” image such as “expression” or “smile”. Conversely, the image of “neutral face” such as “no expression” or “smiling smile” shown in (g) can be corrected to the image of any expression shown in (a) to (f).
<複数枚のカメラ画像からの3次元形状データの作成方法>:
特に、複数枚の撮影画像から3次元形状データを生成する方法について、以下に詳しく説明する。
<Method for creating three-dimensional shape data from a plurality of camera images>:
In particular, a method for generating three-dimensional shape data from a plurality of photographed images will be described in detail below.
(A):画素座標、カメラ座標、画像座標;
カメラを基準とした3次元空間座標を「カメラ(Camera)座標」と、2次元画像を表現する「画像(Image)座標」とを、カメラ座標系(X,Y,Z)の原点(0,0,0)を光軸上のカメラ中心とし、撮像画像面に平行なX軸、Y軸と光軸方向のZ軸との正規直交座標系として設定すると、カメラ座標が(X,Y,Z)Tである3次元空間の点と、その透視射影として得られる2次元画像の画像座標(x、y)Tには、次式が成り立つ。
x=l×X/Z、y=l×Y/Z(ただし、l:カメラの焦点距離) ・・・(1)
(A): pixel coordinates, camera coordinates, image coordinates;
The three-dimensional space coordinates based on the camera are the “camera coordinates” and the “image coordinates” representing the two-dimensional image are the origin (0, 0) of the camera coordinate system (X, Y, Z). (0, 0) is the camera center on the optical axis, and the camera coordinates are set to (X, Y, Z) when set as an orthonormal coordinate system of the X axis, Y axis parallel to the captured image plane, and the Z axis in the optical axis direction. ) The following expression holds for a point in the three-dimensional space T and the image coordinates (x, y) T of the two-dimensional image obtained as the perspective projection.
x = 1 × X / Z, y = 1 × Y / Z (where l is the focal length of the camera) (1)
ここで、透視射影による3次元空間の像を記述する「画像(Image)座標」と、モニター表示画面などの「画素(Pixel)座標」の間には、個々のカメラに固有の1対1の写像関係がある。複数の画像における点対応からカメラ運動と相対的位置関係(3次元形状)とを復元する場合には、点対応は、まず「画像座標」で与えることができるので、全てのカメラに対して統一的に扱うためには、この「画素(Pixel)座標」と「画像(Image)座標」間の1対1の写像関係を求めること(「カメラキャリブレーション」と呼ばれる)ができれば、「画素(Pixel)座標」と「画像(Image)座標」とを自由に変換できることになる。 Here, there is a one-to-one characteristic unique to each camera between “Image coordinates” describing an image in a three-dimensional space by perspective projection and “Pixel coordinates” such as a monitor display screen. There is a mapping relationship. When restoring camera motion and relative positional relationship (three-dimensional shape) from point correspondence in multiple images, point correspondence can be given first by "image coordinates", so it is unified for all cameras In order to deal with the problem, if a one-to-one mapping relationship between the “pixel coordinates” and the “image coordinates” can be obtained (referred to as “camera calibration”), the “pixels (Pixel coordinates)” can be obtained. ) Coordinates "and" image coordinates "can be freely converted.
カメラモデルを表現する透視射影において、複数の画像における点対応からカメラ運動と3次元形状とを求める問題は、非線形写像の逆問題となるので、非線形最適化問題に帰着し、非線形最適化問題はノイズに敏感で、初期値依存性が高く、数値計算が不安定であるなど、問題があるため、安定して3次元形状を復元することは難しい。
そこで、非特許文献1にあるように、カメラの位置や姿勢、視点方向などに関する外部情報、すなわち、カメラ運動情報を入力するか、参照マーカーなど人工的特徴を付加することによって、カメラ運動情報を求めやすくする方法がある。
In perspective projection that expresses a camera model, the problem of obtaining camera motion and 3D shape from point correspondence in multiple images is an inverse problem of the nonlinear mapping, resulting in a nonlinear optimization problem. Since there are problems such as sensitivity to noise, high initial value dependency, and unstable numerical calculation, it is difficult to stably restore a three-dimensional shape.
Therefore, as described in
あるいは、特開2004−220312号公報や、後述の視体積交差法の説明にあるように)、複数の多視点カメラ(または視点)の中から、なるべく直交する関係の2台のカメラ(または視点)を基底カメラとして選択して、基底カメラによる射影グリッド空間を用いて、複数のカメラ間または視点間の相互関係情報を付加するか、制限して、例えば、カメラ間のエピポーラ幾何関係を表す基底行列F(Fundamental)行列等を用いて、射影グリッド空間上の点(ボクセル)を各カメラ画像へ逆投影し、各カメラ画像のシルエット画像において、各点(ボクセル)が対象物の内部に存在するか外部かを判定して、3次元形状データを復元する方法がある。 Alternatively, two cameras (or viewpoints) that are orthogonal to each other as much as possible from among a plurality of multi-viewpoint cameras (or viewpoints) as disclosed in Japanese Patent Application Laid-Open No. 2004-220312 and the explanation of the visual volume intersection method described later. ) As a base camera, and using a projection grid space by the base camera, add or restrict correlation information between multiple cameras or viewpoints, for example, a base representing an epipolar geometric relationship between cameras A point (voxel) on the projection grid space is back-projected onto each camera image using a matrix F (Fundamental) matrix or the like, and each point (voxel) exists inside the object in the silhouette image of each camera image. There is a method of restoring the three-dimensional shape data by determining whether it is external or external.
あるいは、金出武雄ほか、「因子分解法による物体形状とカメラ運動の復元」、電子通信学会論文誌、J76−D−II、No.8(19930825)、pp.1497−1505や、藤木 淳(産総研)、「点対応を用いた複数の2次元画像からの3次元形状復元−因子分解法の数理−」、統計数理、第49巻第1号、pp77〜107、2001年にあるように、「因子分解法」などにより、理想的カメラモデルである透視射影をアフィン射影に近似して、正射影モデル等のアフィン近似射影に基づいた複数の2次元画像からカメラ運動情報と3次元形状情報とを同時に復元する手法などを用いることができる。 Alternatively, Takeo Kanade et al., “Restoring Object Shape and Camera Motion by Factorization”, IEICE Transactions, J76-D-II, No.8 (19930825), pp. 1497-1505, Satoshi Fujiki (AIST), “Reconstruction of 3D shape from multiple 2D images using point correspondence -Mathematical factorization method”, Statistical mathematics, Vol. 49, No. 1, pp77- As in 107 and 2001, the perspective projection, which is an ideal camera model, is approximated to an affine projection by “factorization method”, etc., and a plurality of two-dimensional images based on an affine approximate projection such as an orthographic projection model are used. A technique for simultaneously restoring camera motion information and three-dimensional shape information can be used.
2次元画像がアフィン近似射影で得られると仮定すると、複数のアフィン近似射影画像における点対応からのカメラ運動と3次元形状の復元問題は、線形写像の逆問題となるので、復元の精度は劣るが、非線形写像の場合に比べ数値計算上安定して解くことができるようになる。 Assuming that a two-dimensional image is obtained by affine approximate projection, the camera motion from point correspondence in a plurality of affine approximate projection images and the three-dimensional shape restoration problem are inverse problems of the linear mapping, so the restoration accuracy is inferior. However, it can be solved more stably in numerical calculation than in the case of nonlinear mapping.
B:複数の画像間における点の対応付け;
まず、複数の画像間における点特徴(輝度や色、輪郭形状、テクスチャーなど)の対応付けを行なう。3次元空間では遠く離れた点も、2次元画像では近くに投影されることがある。2次元画像におけるわずかな誤差が3次元空間での認識や理解に重大な影響を及ぼすので、複数の画像間における点の対応を精度良く行なう必要がある。
B: point association between multiple images;
First, point features (luminance, color, contour shape, texture, etc.) are associated between a plurality of images. Points that are far away in the three-dimensional space may be projected closer in the two-dimensional image. Since a slight error in a two-dimensional image has a significant effect on recognition and understanding in a three-dimensional space, it is necessary to accurately correspond points between a plurality of images.
複数の画像間における特徴点の対応付けには、「Lucas-Kanade法(勾配法)」(1981年)や、「Kanade-Lucas-Tomasiトラッカー」(Shi and Tomasi、1994年)などの手法を用いることができる。時間的に離れた画像を事前知識無しに対応付けるのは難しいが、複数の点で対応が既知であれば、同一の3次元空間を撮影した多視点の複数画像間の幾何的な関係(エピポーラ幾何学)を用いて、他の対応点の存在可能な領域を絞りこむことができる。
例えば、複数のフレーム画像間における対応や追跡には、一般に、見え方(局所画像)、または、エッジ(輪郭)、色ヒストグラムなどの画像特徴の類似(相関)や相違に基づいて、隣接する他フレーム画像との間で、最も類似する領域を探索し、探索された点へ対象物が移動したと判定する方法(ブロックマッチング)が良く用いられる。
For matching feature points between multiple images, methods such as “Lucas-Kanade method (gradient method)” (1981) and “Kanade-Lucas-Tomasi tracker” (Shi and Tomasi, 1994) are used. be able to. It is difficult to correlate images that are separated in time without prior knowledge, but if the correspondence is known at multiple points, the geometric relationship between multiple images taken from the same three-dimensional space (epipolar geometry) The area where other corresponding points can exist can be narrowed down.
For example, for correspondence and tracking between a plurality of frame images, in general, adjacent to each other based on appearance (local image) or similarity (correlation) or difference of image features such as edges (contours) and color histograms. A method (block matching) that searches for the most similar area between the frame images and determines that the object has moved to the searched point is often used.
つまり、座標x=(x,y)における画素値I(x)毎に、移動量(変位)d=(dx,dy)を逐次変えながら、次式であらわされるような、
差分二乗和(二乗誤差)ε(d)=Σ{It(x+d)−It-1(x)}2、もしくは、
差分絶対値和ε(d)=Σ|It(x−d)−It-1(x)|、もしくは、
相互相関γ(d)=Σ{It(x−d)−I ̄ t}{It-1(x)−I ̄ t-1}/|It(x−d)−I ̄ t||It-1(x)−I ̄ t-1| ・・・(2)
などを計算し、その中から、
相違度最小d^=mind{ε(d)}、または、類似度(相関)最大d^=maxd{γ(d)}
・・・(3)
となる変位dを求めれば良い。しかし、これを全探索すると、計算量が多くなったり、変位量が離散的で連続しないなどの難点があった。局所画像を回転や拡大縮小してマッチングする場合には、さらに膨大な計算が必要になる。
That is, for each pixel value I (x) at the coordinate x = (x, y), the movement amount (displacement) d = (d x , dy ) is sequentially changed, and is expressed by the following equation:
Sum of squared differences (square error) ε (d) = Σ {I t (x + d) −I t−1 (x)} 2 , or
Sum of absolute differences ε (d) = Σ | I t (x−d) −I t−1 (x) |
Cross-correlation γ (d) = Σ {I t (x−d) −I  ̄ t } {I t−1 (x) −I  ̄ t−1 } / | I t (x−d) −I  ̄ t | | I t-1 (x) −I  ̄ t-1 | (2)
Etc., and from that,
Difference minimum d ^ = min d {ε (d)} or similarity (correlation) maximum d ^ = max d {γ (d)}
... (3)
What is necessary is just to obtain | require the displacement d which becomes. However, if this is fully searched, there is a problem that the amount of calculation increases and the amount of displacement is discrete and not continuous. In the case of matching by rotating or enlarging / reducing a local image, further enormous calculation is required.
このとき、「Lucas-Kanade法(勾配法)」では、暫定解の周りの勾配(傾き)にもとづいて、山登り(または山降り)することにより、極大値(または極小値)を効率よく求めることができる。すなわち、差分二乗和(二乗誤差、SSD)の勾配を、
ε=Σ{I(x+δx,y+δy,t+δt)−I(x,y,t)}2 ・・・(4)
とすると、この第1項のテーラー展開は、
I(x+δx,y+δy,t+δt)
=I(x,y,t)+δx{∂I(x,y,t)/δx}+δy{∂I(x,y,t)/δy}+δt{∂I(x,y,t)/δt}+・・・
このとき、2次以降の項を、変位が微小であるとして無視できる(x周辺で線形近似できる)とすると、
δx=dx、δy=dy、δt=1として、
ε=Σ{dxIx(x,y,t)+dyIy(x,y,t)+It(x,y,t)}2
・・・(5)
ただし、上式で、Ix(x,y,t)=∂I(x,y,t)/δx、Iy(x,y,t)=∂I(x,y,t)/δy、It(x,y,t)=∂I(x,y,t)/δt
相違度最小の変位d^=mindεは、∂ε/∂dx=0、∂ε/∂dy=0となるdを求めれば良いので、
∂ε/∂dx=Σ2Ix(x,y,t){dxIx(x,y,t)+dyIy(x,y,t)+It(x,y,t)}=0、
∂ε/∂dy=Σ2Iy(x,y,t){dxIx(x,y,t)+dyIy(x,y,t)+It(x,y,t)}=0 ・・・(6)
ここで、
・・・(7)
とおくと、ATAd−ATb=0 → ATAd=ATb
・・・(8)
となるので、ATAが正則なとき、d^は解を持ち、
d^=mindε=(ATA)-1 ATb ・・・(9)
となり、全探索しなくても、相違度最小となる変位量を求めることができる。
特徴点検出と上記のような追跡法とを統合した手法は、「Kanade-Lucas-Tomasi(KLT)トラッカー」と呼ばれる。
At this time, in the “Lucas-Kanade method (gradient method)”, the maximum value (or minimum value) is efficiently obtained by climbing (or descending) on the basis of the gradient (slope) around the provisional solution. Can do. That is, the slope of the sum of squared differences (square error, SSD)
ε = Σ {I (x + δx, y + δy, t + δt) −I (x, y, t)} 2 (4)
Then, the Taylor expansion of this first term is
I (x + δx, y + δy, t + δt)
= I (x, y, t) + δx {∂I (x, y, t) / δx} + δy {∂I (x, y, t) / δy} + δt {∂I (x, y, t) / δt } + ...
At this time, if the terms after the second order can be ignored as the displacement is minute (can be linearly approximated around x),
As δx = d x , δy = d y , δt = 1,
ε = Σ {d x I x (x, y, t) + d y I y (x, y, t) + I t (x, y, t)} 2
... (5)
Where I x (x, y, t) = ∂I (x, y, t) / δx, I y (x, y, t) = ∂I (x, y, t) / δy, I t (x, y, t) = ∂I (x, y, t) / δt
The displacement d ^ = min d ε with the smallest difference is obtained by obtaining d such that ∂ε / ∂d x = 0 and ∂ε / ∂d y = 0.
∂ε / ∂d x = Σ2I x (x, y, t) {d x I x (x, y, t) + d y I y (x, y, t) + I t (x, y, t)} = 0,
∂ε / ∂d y = Σ2I y ( x, y, t) {d x I x (x, y, t) + d y I y (x, y, t) + I t (x, y, t)} = 0 (6)
here,
... (7)
A T Ad−A T b = 0 → A T Ad = A T b
... (8)
Therefore, when A T A is regular, d ^ has a solution,
d ^ = min d ε = (A T A) −1 A T b (9)
Thus, the displacement amount that minimizes the dissimilarity can be obtained without performing a full search.
A method in which feature point detection and the tracking method as described above are integrated is called a “Kanade-Lucas-Tomasi (KLT) tracker”.
C:3次元形状データの生成方法
(C−1):カメラ位置情報や参照マーカーを用いる方法;
例えば、全周囲360度からの多視点角度から、または、周囲に配した複数台のカメラから撮影した画像データを入力して、対象物の3次元形状データを作成するソフトウェアが各種開発されている。
これらでは、予めカメラを所定の位置や角度に配して撮影したカメラ位置情報が既知のカメラで撮影された複数枚の多視点画像を用いるか、または、例えば、非特許文献1などにあるように、回転台に印刷された参照マーカーと、回転台に載せた対象物体とを一緒に撮影した複数枚のカメラ画像から、撮影時のカメラ位置を自動計算する。
C: Three-dimensional shape data generation method (C-1): Method using camera position information and reference markers;
For example, various types of software have been developed for creating three-dimensional shape data of an object by inputting image data taken from multiple viewpoint angles from 360 degrees around the periphery or from a plurality of cameras arranged around the periphery. .
In these, a plurality of multi-viewpoint images taken with a camera whose camera position information is previously taken with a camera placed at a predetermined position and angle are used, or as described in
また、得られたカメラ位置情報と物体画像とから、形状とテクスチャの3次元情報を自動計算し、その3次元情報をユーザーが適宜修正して、デジタルカメラで手持ち撮影した画像から、3次元データを生成する。対象物を撮影した視点の異なる10〜20枚程度以上のJPEGフォーマットの撮影画像データを入力して、カメラ位置の計算、形状情報の生成などの一連の処理を実行して、3次元形状データを作成する(カメラ位置の計算については次に述べる図12のステップS9−1−1の説明参照、形状情報の生成についてはステップS9−1−2の説明参照、3次元形状データの出力についてはステップS9−1−3の説明参照)。
In addition, the 3D information of the shape and texture is automatically calculated from the obtained camera position information and the object image, the 3D information is appropriately corrected by the user, and the 3D data is obtained from the image hand-held by the digital camera. Is generated.
図12は、図7のステップS9における複数枚の多視点カメラ画像からの3次元形状データ作成動作の一実施例を示す詳細フローチャートである。
図7のステップS8でカメラ情報が既知の場合には、図12で、CPU11は、座標系におけるカメラの3次元位置パラメータ(回転成分α,β,γと平行移動成分(x,y,z)をHough変換などに基づいてカメラ位置を計算する。つまり、撮影された画像から、参照マーカーを抽出し、抽出された参照マーカーの任意の3点と、あらかじめ登録されている参照マーカー中の任意の3点の位置関係を組合せて決定される連立方程式を解くことにより、位置パラメータを計算する(ステップS9−1−1)。
FIG. 12 is a detailed flowchart showing an example of the operation for creating three-dimensional shape data from a plurality of multi-viewpoint camera images in step S9 of FIG.
If the camera information is known in step S8 in FIG. 7, in FIG. 12, the
次に、所定の背景の色情報を用いて物体と背景を分離し、対象物のシルエット(輪郭)の抽出を行い(ステップS9−1−2)、カメラの位置と対象物の2次元輪郭情報に基づいて、3次元ボクセル空間へのボーティング(投票)処理により、3次元形状を再構成し、得られたボクセルデータから、ポリゴン(多角形)データへ変換し、三角ポリゴン表現形式やSSF形式など、3次元形状データとして出力し、図7のステップS10に進む(ステップS9−1−3)。なお、VRMLやXVL、IGES、STL、PLYなど、3次元CADや3次元CGで用いられている出力形式に準拠した3次元形状データ形式に変換して出力してもよい。 Next, the object and background are separated using color information of a predetermined background, and the silhouette (contour) of the target is extracted (step S9-1-2), and the camera position and the two-dimensional contour information of the target are extracted. Based on the above, the 3D shape is reconstructed by voting to the 3D voxel space, and the obtained voxel data is converted to polygon (polygon) data. Etc., and output as three-dimensional shape data, and proceeds to step S10 in FIG. 7 (step S9-1-3). Note that VRML, XVL, IGES, STL, PLY, and the like may be converted into a three-dimensional shape data format that conforms to an output format used in three-dimensional CAD or three-dimensional CG.
ここでHough変換(ハフ変換、ヒュー変換)は、エッジ画像から直線を求める問題等において多く用いられる方法であり、エッジ画像中の各々の点(x,y)について、それがある直線上にある点と仮定した場合に可能性のある全ての直線を、極座標ρ=x cosθ+y sinθによるパラメータ空間(ρ,θ)へ曲線として投票し、最終的にパラメータ空間においてピークとなる(ρ,θ)が、求める直線のパラメータとして得られる。 Here, the Hough transform (Hough transform, Hugh transform) is a method often used in problems such as obtaining a straight line from an edge image, and each point (x, y) in the edge image is on a certain straight line. Voting all possible straight lines assuming a point as a curve to the parameter space (ρ, θ) with polar coordinates ρ = x cosθ + y sinθ, and finally (ρ, θ) peaks in the parameter space. Is obtained as a parameter of the straight line to be obtained.
(C−2):視体積交差法;
複数の多視点からの画像に対して、「視体積交差法」を用いても、3次元形状モデルの生成を行うことができる。視体積交差法では、実空間内に設置した複数(位置)のカメラで撮影した画像から、物体のシルエットを抽出し、空間に逆投影し、シルエットの交わりを計算することによって、3次元モデルを求める。複数の多視点画像から3次元モデルを生成する手順をフローチャートに示す。
(C-2): visual volume intersection method;
A three-dimensional shape model can also be generated by using the “view volume intersection method” for a plurality of images from multiple viewpoints. In the visual volume intersection method, the silhouette of an object is extracted from images taken by multiple (position) cameras installed in real space, back-projected into space, and the intersection of the silhouettes is calculated. Ask. A procedure for generating a three-dimensional model from a plurality of multi-viewpoint images is shown in the flowchart.
図13は、図7のステップS9における視体積交差法による3次元形状データ作成の動作の一実施例を示す詳細フローチャートである。
図7のステップS8でカメラ情報が未知の場合には、図13で、CPU11は、まず、形状を構成する3次元空間(ボクセル空間)を立方体格子に分割し(ステップS9−2−1)、視体積交差法により、多視点が像のシルエット画像を入力して各ボクセルに対して正射影による逆投影を行う(ステップS9−2−2)。
FIG. 13 is a detailed flowchart showing an example of the operation of creating the three-dimensional shape data by the visual volume intersection method in step S9 of FIG.
If the camera information is unknown in step S8 of FIG. 7, in FIG. 13, the
次に、各ボクセル上に当該画像のシルエットが存在するか、しないかを判定し、シルエットが存在する場合はステップ9−2−4に進み、シルエットが存在しない場合はステップ9−2−4に進む(ステップS9−2−3)。 Next, it is determined whether or not the silhouette of the image exists on each voxel. If the silhouette exists, the process proceeds to Step 9-2-4. If the silhouette does not exist, the process proceeds to Step 9-2-4. Proceed (step S9-2-3).
シルエットが存在する場合はそのボクセルを残してステップS9−2−6に進み(ステップS9−2−4)、シルエットが存在しない場合はそのボクセルを削除してステップS9−2−6に進む(ステップS9−2−5)。 If the silhouette exists, the voxel is left and the process proceeds to step S9-2-6 (step S9-2-4). If the silhouette does not exist, the voxel is deleted and the process proceeds to step S9-2-6 (step S9-2-6). S9-2-5).
ステップS9−2−1で分割したすべてのボクセルについてシルエットの存否を調べたか否かを判定し、すべてのボクセルを調べ済みの場合はステップS9−2−7に進み、調べていないボクセルがある場合は次のボクセルを調べるためにステップS9−2−2に戻る(ステップS9−2−6)。 It is determined whether or not the existence of the silhouette has been checked for all the voxels divided in step S9-2-1. If all the voxels have been checked, the process proceeds to step S9-2-7, and there is a voxel that has not been checked. Returns to step S9-2-2 to check the next voxel (step S9-2-6).
全ての多視点画像について上記ステップS9−2−1〜S9−2−6の判定動作を行ったか否かを判定し、全ての多視点画像について判定済みの場合はステップS9−2−8に進み、判定していない画像がある場合は次の画像の判定を行うためにステップS9−2−1に戻る(ステップS9−2−7)。そして、最終的に存在するボクセル集合を3次元形状とみなし、3次元形状の内部にあるボクセルを削除した3次元形状データを生成し、図7のステップS10に進む(ステップS9−2−8)。 It is determined whether or not the determination operations in steps S9-2-1 to S9-2-6 have been performed for all the multi-view images. If all the multi-view images have been determined, the process proceeds to step S9-2-8. If there is an image that has not been determined, the process returns to step S9-2-1 to determine the next image (step S9-2-7). Then, the finally existing voxel set is regarded as a three-dimensional shape, and three-dimensional shape data is generated by deleting the voxels inside the three-dimensional shape, and the process proceeds to step S10 in FIG. 7 (step S9-2-8). .
視体積交差法と射影グリッド空間について;
「視体積交差法」に基づいて3次元モデルを復元する原理について簡単に説明する。
視体積とは、視点を頂点と、対象物のシルエットを断面とする錐体のことで、「視体積交差法」は、全ての視点における対象物の視体積の共通部分を求めることにより、対象物の形状を復元する手法である。
Visual volume intersection method and projective grid space;
The principle of restoring the three-dimensional model based on the “visual volume intersection method” will be briefly described.
The visual volume is a cone whose viewpoint is the apex and whose silhouette is the cross-section of the object, and the “visual volume intersection method” is used to calculate the common part of the visual volume of the object at all viewpoints. This is a technique for restoring the shape of an object.
複数台のカメラ(または複数位置からのカメラ画像)のうち、任意の2つを基底カメラ(または基底位置からのカメラ画像)1、2として、2台の基底カメラのそれぞれの視点から、中心投影によって3次元空間を定義する。
ここで、3次元空間を、射影グリッド空間(PGS:Projective Grid Space)として考え、空間中のボクセルA(p,q,r)は、基底カメラ1から撮影画像1上の点a1(p,q)へ、基底カメラ2からの撮影画像2上の点a2(r,s)へ、投影されるものと定義する。
Arbitrary two of the multiple cameras (or camera images from multiple positions) are the base cameras (or camera images from the base positions) 1 and 2, and central projection from the respective viewpoints of the two base cameras Defines a three-dimensional space.
Here, the three-dimensional space is considered as a projective grid space (PGS), and the voxel A (p, q, r) in the space is a point a 1 (p, q) is defined as being projected onto a point a 2 (r, s) on the captured
交差計算をする際には、画像間の幾何関係や、カメラ座標と空間座標との対応関係が必要であり、それらはF(Fundamental)行列を算出することで既知となる(F行列では、2画像間の9点以上の点対応によって決定できる)。 When performing the intersection calculation, a geometric relationship between images and a correspondence relationship between camera coordinates and space coordinates are necessary, and these are known by calculating an F (Fundamental) matrix (in the F matrix, 2). It can be determined by the correspondence of 9 or more points between images).
F行列を利用して以下のような投影を行なう。
1) まず、空間上のA(p,q,r)に対する画像1上の投影点a1については、射影グリッド空間PGSの定義より、a1(p,q)に投影される。
2) 次に、画像2上の投影点a2については、F行列F21を用いて画像2にエピポーラ線L21として投影すると、a2はL21上に存在するため、直線L21は次式で定義できる。
・・・(10)
a2のx座標は射影グリッド空間PGSの定義よりrであるから、y座標sも定まる。
3) そして、基底カメラ以外のカメラからの撮影画像(または、基底位置以外からのカメラ画像)iに対する投影点の座標xi,yiは、次のようにして定まる。
基底カメラ2への投影と同様に、Fi1を用いて点a1を画像i上に直線Li1として投影する。
またFi2を用いて、点a2を画像i上に直線Li2として投影する。
4) 2本のエピポーラ線Li1、Li2の交点が、画像iの投影点の座標である。
5) この処理を、全視点の画像に対して行なう。
このようにして、注目ボクセルに対する全視点の画像の座標値を求めることができ、3次元モデルが復元できる。
The following projection is performed using the F matrix.
1) First, the projection point a 1 on the
2) Next, the projection point a 2 on the
... (10)
Since the x coordinate of a 2 is r from the definition of the projection grid space PGS, the y coordinate s is also determined.
3) Then, the coordinates x i and y i of the projection point with respect to the photographed image from the camera other than the base camera (or the camera image from other than the base position) i are determined as follows.
Like the projection on the
Further, the point a 2 is projected onto the image i as a straight line L i2 using F i2 .
4) The intersection of the two epipolar lines L i1 and L i2 is the coordinates of the projection point of the image i.
5) This process is performed on all viewpoint images.
In this way, the coordinate values of the images of all viewpoints for the target voxel can be obtained, and the three-dimensional model can be restored.
交差計算による3次元モデル復元は、定義された射影グリッド空間PGS上で、空間に含まれるボクセルを一枚のシルエット上に投影し、シルエット上にないボクセルを全て削除し、次のシルエット画像に投影するという処理を、基底カメラ1、基底カメラ2、その他のカメラの順に行ない、全ての入力視点画像のシルエットに含まれるボクセルだけを「存在」とみなし、3次元モデルを復元することができる。
Three-dimensional model restoration by intersection calculation is performed by projecting voxels contained in the space onto one silhouette on the defined projective grid space PGS, deleting all voxels not on the silhouette, and projecting them to the next silhouette image. The process of performing is performed in the order of the
(C−3):因子分解法:
上記のような参照マーカー等を用いずに、複数の多視点カメラ画像データや連続動画像データだけから3次元形状データを生成する方法として、因子分解法がある。
一般に、カメラ位置や視点方向の制限も設けずに、対象物周囲の任意の複数枚の2次元画像から、対象物の3次元形状を求めるには、膨大な計算処理が必要で、解も不安定になる。「因子分解法(Factorization)」(Tomasi and Kanade(金出武雄)、1992年)では、実際のカメラモデルである透視射影をアフィン射影で近似することにより、問題を簡略化し、数値計算を高速かつ解を安定化させることができる。また、複数のアフィン近似射影画像から、カメラ運動と対象物体の立体形状とを同時に復元できる優れた方法として知られている。
(C-3): Factorization method:
There is a factorization method as a method of generating three-dimensional shape data from only a plurality of multi-view camera image data and continuous moving image data without using the reference marker as described above.
In general, in order to obtain the three-dimensional shape of an object from any two-dimensional images around the object without limiting the camera position and the viewpoint direction, a huge amount of calculation processing is required and the solution is not good. Become stable. "Factorization" (Tomasi and Kanade (Takeo Kanade), 1992) simplifies the problem by approximating the perspective projection, which is an actual camera model, with an affine projection, and makes numerical calculations faster and faster. The solution can be stabilized. It is also known as an excellent method that can simultaneously restore camera motion and the three-dimensional shape of a target object from a plurality of affine approximate projection images.
図14は、図7のステップS9における因子分解法による3次元形状データ作成動作の一実施例を示す詳細フローチャートである。
図7のステップS8でカメラ情報が未知の場合には、図14で、CPU11は、まず、各画像から、対象とする人物の輪郭外形や顔の特徴部位を表す線分や、曲線、特徴点を抽出する(ステップ9−3−1)。
FIG. 14 is a detailed flowchart showing an example of the operation for creating three-dimensional shape data by the factorization method in step S9 of FIG.
If the camera information is unknown in step S8 of FIG. 7, in FIG. 14, the
次に、各画像の主要点の点特徴を抽出し、Kanade-Lucas-Tomasi法等を用いて各特徴点を対応付け(ステップ9−3−2)、多視点画像における各点座標(計測行列)から、因子分解法等により、カメラの動き情報(運動行列)と対象物の3次元形状情報(形状行列)を復元して3次元形状データを生成し、図7のステップS10に進む(ステップ9−3−3)。 Next, point features of main points of each image are extracted, and each feature point is associated using the Kanade-Lucas-Tomasi method or the like (step 9-3-2), and each point coordinate (measurement matrix) in the multi-viewpoint image is obtained. ), The camera motion information (motion matrix) and the three-dimensional shape information (shape matrix) of the object are restored by factorization or the like to generate three-dimensional shape data, and the process proceeds to step S10 in FIG. 7 (step S10). 9-3-3).
「因子分解法」については、前述した文献(金出武雄ほか、「因子分解法による物体形状とカメラ運動の復元」、電子通信学会論文誌、J76−D−II、No.8(19930825)、pp.1497−1505や、藤木 淳(産総研)、「点対応を用いた複数の2次元画像からの3次元形状復元−因子分解法の数理−」、統計数理、第49巻第1号、pp77〜107、2001年)などに詳しく説明されているので、ここでは煩雑を避けて、以下に概略のみ説明する。 Regarding the "factor decomposition method", the above-mentioned literature (Takeo Kanade et al., "Restoring object shape and camera motion by factor decomposition method", IEICE Transactions, J76-D-II, No. 8 (19930825), pp. 1495-1505, Satoshi Fujiki (AIST), “3D shape restoration from multiple 2D images using point correspondence-Mathematical factorization method”, Statistical mathematics, Vol. 49, No. 1, (pp77-107, 2001) and the like are described in detail, so that only the outline will be described below to avoid complication.
すでに、上述した「B:複数の画像間における点の対応付け」のステップにより、複数の画像における点特徴の対応付けが既に求められ、画像座標として与えられているとする。アフィン近似射影においては、カメラ撮影による写像は、3次元空間の対象物から、2次元画像へのカメラの位置と方向によって決まるアフィン射影となる。
画像がf枚、特徴点がP個与えられるとき、P個の3次元座標のF個のアフィン射影によるFP個の画像座標が得られるとすると、因子分解法では、このFP個の条件を行列の形に並べて、複数の2次元画像からの3次元形状復元問題を単純な形で表現することができる。すなわち、
(計測行列)=(運動行列)×(形状行列) ・・・(11)
ここで、計測行列はFP個の画像座標を並べた2F×P行列、運動行列はF個のアフィン射影の表現行列を並べた2F×3行列、形状行列はP個の特徴点の3次元座標を並べた3×P行列である。つまり、複数の2次元画像からの3次元形状の復元問題は、計測行列の因子分解に帰着できる。
It is assumed that the association of point features in a plurality of images has already been obtained and given as image coordinates by the step “B: Point association between a plurality of images” described above. In the affine approximate projection, the mapping by the camera shooting is an affine projection determined by the position and direction of the camera from the object in the three-dimensional space to the two-dimensional image.
When f images and P feature points are given, assuming that FP image coordinates are obtained by F affine projections of P three-dimensional coordinates, the factorization method uses the FP conditions as a matrix. The three-dimensional shape restoration problem from a plurality of two-dimensional images can be expressed in a simple form. That is,
(Measurement matrix) = (motion matrix) × (shape matrix) (11)
Here, a measurement matrix is a 2F × P matrix in which FP image coordinates are arranged, a motion matrix is a 2F × 3 matrix in which F affine projection expression matrices are arranged, and a shape matrix is a three-dimensional coordinate of P feature points. Is a 3 × P matrix. That is, the problem of restoring a three-dimensional shape from a plurality of two-dimensional images can be reduced to factorization of a measurement matrix.
このように、透視射影によって得られた計測行列の成分からアフィン近似射影により投影されたとき得られる計測行列を推定できれば、後は、(因子分解法のアルゴリズムにしたがって)計測行列を運動行列と形状行列の積に分解するだけで、カメラの運動情報と物体の3次元形状とを復元することができる。
ただし、画像座標が正規直交基底による表現であるため、正しい復元解を得るには、画像座標の基底が正規直交基底となるように分解する必要がある。アフィン射影モデル(Mundy and Zisserman,1992)は、校正されていないカメラに対するモデルとして、Xfpからxfpへの変換が次式のアフィン射影の形で表される。
xfp=Af Xfp+uf ・・・(12)
ここで、Afとufは未知パラメータである。アフィン射影モデルでは、Afには何の仮定もされていないので、対象物のアフィン空間における位置関係を知ること(アフィン復元)はできても、対象物体の対象物体の長さや角度など計量情報を知ること(ユークリッド復元)はできない。
Thus, if the measurement matrix obtained when projected by the affine approximate projection can be estimated from the components of the measurement matrix obtained by the perspective projection, the measurement matrix and the shape of the motion matrix and the shape are obtained (in accordance with the factorization algorithm). The camera motion information and the three-dimensional shape of the object can be restored simply by decomposing the matrix product.
However, since the image coordinates are expressed by orthonormal bases, it is necessary to decompose the image coordinate bases to be orthonormal bases in order to obtain a correct restoration solution. The affine projection model (Mundy and Zisserman, 1992) is a model for an uncalibrated camera, and the conversion from X fp to x fp is expressed in the form of an affine projection of the following equation.
x fp = A f X fp + u f (12)
Here, A f and u f are unknown parameters. In the affine projection model, no assumptions are made for A f , so even if the positional relationship of the target object in the affine space can be known (affine reconstruction), the measurement information such as the length and angle of the target object of the target object can be obtained. It is impossible to know (Euclidean restoration).
そこで、対象物体のユークリッド復元を行なうためのモデルとして、計量アフィン射影モデル(MAPモデル)が考えられた。対象物体のユークリッド復元を行なうには、Afから奥行きパラメータλf*=tZf*をくくりだした残りである行列Bfの成分が既知である必要がある。
(Bfは既知) ・・・(13)
Therefore, a metric affine projection model (MAP model) has been considered as a model for performing Euclidean reconstruction of the target object. In order to perform the Euclidean reconstruction of the target object, it is necessary to know the components of the matrix B f that is the remainder obtained by deducting the depth parameter λ f * = tZ f * from A f .
(B f is known) (13)
さらに、カメラの位置の復元を行なうためには、ufが既知である必要がある。
以上の仮定より、
(ここで、l:焦点距離) ・・・(14)
このような仮定を加えたアフィン射影モデルを、「計量アフィン射影」(MAP:Metric Affine Projection)モデルと呼ぶ。また、AfをMAP行列と呼ぶ。
Furthermore, u f needs to be known in order to restore the position of the camera.
From the above assumptions,
(Where l is the focal length) (14)
The affine projection model to which such an assumption is added is called a “metric affine projection” (MAP) model. A f is called a MAP matrix.
立体(対象物体)が固定され、カメラが運動していると仮定すると、カメラの運動情報と物体の3次元形状とを復元するためには、カメラモデルを立体に固定された座標系(世界座標系)で表す必要がある。第f画像におけるカメラ位置の世界座標をtf、第f画像面上の正規直交基底を{if,jf}、カメラ光軸方向の単位ベクトルをkfとして、
世界座標におけるカメラの向きを表す行列(カメラの基底行列)をC=(if,jf,kf)T、
また、第p特徴点の世界座標をsp、第f画像のカメラ座標系における空間座標をXfpとすると、
sp=tf+Cf T Xfp ・・・(15)
この表現を、ある特徴点s*からの相対座標s* p=sp−s*、t* f=tf−s*で表すと、
s* p=t* f+Cf T Xfp、Xfp=Cf(s* p−t* f) ・・・(16)
上記のMAPモデルを世界座標系で表すと、
(ここで、l:焦点距離) ・・・(17)
P個の点特徴の画像がF枚得られたとき、複数の2次元画像から、カメラの運動情報と物体の3次元形状情報とを復元する問題は、上式(17)から{Cf}と、{s* p}を求める問題になる。
Assuming that the solid (target object) is fixed and the camera is moving, to restore the camera motion information and the three-dimensional shape of the object, the coordinate system (world coordinates in which the camera model is fixed to the solid) System). The world coordinate of the camera position in the f-th image is t f , the orthonormal basis on the f-th image plane is {i f , j f }, and the unit vector in the camera optical axis direction is k f ,
C = (i f , j f , k f ) T , a matrix representing the camera orientation in world coordinates (camera base matrix)
Furthermore, the world coordinate s p of the p feature points, the spatial coordinates in the camera coordinate system of the f image and X fp,
s p = t f + C f T X fp ··· (15)
The expression, relative coordinates s * p = s p -s from one feature point s * *, expressed in t * f = t f -s * ,
s * p = t * f + C f T X fp, X fp = C f (s * p -t * f) ··· (16)
When the above MAP model is expressed in the world coordinate system,
(Where l is the focal length) (17)
When F images of P point features are obtained, the problem of restoring camera motion information and object three-dimensional shape information from a plurality of two-dimensional images is as follows: {C f } And {s * p }.
因子分解法では、FP個の上式(f=1〜F、p=1〜P)から作られた行列を分解することによって、カメラの向きを表す行列{Cf}(f=1〜F)と、対象物の特徴点の世界座標{s* p}(p=1〜P)を求める。 In the factorization method, a matrix {C f } (f = 1 to F ) representing the camera direction is obtained by decomposing a matrix formed from the above FP equations (f = 1 to F, p = 1 to P). ) And world coordinates {s * p } (p = 1 to P) of feature points of the object.
ここで、計測行列W*、運動行列M、形状行列S*を、
・・・(18)
と定義すると、
W*=M(2F×3行列)・S*(3×P行列) ・・・(19)
が成立する。
Mには、カメラ運動に関する未知数{Cf}(f=1〜F)および{λ* f}(f=1〜F)のみが、S*には、3次元形状に関する未知数{s* p}(p=1〜P)のみが含まれていることから、計測行列W*を、運動行列Mと形状行列S*の積に分解することができれば、カメラの運動情報と物体の3次元形状とが復元できる。
Here, the measurement matrix W * , the motion matrix M, and the shape matrix S * are
... (18)
Defined as
W * = M (2F × 3 matrix) · S * (3 × P matrix) (19)
Is established.
M contains only the unknowns {C f } (f = 1 to F) and {λ * f } (f = 1 to F ) related to the camera motion, and S * represents the unknown {s * p } related to the three-dimensional shape. Since only (p = 1 to P) is included, if the measurement matrix W * can be decomposed into the product of the motion matrix M and the shape matrix S * , the motion information of the camera and the three-dimensional shape of the object Can be restored.
ここで、W*のMとS*の積への分解において、{Cf}が3次元回転行列であることから、次の条件(計量拘束)が満たされる必要がある。
Mf Mf T=Af Af T=(1/λ2* f)Bf Bf T ・・・(20)
Here, in the decomposition of W * into the product of M and S * , since {C f } is a three-dimensional rotation matrix, the following condition (metric constraint) needs to be satisfied.
M f M f T = A f A f T = (1 / λ 2 * f ) B f B f T (20)
因子分解法のアルゴリズム;
実際の因子分解法のアルゴリズムでは、「Affine復元」、「Euclid復元」の順に、計測行列W*を分解して、カメラの運動情報と物体の3次元形状情報を復元する。
まず、特異的分解(SVD)などにより、計測行列W*を、M^(2F×3)と、S^*(3×P)の積に一時的に(暫定的に)分解して、Affine復元する。
・・・(21)
このとき、M、S*、と暫定解のM^、S^*の間には、
M=M^A、 S*=A-1・S^*(ただし、A-1はAの逆行列) ・・・(22)
の関係を満たす3×3可逆行列Aが存在するので、この暫定的な分解によって、運動と形状がアフィン復元されていることになる。
Factorization algorithm;
In an actual factorization algorithm, the measurement matrix W * is decomposed in the order of “Affine restoration” and “Euclid restoration” to restore camera motion information and object three-dimensional shape information.
First, the measurement matrix W * is temporarily (provisionally) decomposed into a product of M ^ (2F × 3) and S ^ * (3 × P) by specific decomposition (SVD) or the like, and Affine Restore.
... (21)
At this time, between M, S * , and M ^, S ^ * of the provisional solution,
M = M ^ A, S * = A- 1 · S ^ * (where A- 1 is the inverse matrix of A) (22)
Since there is a 3 × 3 reversible matrix A that satisfies the relationship, the motion and shape are restored to affine by this provisional decomposition.
2)暫定解のアフィン復元解からユークリッド復元解を求めることは、3×3可逆行列Aを求めることに帰着する。Q=AATとおくと、前記の計量拘束条件から、Aの満たすべき条件は、
M^f Q M^f T=Af Af T =(1/λ2* f) Bf Bf T ・・・(23)
ここで、式(14)における未知量は{λ* f}(f=1〜F)とQとであり、Bfは既知であるから、
Bfの特異値分解をBf=RfΣfDfとすると、Rf、Σfは既知であり、
P^f=(p^f,q^f)T=Rf TM^f、Pf=Rf TMf ・・・(24)
とおくと、式(14)の拘束条件は、
P^f Q P^f T=(1/λ2* f) Σ2 f ・・・(25)
と単純になる。このとき、
p^f TQ p^f=p2 f/λ2* f、p^f TQ q^f=0、q^f TQ q^f=q2 f/λ2* f、
すなわち、(p^f TQ p^f)/(p2 f)=(q^f TQ q^f)/(q2 f)=1/λ2* f、p^f TQ q^f=0、 ・・・(26)
よって、次式のように、{λ* f}を含まない、Qに関する線型同次連立方程式が得られる。
q2 f(p^f TQ p^f)−p2 f(q^f TQ q^f)=0、p^f TQ q^f=0、
・・・(27)
この連立方程式を解くことによって、{λ* f}による定数倍の不定性を除いて、3×3の正値対称行列であるQを一意的に求めることができる。
2) Obtaining the Euclidean restoration solution from the affine restoration solution of the provisional solution results in obtaining the 3 × 3 reversible matrix A. Putting a Q = AA T, from the metering constraint, condition to be satisfied by A is
M ^ f QM ^ f T = A f A f T = (1 /
Here, the unknown quantities in the equation (14) are {λ * f } (f = 1 to F) and Q, and Bf is known.
If the singular value decomposition of B f is B f = R f Σ f D f , R f and Σ f are known,
P ^ f = (p ^ f , q ^ f) T = R f T M ^ f, P f = R f T M f ··· (24)
Then, the constraint condition of the equation (14) is
P ^ f QP ^ f T = (1 / λ 2 * f ) Σ 2 f (25)
And become simple. At this time,
p ^ f T Q p ^ f = p 2 f /
In other words, (p ^ f T Q p ^ f) / (p 2 f) = (q ^ f T Q q ^ f) / (q 2 f) = 1 /
Therefore, a linear simultaneous equation regarding Q that does not include {λ * f } is obtained as in the following equation.
q 2 f (p ^ f T Q p ^ f ) −p 2 f (q ^ f T Q q ^ f ) = 0, p ^ f T Q q ^ f = 0,
... (27)
By solving these simultaneous equations, Q, which is a 3 × 3 positive symmetric matrix, can be uniquely obtained without the indefiniteness of constant multiplication by {λ * f }.
3) 対称行列Qのコレスキー分解を、Q=LLTとすると、
Aの一般解は、A=LTUとなり、
運動行列M、形状行列S*の一般解は、M=M^LTU、S*=UTL S^* ・・・(28)
で求まる。
3) The Cholesky decomposition of the symmetric matrix Q, and the Q = LL T,
The general solution of A is A = L T U,
The general solutions of the motion matrix M and the shape matrix S * are M = M ^ L T U, S * = U T LS ^ * (28)
It is obtained by
上記のようにして、計測行列W*(FP個の画像座標を並べた2F×P行列)データから、カメラの運動情報を含む運動行列Mデータ(F個のアフィン射影の表現行列を並べた2F×3行列)と、物体の3次元形状情報を含む形状行列S*データ(P個の特徴点の3次元座標を並べた3×P行列)を同時に復元することができる。 As described above, from the measurement matrix W * (2F × P matrix in which FP image coordinates are arranged) data, the motion matrix M data including the camera motion information (F affine projection expression matrices arranged in 2F) × 3 matrix) and shape matrix S * data (3 × P matrix in which the three-dimensional coordinates of P feature points are arranged) including the three-dimensional shape information of the object can be restored simultaneously.
因子分解法アルゴリズムの詳細は、前記の文献などに詳しい。また、因子分解法をリアルタイム処理に対応するために逐次的に計算する「逐次型因子分解法」や、アフィン近似射影による画像を因子分解法を用いて反復的に推定して、カメラ運動と立体形状とをより高精度に復元する「C-H法」(Christy and Horaud,1996年)など、様々な改良法も提案されているが、ここでは、省略する。 Details of the factorization algorithm are detailed in the above-mentioned literature. In addition, the “sequential factorization method” that sequentially calculates the factorization method to support real-time processing, and the iterative estimation of the image by the affine approximate projection using the factorization method, the camera motion and the stereoscopic Various improved methods such as the “CH method” (Christy and Horaud, 1996) for restoring the shape with higher accuracy have been proposed, but are omitted here.
実際の因子分解法のアルゴリズムでは、「Affine復元」、「Euclid復元」の順に、計測行列W*を分解して、カメラの運動情報と物体の3次元形状情報を復元する。
1) まず、特異的分解(SVD)などにより、計測行列W*を、M^(2F×3)と、S^*(3×P)の積に一時的に(暫定的に)分解して、Affine復元する。
In an actual factorization algorithm, the measurement matrix W * is decomposed in the order of “Affine restoration” and “Euclid restoration” to restore camera motion information and object three-dimensional shape information.
1) First, the measurement matrix W * is temporarily (provisionally) decomposed into the product of M ^ (2F × 3) and S ^ * (3 × P) by specific decomposition (SVD). Restore Affine.
なお、逆行列(inverse matrix)とは、n次正方行列Aに対して、AX=XA=I(Iは単位行列)となるn次正方行列Xが存在するとき、Aはn次正則行列、あるいは「正則である」という。このとき、XをAの「逆行列」と呼び、A-1と書く。また、正方行列(square matrix)とは、行要素の数と列要素の数とが一致する行列のことであり、可逆行列(invertible matrix):あるいは、正則行列とは、行列の通常の積に関する逆元である逆行列を持つ正方行列のことである。
また、対称行列(symmetric matrix)とは、正方行列Aのうち、Aの転置行列ATがA自身と一致する行列をいう。
The inverse matrix (inverse matrix) is an n-order square matrix A when an n-order square matrix X with AX = XA = I (I is a unit matrix) exists for an n-order square matrix A. Or they say "regular". At this time, X is called an “inverse matrix” of A and is written as A −1 . A square matrix is a matrix in which the number of row elements matches the number of column elements. Invertible matrix: Or, a regular matrix is related to the normal product of matrices. It is a square matrix with an inverse matrix that is the inverse element.
Also, the symmetric matrix (symmetric matrix), of a square matrix A, means a matrix transposed matrix A T of A coincides with A itself.
また、コレスキー分解(Cholesky decomposition):とは、本来は、正定値エルミート行列Aを下三角行列LとLの共役転置行列L*との積に分解すること。実対称行列の場合には、共役転置は転置に単純化されるので、対称行列AをA=LLTに分解することに相当する。 Cholesky decomposition (Cholesky decomposition): Originally, a positive definite Hermitian matrix A is decomposed into a product of a lower triangular matrix L and a conjugate transpose matrix L * of L. In the case of a real symmetric matrix, conjugate transposition is simplified to transposition, which is equivalent to decomposing the symmetric matrix A into A = LL T.
(変形例)
図15は、3次元データ作成装置1の3次元形状データ作成動作の一変形例を示すフローチャートであり、図7のステップS6〜Sの動作をステップS6’〜S9’に置き換えて、より簡易に3次元形状データ作成が可能なように構成した例である。
(Modification)
FIG. 15 is a flowchart showing a modification of the three-dimensional shape data creation operation of the three-dimensional
図15で、CPU11は、特徴点抽出プログラム236により、図7のステップS4で抽出された各画像の人物領域から頭部の形、顔貌の特徴点を抽出する(ステップS6’)。
In FIG. 15, the
次に、3次元モデルデータ検索プログラム237により、顔の3次元標準モデルデータ31を検索し、ステップS9−4−1で抽出した対象者の頭部や顔の特徴点に最も類似する3次元モデルデータを得る(ステップS7’)。
Next, the three-dimensional model data retrieval program 237 retrieves the three-dimensional
次に、3次元データ生成プログラム238により、対象者の顔の画像データをステップ10−4−2で得た顔の3次元標準モデルの3次元形状(曲面)(図8(a)参照))上に射影変換して顔(および頭部)の3次元形状データを生成する(ステップS8’)。
Next, the three-dimensional shape (curved surface) of the three-dimensional standard model of the face obtained in step 10-4-2 by the three-dimensional
ステップS9−4−3で生成した顔(および頭部)の3次元形状データからなる3次元画像の顔の表情の違いや変化が所定値より大きい場合に表情変化等の補正処理プログラム239により(中立顔やすまし顔、微笑顔などの)所定の表情の顔画像になるよう顔の表情変化の標準モデルデータ32や服装、髪型等の標準モデルデータ33を用いて顔の表情や服装や髪形等の変化の補正処理を施し、図7のステップS10に進む(ステップS9’)。
If the facial expression difference or change in the 3D image composed of the 3D shape data of the face (and head) generated in step S9-4-3 is greater than a predetermined value, the facial expression change correction processing program 239 ( Using
上記変形例によれば、被写体の頭部や顔に類似する3次元モデルデータの顔に、対象者の顔の画像データを射影変換して頭部の3次元データを生成できるようにしたので、画像処理能力が低い装置や小型装置でも処理できるとともに、処理時間が短縮される。例えば、ゲームセンターに設置してあるようなガチャガチャ式の自動販売機などでも、3次元データ作成装置にカメラを装備したり、デジタルカメラや携帯電話から画像を近距離送信したり、ケーブル接続により入力するようにして、その場で顔画像から3次元フィギュアや胸像を製作加工して、安価なフィギュアを製造販売提供できる。 According to the above modification, the image data of the subject's face is projectively transformed to the face of the 3D model data similar to the head and face of the subject, so that the 3D data of the head can be generated. It is possible to process even a device having a low image processing capability or a small device, and the processing time is shortened. For example, even in a gambling vending machine installed in a game center, a 3D data creation device is equipped with a camera, an image is transmitted from a digital camera or a mobile phone, or input by a cable connection. In this way, it is possible to manufacture and sell inexpensive figures by producing and processing 3D figures and busts from face images on the spot.
1 3次元データ作成装置
2 データベース
3、8 3次元画像加工装置
4 通信ネットワーク
11 CPU
22 3次元データ作成プログラム
31 顔や頭部の3次元標準モデルデータ
32 顔の表情変化の3次元標準モデルデータ
33 服装、髪型等の3次元標準モデルデータ
DESCRIPTION OF
22 3D
Claims (6)
複数枚の多視点画像の画像データを取得する画像データ取得手段と、
3次元データ作成装置を、前記複数枚の多視点画像から3次元形状データを生成する3次元形状データ生成手段として機能させる3次元形状データ生成プログラムと、
前記画像データ取得手段により取得した複数枚の画像データからそれぞれ人物領域を抽出し、抽出した人物領域から検出した顔の特徴部位と前記データベースの標準モデルデータとの対応点を取得してから、前記3次元形状データ生成プログラムにより3次元形状データを得る3次元データ作成制御手段と、
前記3次元形状データを補正して顔の表情変化モデルデータを得る表情変化補正手段と、
を備え、
前記表情変化補正手段は、表情の種類と表情動作単位の組合せを対応付けた対応表データと、表情動作単位と顔の筋肉の収縮部位を対応付けた対応表データを含み、顔の表情を表情単位動作の組合せで表現し、各表上単位動作を対応する部位の顔の筋肉の収縮に変換することにより、喜怒哀楽を示している表情のデータを中立顔のデータに補正する、または中立顔のデータを喜怒哀楽を示している表情のデータに補正する、
ことを特徴とする3次元データ作成装置。 A database of standard model data of stereoscopic images;
Image data acquisition means for acquiring image data of a plurality of multi-viewpoint images;
A three-dimensional shape data generation program for causing a three-dimensional data creation device to function as a three-dimensional shape data generation means for generating three-dimensional shape data from the plurality of multi-viewpoint images;
Extracting a person area from each of a plurality of pieces of image data acquired by the image data acquisition means, acquiring corresponding points between the feature part of the face detected from the extracted person area and the standard model data of the database, 3D data creation control means for obtaining 3D shape data by a 3D shape data generation program;
Facial expression change correction means for correcting facial expression change model data by correcting the three-dimensional shape data;
With
The facial expression change correction means includes correspondence table data in which combinations of facial expression types and facial expression action units are associated, and correspondence table data in which facial expression motion units and facial muscle contraction sites are associated with each other. By expressing the combination of unit movements and converting the unit movement on each table into the contraction of the facial muscles of the corresponding part, the facial expression data showing emotions is corrected to neutral face data, or neutral Correct facial data to facial expression data showing emotions,
A three-dimensional data creation device characterized by that.
前記立体像の標準モデルデータは、人物の顔および頭部の標準モデルデータ、表情変化の標準モデルデータを含み、The standard model data of the stereoscopic image includes standard model data of a person's face and head, standard model data of facial expression changes,
前記3次元データ作成制御手段は、抽出した人物領域から検出した顔の特徴部位と前記人物の顔の標準モデルデータとの対応点から表情データを取得し、表情データにおける顔の表情と前記標準モデルデータの表情とを比較して表情データにおける顔の表情の変化が閾値より大きい場合には前記表情変化のモデルデータに基づいて顔の表情を所定の表情に補正し、前記カメラ情報取得手段によりカメラ情報が既知の場合には3次元形状データ生成プログラムに含まれている第1の3次元形状データ生成プログラムにより前記人物の3次元形状データを生成し、カメラ情報が未知の場合には3次元形状データ生成プログラムに含まれている第2の3次元形状データ生成プログラムにより前記人物の3次元形状データを生成する、The three-dimensional data creation control means acquires facial expression data from corresponding points between the facial feature portion detected from the extracted person region and the standard model data of the person's face, and the facial expression in the facial expression data and the standard model If the facial expression change in the facial expression data is greater than a threshold value by comparing with the facial expression of the data, the facial facial expression is corrected to a predetermined facial expression based on the facial expression change model data, and the camera information acquisition means If the information is known, the first 3D shape data generation program included in the 3D shape data generation program generates the 3D shape data of the person. If the camera information is unknown, the 3D shape data is generated. Generating the 3D shape data of the person by a second 3D shape data generation program included in the data generation program;
ことを特徴とする請求項1に記載の3次元データ作成装置。The three-dimensional data creation apparatus according to claim 1.
前記3次元データ作成制御手段は、抽出した人物領域から検出した顔の特徴部位を元に各画像データから頭部の形および顔貌の特徴を抽出し、前記人物の顔および頭部の標準モデルデータを検索して頭部の形および顔貌の特徴に最も類似する3次元モデルデータを取得し、取得した3次元モデルデータの曲面上に前記複数枚の多視点画像の画像データを射影変換して顔および頭部の3次元形状データを生成する、
ことを特徴とする請求項1に記載の3次元データ作成装置。 Standard model data of the stereoscopic image includes the standard model data of the face and head of a person, the standard model data of facial expressions, the standard model data of clothing and hair,
The three-dimensional data creation control means extracts a head shape and facial features from each image data based on a facial feature portion detected from the extracted person region, and standard model data of the person's face and head To obtain three-dimensional model data most similar to the shape of the head and facial features, and projectively transform the image data of the plurality of multi-viewpoint images onto the curved surface of the acquired three-dimensional model data. And three-dimensional shape data of the head,
The three-dimensional data creation apparatus according to claim 1 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008302126A JP5206366B2 (en) | 2008-11-27 | 2008-11-27 | 3D data creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008302126A JP5206366B2 (en) | 2008-11-27 | 2008-11-27 | 3D data creation device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010128742A JP2010128742A (en) | 2010-06-10 |
JP2010128742A5 JP2010128742A5 (en) | 2012-01-12 |
JP5206366B2 true JP5206366B2 (en) | 2013-06-12 |
Family
ID=42329097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008302126A Expired - Fee Related JP5206366B2 (en) | 2008-11-27 | 2008-11-27 | 3D data creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5206366B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2437220A1 (en) * | 2010-09-29 | 2012-04-04 | Alcatel Lucent | Method and arrangement for censoring content in three-dimensional images |
JP5894426B2 (en) * | 2011-12-13 | 2016-03-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Measurement target extraction device, face shape estimation device, measurement target extraction method, and face shape estimation method |
KR101711684B1 (en) * | 2012-12-14 | 2017-03-03 | 한국전자통신연구원 | 3d avatars output device and method |
JP6046501B2 (en) * | 2013-01-17 | 2016-12-14 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Feature point output device, feature point output program, feature point output method, search device, search program, and search method |
KR101694300B1 (en) | 2014-03-04 | 2017-01-09 | 한국전자통신연구원 | Apparatus and method for generating 3d personalized figures |
CN105303384A (en) * | 2014-07-21 | 2016-02-03 | 上海羽舟网络科技有限公司 | 3D display method and system of products |
KR102357340B1 (en) * | 2014-09-05 | 2022-02-03 | 삼성전자주식회사 | Method and apparatus for face recognition |
JP6436743B2 (en) * | 2014-11-26 | 2018-12-12 | キヤノン株式会社 | Image information processing apparatus, image information processing method and program, and imaging apparatus |
JP6608165B2 (en) * | 2015-05-12 | 2019-11-20 | 国立大学法人京都大学 | Image processing apparatus and method, and computer program |
JP6191727B1 (en) * | 2016-05-06 | 2017-09-06 | 富士ゼロックス株式会社 | Modeling image management system, modeling image management device, modeling image management program |
CN111886624A (en) | 2018-03-28 | 2020-11-03 | 三菱电机株式会社 | Image processing apparatus, image processing method, and image processing program |
CN108985241B (en) * | 2018-07-23 | 2023-05-02 | 腾讯科技(深圳)有限公司 | Image processing method, device, computer equipment and storage medium |
JP6574295B1 (en) * | 2018-10-10 | 2019-09-11 | 株式会社ネイン | Information processing system, information processing method, and computer program |
US20220383585A1 (en) * | 2019-11-01 | 2022-12-01 | Visionary Machines Pty Ltd | Systems And Methods For Generating And/Or Using 3-Dimensional Information With Camera Arrays |
JP7487266B2 (en) | 2022-08-15 | 2024-05-20 | キヤノン株式会社 | Image processing device, image processing method, and program |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09135447A (en) * | 1995-11-07 | 1997-05-20 | Tsushin Hoso Kiko | Intelligent encoding/decoding method, feature point display method and interactive intelligent encoding supporting device |
JP2001141425A (en) * | 1999-11-12 | 2001-05-25 | Laboratories Of Image Information Science & Technology | 3D shape measuring device |
JP3575679B2 (en) * | 2000-03-31 | 2004-10-13 | 日本電気株式会社 | Face matching method, recording medium storing the matching method, and face matching device |
JP2004264937A (en) * | 2003-02-28 | 2004-09-24 | Sanyo Electric Co Ltd | Method and device for three-dimensional modeling |
JP4552431B2 (en) * | 2003-12-08 | 2010-09-29 | 日本電気株式会社 | Image collation apparatus, image collation method, and image collation program |
JP2006069358A (en) * | 2004-09-01 | 2006-03-16 | Fuji Heavy Ind Ltd | Vehicle driving support device |
JP4474546B2 (en) * | 2004-10-05 | 2010-06-09 | 国立大学法人東京農工大学 | Face shape modeling system and face shape modeling method |
JP2007004578A (en) * | 2005-06-24 | 2007-01-11 | Nippon Telegr & Teleph Corp <Ntt> | 3D shape acquisition method, 3D shape acquisition device, and program recording medium |
JPWO2007043712A1 (en) * | 2005-10-14 | 2009-04-23 | 国立大学法人 長崎大学 | Emotion evaluation method and emotion display method, and program, recording medium and system therefor |
JP4966816B2 (en) * | 2007-10-25 | 2012-07-04 | 株式会社日立製作所 | Gaze direction measuring method and gaze direction measuring device |
-
2008
- 2008-11-27 JP JP2008302126A patent/JP5206366B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010128742A (en) | 2010-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5206366B2 (en) | 3D data creation device | |
US10636206B2 (en) | Method and system for generating an image file of a 3D garment model on a 3D body model | |
US10867453B2 (en) | Method and system for generating an image file of a 3D garment model on a 3D body model | |
Hasler et al. | Multilinear pose and body shape estimation of dressed subjects from image sets | |
JP4950787B2 (en) | Image processing apparatus and method | |
KR101007276B1 (en) | 3D face recognition | |
JP5018721B2 (en) | 3D model production equipment | |
CN110634161A (en) | A fast and high-precision estimation method and device for workpiece pose based on point cloud data | |
Figueroa et al. | From sense to print: Towards automatic 3D printing from 3D sensing devices | |
Ye et al. | Free-viewpoint video of human actors using multiple handheld kinects | |
CN114022542B (en) | A method for making 3D database based on 3D reconstruction | |
CN112598807A (en) | Training method and device for face key point detection model, computer equipment and storage medium | |
CN107578469A (en) | A kind of 3D human body modeling methods and device based on single photo | |
Song et al. | Data-driven 3-D human body customization with a mobile device | |
WO2023102646A1 (en) | A method to register facial markers | |
CN108010122B (en) | Method and system for reconstructing and measuring three-dimensional model of human body | |
KR101673144B1 (en) | Stereoscopic image registration method based on a partial linear method | |
JP6719168B1 (en) | Program, apparatus and method for assigning label to depth image as teacher data | |
CN110490973B (en) | Model-driven multi-view shoe model three-dimensional reconstruction method | |
Lu et al. | Parametric 3D visualization modeling of the human body based on 2D photos | |
Patterson et al. | Landmark-based re-topology of stereo-pair acquired face meshes | |
Lee et al. | Mobile phone-based 3d modeling framework for instant interaction | |
Zwettler et al. | Three-step Alignment Approach for Fitting a Normalized Mask of a Person Rotating in A-Pose or T-Pose Essential for 3D Reconstruction based on 2D Images and CGI Derived Reference Target Pose. | |
Yue et al. | Synthesis of silhouettes and visual hull reconstruction for articulated humans | |
Paulsen et al. | Creating ultra dense point correspondence over the entire human head |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120911 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130204 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5206366 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |