[go: up one dir, main page]

JP7135517B2 - 3D geometric model generation device, 3D model generation method and program - Google Patents

3D geometric model generation device, 3D model generation method and program Download PDF

Info

Publication number
JP7135517B2
JP7135517B2 JP2018130995A JP2018130995A JP7135517B2 JP 7135517 B2 JP7135517 B2 JP 7135517B2 JP 2018130995 A JP2018130995 A JP 2018130995A JP 2018130995 A JP2018130995 A JP 2018130995A JP 7135517 B2 JP7135517 B2 JP 7135517B2
Authority
JP
Japan
Prior art keywords
dimensional
viewpoint
blur
map
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018130995A
Other languages
Japanese (ja)
Other versions
JP2020009255A (en
Inventor
修二 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2018130995A priority Critical patent/JP7135517B2/en
Publication of JP2020009255A publication Critical patent/JP2020009255A/en
Application granted granted Critical
Publication of JP7135517B2 publication Critical patent/JP7135517B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、対象物が異なる視点から撮像された二枚以上の複数の撮像画像から、この対象物の三次元形状モデルを生成する三次元形状モデル生成装置、三次元形状モデル生成方法及びプログラムに関する。 The present invention relates to a three-dimensional shape model generation device, a three-dimensional shape model generation method, and a program for generating a three-dimensional shape model of an object from two or more images of the object taken from different viewpoints. .

対象物が異なる視点から撮像された複数の二次元撮像画像(以下、「多視点画像」と示す)に基づいて、その対象物の三次元形状モデルを生成する三次元復元手法がある。
例えば、非特許文献1には多視点画像から三次元形状を復元する手法が開示されている。非特許文献1では、多視点画像を用いてステレオマッチングを行うことにより、視点(撮像位置)ごとのデプスマップを生成する。このデプスマップは、各視点の多視点画像それぞれの画素ごとの三次元座標における奥行きの情報が示されたマップである。そして、作成した複数のデプスマップを統合することにより、対象物の三次元形状を復元する。
ここで、一般に、多視点画像から三次元形状を復元する手法において、当該手法の入力として用いられる多視点画像の画質は、復元する対象物の三次元形状の精度や品質に強く影響を及ぼす重要な要素の一つである。例えば、三次元形状モデルの精度や品質に強く影響を及ぼす要素として、画像のブラー(画像のぼやけや、画像のブレ等)が挙げられる。復元対象である対象物にピントが合っていないぼやけた画像や、撮像時に対象物やカメラが移動したことにより対象物がブレた画像が多視点画像に含まれている場合、復元される三次元形状モデルの精度が著しく低下する傾向にあることが知られている。このため、多視点画像から対象物の三次元形状を復元する手法においては、復元対象がぼやけていたり、ブレていたりする画像が多視点画像として用いられないようにすることが望ましい。
There is a three-dimensional restoration method that generates a three-dimensional shape model of an object based on a plurality of two-dimensional captured images (hereinafter referred to as "multi-viewpoint images") of the object taken from different viewpoints.
For example, Non-Patent Document 1 discloses a technique for restoring a three-dimensional shape from multi-viewpoint images. In Non-Patent Document 1, a depth map is generated for each viewpoint (imaging position) by performing stereo matching using multi-viewpoint images. This depth map is a map showing depth information in three-dimensional coordinates for each pixel of each multi-viewpoint image of each viewpoint. Then, the three-dimensional shape of the object is restored by integrating the plurality of created depth maps.
Here, in general, in the method of restoring a three-dimensional shape from multi-viewpoint images, the image quality of the multi-viewpoint images used as input for the method is important because it strongly affects the accuracy and quality of the three-dimensional shape of the object to be restored. is one of the important elements. For example, image blur (image blurring, image blurring, etc.) can be cited as a factor that strongly affects the accuracy and quality of a three-dimensional shape model. If the multi-view image contains a blurred image in which the object to be restored is out of focus, or an image in which the object is blurred due to the movement of the object or the camera during imaging, the restored 3D It is known that shape models tend to be significantly less accurate. Therefore, in the method of restoring the three-dimensional shape of an object from multi-viewpoint images, it is desirable not to use images in which the restoration target is blurred or blurred as multi-viewpoint images.

M.Goesele, B.Curless, S.M.Seitz,“Multi-View Stereo Revisited”, Proc.of the IEEE 2006M. Goesele, B. Curless, S.; M. Seitz, "Multi-View Stereo Revisited", Proc. of the IEEE 2006

しかしながら、三次元形状の復元に用いる全ての多視点画像にブラーが生じないように撮像することは困難である。例えば、動画像や連続撮影により撮像した画像を用いて多視点画像を取得する場合がある。この場合、対象物やカメラを移動させながら撮像を行うため、画像のブレを抑制するためには、高価な機材や高度な撮像スキルが要求されてしまう。また、比較的小さい対象物を近接した至近距離から撮像しようとする場合、被写界深度が浅くなるため、背景や前景がぼやけてしまい、画像にぼやけた領域が含まれないように撮像することは困難である。すなわち、多視点画像から対象物の三次元形状を復元する手法においては、このようなブラーが発生しやすい状況で撮像された多視点画像を利用することが敬遠されるため、当該手法の利用や用途の拡大を妨げる要因となっている。 However, it is difficult to capture all the multi-viewpoint images used to restore the three-dimensional shape without blurring. For example, there is a case where a multi-viewpoint image is acquired using moving images or images captured by continuous shooting. In this case, since images are captured while moving the object and the camera, expensive equipment and advanced imaging skills are required in order to suppress image blurring. Also, when trying to capture a relatively small object from a close distance, the depth of field becomes shallow, and the background and foreground become blurred. It is difficult. In other words, in the method of restoring the three-dimensional shape of an object from multi-viewpoint images, it is avoided to use multi-viewpoint images captured in such a situation where blurring is likely to occur. This is a factor that hinders the expansion of applications.

本発明は、このような状況に鑑みてなされたもので、ブラーが発生した領域を含む多視点画像を用いた場合にも三次元形状を精度よく復元することができる三次元形状モデル生成装置、三次元モデル生成方法及びプログラムを提供する。 The present invention has been made in view of such circumstances, and is a three-dimensional shape model generating apparatus capable of accurately restoring a three-dimensional shape even when using a multi-viewpoint image including an area in which blur has occurred. A three-dimensional model generation method and program are provided.

本発明の、三次元形状モデル生成装置は、対象物を異なる視点から撮像した二枚以上の多視点画像から、前記対象物の三次元形状モデルを生成する三次元形状モデル生成装置であり、前記多視点画像の各画像における画素ごとのブラー量を表すブラーマップを生成するブラーマップ生成部と、前記多視点画像と前記ブラーマップとを用いて、ウィンドウマッチングによるマッチングスコアの重み付けを、前記ブラーマップにおける画素ごとのブラー量に応じて行い、前記対象物の三次元形状を示す三次元形状モデルを生成する三次元復元処理部を備えることを特徴とする。 A three-dimensional geometric model generating device according to the present invention is a three-dimensional geometric model generating device for generating a three-dimensional geometric model of an object from two or more multi-viewpoint images of the object taken from different viewpoints, and a blur map generation unit that generates a blur map representing the amount of blur for each pixel in each image of a multi-view image; and a three-dimensional restoration processing unit that generates a three-dimensional shape model that represents the three-dimensional shape of the object according to the amount of blur for each pixel in the object.

本発明の、三次元形状モデル生成装置は、前記三次元復元処理部が、前記多視点画像から各画像の画素ごとの奥行き情報を有するデプスマップを生成するために用いるステレオペアのマッチングスコアの重み付けを、前記ブラーマップの画素ごとのブラー量に応じて行い、前記デプスマップを生成するデプスマップ生成部と、前記デプスマップ生成部により生成された複数の前記デプスマップを統合することにより前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部とを備えることを特徴とする。 In the three-dimensional shape model generation device of the present invention, the three-dimensional restoration processing unit weights matching scores of stereo pairs used for generating a depth map having depth information for each pixel of each image from the multi-view images. is performed according to the amount of blur for each pixel of the blur map, and a depth map generation unit that generates the depth map; and a three-dimensional point group generation unit that generates a three-dimensional point group representing the three-dimensional shape of the.

本発明の、三次元形状モデル生成装置は、前記三次元復元処理部が、前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、前記多視点画像と前記三次元点群における三次元点の三次元座標とを用いて、ウィンドウマッチングによるマッチングスコアの重み付けを、前記ブラーマップにおける画素ごとのブラー量に応じて行い、前記三次元点群における三次元点の三次元座標を最適化する三次元点最適化部と、前記三次元点群の各三次元点の三次元座標に応じて、新たな三次元点を前記三次元点群に追加する三次元点追加部とを備えることを特徴とする。 In the 3D shape model generation device of the present invention, the 3D restoration processing unit includes a 3D point group generation unit for generating a 3D point group representing the 3D shape of the object, the multi-viewpoint image and the Using the three-dimensional coordinates of the three-dimensional points in the three-dimensional point group, the weighting of the matching score by window matching is performed according to the amount of blur for each pixel in the blur map, and the three-dimensional points in the three-dimensional point group A three-dimensional point optimization unit that optimizes three-dimensional coordinates, and a three-dimensional point that adds new three-dimensional points to the three-dimensional point group according to the three-dimensional coordinates of each three-dimensional point of the three-dimensional point group. and an additional part.

本発明の、三次元形状モデル生成装置は、前記三次元復元処理部が、前記三次元点群における各三次元点に対応した視点ごとの幾何的な位置関係に基づく適正スコアに、前記ブラーマップの画素ごとのブラー量に応じた重み付けを行い、ステレオマッチングに用いる視点を選択する視点選択部を更に備え、前記三次元点最適化部は、前記選択された視点を用いて前記三次元点のマッチングを行うことを特徴とする。 In the 3D geometric model generation device of the present invention, the 3D restoration processing unit converts the blur map a viewpoint selection unit that performs weighting according to the amount of blur for each pixel and selects a viewpoint to be used for stereo matching, wherein the three-dimensional point optimization unit uses the selected viewpoint to determine the It is characterized by performing matching.

本発明の、三次元形状モデル生成装置は、前記三次元復元処理部が、前記多視点画像から各画像の画素ごとの奥行き情報を有するデプスマップを生成するために用いるステレオペアのマッチングスコアの重み付けを、前記ブラーマップの画素ごとのブラー量に応じて行い、前記デプスマップを生成するデプスマップ生成部と、前記デプスマップ生成部により生成された複数の前記デプスマップを統合することにより前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、前記三次元点群における三次元点に対応した視点ごとの適正スコアに基づいて、マッチング処理に使用する視点を選択する視点選択部と、前記選択された視点により前記三次元点のマッチングを行い、前記三次元点の三次元座標を最適化する三次元点最適化部と、を備えることを特徴とする。 In the three-dimensional shape model generation device of the present invention, the three-dimensional restoration processing unit weights matching scores of stereo pairs used for generating a depth map having depth information for each pixel of each image from the multi-view images. is performed according to the amount of blur for each pixel of the blur map, and a depth map generation unit that generates the depth map; A viewpoint to be used for matching processing is selected based on a 3D point group generation unit that generates a 3D point group that represents the 3D shape of and the appropriate score for each viewpoint corresponding to the 3D point in the 3D point group. and a 3D point optimizing unit that performs matching of the 3D points from the selected viewpoint and optimizes the 3D coordinates of the 3D points.

本発明の、三次元形状モデル生成装置は、前記三次元復元処理部が、前記多視点画像から各画像の画素ごとの奥行き情報を有するデプスマップを生成するデプスマップ生成部と、前記デプスマップ生成部により生成された複数の前記デプスマップを統合することにより前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、前記三次元点群における三次元点に対応した視点ごとの適正スコアに、前記ブラーマップの画素ごとのブラー量に応じた重み付けを行い、マッチング処理に使用する視点を選択する視点選択部と、前記選択された視点により前記三次元点のマッチングを行い、前記三次元点の三次元座標を最適化する三次元点最適化部と、を備えることを特徴とする。 The three-dimensional shape model generation device of the present invention includes: a depth map generation unit in which the three-dimensional restoration processing unit generates a depth map having depth information for each pixel of each image from the multi-view image; a 3D point cloud generation unit that generates a 3D point cloud representing the 3D shape of the object by integrating the plurality of depth maps generated by the unit; a viewpoint selection unit that weights the appropriate score for each viewpoint according to the amount of blur for each pixel of the blur map and selects a viewpoint to be used for matching processing; and a three-dimensional point optimization unit that optimizes the three-dimensional coordinates of the three-dimensional points.

本発明の、三次元形状モデル生成装置は、前記三次元復元処理部が、前記多視点画像から各画像の画素ごとの奥行き情報を有するデプスマップを生成するデプスマップ生成部と、前記デプスマップ生成部により生成された複数の前記デプスマップを統合することにより前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、前記三次元点群における三次元点に対応した視点ごとの適正スコアに基づいて、マッチング処理に使用する視点を選択する視点選択部と、前記選択された視点を用いた前記三次元点のマッチングのマッチングスコアの重み付けを、し、前記ブラーマップの画素ごとのブラー量に応じて行い、前記三次元点の三次元座標を最適化する三次元点最適化部と、を備えることを特徴とする。 The three-dimensional shape model generation device of the present invention includes: a depth map generation unit in which the three-dimensional restoration processing unit generates a depth map having depth information for each pixel of each image from the multi-view image; a 3D point cloud generation unit that generates a 3D point cloud representing the 3D shape of the object by integrating the plurality of depth maps generated by the unit; a viewpoint selection unit that selects a viewpoint to be used in matching processing based on the appropriate score for each viewpoint; weights the matching score of the three-dimensional point matching using the selected viewpoint; and the blur map and a three-dimensional point optimization unit that optimizes the three-dimensional coordinates of the three-dimensional point according to the amount of blur for each pixel.

本発明の、三次元モデル生成方法は、対象物を異なる視点から撮像した二枚以上の多視点画像から、前記対象物の三次元形状モデルを生成する三次元モデル生成方法であり、ブラーマップ生成部が、前記多視点画像の各画像における画素ごとのブラー量を表すブラーマップを生成するブラーマップ生成過程と、三次元復元処理部が、前記多視点画像と前記ブラーマップとを用いて、ウィンドウマッチングによるマッチングスコアの重み付けを、前記ブラーマップにおける画素ごとのブラー量に応じて行い、前記対象物の三次元形状を示す三次元形状モデルを生成する三次元復元処理過程を含むことを特徴とする。 A three-dimensional model generation method of the present invention is a three-dimensional model generation method for generating a three-dimensional shape model of an object from two or more multi-viewpoint images of the object taken from different viewpoints, and generating a blur map. A blur map generation process in which a unit generates a blur map representing the amount of blur for each pixel in each image of the multi-view image, and a three-dimensional restoration processing unit uses the multi-view image and the blur map to perform window The method is characterized by including a three-dimensional reconstruction process of weighting the matching score by matching according to the amount of blur for each pixel in the blur map and generating a three-dimensional shape model representing the three-dimensional shape of the object. .

本発明のプログラムは、対象物を異なる視点から撮像した二枚以上の多視点画像から、前記対象物の三次元形状モデルを生成する三次元形状モデル生成装置としてコンピュータを動作させるプログラムであり、前記コンピュータを、前記多視点画像の各画像における画素ごとのブラー量を表すブラーマップを生成するブラーマップ生成手段、前記多視点画像と前記ブラーマップとを用いて、ウィンドウマッチングによるマッチングスコアの重み付けを、前記ブラーマップにおける画素ごとのブラー量に応じて行い、前記対象物の三次元形状を示す三次元形状モデルを生成する三次元復元処理手段として動作させるためのプログラムである。 A program of the present invention is a program for causing a computer to operate as a three-dimensional shape model generating device for generating a three-dimensional shape model of an object from two or more multi-viewpoint images of the object taken from different viewpoints, Blur map generation means for generating a blur map representing the amount of blur for each pixel in each image of the multi-view image, weighting the matching score by window matching using the multi-view image and the blur map, A program for operating as three-dimensional reconstruction processing means for generating a three-dimensional shape model representing the three-dimensional shape of the object, according to the amount of blur for each pixel in the blur map.

本発明によれば、ブラーが発生した領域を含む多視点画像を用いた場合にも三次元形状を精度よく復元することができる。 According to the present invention, it is possible to accurately restore a three-dimensional shape even when using a multi-viewpoint image including a blurred area.

本発明の実施形態による1三次元形状モデル生成装置1の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a one-three-dimensional geometric model generating device 1 according to an embodiment of the present invention; FIG. 本発明の実施形態によるブラーマップ生成部107が生成するブラーマップの例を示す図である。FIG. 4 is a diagram showing an example of a blur map generated by a blur map generator 107 according to the embodiment of the present invention; FIG. 本発明の実施形態による三次元形状モデル生成装置1が行う動作例を示すフローチャートである。4 is a flow chart showing an operation example performed by the three-dimensional geometric model generating device 1 according to the embodiment of the present invention; 本発明の実施形態による三次元形状モデル生成装置1が生成した三次元形状モデルの画像の例を示す図である。1 is a diagram showing an example of an image of a three-dimensional shape model generated by the three-dimensional shape model generation device 1 according to the embodiment of the present invention; FIG.

以下、本発明の一実施形態について、図面を参照して説明する。 An embodiment of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態による三次元形状モデル生成装置1の構成例を示すブロック図である。図1において、三次元形状モデル生成装置1は、三次元復元処理部100、ブラーマップ生成部107、多視点画像入力部108、多視点画像記憶部109、三次元点群記憶部110、三次元形状モデル記憶部111及びブラーマップ記憶部112を備える。 FIG. 1 is a block diagram showing a configuration example of a three-dimensional geometric model generation device 1 according to an embodiment of the present invention. In FIG. 1, the 3D shape model generation device 1 includes a 3D restoration processing unit 100, a blur map generation unit 107, a multi-viewpoint image input unit 108, a multi-viewpoint image storage unit 109, a 3D point group storage unit 110, a 3D A shape model storage unit 111 and a blur map storage unit 112 are provided.

三次元復元処理部100は、二枚以上の多視点画像とブラーマップとを用いて、多視点画像における画素ごとのブラー量に応じてウィンドウマッチングによるマッチングスコアの重み付けを行い、対象物の三次元形状を示す三次元形状モデルを生成する。ここで、ブラーマップは、多視点画像それぞれの画素ごとの点におけるぼやけやブレの情報が示されたマップである。三次元復元処理部100がブラーマップを用いて三次元形状モデルを生成する方法については後で詳しく説明する。 The three-dimensional restoration processing unit 100 uses two or more multi-viewpoint images and a blur map, weights the matching score by window matching according to the amount of blur for each pixel in the multi-viewpoint images, and calculates the three-dimensional image of the object. Generate a 3D shape model showing the shape. Here, the blur map is a map that indicates blurring and blurring information for each pixel of the multi-viewpoint image. A method for the 3D restoration processing unit 100 to generate a 3D shape model using the blur map will be described later in detail.

ブラーマップ生成部107は、多視点画像の各画像について画素ごとのブラーの強度を示すブラーマップを生成する。このブラーマップは、多視点画像それぞれの画素ごとの点におけるぼやけやブレの情報が示されたマップであり、例えば、画素ごとの三次元点においてブラーが発生していない確率を0~1の範囲で示したマップである。具体的には、ブラーマップの値が0に近い場合にはその三次元点においてブラーが発生していない確率が低い、つまりブラーが発生している確率が高いことを示す。一方、ブラーマップの値が1に近い場合にはその三次元点においてブラーが発生していない確率が高いことを示す。 The blur map generation unit 107 generates a blur map indicating the intensity of blur for each pixel for each image of the multi-view image. This blur map is a map that shows blurring and blurring information at each pixel point of each multi-viewpoint image. This is the map indicated by . Specifically, when the value of the blur map is close to 0, it indicates that the probability that blur does not occur at that three-dimensional point is low, that is, the probability that blur occurs is high. On the other hand, when the value of the blur map is close to 1, it indicates that there is a high probability that blur does not occur at that 3D point.

ブラーマップ生成部107は、例えば、このブラーマップを生成するひとつの方法として、機械学習手法を用いてブラーマップを生成する。ディープラーニングとも呼ばれる機械学習手法のひとつに、畳み込みニューラルネットワーク(Convolutional Nueral Network、CNN)がある。このCNNについて、入力画像と対応したブラーマップの学習データセットにて、パラメータの学習をおこなうことで、カラー画像からブラーマップを生成するCNNを構築することが可能である。 The blur map generation unit 107 generates a blur map using, for example, a machine learning technique as one method of generating this blur map. One machine learning technique, also called deep learning, is a convolutional neural network (CNN). For this CNN, it is possible to construct a CNN that generates a blur map from a color image by learning parameters using a learning data set of a blur map corresponding to an input image.

また、ブラーマップ生成部107は、ブラーマップを生成する、他の方法として、周波数解析手法を用いてブラーマップを生成するようにしてもよい。この場合、ブラーマップ生成部107は、画像における各画素について、その画素の近傍の局所領域のフーリエ変換を行い、局所領域における高周波数成分を抽出する。そして、ブラーマップ生成部107は、抽出した局所領域における高周波数成分が、所定の閾値以上であるか否かを判定する。これにより、ブラーマップ生成部107は、その局所領域がぼやけているか否か判定することが可能である。すなわち、ブラーマップ生成部107は、局所領域における高周波数成分の量が所定の閾値以上である場合にその局所領域のピントが合っていると判定し、局所領域における高周波数成分の量が所定の閾値未満である場合にその局所領域のピントが合っていない、つまりぼやけていると判定する。
ブラーマップ生成部107は、生成した多視点画像のブラーマップをブラーマップ記憶部112に書き込んで記憶させる。
Further, the blur map generation unit 107 may generate a blur map using a frequency analysis technique as another method of generating a blur map. In this case, the blur map generation unit 107 performs Fourier transform on a local region near each pixel in the image to extract high frequency components in the local region. Then, the blur map generation unit 107 determines whether or not the high frequency component in the extracted local region is equal to or greater than a predetermined threshold. This allows the blur map generator 107 to determine whether or not the local area is blurred. That is, the blur map generation unit 107 determines that the local region is in focus when the amount of high frequency components in the local region is equal to or greater than a predetermined threshold, and determines that the amount of high frequency components in the local region is in focus. If it is less than the threshold, it is determined that the local area is out of focus, that is, blurred.
The blur map generation unit 107 writes and stores the generated blur map of the multi-viewpoint image in the blur map storage unit 112 .

図2は、本発明の実施形態によるブラーマップ生成部107が生成するブラーマップの例を示す図である。図2(a)は多視点画像の例を、図2(b)は図2(a)の多視点画像に対応するブラーマップを示している。図2(b)では、0~1のブラーマップの値を0~255の輝度に対応させた画像によりブラーマップを示している。
図2(a)に示すように、多視点画像においては、例えば、背景はピントが合っていないが、対象物にはほぼ全体にピントが合っている。
図2(b)に示すように、ブラーマップにおいては、背景に対応する領域は全体的に黒で示されており、輝度が小さいことが示されている。これは、背景に対応する領域においてブラーが発生している(つまり、ピントが合っていない)確率が高いことを示している。一方、対象物に対応する領域は全体的に白で示されており、輝度が大きいことが示されている。これは、対象物に対応する領域においてブラーが発生していない(つまり、ピントが合っている)確率が高いことを示している。
FIG. 2 is a diagram showing an example of a blur map generated by the blur map generator 107 according to the embodiment of the present invention. FIG. 2(a) shows an example of a multi-viewpoint image, and FIG. 2(b) shows a blur map corresponding to the multi-viewpoint image of FIG. 2(a). FIG. 2(b) shows the blur map by an image in which the blur map values of 0 to 1 correspond to the brightness of 0 to 255. FIG.
As shown in FIG. 2(a), in the multi-viewpoint image, for example, the background is out of focus, but almost the entire object is in focus.
As shown in FIG. 2(b), in the blur map, the area corresponding to the background is entirely black, indicating that the luminance is low. This indicates that the area corresponding to the background is highly likely to be blurred (that is, out of focus). On the other hand, the area corresponding to the object is shown in white as a whole, indicating that the luminance is high. This indicates that there is a high probability that the region corresponding to the object is not blurred (that is, is in focus).

図1に戻り、多視点画像入力部108は、撮像装置(不図示)が撮像した、異なる複数の視点から撮像された多視点画像のデータを入力し、この多視点画像に視点識別情報を付与し、多視点画像記憶部109に対して書き込んで記憶させる。
多視点画像記憶部109は多視点画像入力部108に入力された多視点画像のデータを視点識別情報と対応付けて記憶する。
三次元点群記憶部110は三次元点群生成部103により生成された三次元点群のデータを記憶する。
三次元形状モデル記憶部111は、三次元形状モデル生成部106により生成された三次元形状モデルのデータを記憶する。
ブラーマップ記憶部112は、ブラーマップ生成部107により生成されたブラーマップのデータを記憶する。
Returning to FIG. 1, the multi-viewpoint image input unit 108 inputs data of multi-viewpoint images captured from a plurality of different viewpoints captured by an imaging device (not shown), and assigns viewpoint identification information to the multi-viewpoint images. and writes and stores it in the multi-viewpoint image storage unit 109 .
The multi-viewpoint image storage unit 109 stores the data of the multi-viewpoint image input to the multi-viewpoint image input unit 108 in association with the viewpoint identification information.
The 3D point cloud storage unit 110 stores the 3D point cloud data generated by the 3D point cloud generation unit 103 .
The 3D geometric model storage unit 111 stores the data of the 3D geometric model generated by the 3D geometric model generation unit 106 .
The blur map storage unit 112 stores blur map data generated by the blur map generation unit 107 .

ここで、三次元復元処理部100がブラーマップを用いて三次元形状モデルを生成する方法について説明する。
図1に示すように、三次元復元処理部100は、カメラパラメータ推定部101、デプスマップ生成部102、三次元点群生成部103、視点選択部104、三次元点最適化部105及び三次元形状モデル生成部106を備える。
Here, a method for the 3D restoration processing unit 100 to generate a 3D shape model using a blur map will be described.
As shown in FIG. 1, the 3D restoration processing unit 100 includes a camera parameter estimation unit 101, a depth map generation unit 102, a 3D point cloud generation unit 103, a viewpoint selection unit 104, a 3D point optimization unit 105, and a 3D A shape model generation unit 106 is provided.

カメラパラメータ推定部101は、多視点画像の各画像についてカメラパラメータを推定する。このカメラパラメータは、外部パラメータと内部パラメータとを含み、外部パラメータが世界座標系におけるレンズの中心座標、レンズの光軸の方向などであり、内部パラメータが焦点距離、画像中心、画像の分解能(画素数)及び歪曲収差係数などである。
カメラパラメータ推定部101は、例えば、画像から特徴量を抽出して対応点の計算を行うStructure from Motion(SfM)に、多視点画像の画像情報を入力することにより、カメラパラメータを推定する。SfMにおいては、入力された多視点画像を用いて、多視点画像の組合せについて対応付けを行い、対応付けた多視点画像における対応点の組合せの再投影誤差が最小となるようなカメラパラメータを推定する。
なお、上記では、カメラパラメータ推定部101がSfMを用いてカメラパラメータを推定する場合を例示して説明したが、これに限定されない。カメラパラメータ推定部101は、多視点画像を撮像する撮像装置を事前に校正しておくことで、カメラパラメータの一部若しくは全部を推定するようにしてもよい。
The camera parameter estimation unit 101 estimates camera parameters for each image of the multi-view images. The camera parameters include extrinsic parameters and intrinsic parameters. The extrinsic parameters are the center coordinates of the lens in the world coordinate system, the direction of the optical axis of the lens, etc. The intrinsic parameters are the focal length, image center, image resolution (pixel number) and distortion aberration coefficient.
The camera parameter estimation unit 101 estimates camera parameters by, for example, inputting image information of multi-view images to Structure from Motion (SfM), which extracts feature amounts from images and calculates corresponding points. In SfM, a combination of multi-viewpoint images is matched using input multi-viewpoint images, and camera parameters are estimated such that the reprojection error of the combination of corresponding points in the matched multi-viewpoint images is minimized. do.
In addition, although the case where the camera parameter estimation unit 101 estimates camera parameters using SfM has been described above as an example, the present invention is not limited to this. The camera parameter estimation unit 101 may estimate part or all of the camera parameters by previously calibrating an imaging device that captures multi-viewpoint images.

デプスマップ生成部102は、多視点画像及びカメラパラメータの各々を用いて、各視点の多視点画像に対応する世界座標系におけるデプスマップを生成する。このデプスマップは、各視点の多視点画像それぞれの画素ごとの三次元座標における奥行きの情報が示されたマップである。 The depth map generation unit 102 uses each of the multi-viewpoint images and camera parameters to generate a depth map in the world coordinate system corresponding to the multi-viewpoint images of each viewpoint. This depth map is a map showing depth information in three-dimensional coordinates for each pixel of each multi-viewpoint image of each viewpoint.

本実施形態において、デプスマップ生成部102は、例えば、デプスマップを生成する際に、パッチマッチステレオ(PatchMatch Stereo)法を用いている。パッチマッチステレオ法においては、各視点の多視点画像それぞれの画素のデプスマップ及び法線ベクトルマップの各々を乱数により初期化することで生成する。そして、デプスマップ生成部102は、乱数により生成したデプスマップ及び法線ベクトルマップに対して、画素ごとに隣接する他の画素に対する数値の空間伝搬と、及び異なる視点の多視点画像における数値の空間伝搬と、乱数により求めた調整値を用いて各画素の深度情報(奥行き情報)及び法線ベクトルの微調整とを繰り返して行なう。デプスマップ生成部102は、異なる視点の多視点画像における同一の箇所に相当する画素間のマッチングスコアが最大値となるデプスマップ及び法線ベクトルマップを、各視点における多視点画像のデプスマップ及び法線ベクトルマップのそれぞれとする(例えば、特願2016-124820号公報の記載参照)。デプスマップ生成部102は、生成したデプスマップ及び法線ベクトルマップの各々を、三次元点群記憶部110に対して書き込んで記憶させる。 In this embodiment, the depth map generation unit 102 uses, for example, a patch match stereo method when generating depth maps. In the patch match stereo method, a depth map and a normal vector map of pixels of each multi-viewpoint image of each viewpoint are generated by initializing with random numbers. Then, the depth map generation unit 102 performs spatial propagation of numerical values to other adjacent pixels for each pixel, and spatial distribution of numerical values in multi-viewpoint images of different viewpoints, for the depth map and normal vector map generated by random numbers. Propagation and fine adjustment of the depth information (depth information) of each pixel and the normal vector are repeatedly performed using adjustment values obtained from random numbers. The depth map generation unit 102 generates a depth map and a normal vector map that maximize the matching score between pixels corresponding to the same location in the multi-view images of different viewpoints. Each line vector map (for example, see the description in Japanese Patent Application No. 2016-124820). The depth map generation unit 102 writes and stores each of the generated depth map and normal vector map in the three-dimensional point cloud storage unit 110 .

ここで、マッチングスコアは、画像の局所領域(パッチ)における正規化相互相関(NCC、Normalized Cross-Correlation)、または画像の局所領域のSSD(Sum of Squared Differences)などが用いられる。この場合、マッチングを行うステレオペアの一方の画像においてブラーが発生していると、正しい奥行値にもかかわらずマッチングスコアが低くなってしまったり、不正確な奥行値にもかかわらずマッチングスコアが高くなってしまったりする不整合が起こり得る。このため、一方の画像においてブラーが発生しているステレオペアと、両方の画像でブラーが発生していない(つまり、ピントが合っている)ステレオペアとの各々のマッチングスコアとを同等に扱ってしまうと、そこから推定される奥行値の精度が低下してしまう可能性がある。 Here, as the matching score, normalized cross-correlation (NCC) in a local region (patch) of the image, SSD (Sum of Squared Differences) in the local region of the image, or the like is used. In this case, if one image of the matching stereo pair is blurred, the matching score will be low despite the correct depth value, or the matching score will be high despite the incorrect depth value. inconsistencies can occur. For this reason, the matching scores of a stereo pair in which one image is blurred and a stereo pair in which both images are not blurred (that is, are in focus) are treated equally. Otherwise, there is a possibility that the accuracy of the depth value estimated therefrom will be degraded.

そこで、本実施形態では、デプスマップ生成部102は、ブラーマップ生成部107により生成されたブラーマップを用いて、マッチングスコアに重み付けを行う。具体的に、デプスマップ生成部102は、以下の(1)式に示すようにマッチングスコアSを算出する。 Therefore, in the present embodiment, the depth map generator 102 uses the blur map generated by the blur map generator 107 to weight the matching score. Specifically, the depth map generator 102 calculates the matching score S as shown in the following equation (1).

S=(W1)*NCC(I,I,m,m,N) …(1) S =(W1)*NCC(IR, IC , mR , mC , N) (1)

(1)式において、Iはデプスマップを生成する対象となる視点(参照視点)の画像を示す。また、Iは参照視点の画像とステレオペアとなる視点(近傍視点)の画像を示す。mは参照視点における特定の画素点(注目画素)の座標を示す。mは近傍視点における投影点の座標を示す。Nはウィンドウサイズを示す。そして、W1は重み関数を示す。また、NCC(I,I,m,m,N)は、参照視点の画像Iにおける画素点mの近傍N×N画素の局所領域と、近傍視点の画像Iにおける投影点mの近傍N×N画素の局所領域とのNCCの値を表す。ここで、マッチングスコアとしてNCCの代わりにSSDを用いる場合、(1)式のNCC(I,I,m,m,N)の項が、SSD(I,I,m,m,N)に置き換えられたものを用いる。なお、(1)式において、「*」は乗算を示す演算子である。 In equation (1), I R denotes an image at a viewpoint (reference viewpoint) for which a depth map is to be generated. Also, I C denotes an image at a viewpoint (neighboring viewpoint) that forms a stereo pair with the image at the reference viewpoint. mR indicates the coordinates of a specific pixel point (pixel of interest) in the reference viewpoint. mC indicates the coordinates of the projection point at the neighboring viewpoint. N indicates the window size. And W1 indicates a weighting function. Also, NCC(I R , I C , m R , m C , N) is a local area of N ×N pixels near pixel point m R in reference viewpoint image I R and a projection Represents the value of NCC with a local region of N×N pixels in the vicinity of point mC . Here, when SSD is used instead of NCC as a matching score, the term of NCC ( IR , IC, mR , mC , N) in formula (1) is replaced by SSD ( IR , IC , mR , m C , N). In addition, in the expression (1), "*" is an operator indicating multiplication.

本実施形態において、デプスマップ生成部102は、(1)式に示す重み関数W1として、以下の(2)式を用いる。 In this embodiment, the depth map generator 102 uses the following equation (2) as the weighting function W1 shown in equation (1).

W1=(1-ABS(B(m)-B(m))) …(2) W1=(1-ABS(B R (m R )-B C (m C ))) (2)

(2)式において、B(m)は参照視点の画像における画素点mのブラーマップの値を示す。B(m)は近傍視点の画像における投影点mのブラーマップの値を示す。また、ABS(k)は実数kの絶対値を示す関数である。 In equation (2), B R (m R ) indicates the value of the blur map of pixel point m R in the image of the reference viewpoint. B C (m C ) indicates the value of the blur map of the projection point m C in the image of the neighboring viewpoint. ABS(k) is a function indicating the absolute value of real number k.

また、デプスマップ生成部102は、(2)式に示す重み関数W1に代えて、以下の(3)式を用いるようにしてもよい。 Also, the depth map generation unit 102 may use the following equation (3) instead of the weighting function W1 shown in the equation (2).

W1=MIN(1-(B(m)-B(m)),1) …(3) W1=MIN(1-(B R (m R )-B C (m C )), 1) (3)

(3)式において、MIN(x,y)は実数xと実数yとのうちで、小さい方の実数を示す関数である。 In equation (3), MIN(x, y) is a function that indicates the smaller real number between real number x and real number y.

また、デプスマップ生成部102は、(2)及び(3)式に示す重み関数W1に代えて、以下の(4)式を用いるようにしてもよい。 Also, the depth map generator 102 may use the following equation (4) instead of the weighting function W1 shown in equations (2) and (3).

W1=B(m) …(4) W1=B R (m R ) (4)

デプスマップ生成部102は、上記に示す重み関数W1を用いて、(1)式に示すマッチングスコアを算出する。これにより、マッチングスコアが、ブラーマップを用いて重みづけがなされる。
例えば、マッチングを行うステレオペアの一方の画像においてブラーが発生している場合、(2)式におけるB(m)又はB(m)の何れか一方の値が0に近い値となり、他方が1に近い値となる。この場合、(2)式に示す重み関数W1は1よりも小さい値となる。この場合、(1)式に示すマッチングスコアSは、重みづけがなされる前のマッチングスコアSと比較して小さいスコアとなる。
一方、マッチングを行うステレオペアの両方の画像においてブラーが発生していない場合、(2)式におけるB(m)又はB(m)の両方の値が1に近い値となる。この場合、(2)式に示す重み関数W1は1に近い値となる。この場合、(1)式に示すマッチングスコアSは、重みづけがなされる前のマッチングスコアSと比較してほぼ同等のスコアとなる。
すなわち、デプスマップ生成部102は、重み関数W1を用いてマッチングスコアを算出することにより、ブラーが発生していないステレオペアのマッチングスコアSが、一方にブラーが発生しているステレオペアのマッチングスコアSよりも高い値が示されるようにする。これにより、ブラーが発生していないステレオペアが重視され、デプスマップにおいて、多視点画像におけるブラーの発生に起因する影響、つまり推定される奥行値の精度の低下を抑制することが可能となる。
The depth map generator 102 calculates the matching score shown in Equation (1) using the weight function W1 shown above. The matching score is then weighted using the blur map.
For example, when blurring occurs in one image of a stereo pair to be matched, the value of either B R (m R ) or B C (m C ) in equation (2) is close to 0. , the other is close to 1. In this case, the weighting function W1 shown in equation (2) has a value smaller than one. In this case, the matching score S shown in equation (1) is a score smaller than the matching score S before weighting.
On the other hand, when blur does not occur in both images of the stereo pair to be matched, both values of B R (m R ) and B C (m C ) in equation (2) are close to one. In this case, the weighting function W1 shown in equation (2) has a value close to one. In this case, the matching score S shown in equation (1) is almost the same as the matching score S before weighting.
That is, the depth map generation unit 102 calculates the matching score using the weight function W1, so that the matching score S of the stereo pair in which blurring does not occur is equal to the matching score S of the stereo pair in which blurring occurs on one side. Let values higher than S be shown. As a result, stereo pairs in which blurring does not occur are emphasized, and in the depth map, it is possible to suppress the influence due to the occurrence of blurring in the multi-viewpoint image, that is, the decrease in the accuracy of the estimated depth values.

三次元点群生成部103は、全視点におけるデプスマップ及び法線ベクトルマップの各々を統合し、対象物の三次元形状に対応する三次元点群を生成する。ここで、三次元点群生成部103は、デプスマップ及び撮像装置のカメラパラメータの各々を用いた所定の演算により、上記三次元点群を生成する。すなわち、三次元点群生成部103は、各視点の多視点画像のデプスマップの各々から三次元点群を求め、この三次元点群における三次元点の三次元座標を、それぞれのカメラパラメータに基づいて座標変換を行ない、世界座標系における三次元座標とする。 The 3D point cloud generation unit 103 integrates the depth maps and normal vector maps at all viewpoints to generate a 3D point cloud corresponding to the 3D shape of the object. Here, the 3D point group generation unit 103 generates the 3D point group by a predetermined calculation using each of the depth map and the camera parameters of the imaging device. That is, the 3D point group generation unit 103 obtains a 3D point group from each of the depth maps of the multi-viewpoint images of each viewpoint, and converts the 3D coordinates of the 3D points in the 3D point group into the respective camera parameters. Based on this, coordinate transformation is performed to obtain three-dimensional coordinates in the world coordinate system.

これにより、三次元点群生成部103は、各多視点画像に対応するデプスマップに基づく三次元点群を、世界座標系において統合する。そして、三次元点群生成部103は、合成した三次元点群に対して三次元点群識別情報を付与し、三次元点群記憶部110の三次元点群テーブルに対して書き込んで記憶させる。 Thereby, the 3D point group generation unit 103 integrates the 3D point groups based on the depth maps corresponding to each multi-viewpoint image in the world coordinate system. Then, the three-dimensional point cloud generation unit 103 gives three-dimensional point cloud identification information to the synthesized three-dimensional point cloud, and writes and stores the information in the three-dimensional point cloud table of the three-dimensional point cloud storage unit 110. .

視点選択部104は、統合後の三次元点群における三次元点ごとのマッチングを行なうため、マッチングに用いる2個以上の複数の視点の多視点画像を選択する。 The viewpoint selection unit 104 selects multi-viewpoint images of two or more viewpoints to be used for matching in order to perform matching for each three-dimensional point in the integrated three-dimensional point group.

この場合、視点選択部104は、三次元点とマッチングに用いる各視点との間の幾何学的な位置関係のみを用いて視点を選択すると、その三次元点の投影点の近傍においてブラーが発生している画像であっても、その画像を最適な視点を有する画像として選択する可能性がある。もし、視点選択部104が、ステレオマッチングに用いる視点として、ブラーが発生している画像を選択した場合、ステレオマッチングの精度が著しく低下する可能性がある。つまり、選択された視点を用いて計算される三次元点の精度が低下したり、その三次元点が誤対応として除去されたりする可能性がある。 In this case, if the viewpoint selection unit 104 selects a viewpoint using only the geometrical positional relationship between the 3D point and each viewpoint used for matching, blurring occurs in the vicinity of the projection point of the 3D point. It is possible that even the image with the best viewpoint is selected as the image with the best viewpoint. If the viewpoint selection unit 104 selects a blurred image as a viewpoint to be used for stereo matching, there is a possibility that the precision of stereo matching will drop significantly. That is, there is a possibility that the accuracy of the 3D point calculated using the selected viewpoint will be reduced, or that 3D point will be removed as an erroneous correspondence.

そこで、本実施形態では、視点選択部104は、三次元点と視点の幾何的な位置関係に加えて、ブラーマップ生成部107により生成されたブラーマップを用いて、視点を選択する。すなわち、視点選択部104は、三次元点群における各三次元点に対応した視点ごとの幾何的な位置関係に基づく適正スコアに、ブラーマップの画素ごとのブラー量に応じた重み付けを行い、ステレオマッチングに用いる視点を選択する。 Therefore, in this embodiment, the viewpoint selection unit 104 selects a viewpoint using the blur map generated by the blur map generation unit 107 in addition to the geometric positional relationship between the three-dimensional point and the viewpoint. That is, the viewpoint selection unit 104 weights the appropriate score based on the geometric positional relationship for each viewpoint corresponding to each 3D point in the 3D point cloud according to the amount of blur for each pixel of the blur map, and Select the viewpoint to use for matching.

例えば、視点選択部104は、以下に示す(5)式により選択コストSij(適正スコア)を求め、求めた選択コストSijが最も高かった視点から順に、三次元点のマッチングに用いるために必要な数の視点を選択する。 For example, the viewpoint selection unit 104 obtains the selection cost S ij (appropriate score) according to the following equation (5), and sequentially selects the viewpoint from the viewpoint with the highest selection cost S ij for use in three-dimensional point matching. Select as many viewpoints as you need.

ij=W2*(Vij*(C・rij)*(-n・rij)) …(5) S ij =W2*(V ij *(C j ·r ij )*(−n i ·r ij )) (5)

(5)式において、選択コストSijは三次元点群におけるi番目の三次元点と、複数の視点におけるj番目の視点とを組合せた場合における選択コストを示す。そして、W2は重み関数を示す。
はj番目の視点の光軸のベクトルを示す。nはi番目の三次元点の法線ベクトルを示す。rijはj番目の視点からi番目の三次元点に向かう視点ベクトルを示す。また、(5)式における「・」はベクトル内積を示す演算子であり、「*」は単なる乗算を示す演算子である。つまり、上記(5)式における(C・rij)の項は、対象となるi番目の三次元点に対応する画素の位置座標が、より中央近傍にある(ベクトルCと視点ベクトルrijとの間の角度がより小さい)多視点画像に対応する視点の選択コストSijが高くなるように算出される項である。また、(-n・rij)の項は、対象となるi番目の三次元点に対応する法線ベクトルniと視点ベクトルrijとの間の角度がより小さく、尚且つ、方向が互いに反対となる方向である多視点画像に対応する視点の選択コストSijが高くなるように算出される項である。
In equation (5), the selection cost S ij indicates the selection cost when the i-th 3D point in the 3D point group and the j-th viewpoint among the plurality of viewpoints are combined. And W2 indicates a weighting function.
C j indicates the vector of the optical axis of the j-th viewpoint. n i indicates the normal vector of the i-th three-dimensional point. r ij indicates a viewpoint vector from the j-th viewpoint to the i-th three-dimensional point. Also, "·" in the equation (5) is an operator indicating vector inner product, and "*" is an operator indicating simple multiplication. That is, the term (C j ·r ij ) in the above equation (5) indicates that the position coordinates of the pixel corresponding to the i-th three-dimensional point of interest are closer to the center (vector C j and viewpoint vector r This term is calculated so that the selection cost Sij of the viewpoint corresponding to the multi-viewpoint image (where the angle between Sij and ij is smaller) becomes higher. The term (-n i ·r ij ) is such that the angle between the normal vector n i corresponding to the i-th three-dimensional point of interest and the viewpoint vector r ij is smaller and the direction is This term is calculated so that the selection cost Sij of the viewpoints corresponding to the multi-viewpoint images, which are in directions opposite to each other, increases.

ijはi番目の三次元点がj番目の視点から見えるか否かを示す可視性の係数(パラメータ)である。ここで、係数Vijは、i番目の三次元点がj番目の視点から見える場合に「1」であり、i番目の三次元点がj番目の視点から見えない場合に「0」である。すなわち、係数Vijは、i番目の三次元点がj番目の視点から見えない場合には選択コストSijを0とする。 V ij is a visibility coefficient (parameter) indicating whether or not the i-th 3D point is visible from the j-th viewpoint. where the coefficient V ij is '1' if the i-th 3D point is visible from the j-th viewpoint, and '0' if the i-th 3D point is not visible from the j-th viewpoint. . That is, the coefficient V ij sets the selection cost S ij to 0 when the i-th three-dimensional point cannot be seen from the j-th viewpoint.

本実施形態において、視点選択部104は、例えば、下記(6)式に示す重み関数W2を用いるようにしてよい。 In this embodiment, the viewpoint selection unit 104 may use, for example, the weighting function W2 shown in the following equation (6).

W2=B(mij) …(6) W2 =Bj ( mij ) (6)

(6)式において、B(mij)は、j番目の視点における、i番目の三次元点のj番目の視点における投影点mijのブラーマップの値を示す。 In equation (6), B j (m ij ) indicates the value of the blur map of the projection point m ij at the j-th viewpoint of the i-th three-dimensional point at the j-th viewpoint.

このようにして、視点選択部104は、上記の重み関数W2を用いて算出した選択コストに基づいて視点を選択する。これにより、視点選択部104は、三次元点の投影点の近傍でブラーが発生している画像の選択コストを低く算出する。このため、視点選択部104は、三次元点の投影点の近傍でブラーが発生している画像が選択される可能性を低下させることが可能となる。 In this manner, the viewpoint selection unit 104 selects a viewpoint based on the selection cost calculated using the weight function W2. As a result, the viewpoint selection unit 104 calculates a low selection cost for an image in which blur occurs in the vicinity of the projection point of the three-dimensional point. Therefore, the viewpoint selection unit 104 can reduce the possibility of selecting an image in which blur occurs near the projection point of the three-dimensional point.

三次元点最適化部105は、三次元点群における三次元点ごとに、選択された視点の各々の多視点画像を用いて、三次元座標のマッチングを行ない、三次元座標の再計算の処理を行う。ここで三次元点最適化部105は、マッチングを行う対象とする三次元点群に、三次元点群生成部103により生成された三次元点群を用いてもよいし、デプスマップ生成部102により生成された三次元点群を用いてもよい。ここでのデプスマップ生成部102により生成された三次元点群とは、各視点の多視点画像それぞれの画素のデプスマップ及び法線ベクトルマップの各々を乱数により初期化することで生成された三次元点群である。 The 3D point optimization unit 105 performs matching of 3D coordinates for each 3D point in the 3D point group using a multi-viewpoint image of each of the selected viewpoints, and performs recalculation of the 3D coordinates. I do. Here, the 3D point optimization unit 105 may use the 3D point cloud generated by the 3D point cloud generation unit 103 as the 3D point cloud to be matched, or the depth map generation unit 102 A three-dimensional point cloud generated by The three-dimensional point group generated by the depth map generation unit 102 here means a three-dimensional point group generated by initializing each of the depth map and normal vector map of pixels of each multi-viewpoint image of each viewpoint with random numbers. It is the original point group.

本実施形態においては、多視点画像間の三次元点のマッチング処理を、位相限定相関法を用いて行なう。この位相限定相関法は、正規化相互相関及びSSDにより求めるマッチングスコアによるマッチングに比較し、処理時間が長くなるが、より高精度に三次元座標を求めることができる(例えば、特願2015-141533号公報の記載を参照)。
この位相限定相関法によるマッチングにおいて、三次元点最適化部105は、三次元点の各々において、三次元座標及び法線ベクトルの各々により、選択された視点の多視点画像のそれぞれにおける局所領域を設定する。そして、三次元点最適化部105は、多視点画像の各々の局所領域の画像から位相限定相関関数を算出することにより、多視点画像間における局所領域の画像の微少な平行移動量を推定する。
In this embodiment, three-dimensional point matching processing between multi-viewpoint images is performed using the phase-only correlation method. This phase-only correlation method takes longer processing time than matching by matching score obtained by normalized cross-correlation and SSD, but can obtain three-dimensional coordinates with higher accuracy (for example, Japanese Patent Application No. 2015-141533 See the description in the publication).
In matching by the phase-only correlation method, the three-dimensional point optimization unit 105 uses each of the three-dimensional coordinates and the normal vector at each of the three-dimensional points to determine a local region in each of the multi-viewpoint images of the selected viewpoint. set. Then, the three-dimensional point optimization unit 105 calculates a phase-only correlation function from the image of each local region of the multi-view images, thereby estimating a small translation amount of the image of the local region between the multi-view images. .

三次元点最適化部105は、この推定した平行移動量に基づき、三次元点の三次元座標を修正する再計算を行なう。三次元点最適化部105は、最適化した三次元点の三次元座標を用いて、三次元点群における三次元点の三次元座標を更新する。 The 3D point optimization unit 105 recalculates the 3D coordinates of the 3D point based on the estimated translation amount. The 3D point optimization unit 105 updates the 3D coordinates of the 3D points in the 3D point group using the optimized 3D coordinates of the 3D points.

また、三次元点最適化部105は、最適化した後の三次元点群に対して、新たな三次元点群を追加してもよい。この場合、三次元点最適化部105は、「三次元点追加部」の一例である。新たな三次元点群を追加する方法の一例として、最適化後の三次元点群の各三次元点の三次元座標、及び法線ベクトルに、三次元点群全体の大きさと比較して微小な乱数を加えた三次元座標、及び法線ベクトルを新たに追加する方法が挙げられる。また、他の方法の例として、最適化後の三次元点群の各三次元点について、その三次元点の法線ベクトルと三次元座標とにより設定される三次元平面上に、三次元点群全体の大きさと比較して微小な一定間隔で格子状に配置された三次元点群を新たに追加する方法がある。なお、三次元点最適化部105は、最適化した後の三次元点群に対して新たな三次元点群を追加してもよいし、最適化する前の三次元点群に対して新たな三次元点群を追加してもよい。 Also, the 3D point optimization unit 105 may add a new 3D point group to the optimized 3D point group. In this case, the 3D point optimization unit 105 is an example of a '3D point addition unit'. As an example of a method of adding a new 3D point cloud, the 3D coordinates and normal vector of each 3D point in the 3D point cloud after optimization have a small size compared to the size of the entire 3D point cloud. A method of newly adding a three-dimensional coordinate and a normal vector to which random numbers are added can be mentioned. As an example of another method, for each 3D point of the 3D point group after optimization, on a 3D plane set by the normal vector and 3D coordinates of the 3D point, a 3D point There is a method of newly adding a three-dimensional point group that is arranged in a grid pattern at small regular intervals compared to the size of the entire group. Note that the 3D point optimization unit 105 may add a new 3D point group to the 3D point group after optimization, or add a new 3D point group to the 3D point group before optimization. 3D point cloud may be added.

三次元点最適化部105は、三次元点群における三次元点の三次元座標を更新させる処理と、三次元点群に新たな三次元点を追加する処理とを繰り返し行なう。 The 3D point optimization unit 105 repeats the process of updating the 3D coordinates of the 3D points in the 3D point group and the process of adding new 3D points to the 3D point group.

この場合、三次元点最適化部105は、多視点画像間の位相限定相関法によるマッチングを行う際に、多視点画像から生成した複数のステレオペアについて、位相限定相関関数を算出し、それら複数の位相限定相関関数を統合することで、多視点画像間の位相限定相関関数とする。ここで、ステレオペアの片方の画像にブラーが発生している場合に、計算される位相限定相関関数に誤差が生じる。つまり、複数の位相限定相関関数の統合に単純な平均化を用いると、多視点画像中に対象物がぼやけていたりブレていたりする画像が含まれる場合、平均化後の位相限定相関関数にブラーの発生に起因する誤差が生じ、最終的に計算される三次元点の三次元座標の精度が低下する可能性がある。 In this case, the three-dimensional point optimization unit 105 calculates phase-only correlation functions for a plurality of stereo pairs generated from the multi-view images when performing matching by the phase-only correlation method between the multi-view images, By integrating the phase-only correlation functions of , a phase-only correlation function between multi-viewpoint images is obtained. Here, when blur occurs in one image of a stereo pair, an error occurs in the calculated phase-only correlation function. In other words, when simple averaging is used to integrate multiple phase-only correlation functions, if the multi-view images include images with blurred or blurred objects, the phase-only correlation functions after averaging will be blurred. , and the accuracy of the final calculated 3D coordinates of the 3D point may be reduced.

そこで、本実施形態では、三次元点最適化部105は、ブラーマップ生成部107により生成されたブラーマップを用いて、各ステレオペアから計算される位相限定相関関数の重み付き平均を算出する。そして、三次元点最適化部105は、重み付き平均により算出した位相限定相関関数を、三次元座標の算出に用いる。三次元点最適化部105は、例えば、上記(2)~(4)式の何れかに示す重み関数W1を用いて、重み付き平均を算出するようにしてよい。
これにより、三次元点最適化部105は、ステレオペアの片方の画像でブラーが発生しているペアから計算される位相限定相関関数が、重み付き平均後の位相限定相関関数に与える影響が小さくすることができ、ブラーの発生に起因する三次元座標の精度低下を抑制することが可能である。
三次元点最適化部105は、再計算した三次元座標に基づく三次元点群を、多視点画像記憶部109に書き込んで記憶させる。
Therefore, in this embodiment, the 3D point optimization unit 105 uses the blur map generated by the blur map generation unit 107 to calculate the weighted average of the phase-only correlation functions calculated from each stereo pair. Three-dimensional point optimization section 105 then uses the phase-only correlation function calculated by weighted averaging to calculate three-dimensional coordinates. The three-dimensional point optimization unit 105 may calculate a weighted average using, for example, the weight function W1 shown in any one of the above equations (2) to (4).
As a result, the three-dimensional point optimization unit 105 reduces the influence of the phase-only correlation function calculated from the pair in which blur occurs in one image of the stereo pair on the phase-only correlation function after weighted averaging. It is possible to suppress the deterioration of the accuracy of the three-dimensional coordinates due to the occurrence of blurring.
The 3D point optimization unit 105 writes and stores the 3D point group based on the recalculated 3D coordinates in the multi-viewpoint image storage unit 109 .

三次元形状モデル生成部106は、三次元座標を再計算した三次元点からなる三次元点群を用い、三次元形状モデル(三次元メッシュモデル)を生成する。三次元形状モデル生成部は、例えば、メッシュ再構築(Poisson Surface Reconstruction)の手法を用いて、三次元点群から三次元形状モデルを生成する。
そして、三次元形状モデル生成部106は、生成した三次元形状モデルに対して形状モデル識別情報を付与し、この三次元形状モデルのデータを三次元形状モデル記憶部111に書き込んで記憶させる。
The three-dimensional shape model generating unit 106 generates a three-dimensional shape model (three-dimensional mesh model) using a three-dimensional point group composed of three-dimensional points whose three-dimensional coordinates are recalculated. The three-dimensional shape model generation unit generates a three-dimensional shape model from the three-dimensional point cloud using, for example, a mesh reconstruction (Poisson Surface Reconstruction) method.
Then, the three-dimensional geometric model generating unit 106 gives geometric model identification information to the generated three-dimensional geometric model, and writes the data of this three-dimensional geometric model to the three-dimensional geometric model storage unit 111 for storage.

図3は、本発明の実施形態による三次元形状モデル生成装置1が行う動作例を示すフローチャートである。以下に示すフローチャートは、異なる複数の多視点画像から、デプスマップを生成した後、三次元点群を生成して、この三次元点群に基づいて、三次元形状モデルを生成する、三次元形状モデル生成装置1の処理の流れを示している。 FIG. 3 is a flow chart showing an operation example performed by the three-dimensional geometric model generation device 1 according to the embodiment of the present invention. The flow chart shown below is for generating a depth map from a plurality of different multi-viewpoint images, then generating a 3D point group, and based on this 3D point group, generating a 3D shape model. 3 shows the flow of processing of the model generating device 1. FIG.

ステップS1:
多視点画像入力部108は、異なった複数の視点で撮像装置により撮像した複数の多視点画像を外部装置(不図示)から入力し、多視点画像を撮像した視点の各々に視点識別情報を付与する。そして、多視点画像入力部108は、入力した多視点画像の各々のデータを、多視点画像記憶部109に対して書き込んで記憶させる。
Step S1:
A multi-viewpoint image input unit 108 inputs a plurality of multi-viewpoint images captured by an imaging device from a plurality of different viewpoints from an external device (not shown), and assigns viewpoint identification information to each of the viewpoints from which the multi-viewpoint images are captured. do. Then, the multi-view image input unit 108 writes each data of the input multi-view image to the multi-view image storage unit 109 to store.

ステップS2:
ブラーマップ生成部107は、多視点画像の各画像について画素ごとのブラーマップを生成する。ブラーマップ生成部107は、カラー画像からブラーマップを生成するCNNに、多視点画像を入力させることより当該多視点画像のブラーマップを生成する。そして、ブラーマップ生成部107は、多視点画像のブラーマップの各々を、ブラーマップ記憶部112に対して書き込んで記憶させる。
Step S2:
A blur map generation unit 107 generates a blur map for each pixel for each image of the multi-view image. A blur map generation unit 107 generates a blur map of the multi-viewpoint image by inputting the multi-viewpoint image to a CNN that generates a blur map from a color image. Then, the blur map generation unit 107 writes and stores each blur map of the multi-viewpoint image in the blur map storage unit 112 .

ステップS3:
カメラパラメータ推定部101は、多視点画像の各々のカメラパラメータを推定する。カメラパラメータ推定部101は、多視点画像記憶部109に記憶された多視点画像の各々のデータを読み出し、多視点画像の各々のデータをSfMに入力することにより当該多視点画像のカメラパラメータを推定する。そして、カメラパラメータ推定部101は、推定した多視点画像の各々のカメラパラメータをデプスマップ生成部102に出力する。
Step S3:
The camera parameter estimation unit 101 estimates camera parameters of each multi-view image. The camera parameter estimation unit 101 reads each data of the multi-view images stored in the multi-view image storage unit 109 and inputs each data of the multi-view images to the SfM to estimate the camera parameters of the multi-view images. do. Then, the camera parameter estimation unit 101 outputs the estimated camera parameters of each of the multi-view images to the depth map generation unit 102 .

ステップS4:
デプスマップ生成部102は、多視点画像、及びカメラパラメータ推定部101により推定されたカメラパラメータの各々を用いて、各視点に対応するデプスマップ及び法線ベクトルマップを生成する。この時、デプスマップ生成部102は、重み関数W1を用いて多視点画像におけるブラーの発生に起因する影響が抑制されるようにデプスマップ及び法線ベクトルマップを生成する。デプスマップ生成部102は、生成したデプスマップ及び法線ベクトルマップの各々を、三次元点群生成部103に出力する。
Step S4:
The depth map generation unit 102 uses each of the multi-viewpoint images and the camera parameters estimated by the camera parameter estimation unit 101 to generate depth maps and normal vector maps corresponding to each viewpoint. At this time, the depth map generation unit 102 uses the weight function W1 to generate the depth map and the normal vector map so as to suppress the influence of blurring in the multi-view image. The depth map generation unit 102 outputs each of the generated depth map and normal vector map to the 3D point group generation unit 103 .

ステップS5:
三次元点群生成部103は、デプスマップ生成部102により生成された、多視点画像の全視点におけるデプスマップ及び法線ベクトルマップの各々を統合し、対象物の三次元形状に対応する三次元点群を生成する。三次元点群生成部103は、合成した三次元点群に対して三次元点群識別情報を付与し、三次元点群記憶部110の三次元点群テーブルに対して書き込んで記憶させる。
Step S5:
The 3D point group generation unit 103 integrates each of the depth maps and normal vector maps at all viewpoints of the multi-viewpoint image generated by the depth map generation unit 102 to obtain a 3D point cloud corresponding to the 3D shape of the object. Generate a point cloud. The 3D point cloud generating unit 103 gives 3D point cloud identification information to the synthesized 3D point cloud, and writes and stores it in the 3D point cloud table of the 3D point cloud storage unit 110 .

ステップS6:
視点選択部104は、三次元点群における各三次元点のマッチングを行なうための複数、例えば2個の視点を選択する。このとき、視点選択部104は、重み関数W2を用いて多視点画像におけるブラーの発生に起因する影響が抑制されるように視点を選択する。視点選択部104は、選択した視点を示す情報を三次元点最適化部105に出力する。
Step S6:
The viewpoint selection unit 104 selects a plurality of, for example, two viewpoints for matching each 3D point in the 3D point group. At this time, the viewpoint selection unit 104 uses the weighting function W2 to select viewpoints so as to suppress the effects of blurring in the multi-viewpoint image. The viewpoint selection unit 104 outputs information indicating the selected viewpoint to the 3D point optimization unit 105 .

ステップS7:
三次元点最適化部105は、視点選択部104により選択された視点を用いて選択された複数の視点における多視点画像の各々における三次元点の三次元座標を再計算し、三次元点を最適化する。このとき、三次元点最適化部105は、重み関数W1を用いて多視点画像におけるブラーの発生に起因する影響が抑制されるように三次元点を最適化する。三次元点最適化部105は、最適化した三次元点群のデータを三次元点群記憶部110に記憶させる。
Step S7:
The 3D point optimization unit 105 recalculates the 3D coordinates of the 3D points in each of the multi-viewpoint images at a plurality of viewpoints selected using the viewpoints selected by the viewpoint selection unit 104, and converts the 3D points to Optimize. At this time, the 3D point optimization unit 105 uses the weighting function W1 to optimize the 3D points so as to suppress the effects caused by blurring in the multi-viewpoint image. The 3D point optimization unit 105 stores the optimized 3D point cloud data in the 3D point cloud storage unit 110 .

ステップS8:
三次元形状モデル生成部106は、三次元点最適化部105により最適化された三次元点群のデータを用いて三次元形状モデルを生成する。三次元形状モデル生成部106は、例えば、メッシュ再構築の手法を用いて三次元メッシュモデルを生成する。三次元形状モデル生成部106は、生成した三次元メッシュモデルを三次元形状モデル記憶部111に記憶させる。
Step S8:
The 3D shape model generation unit 106 generates a 3D shape model using the 3D point cloud data optimized by the 3D point optimization unit 105 . The three-dimensional shape model generation unit 106 generates a three-dimensional mesh model using, for example, a method of mesh reconstruction. The three-dimensional geometric model generation unit 106 stores the generated three-dimensional mesh model in the three-dimensional geometric model storage unit 111 .

図4は、本発明の実施形態による三次元形状モデル生成装置1が生成した三次元形状モデルの画像の例を示す図である。図4(a)及び図4(b)の各々は、異なる視点から撮像した多視点画像の例を示す図である。ここで、図4(a)及び図4(b)の多視点画像には、対象物の一部にブラーが発生している画像が含まれる。
図4(c)及び図4(d)の各々は、ブラーマップによる重みづけを行わずに作成した従来の三次元メッシュモデルの例を示す図である。図4(e)及び図4(f)の各々は、ブラーマップによる重みづけを行い作成した三次元メッシュモデルの例を示す図である。
FIG. 4 is a diagram showing an example of an image of a three-dimensional shape model generated by the three-dimensional shape model generation device 1 according to the embodiment of the present invention. FIGS. 4A and 4B are diagrams showing examples of multi-viewpoint images captured from different viewpoints. Here, the multi-viewpoint images of FIGS. 4A and 4B include an image in which part of the object is blurred.
Each of FIGS. 4(c) and 4(d) is a diagram showing an example of a conventional three-dimensional mesh model created without weighting with a blur map. Each of FIGS. 4(e) and 4(f) is a diagram showing an example of a three-dimensional mesh model created by weighting with a blur map.

図4(c)及び図4(d)に示すように、ブラーが発生している画像が含まれる多視点画像から、従来の三次元復元手法を用いて三次元メッシュモデルを作成した場合、ブラーマップによる重み付けが行わないために、復元結果において、対象の一部が欠損したり、ノイズ状の不正確な形状として復元されたりすることが確認できる。 As shown in FIGS. 4(c) and 4(d), when a 3D mesh model is created using a conventional 3D reconstruction method from a multi-viewpoint image including images with blur, Since weighting by the map is not performed, it can be confirmed that a part of the object is lost in the restoration result, or that the object is restored as a noise-like inaccurate shape.

これに対し、本実施形態では、図4(c)及び図4(d)に示すように、ブラーが発生している画像が含まれる多視点画像から、ブラーマップによる重み付けを行った上で三次元メッシュモデルを作成した場合、来の三次元復元手法を用いて三次元メッシュモデルを作成した場合と比較して、復元領域が拡大し、誤差が減少していることが確認できる。
このように、本実施形態を用いることで、多視点画像に対象の一部にブラーが発生している画像が含まれる場合においても、三次元形状を高精度に復元することが可能である。
On the other hand, in the present embodiment, as shown in FIGS. 4C and 4D, multi-viewpoint images including blurred images are subjected to weighting using a blur map, and then three-dimensional images are obtained. It can be confirmed that when the original mesh model is created, the restoration area is enlarged and the error is reduced compared to the case where the 3D mesh model is created using the conventional 3D reconstruction method.
As described above, by using the present embodiment, it is possible to restore the three-dimensional shape with high accuracy even when the multi-viewpoint image includes an image in which a part of the target is blurred.

上述した実施形態における三次元形状モデル生成装置1の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 All or part of the three-dimensional geometric model generation device 1 in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read into a computer system and executed. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. Furthermore, "computer-readable recording medium" means a medium that dynamically retains a program for a short period of time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may also include something that holds the program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or client in that case. Further, the program may be for realizing a part of the functions described above, or may be capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be implemented using a programmable logic device such as FPGA.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and design and the like are included within the scope of the gist of the present invention.

1…三次元形状モデル生成装置
100…三次元復元処理部
101…カメラパラメータ推定部
102…デプスマップ生成部
103…三次元点群生成部
104…視点選択部
105…三次元点最適化部
106…三次元形状モデル生成部
107…ブラーマップ生成部
108…多視点画像入力部
109…多視点画像記憶部
110…三次元点群記憶部
111…三次元形状モデル記憶部
112…ブラーマップ記憶部
Reference Signs List 1 3D geometric model generation device 100 3D restoration processing unit 101 camera parameter estimation unit 102 depth map generation unit 103 3D point group generation unit 104 viewpoint selection unit 105 3D point optimization unit 106 Three-dimensional shape model generation unit 107 Blur map generation unit 108 Multi-view image input unit 109 Multi-view image storage unit 110 Three-dimensional point group storage unit 111 Three-dimensional shape model storage unit 112 Blur map storage unit

Claims (9)

対象物を異なる視点から撮像した二枚以上の多視点画像から、前記対象物の三次元形状モデルを生成する三次元形状モデル生成装置であり、
前記多視点画像の各画像における画素ごとのブラー量を表すブラーマップを生成するブラーマップ生成部と、
前記多視点画像と前記ブラーマップとを用いて、ウィンドウマッチングによるマッチングスコアの重み付けを、前記ブラーマップにおける画素ごとのブラー量に応じて行い、前記対象物の三次元形状を示す三次元形状モデルを生成する三次元復元処理部と
を備えることを特徴とする三次元形状モデル生成装置。
A three-dimensional shape model generation device for generating a three-dimensional shape model of an object from two or more multi-viewpoint images obtained by imaging the object from different viewpoints,
a blur map generation unit that generates a blur map representing the amount of blur for each pixel in each image of the multi-view image;
Using the multi-viewpoint image and the blur map, a matching score is weighted by window matching according to the amount of blur for each pixel in the blur map, and a three-dimensional shape model representing the three-dimensional shape of the object is generated. A three-dimensional shape model generation device, comprising: a three-dimensional reconstruction processing unit that generates a three-dimensional shape model;
前記三次元復元処理部が、
前記多視点画像から各画像の画素ごとの奥行き情報を有するデプスマップを生成するために用いるステレオペアのマッチングスコアの重み付けを、前記ブラーマップの画素ごとのブラー量に応じて行い、前記デプスマップを生成するデプスマップ生成部と、
前記デプスマップ生成部により生成された複数の前記デプスマップを統合することにより前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と
を備えることを特徴とする請求項1に記載の三次元形状モデル生成装置。
The three-dimensional reconstruction processing unit
weighting the matching score of a stereo pair used for generating a depth map having depth information for each pixel of each image from the multi-view image according to the amount of blur for each pixel of the blur map; a depth map generator to generate;
a three-dimensional point group generating unit that generates a three-dimensional point group representing the three-dimensional shape of the object by integrating the plurality of depth maps generated by the depth map generating unit; Item 1. The three-dimensional shape model generation device according to Item 1.
前記三次元復元処理部が、
前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、
前記多視点画像と前記三次元点群における三次元点の三次元座標とを用いて、ウィンドウマッチングによるマッチングスコアの重み付けを、前記ブラーマップにおける画素ごとのブラー量に応じて行い、前記三次元点群における三次元点の三次元座標を最適化する三次元点最適化部と、
前記三次元点群の各三次元点の三次元座標に応じて、新たな三次元点を前記三次元点群に追加する三次元点追加部と
を備えることを特徴とする請求項1に記載の三次元形状モデル生成装置。
The three-dimensional reconstruction processing unit
a three-dimensional point group generating unit that generates a three-dimensional point group representing the three-dimensional shape of the object;
Using the multi-viewpoint image and the three-dimensional coordinates of the three-dimensional points in the three-dimensional point group, weighting of the matching score by window matching is performed according to the amount of blur for each pixel in the blur map, and the three-dimensional point a 3D point optimizer that optimizes 3D coordinates of 3D points in the group;
2. The three-dimensional point adding unit for adding a new three-dimensional point to the three-dimensional point group according to the three-dimensional coordinates of each three-dimensional point of the three-dimensional point group. 3D shape model generator.
前記三次元復元処理部が、
前記三次元点群における各三次元点に対応した視点ごとの幾何的な位置関係に基づく適正スコアに、前記ブラーマップの画素ごとのブラー量に応じた重み付けを行い、ステレオマッチングに用いる視点を選択する視点選択部
を更に備え、
前記三次元点最適化部は、前記選択された視点を用いて前記三次元点のマッチングを行う
ことを特徴とする請求項3に記載の三次元形状モデル生成装置。
The three-dimensional reconstruction processing unit
Appropriate scores based on the geometrical positional relationship of each viewpoint corresponding to each 3D point in the 3D point group are weighted according to the amount of blur for each pixel of the blur map, and a viewpoint to be used for stereo matching is selected. further comprising a viewpoint selection unit for
4. The 3D geometric model generation device according to claim 3, wherein the 3D point optimization unit performs matching of the 3D points using the selected viewpoint.
前記三次元復元処理部が、
前記多視点画像から各画像の画素ごとの奥行き情報を有するデプスマップを生成するために用いるステレオペアのマッチングスコアの重み付けを、前記ブラーマップの画素ごとのブラー量に応じて行い、前記デプスマップを生成するデプスマップ生成部と、
前記デプスマップ生成部により生成された複数の前記デプスマップを統合することにより前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、
前記三次元点群における三次元点に対応した視点ごとの適正スコアに基づいて、マッチング処理に用いられる視点を選択する視点選択部と、
前記選択された視点により前記三次元点のマッチングを行い、前記三次元点の三次元座標を最適化する三次元点最適化部と
を備えることを特徴とする請求項1に記載の三次元形状モデル生成装置。
The three-dimensional reconstruction processing unit
weighting the matching score of a stereo pair used for generating a depth map having depth information for each pixel of each image from the multi-view image according to the amount of blur for each pixel of the blur map; a depth map generator to generate;
a three-dimensional point group generating unit that generates a three-dimensional point group representing the three-dimensional shape of the object by integrating the plurality of depth maps generated by the depth map generating unit;
a viewpoint selection unit that selects a viewpoint to be used for matching processing based on the appropriate score for each viewpoint corresponding to the three-dimensional point in the three-dimensional point group;
The three-dimensional shape according to claim 1, further comprising: a three-dimensional point optimization unit that performs matching of the three-dimensional points from the selected viewpoint and optimizes three-dimensional coordinates of the three-dimensional points. model generator.
前記三次元復元処理部が、
前記多視点画像から各画像の画素ごとの奥行き情報を有するデプスマップを生成するデプスマップ生成部と、
前記デプスマップ生成部により生成された複数の前記デプスマップを統合することにより前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、
前記三次元点群における三次元点に対応した視点ごとの適正スコアに、前記ブラーマップの画素ごとのブラー量に応じた重み付けを行い、マッチング処理に用いられる視点を選択する視点選択部と、
前記選択された視点により前記三次元点のマッチングを行い、前記三次元点の三次元座標を最適化する三次元点最適化部と
を備えることを特徴とする請求項1、又は請求項5に記載の三次元形状モデル生成装置。
The three-dimensional reconstruction processing unit
a depth map generation unit that generates a depth map having depth information for each pixel of each image from the multi-view image;
a three-dimensional point group generating unit that generates a three-dimensional point group representing the three-dimensional shape of the object by integrating the plurality of depth maps generated by the depth map generating unit;
a viewpoint selection unit that weights the appropriate score for each viewpoint corresponding to the three-dimensional point in the three-dimensional point group according to the amount of blur for each pixel of the blur map, and selects a viewpoint to be used in matching processing;
A three-dimensional point optimization unit that performs matching of the three-dimensional points from the selected viewpoint and optimizes three-dimensional coordinates of the three-dimensional points. A three-dimensional shape model generation device as described.
前記三次元復元処理部が、
前記多視点画像から各画像の画素ごとの奥行き情報を有するデプスマップを生成するデプスマップ生成部と、
前記デプスマップ生成部により生成された複数の前記デプスマップを統合することにより前記対象物の三次元形状を示す三次元点群を生成する三次元点群生成部と、
前記三次元点群における三次元点に対応した視点ごとの適正スコアに基づいて、マッチング処理に用いられる視点を選択する視点選択部と、
前記選択された視点を用いた前記三次元点のマッチングのマッチングスコアの重み付けを、し、前記ブラーマップの画素ごとのブラー量に応じて行い、前記三次元点の三次元座標を最適化する三次元点最適化部と
を備えることを特徴とする請求項1、請求項5又は請求項6に記載の三次元形状モデル生成装置。
The three-dimensional reconstruction processing unit
a depth map generation unit that generates a depth map having depth information for each pixel of each image from the multi-view image;
a three-dimensional point group generating unit that generates a three-dimensional point group representing the three-dimensional shape of the object by integrating the plurality of depth maps generated by the depth map generating unit;
a viewpoint selection unit that selects a viewpoint to be used for matching processing based on the appropriate score for each viewpoint corresponding to the three-dimensional point in the three-dimensional point group;
weighting the matching score of the matching of the 3D points with the selected viewpoint according to the amount of blur for each pixel of the blur map to optimize the 3D coordinates of the 3D points; 7. The three-dimensional geometric model generation device according to claim 1, further comprising an origin point optimization unit.
対象物を異なる視点から撮像した二枚以上の多視点画像から、前記対象物の三次元形状モデルを生成する三次元モデル生成方法であり、
ブラーマップ生成部が、前記多視点画像の各画像における画素ごとのブラー量を表すブラーマップを生成するブラーマップ生成過程と、
三次元復元処理部が、前記多視点画像と前記ブラーマップとを用いて、ウィンドウマッチングによるマッチングスコアの重み付けを、前記ブラーマップにおける画素ごとのブラー量に応じて行い、前記対象物の三次元形状を示す三次元形状モデルを生成する三次元復元処理過程と
を含むことを特徴とする三次元形状モデル生成方法。
A three-dimensional model generation method for generating a three-dimensional shape model of an object from two or more multi-viewpoint images obtained by imaging the object from different viewpoints,
a blur map generation process in which a blur map generation unit generates a blur map representing the amount of blur for each pixel in each image of the multi-view image;
A three-dimensional restoration processing unit weights a matching score by window matching using the multi-view image and the blur map according to the amount of blur for each pixel in the blur map, and determines the three-dimensional shape of the object. A three-dimensional shape model generation method, comprising: a three-dimensional restoration processing step for generating a three-dimensional shape model showing
対象物を異なる視点から撮像した二枚以上の多視点画像から、前記対象物の三次元形状モデルを生成する三次元形状モデル生成装置としてコンピュータを動作させるプログラムであり、
前記コンピュータを、
前記多視点画像の各画像における画素ごとのブラー量を表すブラーマップを生成するブラーマップ生成手段、
前記多視点画像と前記ブラーマップとを用いて、ウィンドウマッチングによるマッチングスコアの重み付けを、前記ブラーマップにおける画素ごとのブラー量に応じて行い、前記対象物の三次元形状を示す三次元形状モデルを生成する三次元復元処理手段
として動作させるためのプログラム。
A program for causing a computer to operate as a three-dimensional shape model generation device for generating a three-dimensional shape model of an object from two or more multi-viewpoint images obtained by imaging the object from different viewpoints,
said computer,
Blur map generation means for generating a blur map representing the amount of blur for each pixel in each image of the multi-view image;
Using the multi-viewpoint image and the blur map, a matching score is weighted by window matching according to the amount of blur for each pixel in the blur map, and a three-dimensional shape model representing the three-dimensional shape of the object is generated. A program for operating as a three-dimensional reconstruction processing means to generate.
JP2018130995A 2018-07-10 2018-07-10 3D geometric model generation device, 3D model generation method and program Active JP7135517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018130995A JP7135517B2 (en) 2018-07-10 2018-07-10 3D geometric model generation device, 3D model generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018130995A JP7135517B2 (en) 2018-07-10 2018-07-10 3D geometric model generation device, 3D model generation method and program

Publications (2)

Publication Number Publication Date
JP2020009255A JP2020009255A (en) 2020-01-16
JP7135517B2 true JP7135517B2 (en) 2022-09-13

Family

ID=69151866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018130995A Active JP7135517B2 (en) 2018-07-10 2018-07-10 3D geometric model generation device, 3D model generation method and program

Country Status (1)

Country Link
JP (1) JP7135517B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240404092A1 (en) 2021-08-30 2024-12-05 Nippon Telegraph And Telephone Corporation Image processing device, method and program
WO2025028171A1 (en) * 2023-07-28 2025-02-06 ソニーグループ株式会社 Information processing device and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016573A (en) 2010-03-24 2012-01-26 Advance Co Ltd System for measuring and processing dental prosthesis
WO2012032826A1 (en) 2010-09-10 2012-03-15 富士フイルム株式会社 Three-dimensional imaging device and three-dimensional imaging method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016573A (en) 2010-03-24 2012-01-26 Advance Co Ltd System for measuring and processing dental prosthesis
WO2012032826A1 (en) 2010-09-10 2012-03-15 富士フイルム株式会社 Three-dimensional imaging device and three-dimensional imaging method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kalin Kolev, Petri Tanskanen, Pablo Speciale, Marc Pollefeys,Turning Mobile Phones into 3D Scanners,2014 IEEE Conference on Computer Vision and Pattern Recognition,米国,IEEE,2014年09月25日,第3946-3953頁,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=arnumber=6909899
平舘 睦基 他4名,多視点ステレオのためのPatchMatch Stereoの拡張と性能評価,映像情報メディア学会技術報告 ITE Technical Report,第39巻, 第30号,日本,(一社)映像情報メディア学会,2015年08月17日,第65~68頁

Also Published As

Publication number Publication date
JP2020009255A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
CN110264509B (en) Method, apparatus, and storage medium for determining pose of image capturing device
US10499046B2 (en) Generating depth maps for panoramic camera systems
US20200334842A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
CN106846467B (en) Entity scene modeling method and system based on optimization of position of each camera
EP3465611B1 (en) Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
JP2018181047A (en) Three-dimensional shape model generation device, three-dimensional shape model generation method and program
JP7312026B2 (en) Image processing device, image processing method and program
JP2019091122A (en) Depth map filter processing device, depth map filter processing method and program
JP7135517B2 (en) 3D geometric model generation device, 3D model generation method and program
JP2020004219A (en) Apparatus, method, and program for generating three-dimensional shape data
JP7334516B2 (en) Three-dimensional shape model generation device, three-dimensional shape model generation method, and program
JP2017199285A (en) Information processor, information processing method, program
JP5728399B2 (en) Measuring device, method and program
CN111010558B (en) Stumpage depth map generation method based on short video image
Kuhl et al. Monocular 3D scene reconstruction at absolute scales by combination of geometric and real-aperture methods
JP2009294956A (en) Three-dimensional shape restoration method, its device, program, and recording medium
JP5970387B2 (en) Image generating apparatus, image generating method, and program
JP6641313B2 (en) Region extraction device and program
JP2017215706A (en) Video synthesis method, video acquisition device, video synthesis system, and computer program
van Dam et al. Landmark-based model-free 3d face shape reconstruction from video sequences
CN113538301A (en) Multi-depth map fusion method and device and computer readable storage medium
CN113615169B (en) Apparatus and method for augmented reality user manuals
JP2020046744A (en) Image processing apparatus, background image generation method, and program
Nadar et al. Sensor simulation for monocular depth estimation using deep neural networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7135517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150