JP2011085971A - Apparatus, method, and program for processing image, recording medium, and image processing system - Google Patents
Apparatus, method, and program for processing image, recording medium, and image processing system Download PDFInfo
- Publication number
- JP2011085971A JP2011085971A JP2009236016A JP2009236016A JP2011085971A JP 2011085971 A JP2011085971 A JP 2011085971A JP 2009236016 A JP2009236016 A JP 2009236016A JP 2009236016 A JP2009236016 A JP 2009236016A JP 2011085971 A JP2011085971 A JP 2011085971A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- target
- coordinate
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】所定の対象の3次元座標を容易且つ適切に推定できるようにする。
【解決手段】複数の画像と、当該画像の撮影時のカメラ3の位置情報及び撮影方向情報とを記憶するとともに、対象の1以上の対象点についての3次元座標を記憶する記憶部15と、記憶部15に3次元座標が記憶されている対象点に対応する特徴点の或る画像中の実位置と、対象点の3次元座標と、或る画像の撮影時のカメラの位置情報及び撮影方向情報とに基づいて、或る画像の撮影時のカメラの焦点距離を推定し、推定された焦点距離に基づいて、或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する画像処理部13とを有するように構成する。
【選択図】図1A three-dimensional coordinate of a predetermined object can be estimated easily and appropriately.
A storage unit that stores a plurality of images, position information and shooting direction information of a camera at the time of shooting the images, and stores three-dimensional coordinates of one or more target points of the target; The actual position of the feature point corresponding to the target point for which the three-dimensional coordinates are stored in the storage unit 15 in a certain image, the three-dimensional coordinates of the target point, the position information of the camera at the time of shooting a certain image, and the shooting Based on the direction information, the focal length of the camera at the time of shooting a certain image is estimated, and based on the estimated focal length, the three-dimensional coordinates included in the certain image and other images are unknown. And an image processing unit 13 for estimating the three-dimensional coordinates of the target point.
[Selection] Figure 1
Description
本発明は、周囲の環境等の対象に存在する複数の対象点についての3次元座標を推定する画像処理装置等に関する。 The present invention relates to an image processing apparatus that estimates three-dimensional coordinates for a plurality of target points existing in a target such as a surrounding environment.
従来、複数の画像に基づいて、画像中に含まれる対象についての3次元座標を求め、対象についての3次元モデルを形成する技術が知られている。 2. Description of the Related Art Conventionally, there is known a technique for obtaining a three-dimensional coordinate for an object included in an image based on a plurality of images and forming a three-dimensional model for the object.
例えば、特許文献1には、カメラのオリエンテーションを固定させて、カメラを直線のパス上を移動させ、規則的な間隔をおいて画像を逐次撮影することにより、対象についての一連のイメージ(イメージシーケンス)を取得するようにして、対象についての3次元モデルの作成処理を単純化する技術が開示されている。 For example, in Patent Document 1, a camera orientation is fixed, a camera is moved on a straight path, and images are sequentially taken at regular intervals, thereby obtaining a series of images (image sequence) about an object. ) Is obtained to simplify the process of creating a three-dimensional model for an object.
また、特許文献2には、場面の3D(3次元)モデルを、未知の外部値を備えた1セットのイメージから復元する技術が開示されている。 Patent Document 2 discloses a technique for restoring a 3D (three-dimensional) model of a scene from a set of images having unknown external values.
また、非特許文献1には、ハンドヘルドカメラを使用して、オブジェクトの3Dモデルを復元する方法が開示されている。非特許文献1に示されたアルゴリズムでは、各フレームのカメラの位置及びオリエンテーションは把握されていないために、エピポーラー拘束を使用して、2つの視界の関係を解決して、3Dモデルの復元を行っている。 Non-Patent Document 1 discloses a method for restoring a 3D model of an object using a handheld camera. In the algorithm shown in Non-Patent Document 1, since the camera position and orientation of each frame are not grasped, the relationship between the two fields of view is solved by using epipolar constraints, and the 3D model is restored. ing.
しかしながら、特許文献1の技術によると、カメラのオリエンテーションが固定され、直線上の一定間隔の位置でしか対象の画像を撮影しないので、対象の複雑な形状を適切に復元することができないという問題がある。また、特許文献2においては、スケルトン化等の複雑な処理を行っており、容易に3Dモデルを復元することができないという問題がある。また、非特許文献1においては、エピポーラー拘束を使用して、2つの画像の視界の関係を解決する必要があるので、処理が複雑になるという問題がある。 However, according to the technique of Patent Document 1, since the orientation of the camera is fixed and the target image is taken only at positions at regular intervals on a straight line, there is a problem that the complicated shape of the target cannot be restored properly. is there. Further, in Patent Document 2, there is a problem that complicated processing such as skeletonization is performed and the 3D model cannot be easily restored. Further, in Non-Patent Document 1, there is a problem that the processing becomes complicated because it is necessary to solve the relationship between the fields of view of two images using epipolar constraints.
本発明は、上記課題に鑑みなされたものであり、その目的は、所定の対象の3次元座標を容易且つ適切に推定することのできる技術を提供することにある。 This invention is made | formed in view of the said subject, The objective is to provide the technique which can estimate the three-dimensional coordinate of a predetermined object easily and appropriately.
上記目的達成のため、本発明の第1の観点に係る画像処理装置は、所定の対象に存在する複数の対象点についての3次元座標を、対象の少なくとも一部が含まれる複数の画像に基づいて、推定する画像処理装置であって、複数の画像と、当該画像の撮影時のカメラの位置情報及び撮影方向情報とを記憶する画像記憶手段と、対象の1以上の対象点についての3次元座標を記憶する座標記憶手段と、座標記憶手段に3次元座標が記憶されている対象点に対応する特徴点の或る画像中の実位置と、対象点の3次元座標と、或る画像の撮影時の前記カメラの位置情報及び撮影方向情報とに基づいて、或る画像の撮影時のカメラの焦点距離を推定する焦点距離推定手段と、推定された焦点距離に基づいて、或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定手段とを有する。係る画像処理装置によると、或る画像における焦点距離を容易且つ適切に推定することができ、当該或る画像と、他の画像とに基づいて、これら画像に含まれる対象点の3次元座標を推定することができる。 In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention is based on a plurality of images including at least a part of a target based on three-dimensional coordinates of a plurality of target points existing in a predetermined target. An image processing apparatus for estimation, an image storage means for storing a plurality of images, camera position information and shooting direction information at the time of shooting the images, and three-dimensional about one or more target points of the target A coordinate storage means for storing coordinates, a real position in a certain image of a feature point corresponding to a target point for which the three-dimensional coordinates are stored in the coordinate storage means, a three-dimensional coordinate of the target point, A focal length estimating means for estimating a focal length of the camera at the time of shooting a certain image based on the position information and shooting direction information of the camera at the time of shooting, and a certain image based on the estimated focal length Tertiary included in other images It coordinates and a coordinate estimating means for estimating the three-dimensional coordinates of the target point is unknown. According to such an image processing apparatus, it is possible to easily and appropriately estimate the focal length in a certain image, and based on the certain image and another image, the three-dimensional coordinates of the target points included in these images are obtained. Can be estimated.
上記画像処理装置において、焦点距離推定手段は、位置情報、撮影方向情報及び、3次元座標に基づいて推定される対象点に対応する特徴点の或る画像上の推定位置と、特徴点の或る画像上の実位置とに基づいて、焦点距離を推定するようにしてもよい。係る画像形成装置によると、推定位置と、或る画像上の実位置とに基づいて、適切な焦点距離を推定することができる。 In the image processing apparatus, the focal length estimation means includes an estimated position on a certain image of a feature point corresponding to a target point estimated based on position information, shooting direction information, and three-dimensional coordinates, and The focal length may be estimated based on the actual position on the image. According to such an image forming apparatus, an appropriate focal length can be estimated based on the estimated position and an actual position on a certain image.
また、上記画像処理装置において、焦点距離推定手段は、複数の対象点に対応するそれぞれの特徴点の推定位置と、複数の対象点に対応するそれぞれの特徴点の実位置とのずれに関する関数の和がもっとも小さくなるように、焦点距離を推定するようにしてもよい。係る画像処理装置によると、複数の対象点に対応する特徴点の推定位置と、対象点の実位置とのずれに関する関数の和が小さくなるように、焦点距離を推定するので、より適切な焦点距離を推定することができる。 Further, in the image processing apparatus, the focal length estimation unit includes a function relating to a deviation between the estimated position of each feature point corresponding to the plurality of target points and the actual position of each feature point corresponding to the plurality of target points. The focal length may be estimated so that the sum becomes the smallest. According to such an image processing apparatus, since the focal length is estimated so that the sum of the functions related to the deviation between the estimated position of the feature point corresponding to a plurality of target points and the actual position of the target point becomes small, more appropriate focus The distance can be estimated.
また、上記画像処理装置において、焦点距離推定手段は、共役勾配法を用いて、ずれに関する関数の和がもっとも小さくなるような焦点距離を推定するようにしてもよい。係る画像処理装置によると、容易且つ適切に焦点距離を推定することができる。 In the image processing apparatus, the focal length estimation means may estimate a focal length that minimizes a sum of functions related to deviation using a conjugate gradient method. According to such an image processing apparatus, the focal length can be estimated easily and appropriately.
また、上記画像処理装置において、画像を撮影するカメラは、カメラの位置及び撮影方向を変更可能なデバイスに装着されており、デバイスの状態を特定することのできる状態特定可能データに基づいて、カメラの位置情報及び撮影方向情報を特定するカメラ情報特定手段と、カメラにより撮影された画像と、撮影時におけるカメラの位置情報及び撮影方向情報とを画像記憶手段に格納する格納制御手段とを更に有するようにしてもよい。係る画像処理装置によると、カメラの位置情報及び撮影方向情報を容易且つ適切に取得することができる。このため、推定する対象点の3次元座標の精度を向上することができる。 In the image processing apparatus, the camera that captures an image is attached to a device that can change the position and shooting direction of the camera, and the camera is based on state-identifiable data that can identify the state of the device. Camera information specifying means for specifying the position information and the shooting direction information, and a storage control means for storing the image taken by the camera and the position information and shooting direction information of the camera at the time of shooting in the image storage means. You may do it. According to such an image processing apparatus, it is possible to easily and appropriately acquire camera position information and shooting direction information. For this reason, the precision of the three-dimensional coordinates of the target point to be estimated can be improved.
また、上記画像処理装置において、処理対象の複数の画像を用いて複数の対象点の3次元座標を推定した後に、各画像に含まれる複数の対象点の3次元座標を用いて、各画像の撮影時のカメラの位置情報及び撮影方向情報を最適化するカメラ情報最適化手段を更に有するようにしてもよい。係る画像処理装置によると、各画像の撮影時のカメラの位置情報及び撮影方向情報を最適化することができ、最適化された始点位置座標及び撮影方向情報に基づいて、複数の対象点の3次元座標をより適切に推定することができる。 In the image processing apparatus, after estimating the three-dimensional coordinates of a plurality of target points using a plurality of images to be processed, the three-dimensional coordinates of the plurality of target points included in each image are used. You may make it further have a camera information optimization means which optimizes the positional information on a camera at the time of imaging | photography, and imaging | photography direction information. According to such an image processing apparatus, it is possible to optimize the camera position information and shooting direction information at the time of shooting each image, and based on the optimized start point position coordinates and shooting direction information, a plurality of target points 3 Dimensional coordinates can be estimated more appropriately.
また、上記画像処理装置において、処理対象の複数の画像を用いて対象点の3次元座標を推定した後に、同一の対象点が含まれている複数の画像におけるカメラの位置情報及び撮影方向情報に基づいて、対象点の3次元座標を最適化する3次元座標最適化手段を更に有するようにしてもよい。係る画像処理装置によると、対象点の3次元座標を適切に最適化することができる。 In the image processing apparatus, after estimating the three-dimensional coordinates of the target point using a plurality of images to be processed, the camera position information and the shooting direction information in the plurality of images including the same target point are used. Based on this, a three-dimensional coordinate optimization unit that optimizes the three-dimensional coordinates of the target point may be further included. According to such an image processing apparatus, it is possible to appropriately optimize the three-dimensional coordinates of the target point.
また、上記画像処理装置において、複数の対象点の3次元座標に基づいて、対象についての3次元モデルを形成するモデル形成手段を更に有するようにしてもよい。係る画像処理装置によると、複数の対象点を含む対象の3次元モデルを適切に形成することができる。 The image processing apparatus may further include model forming means for forming a three-dimensional model of the object based on the three-dimensional coordinates of a plurality of target points. According to such an image processing apparatus, a three-dimensional model of a target including a plurality of target points can be appropriately formed.
上記目的達成のため、本発明の第2の観点に係る画像処理方法は、所定の対象に存在する複数の対象点についての3次元座標を、対象の少なくとも一部が含まれる複数の画像に基づいて、推定する画像処理装置による画像処理方法であって、画像処理装置の画像記憶手段が、複数の画像と、当該画像の撮影時のカメラの位置情報及び撮影方向情報とを記憶する画像記憶ステップと、画像処理装置の座標記憶手段が、対象の1以上の対象点についての3次元座標を記憶する座標記憶ステップと、画像処理装置の焦点距離推定手段が、座標記憶手段に3次元座標が記憶されている対象点に対応する特徴点の或る画像中の実位置と、対象点の3次元座標と、或る画像の撮影時のカメラの位置情報及び撮影方向情報とに基づいて、或る画像の撮影時のカメラの焦点距離を推定する焦点距離推定ステップと、画像処理装置の座標推定手段が、推定された焦点距離に基づいて、或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定ステップとを有する。係る画像処理方法によると、或る画像における焦点距離を容易且つ適切に推定することができ、当該或る画像と、他の画像とに基づいて、これら画像に含まれる対象点の3次元座標を推定することができる。 In order to achieve the above object, an image processing method according to a second aspect of the present invention is based on a plurality of images including at least a part of a target based on three-dimensional coordinates of a plurality of target points existing in a predetermined target. An image processing method by the image processing apparatus to be estimated, wherein the image storage means of the image processing apparatus stores a plurality of images, camera position information and shooting direction information at the time of shooting the images. A coordinate storage step in which the coordinate storage means of the image processing apparatus stores three-dimensional coordinates for one or more target points, and a focal length estimation means of the image processing apparatus stores the three-dimensional coordinates in the coordinate storage means. Based on the actual position of the feature point corresponding to the target point in the image, the three-dimensional coordinates of the target point, and the position information and shooting direction information of the camera at the time of shooting the image When shooting images The focal length estimation step for estimating the focal length of the camera and the coordinate estimation means of the image processing device include the three-dimensional coordinates included in one image and another image based on the estimated focal length. And a coordinate estimation step for estimating a three-dimensional coordinate for the target point. According to such an image processing method, it is possible to easily and appropriately estimate the focal length in a certain image, and based on the certain image and another image, the three-dimensional coordinates of the target points included in these images are obtained. Can be estimated.
上記目的達成のため、本発明の第3の観点に係る画像処理プログラムは、コンピューターに、所定の対象に存在する複数の対象点についての3次元座標を、前記対象の少なくとも一部が含まれる複数の画像に基づいて、推定させるための画像処理プログラムであって、コンピューターを複数の画像と、当該画像の撮影時のカメラの位置情報及び撮影方向情報とを記憶する画像記憶手段と、対象の1以上の対象点についての3次元座標を記憶する座標記憶手段と、座標記憶手段に3次元座標が記憶されている対象点に対応する特徴点の或る画像中の実位置と、対象点の3次元座標と、或る画像の撮影時のカメラの位置情報及び撮影方向情報とに基づいて、或る画像の撮影時のカメラの焦点距離を推定する焦点距離推定手段と、推定された焦点距離に基づいて、或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定手段として機能させる。係る画像処理プログラムを実行するコンピューターによると、或る画像における焦点距離を容易且つ適切に推定することができ、当該或る画像と、他の画像とに基づいて、これら画像に含まれる対象点の3次元座標を推定することができる。 To achieve the above object, an image processing program according to a third aspect of the present invention provides a computer with a plurality of three-dimensional coordinates of a plurality of target points existing in a predetermined target, including at least a part of the target. An image processing program for presuming based on the image of the image, a computer storing a plurality of images, camera position information and shooting direction information at the time of shooting the image, and a target 1 Coordinate storage means for storing the three-dimensional coordinates of the target points described above, an actual position in a certain image of a feature point corresponding to the target point for which the three-dimensional coordinates are stored in the coordinate storage means, and 3 of the target points A focal length estimating means for estimating a focal length of the camera at the time of shooting a certain image based on the dimensional coordinates and the camera position information and shooting direction information at the time of shooting a certain image; Based on, are included in the one image and the other image, 3-dimensional coordinates to function as the coordinate estimation means for estimating the three-dimensional coordinates of the target point is unknown. According to the computer that executes the image processing program, it is possible to easily and appropriately estimate the focal length in a certain image. Based on the certain image and other images, the target points included in these images can be estimated. Three-dimensional coordinates can be estimated.
上記目的達成のため、本発明の第4の観点に係る記録媒体は、コンピューターに、所定の対象に存在する複数の対象点についての3次元座標を、対象の少なくとも一部が含まれる複数の画像に基づいて、推定させるための画像処理プログラムを格納する記録媒体であって、コンピューターを複数の画像と、当該画像の撮影時のカメラの位置情報及び撮影方向情報とを記憶する画像記憶手段と、対象の1以上の対象点についての3次元座標を記憶する座標記憶手段と、座標記憶手段に3次元座標が記憶されている対象点に対応する特徴点の或る画像中の実位置と、対象点の3次元座標と、或る画像の撮影時のカメラの位置情報及び撮影方向情報とに基づいて、或る画像の撮影時のカメラの焦点距離を推定する焦点距離推定手段と、推定された焦点距離に基づいて、或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定手段として機能させる画像処理プログラムを格納する。係る画像処理プログラムを実行するコンピューターによると、或る画像における焦点距離を容易且つ適切に推定することができ、当該或る画像と、他の画像とに基づいて、これら画像に含まれる対象点の3次元座標を推定することができる。 In order to achieve the above object, a recording medium according to the fourth aspect of the present invention provides a computer with a plurality of images including at least a part of a target, and three-dimensional coordinates of a plurality of target points existing in a predetermined target. A storage medium for storing an image processing program for estimation based on the image storage means for storing a plurality of images, camera position information and shooting direction information at the time of shooting the images, A coordinate storage unit that stores three-dimensional coordinates of one or more target points of the target, a real position in a certain image of a feature point corresponding to the target point for which the three-dimensional coordinates are stored in the coordinate storage unit, and a target Based on the three-dimensional coordinates of the point and the position information and shooting direction information of the camera at the time of shooting a certain image, the focal length estimation means for estimating the focal length of the camera at the time of shooting a certain image was estimated Scorching Distance based, are included in the one image and the other image, 3-dimensional coordinates to store the image processing program to function as the coordinate estimation means for estimating the three-dimensional coordinates of the target point is unknown. According to the computer that executes the image processing program, it is possible to easily and appropriately estimate the focal length in a certain image. Based on the certain image and other images, the target points included in these images can be estimated. Three-dimensional coordinates can be estimated.
上記目的達成のため、本発明の第5の観点に係る画像処理システムは、所定の対象に存在する複数の対象点についての3次元座標を、対象の少なくとも一部が含まれる複数の画像に基づいて、推定する画像処理システムであって、画像を撮影するカメラと、カメラを装着し、カメラの位置及び撮影方向を変更可能なデバイスと、デバイスの状態を特定することのできる状態特定可能データに基づいて、カメラの位置情報及び前記撮影方向情報を特定するカメラ情報特定手段と、カメラにより撮影された画像と、撮影時におけるカメラの位置情報及び撮影方向情報とを画像記憶手段に格納する格納制御手段と、対象の1以上の対象点についての3次元座標を記憶する座標記憶手段と、座標記憶手段に3次元座標が記憶されている対象点に対応する特徴点の或る画像中の実位置と、対象点の3次元座標と、或る画像の撮影時の前記カメラの位置情報及び撮影方向情報とに基づいて、或る画像の撮影時のカメラの焦点距離を推定する焦点距離推定手段と、推定された焦点距離に基づいて、或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定手段とを有する。係る画像処理システムによると、或る画像における焦点距離を容易且つ適切に推定することができ、当該或る画像と、他の画像とに基づいて、これら画像に含まれる対象点の3次元座標を推定することができる。 In order to achieve the above object, an image processing system according to a fifth aspect of the present invention is based on a plurality of images including at least a part of a target based on three-dimensional coordinates of a plurality of target points existing in a predetermined target. An image processing system for estimation, including a camera that captures an image, a device that can be attached to the camera, and that can change the position and direction of the camera, and state-identifiable data that can identify the state of the device Storage control for storing in the image storage means camera information specifying means for specifying the camera position information and the shooting direction information, the image taken by the camera, and the camera position information and shooting direction information at the time of shooting Means, a coordinate storage means for storing three-dimensional coordinates for one or more target points, and a target point for which the three-dimensional coordinates are stored in the coordinate storage means. Based on the actual position of the feature point in a certain image, the three-dimensional coordinates of the target point, and the position information and photographing direction information of the camera at the time of photographing a certain image, A focal length estimation means for estimating a focal length, and based on the estimated focal length, estimate a three-dimensional coordinate of a target point that is included in a certain image and another image and whose three-dimensional coordinate is unknown. Coordinate estimation means. According to such an image processing system, it is possible to easily and appropriately estimate the focal length in a certain image, and based on the certain image and another image, the three-dimensional coordinates of the target points included in these images are obtained. Can be estimated.
本発明の実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Embodiments of the present invention will be described with reference to the drawings. The embodiments described below do not limit the invention according to the claims, and all the elements and combinations described in the embodiments are essential for the solution of the invention. Is not limited.
まず、本発明の一実施形態に係る画像処理システムについて説明する。 First, an image processing system according to an embodiment of the present invention will be described.
図1は、本発明の一実施形態に係る画像処理システムの機能構成図である。 FIG. 1 is a functional configuration diagram of an image processing system according to an embodiment of the present invention.
画像処理システム1は、デバイス2と、周囲の画像を取り込むことのできるカメラ3と、デバイス2の動作を制御するためのデバイスコントローラー4と、画像処理装置5とを有する。 The image processing system 1 includes a device 2, a camera 3 that can capture surrounding images, a device controller 4 for controlling the operation of the device 2, and an image processing apparatus 5.
デバイス2は、所定の環境に配置され、姿勢を変更させる動作ができるようになっている。本実施形態では、デバイス2には、カメラ3が装着され、デバイス2を動作させることにより、カメラ3の位置(視点位置)及びカメラ3のオリエンテーション(撮影方向:ヨー、ピッチ、ロール)を変更することができる。デバイス2の装着の部位に対するカメラ3の位置は、決まっているので、デバイス2の姿勢からカメラ3の位置及びオリエンテーションを把握することができる。 The device 2 is arranged in a predetermined environment and can operate to change its posture. In this embodiment, the camera 3 is attached to the device 2, and by operating the device 2, the position of the camera 3 (viewpoint position) and the orientation of the camera 3 (shooting direction: yaw, pitch, roll) are changed. be able to. Since the position of the camera 3 with respect to the part to which the device 2 is attached is determined, the position and orientation of the camera 3 can be grasped from the posture of the device 2.
デバイス2の一例としては、作業スペースの内部に置かれたロボットがある。例えば、ロボットの場合には、カメラ3は、ロボットのアームに対して配置される。ロボットのアームにおけるカメラ3の位置及び向きは、ロボットへの固定時に決まることとなるので、ロボットのアームの状態からカメラ3の位置及びオリエンテーションを把握することができる。例えば、ロボットのアームが、複数の関節を介して接続された複数のメンバーにより構成されていれば、アームの各関節の角度からカメラ3の位置及びオリエンテーションを把握することができる。デバイス2は、デバイスコントローラー4によって、その姿勢を変更することができる。 An example of the device 2 is a robot placed inside a work space. For example, in the case of a robot, the camera 3 is arranged with respect to the arm of the robot. Since the position and orientation of the camera 3 in the robot arm are determined when fixed to the robot, the position and orientation of the camera 3 can be grasped from the state of the robot arm. For example, if the robot arm is composed of a plurality of members connected via a plurality of joints, the position and orientation of the camera 3 can be grasped from the angles of the joints of the arms. The device 2 can change its posture by the device controller 4.
カメラ3は、デバイス2を介して、画像の取り込み指示を受け、周囲環境(対象)の画像(画像データ)を取り込んで画像処理装置5に渡す。カメラ3は、焦点距離を変えて画像を取り込むことができる。例えば、カメラ3は、撮影範囲の或る物体に対して焦点が合うように、焦点距離を変更させる。 The camera 3 receives an image capture instruction via the device 2, captures an image (image data) of the surrounding environment (target), and passes it to the image processing apparatus 5. The camera 3 can capture images by changing the focal length. For example, the camera 3 changes the focal length so that a certain object in the shooting range is in focus.
デバイスコントローラー4は、画像処理装置5のメイン制御部11からコマンドを受け取り、それに従って、デバイス2の姿勢を制御する。 The device controller 4 receives a command from the main control unit 11 of the image processing apparatus 5 and controls the attitude of the device 2 according to the command.
画像処理装置5は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を含むコンピューターにより構成される。画像処理装置5は、カメラ情報特定手段の一例としてのメイン制御部11と、格納制御手段の一例としての画像取得部(フレームグラバー)12と、焦点距離推定手段、座標推定手段、カメラ情報最適化手段、3次元座標最適化手段及びモデル形成手段の一例としての画像処理部13と、シミュレーション部14と、画像記憶手段及び座標記憶手段の一例としての記憶部15とを有する。なお、本実施形態では、メイン制御部11と、画像処理部13と、シミュレーション部14とは、同一の画像処理装置5内に備えるようにしているが、例えば、少なくともいずれか1つが別の装置内に備えられてもよく、各部がそれぞれ異なる装置内に備えられてもよい。 The image processing apparatus 5 is configured by a computer including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The image processing apparatus 5 includes a main control unit 11 as an example of a camera information specifying unit, an image acquisition unit (frame grabber) 12 as an example of a storage control unit, a focal length estimation unit, a coordinate estimation unit, and camera information optimization. And an image processing unit 13 as an example of a three-dimensional coordinate optimization unit and a model forming unit, a simulation unit 14, and a storage unit 15 as an example of an image storage unit and a coordinate storage unit. In the present embodiment, the main control unit 11, the image processing unit 13, and the simulation unit 14 are provided in the same image processing apparatus 5. However, for example, at least one of them is a separate apparatus. Each part may be provided in a different device.
記憶部15は、種々のデータを記憶する。本実施形態では、記憶部15は、カメラ情報16と、イメージシーケンス17と、環境3次元(3D)モデル18と、デバイス3次元(3D)モデル19と、シミュレーション結果20とを記憶する。また、記憶部15は、メイン制御部11、画像取得部12、画像処理部13、又はシミュレーション部14による処理に利用するデータについても記憶する。 The storage unit 15 stores various data. In the present embodiment, the storage unit 15 stores camera information 16, an image sequence 17, an environment three-dimensional (3D) model 18, a device three-dimensional (3D) model 19, and a simulation result 20. The storage unit 15 also stores data used for processing by the main control unit 11, the image acquisition unit 12, the image processing unit 13, or the simulation unit 14.
メイン制御部11は、主に、デバイスコントロールソフトウェアをCPUが実行することにより構成され、図示しない入力手段によるユーザーの指示又は設定内容に従って、デバイス2の姿勢を制御するためのコマンド(例えば、デバイス2の各関節の角度を含むコマンド)をデバイスコントローラー4に出力する。また、メイン制御部11は、図示しない入力手段によるユーザーの指示又は設定内容に従って、画像取得部12に画像を取り込ませるコマンドを逐次出力する。ここで、後続の処理の迅速化を考慮すると、取り込まれる一連の画像(イメージ、フレーム)の内の連続する画像間に十分なオーバーラップがあり、各画像が異なるカメラ位置(同じカメラ位置でオリエンテーションのみを変更したものではない)から得られたものとなるようにコマンドを出力することが好ましい。例えば、ユーザーがデバイス2を移動させて撮影させる指示を逐次行う場合には、上記したような画像が得られるように、メイン制御部11に対して指示することが必要である。 The main control unit 11 is mainly configured by the CPU executing device control software, and commands (for example, the device 2) for controlling the posture of the device 2 in accordance with a user instruction or setting content by an input unit (not shown). The command including the angle of each joint is output to the device controller 4. Further, the main control unit 11 sequentially outputs commands for causing the image acquisition unit 12 to capture an image in accordance with a user instruction or setting content by an input unit (not shown). Here, considering the speed of subsequent processing, there is sufficient overlap between successive images in a series of captured images (images, frames), and each image has a different camera position (orientation at the same camera position). It is preferable to output the command so that it is obtained from the above. For example, when the user sequentially instructs the user to move the device 2 to shoot, it is necessary to instruct the main control unit 11 to obtain the above-described image.
また、メイン制御部11は、画像を取り込ませるコマンドを出力する度に、デバイス2の姿勢を制御したコマンド(状態特定可能データ)に基づいて、デバイス2に装着されたカメラ3のその時点の位置(視点位置)及びオリエンテーションを算出し、当該位置を示す位置情報及びオリエンテーションを示すオリエンテーション情報を含むカメラ情報を画像取得部12に渡す。 In addition, the main control unit 11 outputs the position of the camera 3 attached to the device 2 at that time point based on the command (state identifiable data) that controls the attitude of the device 2 every time a command for capturing an image is output. (Viewpoint position) and orientation are calculated, and camera information including position information indicating the position and orientation information indicating the orientation is passed to the image acquisition unit 12.
画像取得部12は、主に、フレームグラバーアプリケーションをCPUが実行することにより構成され、メイン制御部11から画像を取り込ませるコマンドを受け付ける度に、カメラ3からその時点の画像を取り込み、当該画像と、メイン制御部11から渡されたカメラ情報(すなわち、当該画像を撮影した際のカメラの位置情報及びオリエンテーション情報)とを対応付けて記憶部15に格納する。このような処理により、画像取得部12は、デバイス2の周囲環境における種々の視点からの一連の画像(イメージシーケンス17)を記憶部15に格納することとなる。 The image acquisition unit 12 is mainly configured by the CPU executing a frame grabber application. Each time a command for capturing an image is received from the main control unit 11, the image acquisition unit 12 captures an image at that time from the camera 3. The camera information passed from the main control unit 11 (that is, the position information and orientation information of the camera when the image is taken) is stored in the storage unit 15 in association with each other. By such processing, the image acquisition unit 12 stores a series of images (image sequence 17) from various viewpoints in the surrounding environment of the device 2 in the storage unit 15.
画像処理部13は、主に、処理プログラムをCPUが実行することにより構成され、カメラ情報16と、イメージシーケンス17を用いて、周囲環境の3次元モデル(環境3次元モデル)を作成し、作成した環境3次元モデル18を記憶部15に記憶する。3次元モデルを作成する処理の詳細は、後述する。 The image processing unit 13 is mainly configured by a CPU executing a processing program, and creates and creates a three-dimensional model of the surrounding environment (environmental three-dimensional model) using the camera information 16 and the image sequence 17. The stored environment three-dimensional model 18 is stored in the storage unit 15. Details of the process of creating the three-dimensional model will be described later.
シミュレーション部14は、主に、シミュレーションプログラムをCPUが実行することにより構成され、環境3次元モデル18と、デバイスについての3次元モデル(デバイス3次元モデル)19とに基づいて、各種シミュレーション処理を実行し、シミュレーション結果20を記憶部15に記憶する。ここで、デバイス3次元モデル19の対象としては、環境3次元モデル18を作成するためにカメラ3を装着したデバイス2に限られず、任意のデバイスであってよく、例えば、環境において使用することを検討したいデバイスであってもよい。また、シミュレーション処理としては、例えば、ポイントティーチング処理、経路探索処理、デバイスの環境に対する衝突検出処理等であってもよい。 The simulation unit 14 is mainly configured by a CPU executing a simulation program, and executes various simulation processes based on an environment three-dimensional model 18 and a device three-dimensional model (device three-dimensional model) 19. Then, the simulation result 20 is stored in the storage unit 15. Here, the target of the device three-dimensional model 19 is not limited to the device 2 to which the camera 3 is attached in order to create the environment three-dimensional model 18, and may be any device, for example, used in the environment. It may be the device you want to consider. The simulation process may be, for example, a point teaching process, a route search process, a collision detection process for the device environment, or the like.
図2は、本発明の一実施形態に係る画像処理システムにおけるデバイス、カメラの一例を示す図である。 FIG. 2 is a diagram illustrating an example of a device and a camera in the image processing system according to the embodiment of the present invention.
デバイス2は、例えば、図2に示すような種々の物体が存在する周囲環境SE下で使用される。この周囲環境SEにおいては、デバイス2が、周囲環境SEに存在する物体と衝突しないようにすることが要求される。そこで、周囲環境SEの3次元モデルを作成し、衝突処理等を行うことが有益である。 The device 2 is used, for example, in an ambient environment SE where various objects as shown in FIG. 2 exist. In the surrounding environment SE, it is required that the device 2 does not collide with an object existing in the surrounding environment SE. Therefore, it is beneficial to create a three-dimensional model of the surrounding environment SE and perform collision processing and the like.
本実施形態では、周囲環境SEの画像を得るために、デバイス2のアーム部に対してカメラ3が装着される。カメラ3は、図2に示すように、デバイス2のアーム部に装着されるので、アーム部との相対位置を予め測定等して把握しておくことにより、デバイス2のアーム部の状態(アーム部における各関節の角度等)に基づいて、カメラ3の位置及びオリエンテーションを比較的正確に把握することができることとなる。そこで、本実施形態では、メイン制御部11が、デバイス2の状態に基づいて、カメラ3の位置及びオリエンテーションを算出するようにしている。 In the present embodiment, the camera 3 is attached to the arm portion of the device 2 in order to obtain an image of the surrounding environment SE. Since the camera 3 is attached to the arm portion of the device 2 as shown in FIG. 2, the state of the arm portion of the device 2 (arm Therefore, the position and orientation of the camera 3 can be grasped relatively accurately based on the angle of each joint in the unit. Therefore, in the present embodiment, the main control unit 11 calculates the position and orientation of the camera 3 based on the state of the device 2.
まず、画像処理システムの一連の処理についての概略を説明する。 First, an outline of a series of processes of the image processing system will be described.
図3は、本発明の一実施形態に係る画像処理システムの一連の処理を示すフローチャートである。 FIG. 3 is a flowchart showing a series of processes of the image processing system according to the embodiment of the present invention.
画像処理システム1は、図4に示すような周囲の環境の一連の画像(イメージシーケンス)を取得して記憶する処理を実行する(ステップS1)。ここで、イメージシーケンスとしては、連続するイメージ間に十分なオーバーラップがあり、且つ後続の処理で必要となる深さ情報を確実に生成できるように各イメージを取得した際のカメラ視点が実質的に離れていることが好ましい。なお、ユーザーの指示によって一連の画像を取得していく場合には、この点をユーザーが注意する必要がある。なお、このようにすることは、ユーザーにとっては、実行して経験を積むことで、難しいタスクではない。 The image processing system 1 executes a process of acquiring and storing a series of images (image sequence) of the surrounding environment as shown in FIG. 4 (step S1). Here, as an image sequence, there is sufficient overlap between successive images, and the camera viewpoint at the time of acquiring each image is practical so that depth information necessary for subsequent processing can be generated reliably. It is preferable that they are separated from each other. In addition, when acquiring a series of images according to a user's instruction, the user needs to pay attention to this point. Note that doing this is not a difficult task for the user to perform and gain experience.
また、このステップにおいては、画像処理システム1は、各画像の撮影時のカメラ3の位置及びオリエンテーションを、例えば、デバイス2のアームの各関節角に基づいて計算して、画像とともに記憶する。 In this step, the image processing system 1 calculates the position and orientation of the camera 3 at the time of capturing each image based on, for example, each joint angle of the arm of the device 2 and stores it together with the image.
次いで、フレームシーケンスの最初の2つのフレームを用いて、各種初期設定用の値を算出する初期処理を実行する(ステップS2)。ここで、最初の2つのフレームは、所定の校正用パターン(図5参照)が含まれたフレームとなっており、校正用パターンを用いて、各フレームの撮影時のカメラ3の焦点距離や、これら2つの画像に含まれている一致(マッチ)する特徴点の組に対応する対象点の3次元座標を算出する。 Next, initial processing for calculating various initial setting values is executed using the first two frames of the frame sequence (step S2). Here, the first two frames are frames including a predetermined calibration pattern (see FIG. 5), and using the calibration pattern, the focal length of the camera 3 at the time of shooting each frame, The three-dimensional coordinates of the target point corresponding to the set of matching feature points included in these two images are calculated.
次いで、以降の各フレームから複数の特徴点を検出し(ステップS3)、各フレームの特徴点と、前の順番のフレームの特徴点とにマッチする特徴点があるか否かを検出し(ステップS4)、これらマッチする特徴点の組に対応する対象点の3次元座標を推定し、最適化し、周囲環境の複数の対象点についての3次元座標の集合を復元する(ステップS5)。 Next, a plurality of feature points are detected from each subsequent frame (step S3), and it is detected whether there is a feature point that matches the feature point of each frame and the feature point of the previous frame (step S3). S4) Estimating and optimizing the three-dimensional coordinates of the target points corresponding to the set of matching feature points, and restoring a set of three-dimensional coordinates for a plurality of target points in the surrounding environment (step S5).
次いで、周囲環境の各点の3次元座標に基づいて、周囲環境(対象)を示すメッシュ構造を調整する処理を実行し(ステップS6)、当該対象の表面を示すパッチに対して外観を示すテクスチャーを貼り付ける処理(ステップS7)を実行する。これにより、周囲環境の3次元モデルが復元される。 Next, based on the three-dimensional coordinates of each point of the surrounding environment, a process of adjusting the mesh structure indicating the surrounding environment (target) is executed (step S6), and the texture showing the appearance with respect to the patch indicating the surface of the target Is executed (step S7). Thereby, the three-dimensional model of the surrounding environment is restored.
次いで、画像処理装置5は、ユーザーから3次元モデルの復元が成功したか否か(3次元モデルが満足するものであったか否か)を受け付け(ステップS8)、3次元モデルが成功でない場合には、3次元モデルの再構成に利用するための追加のイメージを取得する処理を実行し(ステップS9)、ステップS3からの処理を再び実行する。 Next, the image processing apparatus 5 accepts whether or not the restoration of the three-dimensional model is successful from the user (whether or not the three-dimensional model is satisfactory) (step S8), and if the three-dimensional model is not successful. Processing for acquiring an additional image to be used for reconstruction of the three-dimensional model is executed (step S9), and the processing from step S3 is executed again.
一方、ユーザーから3次元モデルの復元が成功した旨を受け付けた場合(ステップS8:YES)には、シミュレーション部14は、3次元モデルのデータをロードし(ステップS10)、当該3次元モデルを用いて所定のシミュレーション処理を実行する(ステップS11)。 On the other hand, when it is accepted from the user that the restoration of the three-dimensional model is successful (step S8: YES), the simulation unit 14 loads the data of the three-dimensional model (step S10) and uses the three-dimensional model. Then, a predetermined simulation process is executed (step S11).
次に、画像処理システムの一連の処理について詳細に説明する。なお、図3を適宜参照して説明する。 Next, a series of processes of the image processing system will be described in detail. The description will be given with reference to FIG. 3 as appropriate.
まず、イメージシーケンス取得ステップ(ステップS1)においては、以下のような処理が行われる。 First, in the image sequence acquisition step (step S1), the following processing is performed.
すなわち、メイン制御部11がデバイスコントローラー4にコマンドを発行し、デバイスコントローラーがデバイス2の姿勢を変える。そして、メイン制御部11が画像取得部12にカメラ3からの画像を取得させ、画像取得部12が取得したイメージを記憶部15に格納させる。この際、メイン制御部11は、デバイスコントローラー4に発行したコマンド中のデバイス2の関節角度に基づいて、デバイス2に装着されているカメラ3の位置及びオリエンテーションを算出して画像取得部12に通知しておき、画像取得部12に、当該カメラ位置及びオリエンテーションを画像と対応付けて記憶部15に記憶させる。なお、画像取得部12においては、カメラ3から得られた画像から放射状のディストーションを除去する処理を実行し、実行後の画像を記憶部15に記憶させるようにしている。なお、画像から放射状のディストーションを除去するために使用するパラメーターは、実際のカメラに適合すると仮定できるピンホールカメラモデルに基づいて、予め推定しておくことができる。 That is, the main control unit 11 issues a command to the device controller 4, and the device controller changes the attitude of the device 2. Then, the main control unit 11 causes the image acquisition unit 12 to acquire an image from the camera 3 and causes the storage unit 15 to store the image acquired by the image acquisition unit 12. At this time, the main control unit 11 calculates the position and orientation of the camera 3 attached to the device 2 based on the joint angle of the device 2 in the command issued to the device controller 4 and notifies the image acquisition unit 12 of the calculated position and orientation. The image acquisition unit 12 stores the camera position and orientation in the storage unit 15 in association with the image. Note that the image acquisition unit 12 executes a process of removing radial distortion from the image obtained from the camera 3 and stores the image after execution in the storage unit 15. It should be noted that the parameters used to remove radial distortion from the image can be estimated in advance based on a pinhole camera model that can be assumed to be compatible with an actual camera.
このような処理を繰り返し行うことにより、周囲環境についての複数の視点からの一連の画像群(イメージシーケンス)を記憶部15に記憶させる。ここで、イメージシーケンスとしては、連続するイメージ(フレーム)間に十分なオーバーラップがあり、且つ後続の処理で必要となる深さ情報を確実に生成できるように各イメージを取得した際のカメラ視点が実質的に離れていることが好ましい。なお、ユーザーの指示によって一連の画像を取得していく場合には、この点をユーザーが注意する必要がある。なお、このようにすることは、ユーザーにとっては、実行して経験を積むことで、難しいタスクではない。 By repeating such processing, a series of image groups (image sequences) from a plurality of viewpoints about the surrounding environment are stored in the storage unit 15. Here, as an image sequence, there is a sufficient overlap between consecutive images (frames), and the camera viewpoint when each image is acquired so that depth information necessary for subsequent processing can be generated reliably. Are substantially separated. In addition, when acquiring a series of images according to a user's instruction, the user needs to pay attention to this point. Note that doing this is not a difficult task for the user to perform and gain experience.
ここで、フレームj(jは任意の整数)に対応付けられて記憶されたカメラ3の位置tj=(xj,yj,zj)及びオリエンテーションRj(3×3の回転行列:ワールド座標系からカメラ座標系に変換する行列)は、フレームjに対する初期値(初期の推測値)となる。フレームjの取得時のカメラ3の位置およびオリエンテーションは、後述する処理で洗練されることとなる。 Here, the position t j = (x j , y j , z j ) of the camera 3 stored in association with the frame j (j is an arbitrary integer) and the orientation R j (3 × 3 rotation matrix: world The matrix (converted from the coordinate system to the camera coordinate system) is an initial value (initial guess value) for the frame j. The position and orientation of the camera 3 at the time of acquiring the frame j will be refined by the processing described later.
次に、処理に必要な他のカメラに関するパラメーターである各フレームjの焦点距離fjを推定する。ここで、本実施形態では、座標系については、次のような取り決めに従って記述することとする。イメージ空間(フレームにおける座標系)においては、各画素の座標は、フレームの左上の角を原点とした座標(x,y)により示される。このx値は、フレーム上の左から右に行くにしたがって増加し、y値は、上から下に行くにしたがって増加するようになっている。周囲環境の基準となる3次元座標系であるワールド座標系は、x軸の正方向が右を示し、y軸の正方向が上を示し、z軸の正方向が外側を示している右手系に従っている。このため、カメラ3の向きは、そのローカル座標系(カメラ座標系)のz軸の負の方向を常に向いている。 Next, the focal length f j of each frame j, which is a parameter relating to another camera necessary for processing, is estimated. Here, in this embodiment, the coordinate system is described according to the following convention. In the image space (the coordinate system in the frame), the coordinates of each pixel are indicated by coordinates (x, y) with the upper left corner of the frame as the origin. The x value increases from left to right on the frame, and the y value increases from top to bottom. The world coordinate system, which is a three-dimensional coordinate system serving as a reference for the surrounding environment, is a right-handed system in which the positive direction of the x axis indicates the right, the positive direction of the y axis indicates the top, and the positive direction of the z axis indicates the outside. Is following. For this reason, the direction of the camera 3 always faces the negative direction of the z axis of the local coordinate system (camera coordinate system).
図4は、本発明の一実施形態に係るフレームシーケンスの一例を示す図である。 FIG. 4 is a diagram illustrating an example of a frame sequence according to an embodiment of the present invention.
ステップS1において、図4に示すフレームシーケンスが得られた場合を例に後続するステップの説明をする。 The following steps will be described by way of example in which the frame sequence shown in FIG. 4 is obtained in step S1.
まず、シーケンスの最初の2つのフレームを用いて、初期化処理(ステップS2)が実行される。本実施形態では、最初の2つのフレームは、図5に示すような2つのクロスCM1、CM2(校正用パターン)がカメラ3の正面を向き、且つ既知の距離Z(図6参照)だけ離れている点をカメラ3の視点として撮影されたフレームとなっている。2つのクロスCM1及びCM2の間の距離は、図5に示すように既知の距離Dとなっている。 First, initialization processing (step S2) is executed using the first two frames of the sequence. In this embodiment, the first two frames have two crosses CM1 and CM2 (calibration patterns) as shown in FIG. 5 facing the front of the camera 3 and separated by a known distance Z (see FIG. 6). The frame is taken with the point of view as the viewpoint of the camera 3. The distance between the two crosses CM1 and CM2 is a known distance D as shown in FIG.
図6は、本発明の一実施形態に係るイメージシーケンスの最初の2つのフレームの一例を説明する図である。 FIG. 6 is a diagram illustrating an example of the first two frames of an image sequence according to an embodiment of the present invention.
図6に示すように、最初のフレーム(フレーム1)は、クロスCM1及びCM2に対して正面を向き、且つこれらクロスから距離Zだけ離れた視点P1からカメラ3により、撮影したフレームであり、2番目のフレーム(フレーム2)は、クロスCM1及びCM2に対して正面を向き、且つこれらクロスから距離Zだけ視点P2からカメラ3により、撮影したフレームである。 As shown in FIG. 6, the first frame (frame 1) is a frame taken by the camera 3 from the viewpoint P1 facing the front with respect to the crosses CM1 and CM2 and separated by a distance Z from these crosses. The second frame (frame 2) is a frame taken by the camera 3 from the viewpoint P2 facing the front with respect to the crosses CM1 and CM2 and a distance Z from these crosses.
ここで、クロスCM1及びCM2のフレーム上の位置をxij(iは、クロスの別(CM1か、CM2であるか)を示し、jは、フレームの番号を示す)とすると、x11、x21、x12、x22の具体的な座標は、各フレーム1、フレーム2から把握することができる。フレーム1及びフレーム2のそれぞれの撮影時におけるカメラ3の焦点距離f1、f2は、以下の数式(1)、(2)のように表すことができる。画像処理部13は、この数式(1)、(2)を用いてフレーム1及びフレーム2におけるカメラ3の焦点距離を算出する。 Here, if the positions of the crosses CM1 and CM2 on the frame are x ij (where i is the cross (CM1 or CM2) and j is the frame number), x 11 , x Specific coordinates of 21 , x 12 , and x 22 can be grasped from each frame 1 and frame 2. The focal lengths f 1 and f 2 of the camera 3 at the time of photographing each of the frames 1 and 2 can be expressed as the following formulas (1) and (2). The image processing unit 13 calculates the focal length of the camera 3 in the frame 1 and the frame 2 using the mathematical expressions (1) and (2).
図7は、本発明の一実施形態に係る特徴点マッチングを説明する図である。 FIG. 7 is a diagram for explaining feature point matching according to an embodiment of the present invention.
上記した処理により、図7に示すように、マッチする特徴点の組が検出される。例えば、フレーム1の特徴点FPA、FPB、FPCは、それぞれフレーム2の特徴点FPa、FPb、FPcとマッチするとして検出される。従って、特徴点FPA及びFPa、特徴点FPB及びFPb、特徴点FPC及びFPc、がそれぞれマッチする特徴点の組として検出される。 By the above-described processing, as shown in FIG. 7, a set of matching feature points is detected. For example, feature points FPA, FPB, and FPC of frame 1 are detected as matching with feature points FPa, FPb, and FPc of frame 2, respectively. Therefore, the feature points FPA and FPa, the feature points FPB and FPb, and the feature points FPC and FPc are detected as a set of matching feature points.
このようにして検出されたマッチする特徴点の組のそれぞれに対応する周囲環境の点(対象点)の3次元座標は、各フレームの撮影時のカメラ3の位置及びオリエンテーションと、既に算出されている焦点距離とにより、三角測量によって算出することができる。 The three-dimensional coordinates of the points (target points) in the surrounding environment corresponding to each pair of matching feature points detected in this way are already calculated with the position and orientation of the camera 3 at the time of shooting each frame. It can be calculated by triangulation according to the focal length.
ここで、或るマッチする特徴点の組についての3次元座標を算出する方法を説明する。 Here, a method of calculating three-dimensional coordinates for a set of matching feature points will be described.
図8は、本発明の一実施形態に係る異なる画像のマッチする特徴点の組から3次元座標を算出する方法を説明する図である。 FIG. 8 is a diagram illustrating a method for calculating three-dimensional coordinates from a set of matching feature points of different images according to an embodiment of the present invention.
マッチする特徴点の組である第1のフレーム中の特徴点と第2フレーム中の特徴点とに対応する対象点は、以下に示す数式(3)及び数式(4)に示される線上に存在する。ここで、lA、lBは、直線の方程式を示し、s及びtは、直線のパラメーターを示し、PA及びPBは、各フレームにおけるカメラ3の視点の座標を示し、vA及びvBは、ワールド座標系のZ軸のマイナス方向への視点から各フレームにおける各特徴点へ向うベクトルを示している。 The target points corresponding to the feature points in the first frame and the feature points in the second frame, which are sets of matching feature points, exist on the lines shown in the following equations (3) and (4). To do. Here, l A and l B represent straight line equations, s and t represent straight line parameters, P A and P B represent the coordinates of the viewpoint of the camera 3 in each frame, and v A and v B represents a vector from the viewpoint in the negative direction of the Z axis of the world coordinate system to each feature point in each frame.
ここで、特徴点に対応する対象点は、1点であるので、理想的には、lA、lBは、1点で交差することとなるが、実際には、種々の誤差要因により、直線lA、lBは、交差しない場合がある。そこで、本実施形態では、図8に示すような、直線lA、lB同士が最も近接する点DA、DBを求め、その中間点を、特徴点の組に対応する対象点とする。ここで、以下に示すように、数式(5)から特定の値であるs’と、t’を求めることにより、数式(6)、数式(7)から点DA、DBの3次元座標が求まり、その中間点である対象点の3次元座標を求めることができる。 Here, since the target point corresponding to the feature point is one point, ideally, l A and l B intersect at one point, but actually, due to various error factors, The straight lines l A and l B may not intersect. Therefore, in the present embodiment, as shown in FIG. 8, the points D A and D B where the straight lines l A and l B are closest to each other are obtained, and the intermediate point is set as a target point corresponding to the set of feature points. . Here, as shown below, by obtaining s ′ and t ′ which are specific values from the formula (5), the three-dimensional coordinates of the points D A and D B from the formula (6) and the formula (7) And the three-dimensional coordinates of the target point which is the intermediate point can be obtained.
図9は、本発明の一実施形態に係る一対の画像から得られた対象点の3次元座標の一例を示す図である。 FIG. 9 is a diagram illustrating an example of three-dimensional coordinates of a target point obtained from a pair of images according to an embodiment of the present invention.
一対の画像(フレーム1、フレーム2)から、図9に示すように、複数の対象点OPの3次元座標を算出することができる。 As shown in FIG. 9, the three-dimensional coordinates of a plurality of target points OP can be calculated from a pair of images (frame 1 and frame 2).
次に、上記処理に用いた1つのフレーム(例えば、第2フレーム)と、フレームシーケンスにおける次のフレーム(例えば、第3フレーム)とを用いてステップS3〜S5の処理を実行する。ここで、第3フレームからの特徴点の検出処理、及び第2フレームと第3フレームとの間でのマッチする特徴点の組の検出処理は、上記同様の処理により実行される。 Next, the processes in steps S3 to S5 are executed using one frame (for example, the second frame) used in the above process and the next frame (for example, the third frame) in the frame sequence. Here, the feature point detection processing from the third frame and the matching feature point pair detection processing between the second frame and the third frame are executed by the same processing as described above.
次に、第3のフレームについての焦点距離を算出する処理を実行する。 Next, processing for calculating the focal length for the third frame is executed.
図10は、本発明の一実施形態に係る焦点距離を算出する方法を説明する図である。 FIG. 10 is a diagram illustrating a method for calculating a focal length according to an embodiment of the present invention.
本実施形態では、マッチする特徴点の組の検出処理(ステップS4)において、第2フレームと、第3フレームとの間で検出されたマッチする特徴点の組の中には、既に3次元座標が算出されている対象点に対応する特徴点が存在する。ここで、このような対象点をXiとする。なお、既に3次元座標が算出された対象点に対応する特徴点の組が存在するためには、既に特徴点の組を検出したフレーム(例えば、第1フレーム)と、第3フレームとでその対象点を含む一部の周囲環境がオーバーラップしている必要がある。なお、これについては、フレームシーケンスの取得する際に考慮しておくことで実現できる。 In the present embodiment, in the matching feature point pair detection process (step S4), the matching feature point pairs detected between the second frame and the third frame are already three-dimensional coordinates. There is a feature point corresponding to the target point for which is calculated. Here, let X i be such a target point. In addition, since there is a set of feature points corresponding to the target point for which the three-dimensional coordinates have already been calculated, the frame in which the set of feature points has already been detected (for example, the first frame) and the third frame Some surrounding environment including the target point needs to overlap. This can be realized by considering it when acquiring the frame sequence.
ここで、対象点Xiの3次元座標(ワールド座標系)については、前の複数フレーム(現在のフレームをjとすると、例えば、フレームj−1と、フレームj−2)によって、Xi(斜字体)=(Xi,Yi,Zi)Tと算出されているものとして、以下の説明を行う。ここで、Tは、転置を示している。 Here, regarding the three-dimensional coordinates (world coordinate system) of the target point X i , X i (for example, the frame j−1 and the frame j−2 when the current frame is j, for example, X i ( The following description will be made assuming that italic font) = (X i , Y i , Z i ) T is calculated. Here, T indicates transposition.
フレームj(例えば、第3フレーム)におけるカメラ位置tjとオリエンテーションRjとは、予め画像データと対応付けられて記憶部15に記憶されているので把握することができる。また、フレームjにおける対象点Xiに対応する特徴点の位置(実位置)の座標xi,j(斜字体)=(xi,j,yi,j)は、フレームjから把握することができる。 The camera position t j and the orientation R j in the frame j (for example, the third frame) can be grasped because they are associated with the image data in advance and stored in the storage unit 15. Also, the coordinates x i, j (italic) = (x i, j , y i, j ) of the position (actual position) of the feature point corresponding to the target point X i in the frame j should be grasped from the frame j. Can do.
一方、対応する対象点の3次元座標Xi(斜字体)を用いると、この対象点についてのフレームjの撮影時のカメラ座標系における3次元座標Yij(斜字体)は、以下の数式(8)で表される。ここで、Rjは、オリエンテーションであり、本実施形態では、3×3回転行列として表現されている。そして、当該対象点に対応する特徴点がフレームjにおいて位置すると推定される位置(推定位置)の座標Pj(Xi)は、数式(9)で示される。ここで、Pjは、ワールド座標系からフレームjのイメージ座標系への写像を示し、fjは、フレームjにおける焦点距離を示し、Nは、数式(10)に示すカメラ座標系からフレームjのフレーム座標系に平行な2次元平面への変換を表している。 On the other hand, when the three-dimensional coordinates X i (italic font) of the corresponding target point are used, the three-dimensional coordinates Y ij (italic font) in the camera coordinate system at the time of shooting the frame j for the target point are expressed by 8). Here, R j is an orientation, and is represented as a 3 × 3 rotation matrix in the present embodiment. Then, the coordinates P j (X i ) of the position (estimated position) where the feature point corresponding to the target point is estimated to be located in the frame j are expressed by Equation (9). Here, P j represents the mapping from the world coordinate system to the image coordinate system of frame j, f j represents the focal length in frame j, and N represents the frame j from the camera coordinate system shown in Equation (10). Represents a transformation into a two-dimensional plane parallel to the frame coordinate system.
本実施形態においては、カメラ位置及びオリエンテーションについてデバイス2から取得するようにしているが、カメラ位置及びオリエンテーションについても精度よくすることが好ましい。そこで、フレームjにおける既に3次元座標を検出(推定)している全ての対象点を対象にして、カメラの位置、オリエンテーション、及び焦点距離を変化させて、数式(12)の合計エラー値ejを最小化させるために、共役勾配法(conjugate gradient method)を用いることとする。 In the present embodiment, the camera position and orientation are acquired from the device 2, but it is preferable that the camera position and orientation are also accurate. Therefore, the total error value e j of Equation (12) is changed by changing the camera position, orientation, and focal length for all target points for which three-dimensional coordinates have already been detected (estimated) in the frame j. In order to minimize this, a conjugate gradient method will be used.
数式(8)に示す座標Yijは、回転と変換との変数がそれぞれ独立するようにするために、数式(13)に示すように、グラディエントの表現に書き換えることができる。ここで、回転マトリクスTjは、数式(14)に示すようになっており、sjは、数式(15)に示すようになっている。 The coordinate Y ij shown in the equation (8) can be rewritten into a gradient expression as shown in the equation (13) so that the rotation and transformation variables are independent of each other. Here, the rotation matrix T j is as shown in Equation (14), and s j is as shown in Equation (15).
回転マトリクスは、ロドリゲス・フォームの表現によると、数式(19)〜(25)に示すようになる。 According to the Rodriguez form expression, the rotation matrix is as shown in equations (19) to (25).
また、第3フレーム以降の新しい処理対象のフレーム(新対象フレーム)についても、上記した第3フレームと同様な処理、すなわち、新対象フレームと、1つ前のフレームとの間での、マッチする特徴点の組の検出処理と、新対象フレームにおける焦点距離の推定処理と、推定した焦点距離を用いて、新対象フレームと1つ前のフレームとの間のマッチする特徴点の組に対応する対象点の3次元座標の検出処理を実行する。 Also, with respect to a new processing target frame (new target frame) after the third frame, the same processing as the third frame described above, that is, matching between the new target frame and the previous frame is performed. Using feature point detection processing, focal length estimation processing in the new target frame, and estimated focal length, a matching feature point set between the new target frame and the previous frame is supported. A process of detecting the three-dimensional coordinates of the target point is executed.
このようにして、フレームシーケンスの処理対象の全てのフレームを用いて、複数の対象点についての3次元座標を推定することができる。 In this way, it is possible to estimate the three-dimensional coordinates for a plurality of target points using all the frames to be processed in the frame sequence.
なお、上記実施形態においては、連続するフレーム間で特徴点のマッチングを行って、対象点の3次元座標を推定するようにしていたが、これに限られず、カメラ視点が類似する、すなわち、周囲環境の一部がオーバーラップする任意の2つのフレーム間で特徴点のマッチングを行なって、得られたマッチする特徴点の組に対応する対象点の3次元座標を推定するようにしてもよい。 In the above embodiment, the feature points are matched between successive frames to estimate the three-dimensional coordinates of the target point. However, the present invention is not limited to this, and the camera viewpoint is similar, that is, the surroundings It is also possible to perform feature point matching between any two frames in which a part of the environment overlaps, and estimate the three-dimensional coordinates of the target point corresponding to the obtained set of matching feature points.
本実施形態においては、対象点の3次元座標をより高精度に推定するために、画像処理部13は、更に以下に示す大域的最適化処理を行う。 In the present embodiment, in order to estimate the three-dimensional coordinates of the target point with higher accuracy, the image processing unit 13 further performs a global optimization process described below.
ここで、最適化するパラメーターは、各フレームjのカメラ位置tj、オリエンテーションRj、焦点距離fj、及び対象点の3次元座標Xi(斜字体)である。 Here, the parameters to be optimized are the camera position t j , orientation R j , focal length f j , and three-dimensional coordinates X i (italic font) of the target point of each frame j.
ここで、これらを最適化するための目的関数Eは、数式(31)に示すようになる。 Here, the objective function E for optimizing them is as shown in Equation (31).
このアプローチにおいては、カメラパラメーターを最適化する際には、対象点の3次元座標を固定値とし、また、対象点の3次元座標を最適化する際には、カメラパラメーターを固定値として取扱う。 In this approach, when optimizing the camera parameters, the three-dimensional coordinates of the target point are treated as fixed values, and when optimizing the three-dimensional coordinates of the target points, the camera parameters are treated as fixed values.
このアプローチにおいては、カメラパラメーターを最適化する際には、各フレームにおけるカメラパラメーターは、他のフレームに対して無関係のもの(独立したもの)となり、3次元座標を最適化する場合には、各対象点は、他の対象点に対して無関係のもの(独立したもの)となる。 In this approach, when optimizing camera parameters, the camera parameters in each frame are irrelevant (independent) to the other frames, and when optimizing 3D coordinates, The target point is irrelevant (independent) to other target points.
カメラパラメーターの最適化においては、対象とする1つのフレーム中で検出された複数の対象点の全てを使用して、上記したような共役勾配法を用いて最適化する。これにより、カメラパラメーターが最適化される。 In the optimization of camera parameters, all of a plurality of target points detected in one target frame are used and optimized using the conjugate gradient method as described above. This optimizes the camera parameters.
一方、3次元座標の最適化ステップにおいては、以下のような処理を実行する。 On the other hand, in the three-dimensional coordinate optimization step, the following processing is executed.
或る対象点iについて、最小化するエラー関数eiは、数式(32)に示すように、当該対象点が存在する全てのフレームjを対象にした値の合計となる。ここで、Rt pは、行列Rの転置行列のp列目を示す。数式(32)は、或る対象点iに対応する特徴点のフレーム上の位置(実位置)と、当該対象点iの3次元座標から推定される写像位置との距離(ずれ)に関する関数(本実施形態では、距離の2乗の関数)を、対象点iに対応する特徴点が存在する全てのフレームについて合計したものを意味している。 The error function e i to be minimized for a certain target point i is the sum of the values for all the frames j in which the target point exists, as shown in Equation (32). Here, R t p indicates the p-th column of the transposed matrix of the matrix R. Formula (32) is a function (displacement) regarding the distance (deviation) between the position (actual position) of the feature point corresponding to a certain target point i on the frame and the mapping position estimated from the three-dimensional coordinates of the target point i. In the present embodiment, it means the sum of all the frames in which the feature points corresponding to the target point i exist.
次に、画像処理部13により、周囲環境における対象を示すメッシュ構造をあてはめる処理(ステップS6)が実行される。 Next, the image processing unit 13 executes a process (step S6) for applying a mesh structure indicating a target in the surrounding environment.
まず、3次元座標が推定されている周囲環境の各対象点に対する接平面が推定される。これらの接平面は、周囲環境におけるオブジェクトの表面へのローカル線形近似として取扱われる。 First, a tangent plane for each target point in the surrounding environment where the three-dimensional coordinates are estimated is estimated. These tangent planes are treated as local linear approximations to the surface of the object in the surrounding environment.
各対象点iについて、当該対象点の3次元座標Xiから所定の距離ρ以内にある近傍の対象点が選択され、これら対象点に対してNiX+ci=0の式で表される平面があてはめられる。ここで、Niは、垂平面を示し、ciは、対応する一定平面である。 For each target point i, neighboring target points that are within a predetermined distance ρ from the three-dimensional coordinates X i of the target point are selected, and a plane represented by the formula of N i X + c i = 0 for these target points. Is applied. Here, N i indicates a vertical plane, and c i is a corresponding constant plane.
もし、近傍の対象点がほとんどない場合には、当該対象点に対しては、平面があてはめられない。 If there are almost no target points in the vicinity, a plane cannot be applied to the target point.
平面をあてはめる方法としては、2つの方法がある。まず、第1の方法としては、数式(34)、(35)、(36)により表される目的関数を最小化する方法がある。 There are two methods for fitting the plane. First, as a first method, there is a method of minimizing the objective function expressed by the mathematical formulas (34), (35), and (36).
数式(37)〜(40)に示すように表現すると、目的関数を最小化する垂平面と、一定平面とは、数式(41),(42)に示す形式となる。ここで、w(e)は、Xkの重み付けを計算するための式を示し、Mは、重み付けられた平均値を示し、Cは、分散行列を示し、sは、重み付けの合計値を示す。また、μは、3×3分散行列の最小の固有値を示す。したがって、Niは、行列Cの固有値に対応する固有ベクトルとなる。 Expressed as shown in equations (37) to (40), the perpendicular plane that minimizes the objective function and the constant plane are in the form shown in equations (41) and (42). Here, w (e) shows a formula for calculating the weighting of X k, M represents the average value of the weighted, C is showed variance matrix, s indicates the total value of the weighting . Further, μ represents the minimum eigenvalue of the 3 × 3 dispersion matrix. Therefore, N i is an eigenvector corresponding to the eigenvalue of the matrix C.
一方、そうでない場合には、よい適合は見つからないので、第2の方法を試みる。 On the other hand, if not, no good match is found, so try the second method.
この場合には、平面が対象点Xiを含んでいるはずであり、平面の向きだけの変更が行なわれる。言い換えれば、エラー関数は、数式(43)、(44)に示すようになる。 In this case, it should plan contains the target point X i, changing only the orientation of the plane is performed. In other words, the error function is as shown in equations (43) and (44).
すべての接平面が推定されると、空間のいずれの対象点P(=(Px、Py,Pz))から表面までの距離を計算する符号付の距離関数を定義することができる。対象点Pについて、中心点Ojが対象点Pから所定の距離以内にある全ての垂平面jが選択される。そのような平面が見つからない場合には、表面からの点Pの距離は、無限大であると仮定される。 Once all the tangent planes are estimated, a signed distance function can be defined that calculates the distance from any object point P (= (P x , P y , P z )) in space to the surface. For the target point P, all vertical planes j whose center point O j is within a predetermined distance from the target point P are selected. If no such plane is found, the distance of point P from the surface is assumed to be infinite.
法線がNkであり、中心がOkである平面kに対して、平面kまでの点Pからの距離は、単に数式(45)で示される。 For a plane k whose normal is N k and whose center is O k , the distance from the point P to the plane k is simply expressed by Equation (45).
次に、3次元座標が検出された対象点に対してメッシュをあてはめる具体的な処理が実行される。 Next, a specific process for applying a mesh to the target point from which the three-dimensional coordinates are detected is executed.
ここでは、マーチングキューブアルゴリズムが使用される。このマーチングキューブアルゴリズムの基本的な概念は、立方体の8つの角の値によってボクセル(キューブ:立方体)を定義することができるということである。 Here, a marching cube algorithm is used. The basic concept of this marching cube algorithm is that a voxel (cube) can be defined by the values of the eight corners of the cube.
立方体の1つ以上の角が所定値β未満の値であり、1つ以上の角の値が、その所定値βより大きな値である場合には、そのボクセルは、表面の或る構成に寄与していることを意味している。 If one or more corners of the cube are less than a predetermined value β and the value of one or more corners is greater than the predetermined value β, the voxel contributes to a certain configuration of the surface. It means that
立方体のどのエッジが表面によって横切られるかを決定することによって、表面の内側の領域と、表面の外側の領域との間で立方体を分けるための三角形のパッチが形成される。 By determining which edge of the cube is traversed by the surface, a triangular patch is formed to divide the cube between the area inside the surface and the area outside the surface.
全ての立方体からのこれらパッチを結合することにより、三角形のパッチにより構成される表面の体裁が形成される。 Combining these patches from all cubes forms a surface appearance composed of triangular patches.
ここで、閾値βを0に設定すると、立方体の角の値d(P)は、数式(47)で示される。 Here, when the threshold value β is set to 0, the cube corner value d (P) is expressed by Equation (47).
マーチングキューブの表現においては、立方体の角の各値と、閾値βとの大きさの組み合わせによって、合計256の異なる状況がある。各状況については、回転や対称性を考慮すると15のファミリーに一般化できる。それぞれのファミリーに対応して、図13に示すように、三角形のパッチの状態を決定することができる。 In the representation of the marching cube, there are a total of 256 different situations depending on the combination of the cube corner values and the threshold value β. Each situation can be generalized to 15 families in consideration of rotation and symmetry. Corresponding to each family, the state of the triangular patch can be determined as shown in FIG.
対象点Xiから開始して、表面の内側及び外側の両方の角をもつ(すなわち、閾値βよりも大きい値と、閾値βよりも小さい値の両方の値の角をもつ)マーチングキューブは、Oiに立方体をセンタリングすることにより初期化する。三角形のパッチを立方体内に初期化する。このようにして、表面のための初期の構造を生成する。 Starting from the point of interest X i , the marching cube with both inner and outer corners of the surface (ie, with corners of both values greater than the threshold β and values less than the threshold β) is Initialize by centering the cube to O i . Initialize the triangular patch in the cube. In this way, an initial structure for the surface is generated.
そして、もし、全ての角が表面の内側又は表面の外側である立方体でなければ、立方体を8つの角を取り囲む側に成長させ、各角の値を推定し、三角形のパッチを生成する。 And if all the corners are not cubes inside or outside the surface, the cube is grown on the side that surrounds the eight corners, the value of each corner is estimated, and a triangular patch is generated.
このように立方体を成長させる処理は、境界上のすべての立方体が、それぞれ全ての角が表面の内側、又は表面の外側となるまで続けられる。 The process of growing cubes in this way continues until all the cubes on the boundary are each inside the surface or outside the surface.
各三角形のパッチについては、外側に向かう法線とともに記憶される。 For each triangular patch, it is stored along with the outward normal.
本実施形態のイメージシーケンスにおける復元において含まれている全ての立方体は、図14に示すようになっている。 All the cubes included in the restoration in the image sequence of this embodiment are as shown in FIG.
以前に構築したいずれの立方体の内側に存在しない対象点がある場合には、この対象点は、先に構築した表面のいずれにも接続されない表面上にあることを意味する。この場合には、上記したように、立方体を初期化し、立方体を成長させる処理により、表面を復元することができる。このような処理を、未処理の対象点がなくなるまで実行する。これによって、3次元モデルのメッシュを調整する(あてはめる)処理ステップ(ステップS6)が終了する。図15には、3角形のパッチPTにより構成されるメッシュが調整された3次元モデルの一例を示す。 If there is an object point that does not exist inside any previously constructed cube, this means that the object point is on a surface that is not connected to any of the previously constructed surfaces. In this case, as described above, the surface can be restored by the process of initializing the cube and growing the cube. Such processing is executed until there are no unprocessed target points. This completes the processing step (step S6) of adjusting (applying) the mesh of the three-dimensional model. FIG. 15 shows an example of a three-dimensional model in which a mesh composed of triangular patches PT is adjusted.
次に、テクスチャー貼付処理(ステップS7)が実行される。メッシュが調整された場合には、個々の三角形のフェースの外観は、そのフェースが最も前面に現れているイメージから把握することができる。この処理は、各フェースの法線、各フレームのカメラ位置及びオリエンテーションは既に把握されているので、容易である。従って、画像処理部13は、イメージから各外観のテクスチャーを把握し、当該テクスチャーを対応するメッシュのフェースに貼り付ける。なお、以上の処理により得られた、対象点の3次元座標、メッシュの構造、フェースに貼り付けるテクスチャーの情報等を含む周囲環境についての3次元(3D)モデルのデータは、画像処理部13が記憶部15に格納する。 Next, a texture pasting process (step S7) is executed. When the mesh is adjusted, the appearance of each triangular face can be grasped from the image in which the face appears in the foreground. This process is easy because the normal of each face, the camera position and orientation of each frame are already known. Therefore, the image processing unit 13 grasps the texture of each appearance from the image and pastes the texture on the corresponding mesh face. The image processing unit 13 obtains the data of the three-dimensional (3D) model for the surrounding environment including the three-dimensional coordinates of the target point, the mesh structure, the texture information to be attached to the face, and the like obtained by the above processing. Store in the storage unit 15.
各フェースに対して把握したテクスチャーTXが貼り付けられたメッシュ、すなわち、3次元モデルは、図16に示すようになる。このようにして、テクスチャー貼付処理(ステップS7)が終了する。 FIG. 16 shows a mesh in which the texture TX grasped for each face is attached, that is, a three-dimensional model. In this way, the texture pasting process (step S7) ends.
このように作成した3次元モデルを図示しない表示画面に表示させる。これに対して、ユーザーは、3次元モデルが満足のいくものであったか否かという処理結果の確認指示を行うことができる。例えば、処理結果がよくなかったとの指示をユーザーから受け付けた場合には、画像処理装置5は、ステップS9の新たなイメージを取得する処理を実行させる。このステップにおいて、例えば、対象点が十分でない範囲の画像を追加して取得するようにすることができる。このため、新たに追加した画像を用いてステップS3以降の処理を引き続いて実行することにより、より適切に対象点の3次元座標を推定し、3次元モデルをより適切に復元することができる。 The three-dimensional model created in this way is displayed on a display screen (not shown). On the other hand, the user can instruct confirmation of the processing result as to whether or not the three-dimensional model is satisfactory. For example, when an instruction indicating that the processing result is not good is received from the user, the image processing apparatus 5 performs a process of acquiring a new image in step S9. In this step, for example, an image in a range where the target points are not sufficient can be additionally acquired. For this reason, it is possible to more appropriately estimate the three-dimensional coordinates of the target point and restore the three-dimensional model more appropriately by continuously executing the processing after step S3 using the newly added image.
一方、処理結果がよかったとの指示を受け付けた場合には、シミュレーション部14が記憶部15に記憶された周囲環境の3次元モデル18を読み出して(ステップS10)、周囲環境の3次元モデルを利用したシミュレーションを実行する。シミュレーションとしては、例えば、ロボットの動作のティーチングや、ロボットの周囲環境との衝突検出、経路探索等のタスクを現実的に実行することができる。 On the other hand, when the instruction that the processing result is good is received, the simulation unit 14 reads the three-dimensional model 18 of the surrounding environment stored in the storage unit 15 (step S10), and uses the three-dimensional model of the surrounding environment. Run the simulation. As the simulation, for example, tasks such as teaching of robot operation, collision detection with the surrounding environment of the robot, and route search can be executed realistically.
本実施形態によると、3次元モデルを作成するタスクを単純化することができ、より適切な周囲環境の対象点の3次元座標を把握することができ、周囲環境を示す3次元モデルを適切に復元することができる。 According to this embodiment, the task of creating a three-dimensional model can be simplified, the three-dimensional coordinates of target points in a more appropriate surrounding environment can be grasped, and a three-dimensional model indicating the surrounding environment can be appropriately selected. Can be restored.
以上、本発明を実施形態に基づいて説明したが、本発明は上述した実施の形態に限られず、他の様々な態様に適用可能である。 Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and can be applied to various other modes.
例えば、上記実施形態では、周囲環境の3次元モデルを用いて、ロボットのティーチング等のシミュレーション等を例に説明したが、例えば、博物館の3次元モデルを作成することにより、博物館における仮想ツアーを実現することができる。また、作成した3次元モデルは、ゲームにおける仮想空間として利用することもできる。 For example, in the above embodiment, the simulation of robot teaching or the like has been described using a three-dimensional model of the surrounding environment as an example. For example, a virtual tour in a museum is realized by creating a three-dimensional model of a museum, for example. can do. Further, the created three-dimensional model can be used as a virtual space in the game.
1 画像処理システム、2 デバイス、3 カメラ、4 デバイスコントローラー、5 画像処理装置、11 メイン制御部、12 画像取得部、13 画像処理部、14 シミュレーション部、15 記憶部、16 カメラ情報、17 イメージシーケンス、18 環境3Dモデル、19 デバイス3Dモデル、20 シミュレーション結果。 DESCRIPTION OF SYMBOLS 1 Image processing system, 2 devices, 3 cameras, 4 device controllers, 5 Image processing apparatus, 11 Main control part, 12 Image acquisition part, 13 Image processing part, 14 Simulation part, 15 Storage part, 16 Camera information, 17 Image sequence , 18 Environment 3D model, 19 Device 3D model, 20 Simulation results.
Claims (12)
前記複数の画像と、当該画像の撮影時の前記カメラの位置情報及び撮影方向情報とを記憶する画像記憶手段と、
前記対象の1以上の対象点についての3次元座標を記憶する座標記憶手段と、
前記座標記憶手段に前記3次元座標が記憶されている前記対象点に対応する特徴点の或る画像中の実位置と、前記対象点の前記3次元座標と、前記或る画像の撮影時の前記カメラの位置情報及び撮影方向情報とに基づいて、前記或る画像の撮影時の前記カメラの焦点距離を推定する焦点距離推定手段と、
前記推定された前記焦点距離に基づいて、前記或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定手段と
を有する画像処理装置。 An image processing apparatus that estimates three-dimensional coordinates of a plurality of target points existing in a predetermined target based on a plurality of images including at least a part of the target,
Image storage means for storing the plurality of images and positional information and shooting direction information of the camera at the time of shooting the images;
Coordinate storage means for storing three-dimensional coordinates for one or more target points of the target;
The actual position in a certain image of the feature point corresponding to the target point for which the three-dimensional coordinate is stored in the coordinate storage means, the three-dimensional coordinate of the target point, and at the time of shooting the certain image A focal length estimating means for estimating a focal length of the camera at the time of shooting the certain image based on the position information and shooting direction information of the camera;
An image having coordinate estimation means for estimating a three-dimensional coordinate for a target point having an unknown three-dimensional coordinate, which is included in the certain image and another image, based on the estimated focal length Processing equipment.
請求項1に記載の画像処理装置。 The focal length estimation means includes an estimated position on the certain image of a feature point corresponding to the target point estimated based on the position information, the shooting direction information, and the three-dimensional coordinates, and the feature point The image processing apparatus according to claim 1, wherein the focal length is estimated based on the actual position on the certain image.
請求項2に記載の画像処理装置。 The focal length estimation means has a smallest sum of functions relating to a deviation between the estimated position of each feature point corresponding to a plurality of target points and the actual position of each feature point corresponding to the plurality of target points. The image processing apparatus according to claim 2, wherein the focal distance is estimated.
請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the focal length estimation unit estimates a focal length that minimizes a sum of the functions related to the shift by using a conjugate gradient method.
前記デバイスの状態を特定することのできる状態特定可能データに基づいて、前記カメラの前記位置情報及び前記撮影方向情報を特定するカメラ情報特定手段と、
前記カメラにより撮影された前記画像と、前記撮影時における前記カメラの前記位置情報及び前記撮影方向情報とを前記画像記憶手段に格納する格納制御手段と
を更に有する請求項1乃至請求項4のいずれか一項に記載の画像処理装置。 The camera that shoots the image is attached to a device that can change the position and shooting direction of the camera,
Camera information specifying means for specifying the position information and the shooting direction information of the camera based on state-identifiable data capable of specifying the state of the device;
5. The storage control unit according to claim 1, further comprising: a storage control unit that stores the image captured by the camera and the position information and the shooting direction information of the camera at the time of the shooting in the image storage unit. An image processing apparatus according to claim 1.
更に有する請求項1乃至請求項5のいずれか一項に記載の画像処理装置。 After estimating the three-dimensional coordinates of a plurality of target points using a plurality of images to be processed, the position of the camera at the time of photographing each image using the three-dimensional coordinates of the plurality of target points included in each image The image processing apparatus according to claim 1, further comprising a camera information optimizing unit that optimizes the information and the photographing direction information.
更に有する請求項1乃至請求項6のいずれか一項に記載の画像処理装置。 After estimating the three-dimensional coordinates of the target point using the plurality of images to be processed, based on the position information and the shooting direction information of the camera in the plurality of images including the same target point, the target point The image processing apparatus according to claim 1, further comprising three-dimensional coordinate optimization means for optimizing the three-dimensional coordinates.
請求項1乃至請求項7のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a model forming unit that forms a three-dimensional model for the target based on the three-dimensional coordinates of the plurality of target points.
前記画像処理装置の画像記憶手段が、前記複数の画像と、当該画像の撮影時の前記カメラの位置情報及び撮影方向情報とを記憶する画像記憶ステップと、
前記画像処理装置の座標記憶手段が、前記対象の1以上の対象点についての3次元座標を記憶する座標記憶ステップと、
前記画像処理装置の焦点距離推定手段が、前記座標記憶手段に前記3次元座標が記憶されている前記対象点に対応する特徴点の或る画像中の実位置と、前記対象点の前記3次元座標と、前記或る画像の撮影時の前記カメラの位置情報及び撮影方向情報とに基づいて、前記或る画像の撮影時の前記カメラの焦点距離を推定する焦点距離推定ステップと、
前記画像処理装置の座標推定手段が、前記推定された前記焦点距離に基づいて、前記或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定ステップと
を有する画像処理方法。 An image processing method by an image processing apparatus for estimating three-dimensional coordinates of a plurality of target points existing in a predetermined target based on a plurality of images including at least a part of the target,
An image storage step in which the image storage means of the image processing apparatus stores the plurality of images, and positional information and shooting direction information of the camera at the time of shooting the images;
A coordinate storage step in which the coordinate storage means of the image processing apparatus stores three-dimensional coordinates for one or more target points of the target;
The focal length estimation unit of the image processing apparatus includes an actual position in a certain image of a feature point corresponding to the target point for which the three-dimensional coordinate is stored in the coordinate storage unit, and the three-dimensional of the target point. A focal length estimating step for estimating a focal length of the camera at the time of shooting the certain image based on coordinates and position information and shooting direction information of the camera at the time of shooting the certain image;
The coordinate estimation means of the image processing device includes a three-dimensional coordinate for a target point whose unknown three-dimensional coordinates are included in the certain image and another image based on the estimated focal length. And a coordinate estimation step for estimating.
前記コンピューターを
前記複数の画像と、当該画像の撮影時の前記カメラの位置情報及び撮影方向情報とを記憶する画像記憶手段と、
前記対象の1以上の対象点についての3次元座標を記憶する座標記憶手段と、
前記座標記憶手段に前記3次元座標が記憶されている前記対象点に対応する特徴点の或る画像中の実位置と、前記対象点の前記3次元座標と、前記或る画像の撮影時の前記カメラの位置情報及び撮影方向情報とに基づいて、前記或る画像の撮影時の前記カメラの焦点距離を推定する焦点距離推定手段と、
前記推定された前記焦点距離に基づいて、前記或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定手段と
して機能させる画像処理プログラム。 An image processing program for causing a computer to estimate three-dimensional coordinates of a plurality of target points existing in a predetermined target based on a plurality of images including at least a part of the target,
Image storage means for storing the plurality of images, and positional information and shooting direction information of the camera at the time of shooting the images;
Coordinate storage means for storing three-dimensional coordinates for one or more target points of the target;
The actual position in a certain image of the feature point corresponding to the target point for which the three-dimensional coordinate is stored in the coordinate storage means, the three-dimensional coordinate of the target point, and at the time of shooting the certain image A focal length estimating means for estimating a focal length of the camera at the time of shooting the certain image based on the position information and shooting direction information of the camera;
An image that functions as a coordinate estimation unit that estimates a three-dimensional coordinate of a target point whose three-dimensional coordinate is unknown, which is included in the certain image and another image, based on the estimated focal length. Processing program.
前記コンピューターを
前記複数の画像と、当該画像の撮影時の前記カメラの位置情報及び撮影方向情報とを記憶する画像記憶手段と、
前記対象の1以上の対象点についての3次元座標を記憶する座標記憶手段と、
前記座標記憶手段に前記3次元座標が記憶されている前記対象点に対応する特徴点の或る画像中の実位置と、前記対象点の前記3次元座標と、前記或る画像の撮影時の前記カメラの位置情報及び撮影方向情報とに基づいて、前記或る画像の撮影時の前記カメラの焦点距離を推定する焦点距離推定手段と、
前記推定された前記焦点距離に基づいて、前記或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定手段と
して機能させる画像処理プログラムを格納する記録媒体。 A recording medium for storing an image processing program for causing a computer to estimate three-dimensional coordinates of a plurality of target points existing in a predetermined target based on a plurality of images including at least a part of the target. And
Image storage means for storing the plurality of images, and positional information and shooting direction information of the camera at the time of shooting the images;
Coordinate storage means for storing three-dimensional coordinates for one or more target points of the target;
The actual position in a certain image of the feature point corresponding to the target point for which the three-dimensional coordinate is stored in the coordinate storage means, the three-dimensional coordinate of the target point, and at the time of shooting the certain image A focal length estimating means for estimating a focal length of the camera at the time of shooting the certain image based on the position information and shooting direction information of the camera;
An image that functions as a coordinate estimation unit that estimates a three-dimensional coordinate of a target point whose three-dimensional coordinate is unknown, which is included in the certain image and another image, based on the estimated focal length. A recording medium for storing a processing program.
前記画像を撮影する前記カメラと、
前記カメラを装着し、前記カメラの位置及び撮影方向を変更可能なデバイスと、
前記デバイスの状態を特定することのできる状態特定可能データに基づいて、前記カメラの前記位置情報及び前記撮影方向情報を特定するカメラ情報特定手段と、
前記カメラにより撮影された前記画像と、前記撮影時における前記カメラの前記位置情報及び前記撮影方向情報とを画像記憶手段に格納する格納制御手段と、
前記対象の1以上の対象点についての3次元座標を記憶する座標記憶手段と、
前記座標記憶手段に前記3次元座標が記憶されている前記対象点に対応する特徴点の或る画像中の実位置と、前記対象点の前記3次元座標と、前記或る画像の撮影時の前記カメラの位置情報及び撮影方向情報とに基づいて、前記或る画像の撮影時の前記カメラの焦点距離を推定する焦点距離推定手段と、
前記推定された前記焦点距離に基づいて、前記或る画像と他の画像とに含まれている、3次元座標が未知である対象点についての3次元座標を推定する座標推定手段と
を有する画像処理システム。 An image processing system that estimates three-dimensional coordinates of a plurality of target points existing in a predetermined target based on a plurality of images including at least a part of the target,
The camera for taking the image;
A device to which the camera is mounted and which can change the position and shooting direction of the camera;
Camera information specifying means for specifying the position information and the shooting direction information of the camera based on state-identifiable data capable of specifying the state of the device;
Storage control means for storing the image photographed by the camera and the position information and the photographing direction information of the camera at the time of photographing in an image storage means;
Coordinate storage means for storing three-dimensional coordinates for one or more target points of the target;
The actual position in a certain image of the feature point corresponding to the target point for which the three-dimensional coordinate is stored in the coordinate storage means, the three-dimensional coordinate of the target point, and at the time of shooting the certain image A focal length estimating means for estimating a focal length of the camera at the time of shooting the certain image based on the position information and shooting direction information of the camera;
An image having coordinate estimation means for estimating a three-dimensional coordinate for a target point having an unknown three-dimensional coordinate, which is included in the certain image and another image, based on the estimated focal length Processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009236016A JP2011085971A (en) | 2009-10-13 | 2009-10-13 | Apparatus, method, and program for processing image, recording medium, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009236016A JP2011085971A (en) | 2009-10-13 | 2009-10-13 | Apparatus, method, and program for processing image, recording medium, and image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011085971A true JP2011085971A (en) | 2011-04-28 |
Family
ID=44078891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009236016A Withdrawn JP2011085971A (en) | 2009-10-13 | 2009-10-13 | Apparatus, method, and program for processing image, recording medium, and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011085971A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014210419A2 (en) * | 2013-06-27 | 2014-12-31 | Faro Technologies, Inc. | Method for measuring 3d coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera |
JP2016004466A (en) * | 2014-06-18 | 2016-01-12 | パイオニア株式会社 | Information creation device and method, terminal device, computer program and recording medium |
JP2016097657A (en) * | 2014-11-26 | 2016-05-30 | キヤノン株式会社 | Image information processing apparatus, image information processing method and program, and imaging device |
US9402070B2 (en) | 2014-06-12 | 2016-07-26 | Faro Technologies, Inc. | Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality |
US9506744B2 (en) | 2014-12-16 | 2016-11-29 | Faro Technologies, Inc. | Triangulation scanner and camera for augmented reality |
JP2018008403A (en) * | 2016-07-12 | 2018-01-18 | 学校法人慶應義塾 | Three-dimensional article manufacturing device, three-dimensional article manufacturing method and program |
US10021379B2 (en) | 2014-06-12 | 2018-07-10 | Faro Technologies, Inc. | Six degree-of-freedom triangulation scanner and camera for augmented reality |
US10085003B2 (en) | 2014-12-12 | 2018-09-25 | Canon Kabushiki Kaisha | Image capture apparatus and control method for the same |
US10176625B2 (en) | 2014-09-25 | 2019-01-08 | Faro Technologies, Inc. | Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images |
JP2019109918A (en) * | 2019-02-19 | 2019-07-04 | パイオニア株式会社 | Information generating apparatus and method, terminal apparatus, computer program and recording medium |
CN110910359A (en) * | 2019-11-13 | 2020-03-24 | 广东工业大学 | A FPC Line Detection Method Based on Feature Tracking and Skeleton Feature Matching |
US10742963B2 (en) | 2015-11-06 | 2020-08-11 | Canon Kabushiki Kaisha | Image capturing apparatus, control method for the same, and computer readable medium |
JP2020194600A (en) * | 2020-09-02 | 2020-12-03 | パイオニア株式会社 | Information generating apparatus and method, terminal apparatus, computer program, and recording medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001116656A (en) * | 1999-10-20 | 2001-04-27 | Nippon Hoso Kyokai <Nhk> | Camera calibration method and device |
JP2006106929A (en) * | 2004-10-01 | 2006-04-20 | Nippon Telegr & Teleph Corp <Ntt> | Parameter estimation device, parameter estimation method and parameter estimation program |
JP2009017480A (en) * | 2007-07-09 | 2009-01-22 | Nippon Hoso Kyokai <Nhk> | Camera calibration apparatus and program thereof |
JP2009042162A (en) * | 2007-08-10 | 2009-02-26 | Toshiba Corp | Calibration device and method therefor |
-
2009
- 2009-10-13 JP JP2009236016A patent/JP2011085971A/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001116656A (en) * | 1999-10-20 | 2001-04-27 | Nippon Hoso Kyokai <Nhk> | Camera calibration method and device |
JP2006106929A (en) * | 2004-10-01 | 2006-04-20 | Nippon Telegr & Teleph Corp <Ntt> | Parameter estimation device, parameter estimation method and parameter estimation program |
JP2009017480A (en) * | 2007-07-09 | 2009-01-22 | Nippon Hoso Kyokai <Nhk> | Camera calibration apparatus and program thereof |
JP2009042162A (en) * | 2007-08-10 | 2009-02-26 | Toshiba Corp | Calibration device and method therefor |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014210419A3 (en) * | 2013-06-27 | 2015-02-19 | Faro Technologies, Inc. | Method for measuring 3d coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera |
WO2014210419A2 (en) * | 2013-06-27 | 2014-12-31 | Faro Technologies, Inc. | Method for measuring 3d coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera |
US9772173B2 (en) | 2013-06-27 | 2017-09-26 | Faro Technologies, Inc. | Method for measuring 3D coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera |
US20180023935A1 (en) * | 2013-06-27 | 2018-01-25 | Faro Technologies, Inc. | Method for measuring 3d coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera |
US9402070B2 (en) | 2014-06-12 | 2016-07-26 | Faro Technologies, Inc. | Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality |
US10089789B2 (en) | 2014-06-12 | 2018-10-02 | Faro Technologies, Inc. | Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality |
US10021379B2 (en) | 2014-06-12 | 2018-07-10 | Faro Technologies, Inc. | Six degree-of-freedom triangulation scanner and camera for augmented reality |
JP2016004466A (en) * | 2014-06-18 | 2016-01-12 | パイオニア株式会社 | Information creation device and method, terminal device, computer program and recording medium |
US10665012B2 (en) | 2014-09-25 | 2020-05-26 | Faro Technologies, Inc | Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images |
US10176625B2 (en) | 2014-09-25 | 2019-01-08 | Faro Technologies, Inc. | Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images |
JP2016097657A (en) * | 2014-11-26 | 2016-05-30 | キヤノン株式会社 | Image information processing apparatus, image information processing method and program, and imaging device |
US10085003B2 (en) | 2014-12-12 | 2018-09-25 | Canon Kabushiki Kaisha | Image capture apparatus and control method for the same |
US9506744B2 (en) | 2014-12-16 | 2016-11-29 | Faro Technologies, Inc. | Triangulation scanner and camera for augmented reality |
US9843784B2 (en) | 2014-12-16 | 2017-12-12 | Faro Technologies, Inc. | Triangulation scanner and camera for augmented reality |
US10244222B2 (en) | 2014-12-16 | 2019-03-26 | Faro Technologies, Inc. | Triangulation scanner and camera for augmented reality |
US10574963B2 (en) | 2014-12-16 | 2020-02-25 | Faro Technologies, Inc. | Triangulation scanner and camera for augmented reality |
US9661295B2 (en) | 2014-12-16 | 2017-05-23 | Faro Technologies, Inc. | Triangulation scanner and camera for augmented reality |
US10742963B2 (en) | 2015-11-06 | 2020-08-11 | Canon Kabushiki Kaisha | Image capturing apparatus, control method for the same, and computer readable medium |
JP2018008403A (en) * | 2016-07-12 | 2018-01-18 | 学校法人慶應義塾 | Three-dimensional article manufacturing device, three-dimensional article manufacturing method and program |
JP2019109918A (en) * | 2019-02-19 | 2019-07-04 | パイオニア株式会社 | Information generating apparatus and method, terminal apparatus, computer program and recording medium |
CN110910359A (en) * | 2019-11-13 | 2020-03-24 | 广东工业大学 | A FPC Line Detection Method Based on Feature Tracking and Skeleton Feature Matching |
CN110910359B (en) * | 2019-11-13 | 2024-03-19 | 广东工业大学 | FPC circuit detection method based on feature tracking and skeleton feature matching |
JP2020194600A (en) * | 2020-09-02 | 2020-12-03 | パイオニア株式会社 | Information generating apparatus and method, terminal apparatus, computer program, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011085971A (en) | Apparatus, method, and program for processing image, recording medium, and image processing system | |
CN106940704B (en) | Positioning method and device based on grid map | |
EP2751777B1 (en) | Method for estimating a camera motion and for determining a three-dimensional model of a real environment | |
US20210232845A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5963353B2 (en) | Optical data processing apparatus, optical data processing system, optical data processing method, and optical data processing program | |
CN110634161B (en) | A fast and high-precision estimation method and device for workpiece pose based on point cloud data | |
JP5746477B2 (en) | Model generation device, three-dimensional measurement device, control method thereof, and program | |
JP5671281B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
US9841271B2 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP5480667B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, program | |
CN104484648A (en) | Variable-viewing angle obstacle detection method for robot based on outline recognition | |
CN109613974B (en) | An AR home experience method in a large scene | |
JP6860620B2 (en) | Information processing equipment, information processing methods, and programs | |
EP1766580A2 (en) | Method and apparatus for machine-vision | |
JP6483832B2 (en) | Method and system for scanning an object using an RGB-D sensor | |
JP6894707B2 (en) | Information processing device and its control method, program | |
JP2018014579A (en) | Camera tracking device and method | |
JP2016148649A (en) | Information processing apparatus, control method therefor, and program | |
JP5976089B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, and program | |
Laskar et al. | Robust loop closures for scene reconstruction by combining odometry and visual correspondences | |
JP6890422B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
JP6584139B2 (en) | Information processing apparatus, information processing method, and program | |
Ahmadabadian | Photogrammetric multi-view stereo and imaging network design | |
JP7508288B2 (en) | Information processing device, control method for information processing device, and program | |
JP5938201B2 (en) | Position / orientation measuring apparatus, processing method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130611 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20130807 |