JP2021012628A - Position and posture estimation device and position and posture estimation method - Google Patents
Position and posture estimation device and position and posture estimation method Download PDFInfo
- Publication number
- JP2021012628A JP2021012628A JP2019127595A JP2019127595A JP2021012628A JP 2021012628 A JP2021012628 A JP 2021012628A JP 2019127595 A JP2019127595 A JP 2019127595A JP 2019127595 A JP2019127595 A JP 2019127595A JP 2021012628 A JP2021012628 A JP 2021012628A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- unit
- projected
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
【課題】従来に対し、ワークの一部が他の物体に遮られていても、ワークの位置姿勢をより精度よく推定可能とする。【解決手段】可視画像、位置画像及び法線画像を取得する画像取得部11と、画像取得部11により取得された可視画像に基づいて、ワークの位置姿勢を推定する概略推定部12と、画像取得部11による取得結果及び概略推定部12により推定された位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの法線ベクトルと法線画像が示す法線ベクトルとを比較して、当該位置姿勢のうちの回転量を修正する回転修正部13と、画像取得部11による取得結果及び回転修正部13による修正後の位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの3次元位置と位置画像が示す3次元位置とを比較して、当該位置姿勢のうちの並進量を修正する並進修正部14とを備えた。【選択図】図1PROBLEM TO BE SOLVED: To more accurately estimate the position and orientation of a work even if a part of the work is obstructed by another object. An image acquisition unit 11 that acquires a visible image, a position image, and a normal image, a schematic estimation unit 12 that estimates the position and orientation of a work based on a visible image acquired by the image acquisition unit 11, and an image. After determining the effective pixels on the image based on the acquisition result by the acquisition unit 11 and the position and orientation estimated by the rough estimation unit 12, the normal vector of the three-dimensional model of the work projected on the image in the position and orientation. Is compared with the normal vector shown by the normal image, and the rotation correction unit 13 that corrects the amount of rotation in the position and orientation, the acquisition result by the image acquisition unit 11, and the position and orientation after correction by the rotation correction unit 13 After determining the effective pixels on the image based on, the position and orientation are compared with the three-dimensional position of the three-dimensional model of the work projected on the image in the position and orientation and the three-dimensional position indicated by the position image. A translation correction unit 14 for correcting the translation amount of the above is provided. [Selection diagram] Fig. 1
Description
この発明は、画像からワークの位置姿勢を推定する位置姿勢推定装置及び位置姿勢推定方法に関する。 The present invention relates to a position / orientation estimation device and a position / orientation estimation method for estimating the position / orientation of a work from an image.
近年、工場等の生産現場では、生産効率を向上させるため、ロボットによる自動化が進められている。その一環として、バラ積みピッキング技術が開発されてきている。バラ積みピッキング技術は、トレイの中にバラ積みされたワークの位置姿勢を推定し、その推定結果に基づいてロボットハンドによるワークの把持を行う技術である。 In recent years, at production sites such as factories, automation by robots has been promoted in order to improve production efficiency. As part of this, bulk picking technology has been developed. The bulk picking technique is a technique of estimating the position and orientation of the workpieces stacked in the tray and grasping the workpieces by the robot hand based on the estimation result.
ワークの位置姿勢を推定する方法として、ワークがバラ積みされたトレイが映された画像からワークの大まかな位置姿勢を推定し、その位置姿勢を初期値として画像データに対してワークの3次元モデルを当てはめ、位置姿勢を更新していく方法がある(例えば特許文献1参照)。 As a method of estimating the position and orientation of the work, the rough position and orientation of the work is estimated from the image on which the trays in which the works are stacked are projected, and the position and orientation are used as the initial values for the three-dimensional model of the work with respect to the image data. There is a method of updating the position and orientation by applying (see, for example, Patent Document 1).
しかしながら、バラ積みの状態では、ワークの一部の領域が別の物体(ワーク)に遮られている場合が多い。この場合、上記一部の領域における距離画像の値は、ワークまでの本来の距離ではない異常値となる。異常値が含まれる距離画像を用いて従来手法による推定を行った場合、真値の位置姿勢でも照合スコアが低くなったり、誤った位置姿勢でも照合スコアが高くなったりするため、精度のよい位置姿勢を探索することが困難となる。 However, in the loosely stacked state, a part of the work area is often blocked by another object (work). In this case, the value of the distance image in the above-mentioned part of the region is an abnormal value that is not the original distance to the work. When the estimation is performed by the conventional method using a distance image containing an abnormal value, the collation score is low even in the true position and orientation, and the collation score is high even in the wrong position and orientation, so the position is accurate. It becomes difficult to search for a posture.
この発明は、上記のような課題を解決するためになされたもので、従来に対し、ワークの一部が他の物体に遮られていても、ワークの位置姿勢をより精度よく推定可能な位置姿勢推定装置を提供することを目的としている。 The present invention has been made to solve the above-mentioned problems, and compared to the conventional case, even if a part of the work is obstructed by another object, the position and orientation of the work can be estimated more accurately. It is an object of the present invention to provide a posture estimation device.
この発明に係る位置姿勢推定装置は、可視画像、当該可視画像に映された物体の3次元位置を画素毎に示す位置画像、及び、当該可視画像に映された物体の法線ベクトルを画素毎に示す法線画像を取得する画像取得部と、画像取得部により取得された可視画像に基づいて、ワークの位置姿勢を推定する概略推定部と、画像取得部による取得結果及び概略推定部により推定された位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの法線ベクトルと法線画像が示す法線ベクトルとを比較して、当該位置姿勢のうちの回転量を修正する回転修正部と、画像取得部による取得結果及び回転修正部による修正後の位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの3次元位置と位置画像が示す3次元位置とを比較して、当該位置姿勢のうちの並進量を修正する並進修正部とを備えたことを特徴とする。 The position / orientation estimation device according to the present invention has a visible image, a position image showing the three-dimensional position of the object projected on the visible image for each pixel, and a normal vector of the object projected on the visible image for each pixel. The image acquisition unit that acquires the normal image shown in (1), the approximate estimation unit that estimates the position and orientation of the work based on the visible image acquired by the image acquisition unit, and the acquisition result by the image acquisition unit and the approximate estimation unit. After determining the valid pixels on the image based on the determined position and orientation, the normal vector of the three-dimensional model of the work projected on the image in the position and orientation is compared with the normal vector shown by the normal image. Then, after determining the effective pixels on the image based on the rotation correction unit that corrects the rotation amount of the position and orientation, the acquisition result by the image acquisition unit, and the corrected position and orientation by the rotation correction unit. It is provided with a translation correction unit that compares the three-dimensional position of the three-dimensional model of the work projected on the image in the position and orientation with the three-dimensional position indicated by the position image and corrects the translation amount in the position and orientation. It is characterized by.
この発明によれば、上記のように構成したので、従来に対し、ワークの一部が他の物体に遮られていても、ワークの位置姿勢をより精度よく推定可能となる。 According to the present invention, since the structure is as described above, the position and orientation of the work can be estimated more accurately than in the past even if a part of the work is blocked by another object.
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1は実施の形態1に係る位置姿勢推定装置1の構成例を示す図である。
位置姿勢推定装置1は、ワークの位置姿勢を推定する。位置姿勢推定装置1は、図1に示すように、画像取得部11、概略推定部12、回転修正部13及び並進修正部14を備えている。なお、位置姿勢推定装置1は、システムLSI(Large Scale Integration)等の処理回路、又はメモリ等に記憶されたプログラムを実行するCPU(Central Processing Unit)等により実現される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1.
FIG. 1 is a diagram showing a configuration example of the position / posture estimation device 1 according to the first embodiment.
The position / orientation estimation device 1 estimates the position / orientation of the work. As shown in FIG. 1, the position / orientation estimation device 1 includes an
画像取得部11は、画像群を取得する。画像群は、ワークの位置姿勢を推定するために必要な画像群である。画像群には、可視画像、位置画像及び法線画像が含まれる。位置画像は、可視画像に映された物体の3次元位置を画素毎に示す画像である。法線画像は、可視画像に映された物体の法線ベクトルを画素毎に示す画像である。
The
概略推定部12は、画像取得部11により取得された可視画像に基づいて、ワークの位置姿勢を推定する。概略推定部12による推定は、従来から知られている方法を用いた大まかな位置姿勢の推定である。
The
回転修正部13は、画像取得部11により取得された画像群及び概略推定部12により推定された位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの法線ベクトルと法線画像が示す法線ベクトルとを比較して、当該位置姿勢のうちの回転量を修正する。回転修正部13の詳細については後述する。
The
並進修正部14は、画像取得部11により取得された画像群及び回転修正部13による修正後の位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの3次元位置と位置画像が示す3次元位置とを比較して、当該位置姿勢のうちの並進量を修正する。並進修正部14の詳細については後述する。
The
次に、回転修正部13の構成例について、図2を参照しながら説明する。
回転修正部13は、図2に示すように、投影部(第1投影部)131、画素判定部(第1画素判定部)132及び回転更新部133を有している。
Next, a configuration example of the
As shown in FIG. 2, the
投影部131は、概略推定部12により推定された位置姿勢でワークの3次元モデルを画像に投影することで、投影画像群を生成する。投影画像群には、投影ラベル画像、投影位置画像及び投影法線画像が含まれる。投影ラベル画像は、概略推定部12により推定された位置姿勢で画像に投影されたワークの3次元モデルの各平面の識別情報を画素毎に示す画像である。投影位置画像は、概略推定部12により推定された位置姿勢で画像に投影されたワークの3次元モデルの3次元位置を画素毎に示す画像である。投影法線画像は、概略推定部12により推定された位置姿勢で画像に投影されたワークの3次元モデルの法線ベクトルを画素毎に示す画像である。
The
画素判定部132は、画像取得部11により取得された画像群及び投影部131により生成された投影画像群に基づいて、投影ラベル画像のうちの有効な平面に属する画素を有効な画素として判定する。
The
回転更新部133は、画素判定部132による判定結果に基づいて、投影部131により生成された投影法線画像が示す法線ベクトルと画像取得部11により取得された法線画像が示す法線ベクトルとの差から特異値分解に基づいて回転行列を生成することで、概略推定部12により推定された位置姿勢のうちの回転量を更新する。
The
次に、並進修正部14の構成例について、図3を参照しながら説明する。
並進修正部14は、図3に示すように、投影部(第2投影部)141、画素判定部(第2画素判定部)142及び並進更新部143を有している。
Next, a configuration example of the
As shown in FIG. 3, the
投影部141は、回転修正部13による修正後の位置姿勢でワークの3次元モデルを画像に投影することで、投影画像群を生成する。投影画像群には、投影ラベル画像、投影位置画像及び投影法線画像が含まれる。投影ラベル画像は、回転修正部13による修正後の位置姿勢で画像に投影されたワークの3次元モデルの各平面の識別情報を画素毎に示す画像である。投影位置画像は、回転修正部13による修正後の位置姿勢で画像に投影されたワークの3次元モデルの3次元位置を画素毎に示す画像である。投影法線画像は、回転修正部13による修正後の位置姿勢で画像に投影されたワークの3次元モデルの法線ベクトルを画素毎に示す画像である。
The
画素判定部142は、画像取得部11により取得された撮像画像群及び投影部141により生成された画像群に基づいて、投影ラベル画像のうちの有効な平面に属する画素を有効な画素として判定する。
The
並進更新部143は、画素判定部142による判定結果に基づいて、画像取得部11により取得された位置画像から物体の各平面の方程式を算出し、投影部141により生成された投影位置画像における各画素と対応する平面との位置関係から、最小二乗法により回転修正部13による修正後の位置姿勢のうちの並進量を更新する。
The
次に、図1に示す実施の形態1に係る位置姿勢推定装置1の動作例について、図4を参照しながら説明する。
ワークの位置姿勢を推定する場合、仮に、ワークの表面が平面で構成され、それらの平面のうち、法線ベクトルが互いに独立な3つ以上の平面が画像上で検出可能であり、且つ、各平面の方程式が特定可能である場合、ワークの位置姿勢は一意に特定可能である。平面の方程式の特定に関しては、概略推定の結果より、当該平面の領域に含まれる画素から、最小二乗法等を用いれば取得可能である。
Next, an operation example of the position / orientation estimation device 1 according to the first embodiment shown in FIG. 1 will be described with reference to FIG.
When estimating the position and orientation of the work, it is assumed that the surface of the work is composed of planes, and among those planes, three or more planes whose normal vectors are independent of each other can be detected on the image, and each of them. When the equation of a plane can be specified, the position and orientation of the work can be uniquely specified. The equation of a plane can be specified from the result of the rough estimation by using the least squares method or the like from the pixels included in the region of the plane.
従来では、なるべく多くのワーク表面の画像データを取込んで位置姿勢の推定を行っており、その中では、画像データと座標変換した3次元モデルとの比較を画素毎に行っている。一方、比較結果に乖離がある画素については、その乖離が遮蔽等の異常によるものであるのか否かの判断が困難であるため、その推定結果は遮蔽による影響を大きく受ける。 Conventionally, as much image data as possible on the surface of the work is taken in and the position and orientation are estimated, and in that, the image data and the coordinate-converted three-dimensional model are compared for each pixel. On the other hand, for pixels with a discrepancy in the comparison result, it is difficult to determine whether or not the discrepancy is due to an abnormality such as occlusion, so the estimation result is greatly affected by the occlusion.
実施の形態1に係る位置姿勢推定装置1でも、従来と同様に、画像データと座標変換した3次元モデルとの比較を行う。一方、実施の形態1に係る位置姿勢推定装置1では、従来とは異なり、比較の目的が平面の方程式を特定することにあるため、比較結果に乖離がある画素は無視し、乖離の少ない画素のみを利用して平面の方程式を特定する。その結果として、実施の形態1に係る位置姿勢推定装置1では、遮蔽による影響の少ない安定した推定結果を得られる。 The position / orientation estimation device 1 according to the first embodiment also compares the image data with the coordinate-converted three-dimensional model as in the conventional case. On the other hand, in the position / orientation estimation device 1 according to the first embodiment, unlike the conventional case, the purpose of the comparison is to specify the equation of a plane. Therefore, the pixels having a deviation in the comparison result are ignored, and the pixels having a small deviation are ignored. Use only to identify the equation of a plane. As a result, the position / orientation estimation device 1 according to the first embodiment can obtain a stable estimation result with less influence due to shielding.
但し、実施の形態1に係る位置姿勢推定装置1が対象とするワークは、形状が幾つかの条件を満たす必要がある。それは、ワークの表面が平面で構成され、どのような姿勢においても法線ベクトルが互いに独立な3つ以上の平面が画像上で検出可能なことである。
実施の形態1に係る位置姿勢推定装置1は、上記のような制約が課されるものの、ワークの表面を構成する各平面の方程式を特定するだけでよいため、従来に対し、遮蔽等に対して頑健な位置姿勢推定結果が得られる。
However, the shape of the work targeted by the position / orientation estimation device 1 according to the first embodiment needs to satisfy some conditions. That is, the surface of the work is composed of planes, and three or more planes whose normal vectors are independent of each other can be detected on the image in any posture.
Although the position / orientation estimation device 1 according to the first embodiment is subject to the above-mentioned restrictions, it is only necessary to specify the equations of the planes constituting the surface of the work. A robust position and orientation estimation result can be obtained.
このように、実施の形態1に係る位置姿勢推定装置1は、可視画像からワークの位置姿勢を推定し、画像上の有効な画素を判定した上で法線画像に基づいて位置姿勢の回転量を修正し、画像上の有効な画素を判定した上で位置画像に基づいて位置姿勢の並進量を修正することで、ロボットハンド等を用いてワークを把持するのに必要なワークの位置姿勢を推定する。 As described above, the position / orientation estimation device 1 according to the first embodiment estimates the position / orientation of the work from the visible image, determines the effective pixels on the image, and then rotates the position / orientation based on the normal image. By correcting the translation amount of the position and orientation based on the position image after determining the effective pixels on the image, the position and orientation of the work required to grip the work using a robot hand or the like can be obtained. presume.
ここで、位置姿勢は、3次元空間における回転量[radian]及び並進量[mm]の6つの数値[θx,θy,θz,tx,ty,tz]で構成される。この位置姿勢の値により、下式(1)のように、3次元空間における座標変換行列が生成可能である。式(1)において、Mは座標変換行列を示している。
Here, the position and orientation are composed of six numerical values [θ x , θ y , θ z , t x , ty , t z ] of the amount of rotation [radian] and the amount of translation [mm] in the three-dimensional space. From the value of this position and orientation, a coordinate transformation matrix in the three-dimensional space can be generated as shown in the following equation (1). In equation (1), M represents a coordinate transformation matrix.
逆に、下式(2)のように座標変換行列の要素から位置姿勢の各要素を取得可能である。
On the contrary, as shown in the following equation (2), each element of the position and orientation can be obtained from the elements of the coordinate transformation matrix.
また、下式(3)のように、3次元空間上の任意の点は、座標変換行列の要素を用いることにより、3次元空間上の点に座標変換される。式(3)において、(x,y,z)は座標変換前の3次元空間上の任意の点を示し、(x’,y’,z’)は(m11〜m34)による座標変換後の3次元空間上の点を示している。
Further, as in the following equation (3), any point on the three-dimensional space is coordinate-converted to a point on the three-dimensional space by using the elements of the coordinate transformation matrix. In equation (3), (x, y, z) indicates an arbitrary point in the three-dimensional space before coordinate transformation, and (x', y', z') is coordinate transformation by (m 11 to m 34 ). It shows a point on the later three-dimensional space.
また、下式(4)のように、3次元空間上の任意の点は、カメラ固有の較正係数により、画像上に投影する際の画像座標に変換される。式(4)において、(c11〜c34)は較正係数を示し、(X,Y)は(c11〜c34)による変換後の画像座標を示している。
Further, as in the following equation (4), any point in the three-dimensional space is converted into image coordinates when projected onto the image by the calibration coefficient peculiar to the camera. In equation (4), (c 11 to c 34 ) indicate the calibration coefficient, and (X, Y) indicates the image coordinates after conversion by (c 11 to c 34 ).
図1に示す実施の形態1に係る位置姿勢推定装置1の動作例では、図4に示すように、まず、画像取得部11は、画像群(可視画像、位置画像及び法線画像)を取得する(ステップST401)。画像群について、図5を参照しながら説明する。
In the operation example of the position / orientation estimation device 1 according to the first embodiment shown in FIG. 1, as shown in FIG. 4, the
図5Aに示すように、可視画像は、物体が映された画像である。可視画像の画素データは、1つの整数で構成される。可視画像は、通常のカメラによる撮像により取得可能である。 As shown in FIG. 5A, the visible image is an image on which an object is projected. The pixel data of the visible image is composed of one integer. The visible image can be acquired by imaging with a normal camera.
図5Bに示すように、位置画像は、可視画像に映された物体の3次元位置を画素毎に示す画像である。位置画像は、各画素が3次元空間における座標を示し、画素データが3つの浮動小数点で構成される。図5Bに示す位置画像では、上から順に、3次元位置におけるX座標の画像、3次元位置におけるY座標の画像、3次元位置におけるZ座標の画像を示している。位置画像の取得方法としては、空間コード法、ステレオマッチング法、又はTOF(Time−Of−Flight)法等が挙げられる。空間コード化法は、測定対象にピッチの異なる複数の縞が投影された複数の画像から距離を算出する方法である。ステレオマッチング法は、複数のカメラで撮像された画像から三角測量の原理により距離を算出する方法である。TOF法は、光の飛行時間を利用して距離を算出する方法である。 As shown in FIG. 5B, the position image is an image showing the three-dimensional position of the object projected on the visible image for each pixel. In the position image, each pixel shows the coordinates in the three-dimensional space, and the pixel data is composed of three floating point numbers. In the position image shown in FIG. 5B, an image of the X coordinate at the three-dimensional position, an image of the Y coordinate at the three-dimensional position, and an image of the Z coordinate at the three-dimensional position are shown in order from the top. Examples of the position image acquisition method include a spatial code method, a stereo matching method, a TOF (Time-Of-Flight) method, and the like. The spatial coding method is a method of calculating a distance from a plurality of images in which a plurality of stripes having different pitches are projected on a measurement target. The stereo matching method is a method of calculating a distance from images captured by a plurality of cameras by the principle of triangulation. The TOF method is a method of calculating a distance using the flight time of light.
図5Cに示すように、法線画像は、可視画像に映された物体の法線ベクトルを画素毎に示す画像である。法線画像は、画像データが3つの浮動小数点で構成される。図5Cに示す法線画像では、上から順に、法線ベクトルにおけるX軸成分の画像、法線ベクトルにおけるY軸成分の画像、法線ベクトルにおけるZ軸成分の画像を示している。法線画像の取得方法としては、位置画像における周囲の画素データを用いた最小二乗法又は固有空間法等を用いた手法が挙げられる。 As shown in FIG. 5C, the normal image is an image showing the normal vector of the object projected on the visible image for each pixel. In the normal image, the image data is composed of three floating point numbers. In the normal image shown in FIG. 5C, an image of the X-axis component in the normal vector, an image of the Y-axis component in the normal vector, and an image of the Z-axis component in the normal vector are shown in order from the top. Examples of the method for acquiring the normal image include a method using the least squares method using the surrounding pixel data in the position image, the eigenspace method, and the like.
次いで、概略推定部12は、画像取得部11により取得された可視画像に基づいて、ワークの位置姿勢を推定する(ステップST402)。概略推定部12が利用可能な推定方法としては、テンプレートマッチングを用いた方法又はブースティングを用いた方法等のように従来から知られた各種方法が挙げられる。以下では、概略推定部12は、非特許文献1に開示されているHough Forestを用いた方法を示す。この方法では、事前準備で学習させた概略推定モデルを用いる。
Next, the
図6Aに示すように、概略推定モデル(符号602が示すモデル)は、符号601に示すワークの断片を示す画像(断片画像)が入力されると、その断片画像が「ワークがどのような姿勢にあるときの、どの部分を写した画像であるのか」を推定し、ワークの姿勢及び位置を出力する。なお、上記ワークの姿勢は、断片画像に最も近い学習画像(符号603が示す画像)におけるワークの姿勢である。上記ワークの位置は、断片画像の中心からワーク中心までの画素単位の移動量(符号604が示す移動量)である。
As shown in FIG. 6A, in the schematic estimation model (model indicated by reference numeral 602), when an image (fragment image) showing a fragment of the work shown by
概略推定部12による実際の推定では、まず、学習した姿勢毎に投票画像を準備する。投票画像は可視画像と同一サイズであり、投票画像の各画素値は「ワークの中心位置である候補」としての得票数を表し、0で初期化しておく。
In the actual estimation by the
図6Bに示すように、概略推定部12は、可視画像(符号605に示す画像)が入力されると、全ての画素について、その画素を中心とした断片画像を切出し、概略推定モデルへ入力する。概略推定モデルは、学習した姿勢の中で最も近い姿勢と、その画素からワーク中心までの移動量を出力し、概略推定部12は、推定した姿勢の投票画像(符号606に示す画像)における推定したワークの中心位置に対応する画素に1を加算する。
As shown in FIG. 6B, when the visible image (image shown by reference numeral 605) is input, the
概略推定部12は、上記の処理が終了したら、全ての投票画像の中で、最も得票数の多い姿勢と位置を選択し、これらの情報から位置姿勢(P0=[θx 0,θy 0,θz 0,tx 0,ty 0,tz 0])を得る。符号607に示す画像は、概略推定部12による推定結果を示す画像である。この画像では、可視画像上において、概略推定部12により推定された位置に円が描画されている。以下、概略推定部12により推定された位置姿勢を概略位置姿勢と称す。
After the above processing is completed, the
次いで、回転修正部13は、画像上の有効な画素を判定した上で、画像取得部11により取得された法線画像に基づいて概略推定部12により推定された位置姿勢(概略位置姿勢)のうちの回転量を修正する(ステップST403)。回転修正部13は、概略位置姿勢で画像上に投影したワークの3次元モデルの法線ベクトルと法線画像が示す法線ベクトルとを比較することで、回転量の修正量を決定する。以下、回転修正部13による修正後の位置姿勢を中間位置姿勢と称す。
Next, the
すなわち、回転修正部13は、概略位置姿勢(P0=[θx 0,θy 0,θz 0,tx 0,ty 0,tz 0])の回転量を修正し、中間位置姿勢(P1=[θx 1,θy 1,θz 1,tx 1,ty 1,tz 1])を得る。
That is, the
次いで、並進修正部14は、画像上の有効な画素を判定した上で、画像取得部11により取得された位置画像に基づいて回転修正部13による修正後の位置姿勢(中間位置姿勢)のうちの並進量を修正する(ステップST404)。並進修正部14は、中間位置姿勢で画像上に投影したワークの3次元モデルの3次元位置と位置画像が示す3次元位置とを比較することで、並進量の修正量を決定する。以下、並進修正部14による修正後の位置姿勢を詳細位置姿勢と称す。
Next, the
すなわち、並進修正部14は、中間位置姿勢(P1=[θx 1,θy 1,θz 1,tx 1,ty 1,tz 1])の並進量を修正し、詳細位置姿勢(P2=[θx 2,θy 2,θz 2,tx 2,ty 2,tz 2])を得る。
That is, the
次に、図2に示す実施の形態1における回転修正部13の動作例について、図7を参照しながら説明する。
図2に示す実施の形態1における回転修正部13の動作例では、図7に示すように、まず、投影部131は、概略推定部12により推定された位置姿勢で画像上にワークの3次元モデルを投影して投影画像群(投影ラベル画像、投影位置画像及び投影法線画像)を生成する(ステップST701)。
Next, an operation example of the
In the operation example of the
CAD(Computer−Aided Design)ファイルの情報から生成されるワークの3次元モデルにおける表面上の各点は、3次元空間での位置、表面の法線方向、及び属する平面の識別情報等を保持している。投影部131は、まず、式(1)によって、概略推定部12により推定された位置姿勢から座標変換行列を生成する。次に、投影部131は、式(3)によって、ワークの3次元モデルにおける表面上の各点について3次元空間での座標変換を行う。次に、投影部131は、式(4)によって、投影する画像座標を特定し、各点の各種情報を画像上に投影していく。その結果、投影部131は、図8に示すように、投影ラベル画像、投影位置画像及び投影法線画像を生成する。
Each point on the surface of the 3D model of the work generated from the information of the CAD (Computer-Aided Design) file holds the position in the 3D space, the normal direction of the surface, the identification information of the plane to which it belongs, and the like. ing. First, the
図8Aに示すように、投影ラベル画像は、画素データが整数の1つの値で構成され、その画素が属する平面の識別番号が格納される。画素値が負である場合、その画素はどの平面にも属していないことを示している。 As shown in FIG. 8A, in the projection label image, the pixel data is composed of one integer value, and the identification number of the plane to which the pixel belongs is stored. If the pixel value is negative, it indicates that the pixel does not belong to any plane.
投影位置画像の画素データの性質は、位置画像と同様である。図8Bに示す投影位置画像では、上から順に、3次元位置におけるX座標の画像、3次元位置におけるY座標の画像、3次元位置におけるZ座標の画像を示している。 The properties of the pixel data of the projected position image are the same as those of the position image. In the projected position image shown in FIG. 8B, an image of the X coordinate at the three-dimensional position, an image of the Y coordinate at the three-dimensional position, and an image of the Z coordinate at the three-dimensional position are shown in order from the top.
投影法線画像の画素データの性質は、法線画像と同様である。図8Cに示す投影法線画像では、上から順に、法線ベクトルにおけるX軸成分の画像、法線ベクトルにおけるY軸成分の画像、法線ベクトルにおけるZ軸成分の画像を示している。 The properties of the pixel data of the projected normal image are the same as those of the normal image. In the projection normal image shown in FIG. 8C, an image of the X-axis component in the normal vector, an image of the Y-axis component in the normal vector, and an image of the Z-axis component in the normal vector are shown in order from the top.
次いで、画素判定部132は、画像取得部11により取得された画像群及び投影部131により生成された投影画像群に基づいて、投影ラベル画像のうちの有効な平面に属する画素を有効な画素として判定する(ステップST702)。
Next, the
この際、画素判定部132は、まず、投影ラベル画像の画素値から、各画素が属する平面を決定する。ここで、画素判定部132は、画素値が負の場合には、無効画素と判定する。
次に、画素判定部132は、位置画像が示す3次元位置と投影位置画像が示す3次元位置との差が閾値以上である画素が存在する場合、当該画素を無効画素と判定する。そして、画素判定部132は、投影ラベル画像における無効画素の画素値を負の値に設定する。
また、画素判定部132は、法線画像が示す法線ベクトルと投影法線画像が示す法線ベクトルとの内積が閾値以下である画素が存在する場合、当該画素を無効画素と判定する。そして、画素判定部132は、投影ラベル画像における無効画素の画素値を負の値に設定する。
そして、投影ラベル画像において、画素判定部132による処理で無効画素と判定されなかった画素は、有効画素となる。
At this time, the
Next, the
Further, the
Then, in the projected label image, the pixels that are not determined to be invalid pixels by the processing by the
なお上記では、画素判定部132は、3次元位置を用いた画素判定と、法線ベクトルを用いた画素判定との両方の判定を行っている。しかしながら、画素判定部132は、上記の画素判定のうちの一方の判定のみを行ってもよい。
In the above, the
次いで、回転更新部133は、回転量を更新する(ステップST703)。回転更新部133は、投影法線画像が示す法線ベクトルと法線画像が示す法線ベクトルとの差から特異値分解に基づいて回転行列を生成することにより、回転量を更新する。
Next, the
回転更新部133は、概略位置姿勢による投影法線画像が示す法線ベクトルと法線画像が示す法線ベクトルとの差を評価し、その差を修正するような座標変換行列を生成し、式(2)によって、座標変換行列から中間位置姿勢を算出する。
The
ここで、回転更新部133は、修正する回転量を求めるため、投影ラベル画像において非負値である全ての画素の情報を用いて、下式(5)に示す行列を求める。ここで、(pi’,qi’,ri’)は法線画像におけるi番目の画素の法線ベクトル、(p,q,r)は投影法線画像におけるi番目の画素の法線ベクトルを表す。
Here, in order to obtain the amount of rotation to be corrected, the
次に、回転更新部133は、式(5)で生成した行列に特異値分解を施して、下式(6),(7)に従い回転行列を得る。なお式(7)において、Rは回転行列を示す。
Next, the
次に、回転更新部133は、下式(8)に示すように、式(7)で得た回転行列から、回転量の修正分による座標変換行列を生成する。なお式(8)において、ΔM10は回転量の修正分による座標変換行列を示している。そして、回転更新部133は、下式(9)に示すように、式(8)で生成した座標変換行列を、概略位置姿勢による座標変換行列に掛け合わせることにより、中間位置姿勢による座標変換行列を更新する。なお式(9)において、M0は概略位置姿勢による座標変換行列を示し、M1は中間位置姿勢による座標変換行列を示している。
Next, as shown in the following equation (8), the
その後、回転更新部133は、出力となる中間位置姿勢(P1=[θx 1,θy 1,θz 1,tx 1,ty 1,tz 1])を、中間位置姿勢による座標変換行列から式(2)によって取得する。
After that, the
次に、図3に示す実施の形態1における並進修正部14の動作例について、図9を参照しながら説明する。
図3に示す実施の形態1における並進修正部14の動作例では、図9に示すように、まず、投影部141は、回転修正部13による修正後の位置姿勢で画像上にワークの3次元モデルを投影して投影画像群(投影ラベル画像、投影位置画像及び投影法線画像)を生成する(ステップST901)。
Next, an operation example of the
In the operation example of the
次いで、画素判定部142は、画像取得部11により取得された画像群及び投影部141により生成された投影画像群に基づいて、投影ラベル画像のうちの有効な平面に属する画素を有効な画素として判定する(ステップST902)。
Next, the
ステップST901における投影部141による処理及びステップST902における画素判定部142による処理は、用いるデータは異なるが処理自体はステップST701における投影部131による処理及びステップST702における画素判定部132による処理と同じである。
The processing by the
次いで、並進更新部143は、並進量を更新する(ステップST903)。並進更新部143は、位置画像から物体の各平面の方程式を算出し、投影位置画像における各画素と対応する平面との位置関係から、最小二乗法を用いて、並進量を更新する。
Next, the
並進更新部143は、中間位置姿勢による投影位置画像が示す3次元位置と位置画像が示す3次元位置との差を評価し、その差を修正するような座標変換行列を生成し、式(2)によって座標変換行列から詳細位置姿勢を算出する。
The
ここで、今、3次元空間上のある観測点が、本来はax+by+cz+d=0で表される既知の平面上の点にあるにもかかわらず、本来の座標に未知の誤差(Δx,Δy,Δz)を重畳した座標(x,y,z)として観測された状況について考える。ここで、本来の観測点の座標(x+Δx,y+Δy,z+Δz)は、この時点ではまだ特定できないが、少なくとも平面上の点であることから、下式(10)の条件を満たすこととなる。
Here, even though a certain observation point in the three-dimensional space is originally at a point on a known plane represented by ax + by + cz + d = 0, there is an unknown error (Δx, Δy, Δz) in the original coordinates. ) Is superposed as coordinates (x, y, z). Here, the coordinates (x + Δx, y + Δy, z + Δz) of the original observation point cannot be specified yet at this point, but at least they are points on a plane, so that the condition of the following equation (10) is satisfied.
上記の状況を、並進更新部143に置き換えると、既知の平面は投影ラベル画像と位置画像によって算出される各平面に相当し、観測点は投影位置画像における各画素データに相当する。
Replacing the above situation with the
ここで、投影ラベル画像における全ての有効な画素について式(10)を適用すると、式(11)のように複数の方程式が生成される。ここで、Niは有効画素数を示し、(xi,yi,zi)はi番目の画素の観測された座標を示し、s(i)はi番目の画素が属する平面番号を示し、(as,bs,cs,ds)はs番目の平面の係数を示し、(Δx,Δy,Δz)は未知の並進量誤差を示している。
Here, when the equation (10) is applied to all the valid pixels in the projected label image, a plurality of equations are generated as in the equation (11). Here, N i denotes the number of effective pixels, shows the (x i, y i, z i) denotes the observed coordinates of the i-th pixel, s (i) is a plan number i-th pixel belongs shows (a s, b s, c s, d s) showed a coefficient of s-th plane, (Δx, Δy, Δz) is unknown translation amount error.
式(11)を平面ごとに整理して行列表現すると式(12)で表される。式(12)において、Nsは観測されている平面数を示している。未知の並進量誤差は、最小二乗法を用いて下式(13)により得ることができる。
When equation (11) is arranged by plane and expressed as a matrix, it is expressed by equation (12). In equation (12), N s indicates the number of observed planes. The unknown translational amount error can be obtained by the following equation (13) using the least squares method.
下式(14)のように、詳細位置姿勢(P2=[θx 2,θy 2,θz 2,tx 2,ty 2,tz 2])は、中間位置姿勢(P1=[θx 1,θy 1,θz 1,tx 1,ty 1,tz 1])の並進量を修正することにより得られる。
As shown in the following equation (14), the detailed position and orientation (P 2 = [θ x 2 , θ y 2 , θ z 2 , t x 2 , ty 2 , t z 2 ]) is the intermediate position and orientation (P 1). It is obtained by modifying the translation amount of = [θ x 1 , θ y 1 , θ z 1 , t x 1 , t y 1 , t z 1 ]).
詳細位置姿勢(P2)は位置姿勢推定装置1における最終的な出力となる。
この詳細位置姿勢をバラ積みピッキングシステムに利用する際は、位置姿勢推定装置1は詳細位置姿勢をワークの位置姿勢としてバラ積みピッキングシステムに通知し、バラ積みピッキングシステムは、この位置姿勢に基づいてロボットハンドを起動してワークの把持を行う。
Detailed position and orientation (P 2) is the final output of the position and orientation estimation apparatus 1.
When this detailed position / orientation is used in the bulk picking system, the position / orientation estimation device 1 notifies the bulk picking system of the detailed position / orientation as the position / orientation of the work, and the bulk picking system is based on this position / orientation. The robot hand is activated to grip the work.
以上のように、この実施の形態1によれば、位置姿勢推定装置1は、可視画像、当該可視画像に映された物体の3次元位置を画素毎に示す位置画像、及び、当該可視画像に映された物体の法線ベクトルを画素毎に示す法線画像を取得する画像取得部11と、画像取得部11により取得された可視画像に基づいて、ワークの位置姿勢を推定する概略推定部12と、画像取得部11による取得結果及び概略推定部12により推定された位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの法線ベクトルと法線画像が示す法線ベクトルとを比較して、当該位置姿勢のうちの回転量を修正する回転修正部13と、画像取得部11による取得結果及び回転修正部13による修正後の位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの3次元位置と位置画像が示す3次元位置とを比較して、当該位置姿勢のうちの並進量を修正する並進修正部14とを備えた。これにより、実施の形態1に係る位置姿勢推定装置1は、従来に対し、ワークの一部が他の物体に遮られていても、ワークの位置姿勢をより精度よく推定可能となる。
As described above, according to the first embodiment, the position / orientation estimation device 1 is used for the visible image, the position image showing the three-dimensional position of the object projected on the visible image for each pixel, and the visible image. An
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、若しくは実施の形態の任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, it is possible to modify any component of the embodiment or omit any component of the embodiment.
1 位置姿勢推定装置
11 画像取得部
12 概略推定部
13 回転修正部
14 並進修正部
131 投影部(第1投影部)
132 画素判定部(第1画素判定部)
133 回転更新部
141 投影部(第2投影部)
142 画素判定部(第2画素判定部)
143 並進更新部
1 Position /
132 Pixel determination unit (first pixel determination unit)
133
142 Pixel determination unit (second pixel determination unit)
143 Translation Update
Claims (4)
前記画像取得部により取得された可視画像に基づいて、ワークの位置姿勢を推定する概略推定部と、
前記画像取得部による取得結果及び前記概略推定部により推定された位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの法線ベクトルと法線画像が示す法線ベクトルとを比較して、当該位置姿勢のうちの回転量を修正する回転修正部と、
前記画像取得部による取得結果及び前記回転修正部による修正後の位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの3次元位置と位置画像が示す3次元位置とを比較して、当該位置姿勢のうちの並進量を修正する並進修正部と
を備えた位置姿勢推定装置。 Image acquisition to acquire a visible image, a position image showing the three-dimensional position of the object projected on the visible image for each pixel, and a normal image showing the normal vector of the object projected on the visible image for each pixel. Department and
A rough estimation unit that estimates the position and orientation of the work based on the visible image acquired by the image acquisition unit, and
After determining the effective pixels on the image based on the acquisition result by the image acquisition unit and the position and orientation estimated by the rough estimation unit, the normal of the three-dimensional model of the work projected on the image in the position and orientation. A rotation correction unit that compares the vector with the normal vector shown by the normal image and corrects the amount of rotation in the position and orientation.
After determining the effective pixels on the image based on the acquisition result by the image acquisition unit and the position and orientation after correction by the rotation correction unit, the three-dimensional model of the work projected on the image in the position and orientation is three-dimensional. A position / orientation estimation device including a translation correction unit that compares a position with a three-dimensional position indicated by a position image and corrects a translation amount in the position / orientation.
前記概略推定部により推定された位置姿勢でワークの3次元モデルを画像に投影した場合に各画素が属する平面の識別情報が付与された投影ラベル画像、当該位置姿勢で画像に投影した場合でのワークの3次元モデルの3次元位置を画素毎に示す投影位置画像、及び、当該位置姿勢で画像に投影した場合でのワークの3次元モデルの法線ベクトルを画素毎に示す投影法線画像を生成する第1投影部と、
前記画像取得部による取得結果及び前記第1投影部による生成結果に基づいて、投影ラベル画像のうちの有効な平面に属する画素を有効な画素として判定する第1画素判定部と、
前記第1画素判定部による判定結果に基づいて、前記第1投影部により生成された投影法線画像が示す法線ベクトルと前記画像取得部により取得された法線画像が示す法線ベクトルとの差から特異値分解に基づいて回転行列を生成することで、前記概略推定部により推定された位置姿勢のうちの回転量を更新する回転更新部とを有する
ことを特徴とする請求項1記載の位置姿勢推定装置。 The rotation correction part
A projected label image to which identification information of the plane to which each pixel belongs is given when a three-dimensional model of the work is projected on the image with the position and orientation estimated by the rough estimation unit, and when projected on the image with the position and orientation. A projected position image showing the 3D position of the 3D model of the work for each pixel, and a projection normal image showing the normal vector of the 3D model of the work for each pixel when projected onto the image in the position and orientation. The first projection unit to be generated and
Based on the acquisition result by the image acquisition unit and the generation result by the first projection unit, the first pixel determination unit that determines the pixel belonging to the effective plane of the projection label image as an effective pixel,
Based on the determination result by the first pixel determination unit, the normal vector indicated by the projection normal image generated by the first projection unit and the normal vector indicated by the normal image acquired by the image acquisition unit The first aspect of claim 1, wherein the rotation matrix is generated from the difference based on the singular value decomposition to have a rotation update unit that updates the rotation amount of the position and orientation estimated by the rough estimation unit. Position / orientation estimation device.
前記回転修正部による修正後の位置姿勢でワークの3次元モデルを画像に投影した場合に各画素が属する平面の識別情報が付与された投影ラベル画像、当該位置姿勢で画像に投影した場合でのワークの3次元モデルの3次元位置を画素毎に示す投影位置画像、及び、当該位置姿勢で画像に投影した場合でのワークの3次元モデルの法線ベクトルを画素毎に示す投影法線画像を生成する第2投影部と、
前記画像取得部による取得結果及び前記第2投影部による生成結果に基づいて、投影ラベル画像のうちの有効な平面に属する画素を有効な画素として判定する第2画素判定部と、
前記第2画素判定部による判定結果に基づいて、前記画像取得部により取得された位置画像から物体の各平面の方程式を算出し、前記第2投影部により生成された投影位置画像における各画素と対応する平面との位置関係から、最小二乗法により前記回転修正部による修正後の位置姿勢のうちの並進量を更新する並進更新部とを有する
ことを特徴とする請求項1又は請求項2記載の位置姿勢推定装置。 The translation correction part
A projected label image to which identification information of the plane to which each pixel belongs is given when a three-dimensional model of the work is projected on the image in the position and orientation corrected by the rotation correction unit, and when projected on the image in the position and orientation. A projected position image showing the 3D position of the 3D model of the work for each pixel, and a projection normal image showing the normal vector of the 3D model of the work for each pixel when projected on the image in the position and orientation. The second projection unit to be generated and
Based on the acquisition result by the image acquisition unit and the generation result by the second projection unit, the second pixel determination unit that determines the pixel belonging to the effective plane of the projection label image as an effective pixel,
Based on the determination result by the second pixel determination unit, the equation of each plane of the object is calculated from the position image acquired by the image acquisition unit, and each pixel in the projection position image generated by the second projection unit is used. The first or second aspect of claim 1 or 2, characterized in that it has a translational update unit that updates the translation amount of the position and orientation corrected by the rotation correction unit by the least squares method from the positional relationship with the corresponding plane. Position / orientation estimation device.
前記画像取得ステップにおいて取得した可視画像に基づいて、ワークの位置姿勢を推定する概略推定ステップと、
前記画像取得ステップにおける取得結果及び前記概略推定ステップにおいて推定した位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの法線ベクトルと法線画像が示す法線ベクトルとを比較して、当該位置姿勢のうちの回転量を修正する回転修正ステップと、
前記画像取得ステップにおける取得結果及び前記回転修正ステップにおける修正後の位置姿勢に基づいて、画像上の有効な画素を判定した上で、当該位置姿勢で画像に投影したワークの3次元モデルの3次元位置と位置画像が示す3次元位置とを比較して、当該位置姿勢のうちの並進量を修正する並進修正ステップと
を有する位置姿勢推定方法。 Image acquisition to acquire a visible image, a position image showing the three-dimensional position of the object projected on the visible image for each pixel, and a normal image showing the normal vector of the object projected on the visible image for each pixel. Steps and
A rough estimation step for estimating the position and orientation of the work based on the visible image acquired in the image acquisition step, and a rough estimation step.
After determining the effective pixels on the image based on the acquisition result in the image acquisition step and the position / orientation estimated in the outline estimation step, the normal vector of the three-dimensional model of the work projected on the image in the position / orientation. And the normal vector shown in the normal image, and the rotation correction step to correct the rotation amount in the position and orientation, and
After determining the effective pixels on the image based on the acquisition result in the image acquisition step and the corrected position and orientation in the rotation correction step, the three-dimensional model of the work projected on the image in the position and orientation is three-dimensional. A position / orientation estimation method having a translation correction step of comparing a position with a three-dimensional position indicated by a position image and correcting a translation amount in the position / posture.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019127595A JP2021012628A (en) | 2019-07-09 | 2019-07-09 | Position and posture estimation device and position and posture estimation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019127595A JP2021012628A (en) | 2019-07-09 | 2019-07-09 | Position and posture estimation device and position and posture estimation method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2021012628A true JP2021012628A (en) | 2021-02-04 |
Family
ID=74227624
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019127595A Pending JP2021012628A (en) | 2019-07-09 | 2019-07-09 | Position and posture estimation device and position and posture estimation method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2021012628A (en) |
-
2019
- 2019-07-09 JP JP2019127595A patent/JP2021012628A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5839971B2 (en) | Information processing apparatus, information processing method, and program | |
| US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
| JP6983828B2 (en) | Systems and methods for simultaneously considering edges and normals in image features with a vision system | |
| JP5863440B2 (en) | Information processing apparatus and method | |
| JP5627325B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, and program | |
| JP6370038B2 (en) | Position and orientation measurement apparatus and method | |
| JP5393318B2 (en) | Position and orientation measurement method and apparatus | |
| JP6092530B2 (en) | Image processing apparatus and image processing method | |
| US20180066934A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
| JP6594129B2 (en) | Information processing apparatus, information processing method, and program | |
| JP5480667B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, program | |
| CN107680125B (en) | System and method for automatically selecting three-dimensional alignment algorithm in vision system | |
| US20150125035A1 (en) | Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object | |
| JP6936974B2 (en) | Position / orientation estimation device, position / orientation estimation method and program | |
| JP2018136896A (en) | Information processing apparatus, system, information processing method, and article manufacturing method | |
| JP2018091656A (en) | Information processing apparatus, measuring apparatus, system, calculation method, program, and article manufacturing method | |
| JP2016170050A (en) | Position / orientation measuring apparatus, position / orientation measuring method, and computer program | |
| JP5976089B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, and program | |
| KR101782317B1 (en) | Robot calibration apparatus using three-dimensional scanner and robot calibration method using the same | |
| JP6040264B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
| JPH07103715A (en) | Method and apparatus for recognizing three-dimensional position and attitude based on visual sense | |
| JP6890422B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
| JP2021012628A (en) | Position and posture estimation device and position and posture estimation method | |
| JP2013120091A (en) | Position/posture measuring apparatus, and processing method and program for the same | |
| JP6766229B2 (en) | Position and posture measuring device and method |
