JP6425405B2 - INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM - Google Patents
INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP6425405B2 JP6425405B2 JP2014084715A JP2014084715A JP6425405B2 JP 6425405 B2 JP6425405 B2 JP 6425405B2 JP 2014084715 A JP2014084715 A JP 2014084715A JP 2014084715 A JP2014084715 A JP 2014084715A JP 6425405 B2 JP6425405 B2 JP 6425405B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- performance information
- target object
- orientation estimation
- imaging devices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 67
- 230000010365 information processing Effects 0.000 title claims description 30
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000003384 imaging method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 24
- 238000003672 processing method Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 description 33
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000015556 catabolic process Effects 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、物体を撮像した画像に基づいて画像中の物体の位置姿勢推定を認識して表示する方法に関する。 The present invention relates to a method of recognizing and displaying position and orientation estimation of an object in an image based on an image obtained by capturing the object.
生産現場では、生産効率向上のため、ロボットによる自動化が進められている。ロボットによる部品のピッキングや組み立て作業では、対象部品を認識し、さらに位置姿勢を取得する必要がある。これを実現する方法として、対象部品をカメラで撮影した画像を用いる方法が開発されている。 At production sites, automation by robots is in progress to improve production efficiency. In picking and assembling a part by a robot, it is necessary to recognize a target part and to acquire the position and orientation. As a method of realizing this, a method using an image obtained by photographing a target part with a camera has been developed.
特許文献1には、複数のカメラで撮影した画像を用いることで認識の正確性を向上させる方法が開示されている。この方法では、複数のカメラで撮影した画像の中から複数のステレオ画像ペアを選択し、ステレオ画像ペアごとに算出した距離値を用いて対象物体の認識を複数行うことで、認識の正確性を向上させている。 Patent Document 1 discloses a method of improving the accuracy of recognition by using images captured by a plurality of cameras. In this method, a plurality of stereo image pairs are selected from images captured by a plurality of cameras, and recognition accuracy is improved by performing multiple recognitions of the target object using distance values calculated for each stereo image pair. I am improving.
しかし、ステレオ画像ペアをつくる複数の画像に、ノイズを多く含む画像が含まれることがある。また、複数の画像を用いることで処理時間が増大してしまい、所定の時間内にタスクを終了できなくなる場合もある。
本発明は、以上の課題を鑑みてなされたものであり、複数の画像を用いた認識または位置姿勢推定において、複数の画像から位置姿勢の導出に好適な画像を選択することを目的とする。
However, a plurality of images forming a stereo image pair may include an image that is rich in noise. Further, using a plurality of images may increase the processing time, making it impossible to finish the task within a predetermined time.
The present invention has been made in view of the above problems, and it is an object of the present invention to select an image suitable for deriving a position and orientation from a plurality of images in recognition or position and orientation estimation using a plurality of images.
本発明の一態様によれば、情報処理装置に、対象物体を複数の撮像装置のそれぞれで撮像した複数の画像を取得する画像取得手段と、前記取得した複数の画像の各画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、いずれか1つの処理を実行する第1の実行手段と、前記複数の撮像装置のそれぞれに対して、前記第1の実行手段で実行される処理に関する第1の性能情報を生成する第1の性能情報生成手段と、前記複数の撮像装置のそれぞれと対応付けて、前記第1の性能情報を表示手段に表示させる第1の表示制御手段と、前記第1の性能情報がそれぞれと対応付けて表示された前記複数の撮像装置から、ユーザの指示に基づいて2以上の撮像装置を選択する選択手段と、前記選択した2以上の撮像装置で撮像した画像に基づいて、前記1つの処理を実行する第2の実行手段と、前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成手段と、前記第2の性能情報を前記表示手段に表示させる第2の表示制御手段とを備える。 According to one aspect of the present invention, based on an image acquisition unit for acquiring a plurality of images obtained by imaging a target object with each of a plurality of imaging devices in an information processing apparatus, and based on each image of the plurality of acquired images First execution means for executing any one of the target object recognition process and the target object position and orientation estimation process, and the first execution for each of the plurality of imaging devices A first performance information generation unit configured to generate first performance information related to processing executed by the unit; and the first performance information displayed on the display unit in association with each of the plurality of imaging devices Display control means, selection means for selecting two or more imaging devices based on a user's instruction from the plurality of imaging devices in which the first performance information is displayed in association with each, and the selected two More imaging equipment And a second performance information generation unit configured to generate second performance information related to the processing to be executed by the second execution unit, based on the image captured in step And second display control means for displaying the second performance information on the display means.
複数の画像を用いた認識または位置姿勢推定において、複数の画像から位置姿勢の導出に好適な画像を選択することができる。 In recognition or position and orientation estimation using a plurality of images, an image suitable for deriving a position and orientation can be selected from the plurality of images.
本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図12を用いて説明する。 Prior to describing each embodiment according to the present invention, a hardware configuration on which the information processing apparatus shown in each embodiment is mounted will be described with reference to FIG.
図12は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU1210は、バス1200を介して接続する各デバイスを統括的に制御する。CPU1210は、読み出し専用メモリ(ROM)1220に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1220に記憶されており、ランダムアクセスメモリ(RAM)1230に一時記憶され、CPU1210によって適宜実行される。また、入力I/F1240は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1250は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
FIG. 12 is a hardware configuration diagram of the information device in the present embodiment. In the same figure, a
これらの各機能部は、CPU1210が、ROM1220に格納されたプログラムをRAM1230に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1210を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
These functional units are realized by the
(第1の実施形態)
第1の実施形態では、対象物体を複数のカメラで撮影した画像にもとづいて対象物体の位置姿勢推定を実施した時の、該位置姿勢推定に関する性能をユーザに提示する方法について説明する。より具体的には、撮影した各画像及び複数の画像にもとづいてそれぞれ位置姿勢推定を行い、それぞれの位置姿勢推定の性能に関する情報をグラフィックユーザインターフェース(以下、GUIとする)上に表示する。これにより、各画像及び複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができるようになり、性能低下あるいは向上の要因となっている画像またはカメラの特定が行えるようになる。また、性能低下の要因と特定されたカメラの除去や配置変更を行うことができるようになる。対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。
First Embodiment
In the first embodiment, a method for presenting the performance related to position and orientation estimation to the user when position and orientation estimation of the target object is performed based on images obtained by capturing the target object with a plurality of cameras will be described. More specifically, position and orientation estimation is performed based on each captured image and a plurality of images, and information regarding the performance of each position and orientation estimation is displayed on a graphic user interface (hereinafter referred to as a GUI). This makes it possible to easily confirm and compare the performance of position and orientation estimation performed using each image and a plurality of images, and the identification of the image or camera that is the cause of the performance degradation or improvement is You will be able to do it. In addition, it becomes possible to remove or change the camera specified as the cause of the performance degradation. It is possible to perform position and orientation estimation adapted to changing conditions such as the shape and placement of the target object, and how the ambient light strikes.
図1は、本実施形態におけるシステムの構成を示している。情報処理装置100は、画像取得部101、第1の計測部102、第2の計測部103、第1の性能情報生成部104、第2の性能情報生成部105、第1の出力部106、第2の出力部107とを備える。そして、情報処理装置100はインタフェースを介して、外部の表示装置120に接続されている。
FIG. 1 shows the configuration of a system in the present embodiment. The
図2は、画像取得部101が取得する画像の撮影を行うための装置構成及び配置を示す図であり、プロジェクタ1及び複数のカメラ2〜5から構成される。図2では、プロジェクタ1台とカメラ4台で構成される場合を示している。該複数のカメラは、情報処理装置100と画像取得部101を介して接続する。
FIG. 2 is a diagram showing an apparatus configuration and arrangement for capturing an image acquired by the
画像取得部101は、対象物体を複数のカメラ2〜5で撮影した輝度画像を取得する。しかし、複数の視点で対象物体を撮影した画像が取得できれば他の方法であってもよい。例えば、複数の撮像装置あるいは複数の視点位置で対象物体を撮影した画像を、画像情報処理装置100と接続した外部の記憶装置に一旦保持しておいたものを入力してもよい。また、取得する輝度画像は、カラー画像であってもよいし、モノクロ画像であってもよい。
The
第1の計測部102は、画像取得部101が取得した各画像に基づいて、対象物体の位置姿勢推定を行う。具体的な方法については、後述する。
The
第2の計測部103は、画像取得部101が取得した複数の画像に基づいて、対象物体の位置姿勢推定を行う。具体的な方法については、後述する。
The
第1の性能情報生成部104は、第1の計測部102で実行された位置姿勢推定処理に関する性能情報(第1の性能情報)を生成する。性能情報は、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。第1の性能情報生成部104は、生成した第1の性能情報を第1の出力部106に送出する。
The first performance information generation unit 104 generates performance information (first performance information) related to the position and orientation estimation process performed by the
第2の性能情報生成部105は、第2の計測部103で実施した位置姿勢推定に関する性能情報(第2の性能情報)を生成する。性能情報は、第1の性能情報生成部104で生成するものと同様に、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。第2の性能情報生成部105は、生成した第2の性能情報を第2の出力部107に送出する。
The second performance
第1の出力部106は、第1の性能情報生成部104で生成した性能情報を出力し、表示装置102に表示させる。この点で、第1の出力部106は、表示制御部として機能する。これにより、ユーザは第1の性能情報を表示装置を介して確認(視認)することができる。
The
第2の出力部107は、第2の性能情報生成部105で生成した性能情報を出力し、表示装置120に表示させる。この点で、第2の出力部107は、表示制御部として機能する。これにより、ユーザは第2の性能情報を表示装置120を介して確認(視認)することができる。
The
表示装置120は、例えば、液晶ディスプレイやCRTディスプレイである。表示装置120は、表示画面を有し、その表示画面に第1の出力部106と第2の出力部107から受け取った性能情報を表示する。本実施形態では、表示装置120の表示画面にGUIを表示し、該GUIの領域に、第1の性能情報と第2の性能情報とを表示する例で説明する。これにより、ユーザはより第1の性能情報と第2の性能情報とをより視認しやすくなるという効果がある。
The
図3は、本実施形態の処理手順を示すフローチャートである。以下、図3のフローチャートを用いて、本実施形態の処理を詳細に説明する。 FIG. 3 is a flowchart showing the processing procedure of this embodiment. The process of the present embodiment will be described in detail below with reference to the flowchart of FIG.
(ステップS301)
ステップS301において、画像取得部101は、対象物体を撮影した画像を取得する。画像取得部101が取得する画像は、プロジェクタ1により投影されたパターンを照射された対象物体を撮影した輝度画像とする。画像取得部101は取得した画像を第1の計測部102と第2の計測部103に送出する。
(Step S301)
In step S301, the
(ステップS302)
ステップS302において、第1の計測部102は、ステップS301において画像取得部101で取得した各画像それぞれに基づいて対象物体の位置姿勢推定を行う。具体的には、以下の非特許文献1で開示されている方法を用いて対象物体の位置姿勢を推定する。
(Step S302)
In step S302, the
David A. Simon、Martial Hebert、Takeo Kanade、“Real−time 3−D Pose Estimation Using a High−Speed Range Sensor”、Proc.1994 IEEE International Conference on Robotics and Automation(ICRA’94)、pp。2235−2241、1994. David A. Simon, Martial Hebert, Takeo Kanade, "Real-time 3-D Pose Estimation Using a High-Speed Range Sensor", Proc. 1994 IEEE International Conference on Robotics and Automation (ICRA '94), pp. 2235-2241, 1994.
具体的には、対象物体を計測して取得した距離値に、面または三次元点の集合で表現される対象物体の三次元モデルを当て嵌めるモデルフィッティングの手法を用いて、対象物体の位置姿勢を推定する。対象物体の距離値は、プロジェクタ1により投影されるパターンと各画像から検出された投影パターンとを対応付けて三角測量の原理を用いることで算出する。すなわち、本ステップで、第1の計測部102は、それぞれの画像ごと(カメラ2〜5とプロジェクタ1のペアごと)に対象物体の位置姿勢推定を行う。第1の計測部102は、推定された対象物体の位置姿勢データを第1の性能情報生成部104に送出する。
Specifically, the position and orientation of the target object are obtained using a method of model fitting in which a three-dimensional model of the target object represented by a plane or a set of three-dimensional points is fitted to the distance value obtained by measuring the target object. Estimate The distance value of the target object is calculated by using the principle of triangulation in association with the pattern projected by the projector 1 and the projection pattern detected from each image. That is, in this step, the
(ステップS303)
ステップS303において、第1の性能情報生成部104は、ステップS302で実施した位置姿勢推定に関する性能情報を生成する。本実施形態において生成される第1の性能情報は、位置姿勢推定の精度及び位置姿勢推定に要する処理時間とする。なお、本実施形態では、位置姿勢推定に関する性能情報を位置姿勢推定精度及び処理時間としたが、もちろん対象物体の位置姿勢推定の性能に関する情報であれば、他のものであってもよい。例えば、推定した位置姿勢であってもよい。あるいは、位置姿勢推定の計算が破たんしたか否か(位置姿勢推定の成否)の情報であってもよい。
(Step S303)
In step S303, the first performance information generation unit 104 generates performance information related to the position and orientation estimation performed in step S302. The first performance information generated in this embodiment is the accuracy of position and orientation estimation and the processing time required for position and orientation estimation. In the present embodiment, the performance information on position and orientation estimation is the position and orientation estimation accuracy and the processing time, but other information may be used as long as it is information on the performance of position and orientation estimation of the target object. For example, the estimated position and orientation may be used. Alternatively, it may be information on whether or not calculation of position and orientation estimation has failed (success or failure of position and orientation estimation).
位置姿勢推定の精度は、対象物体の距離値と対象物体の三次元モデルとのフィッティング度合いとする。フィッティング度合いは、例えば、対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の最大値とする。この場合、距離の最大値が小さいほど位置姿勢推定の精度が高いことを示す。 The accuracy of position and orientation estimation is the degree of fitting between the distance value of the target object and the three-dimensional model of the target object. The degree of fitting is, for example, the maximum value of the distance to the plane or three-dimensional point held by the three-dimensional shape model corresponding to the distance value of the target object. In this case, the smaller the maximum value of the distance is, the higher the accuracy of position and orientation estimation is.
処理時間は、第1の計測部102における位置姿勢推定の処理に要する時間とする。さらに、対象物体を撮影する時間や、撮影した画像を画像取得部101に入力する時間を処理時間に含めても良い。第1の性能情報生成部104は、生成した性能情報を第1の出力部106に送出する。
The processing time is the time required for the process of position and orientation estimation in the
(ステップS304)
ステップS304において、第1の出力部106は、ステップS303で生成した位置姿勢推定に関する第1の性能情報と画像取得部101が取得した画像とを表示装置120に出力して表示装置120に表示させる。そして、表示装置120は、撮像画像と第1の性能情報とを受け取り、表示領域450に撮像画像と第1の性能情報とを表示する。本実施形態における第1の性能情報は、上述した通り位置姿勢推定の精度や処理時間とする。また、位置姿勢推定の対象となった物体を特定するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャは、撮影画像上の該物体の位置付近に描画すればよく、その形状は他のものであってもよい。例えば、円形や星型などであってもよい。
(Step S304)
In step S304, the
(ステップS305)
ステップS305において、第2の計測部103は、ステップS301で画像取得部101が取得した複数の画像にもとづいて対象物体の位置姿勢推定を行う。複数の画像の選び方としては、全ての画像を選択してもよく、また予め画像の組み合わせを決めておいてもよい。具体的な方法は、次の通りである。まず、ステップS303と同様に画像ごとに対象物体の距離値を算出する。対象物体の距離値は、プロジェクタ1の投影パターンと各画像上から識別した該投影パターンとを対応付けて三角測量の原理を用いることで算出する。次に、算出した距離値を全て用いて、非特許文献1で開示されている方法を用いて対象物体の位置姿勢を推定する。すなわち、複数の視点のカメラから得られる距離値を全て用いて(統合して)、物体の三次元構造を表現し、その三次元構造に対して物体のモデルをフィッティングすることにより、位置姿勢推定を行う。なお、本実施形態では、画像ごと(プロジェクタ1とカメラ2〜5のペアごと)に算出した距離値を全て用いて対象物体の位置姿勢を推定すると説明した。しかし、これに限らず、画像ごとに算出した距離値を統合した距離値にもとづいて位置姿勢を推定する他の方法であってもよい。例えば、全ての距離値に対して三次元空間における密度が均一になるように間引き処理を施したものにもとづいて対象物体の位置姿勢を推定してもよい。また、所定領域内における距離値の平均値から大きく外れているような距離値は位置合わせに使用しないようにすることで、よりロバストな位置姿勢推定を行うことができる。
(Step S305)
In step S305, the
(ステップS306)
ステップS306において、第2の性能情報生成部105は、ステップS305において、複数の画像にもとづいて実施した対象物体の位置姿勢推定に関する第2の性能情報を生成する。本実施形態における第2の性能情報は、ステップS303で説明したものと同様に、位置姿勢推定の精度及び位置姿勢推定に要する処理時間である。第2の出力部は、第2の性能情報生成部が生成した第2の性能情報を表示装置120に出力する。
(Step S306)
In step S306, the second performance
(ステップS307)
ステップS307において、第2の出力部107は、ステップS306で生成した対象物体の位置姿勢推定に関する性能情報と画像取得部101が取得した画像とを表示装置120に出力する。そして、表示装置120は、撮像画像と第2の性能情報とを受け取り、表示領域460に撮像画像と第2の性能情報を表示する。性能情報は、上述した通り位置姿勢推定の精度や処理時間とする。また、位置姿勢推定の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。このテクスチャの形状は矩形に限られず、例えば、円形や星型などであってもよい。
(Step S307)
In step S307, the
図4は、表示装置120の表示画面内のGUI400として表した例を示している。
FIG. 4 shows an example represented as a
表示装置120は、カメラ2、カメラ3、カメラ4及びカメラ5が取得した画像410〜413及び、それぞれの画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した処理時間420〜423を表示する。また、位置姿勢推定の対象となった物体401を特定するために、撮影画像上の該物体の位置付近に楕円形状のテクスチャ430〜433を描画して重畳した画像を表示する。
The
表示装置120は、カメラ2、カメラ3、カメラ4及びカメラ5が取得した全ての画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した時間424を表示する。また、位置姿勢推定の対象となった物体401を特定するために、カメラ2〜5が取得した画像を貼り合わせた画像414上の該物体付近に、楕円形状のテクスチャ434を描画して重畳した画像を表示する。なお、表示する画像は、カメラ2〜5取得したいずれかの画像であってもよいし、画像表示しなくてもよい。
The
なお、位置推定の対象となる物体は1つではなく、整列または山積み状態で配置された複数の物体としてもよい。 The object to be subjected to position estimation may not be one, but may be a plurality of objects arranged in an aligned or stacked state.
以上説明したように、ステップS301〜ステップS307の一連の処理を実行することで、撮影した各画像及び複数の画像にもとづいてそれぞれ実施した位置姿勢推定の性能に関する情報をユーザに提示することが可能になる。これにより、画像ごとに実施した位置姿勢推定の性能と、複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができる。 As described above, by executing the series of processes in steps S301 to S307, it is possible to present the user with information on the performance of position and orientation estimation performed based on each captured image and a plurality of images. become. As a result, the performance of position and orientation estimation performed for each image and the performance of position and orientation estimation performed using a plurality of images can be easily confirmed and compared.
<位置姿勢推定方法のバリエーション>
本実施形態では、画像にもとづいて算出した距離値を用いて対象物体の位置姿勢推定を行う方法について説明した。しかし、これに限らず、画像にもとづいて対象物体の位置姿勢推定ができれば、他の方法であってもよい。
<Variation of position and orientation estimation method>
In the present embodiment, the method of estimating the position and orientation of the target object using the distance value calculated based on the image has been described. However, the present invention is not limited to this, and another method may be used as long as the position and orientation of the target object can be estimated based on the image.
例えば、画像上から抽出した特徴を用いて対象物体の位置姿勢推定を行っても良い。例えば、対象物体を複数の視点で撮影した学習画像と、取得した画像から検出される画像特徴とをマッチングすることで、物体の位置姿勢を推定する。 For example, position and orientation of a target object may be estimated using features extracted from an image. For example, the position and orientation of an object is estimated by matching a learning image obtained by photographing a target object at a plurality of viewpoints and an image feature detected from the acquired image.
あるいは、画像にもとづいて算出した距離値と画像上から抽出した画像特徴を併用して、対象物体の位置姿勢推定を行ってもよい。例えば、複数の面及び線分で表現される対象物体の三次元モデルを、距離値と画像とから抽出したエッジ特徴に対して同時にフィッティングすることで、対象物体の正確な位置姿勢を推定する。 Alternatively, the position and orientation of the target object may be estimated using the distance value calculated based on the image and the image feature extracted from the image in combination. For example, by simultaneously fitting a three-dimensional model of a target object represented by a plurality of planes and line segments to edge features extracted from distance values and images, the accurate position and orientation of the target object are estimated.
<画像のバリエーション>
本実施形態では、画像取得部101が取得する画像は、プロジェクタによりパターンが投影された対象物体を撮影した輝度画像として説明した。しかし、画像上から抽出した特徴を用いて位置姿勢推定を行う場合には、パターンが投影されていない対象物体を撮影した輝度画像としてもよい。あるいは、パターンが投影された対象物体を撮影した輝度画像と、パターンが投影されていない対象物体を撮影した輝度画像の両方を入力してもよい。
<Variation of image>
In the present embodiment, the image acquired by the
<位置姿勢推定精度のバリエーション>
本実施形態では、位置姿勢推定精度を対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の最大値とした。しかし、これに限らず、位置姿勢推定の精度を示す指標であれば、他のものであってもよい。例えば、対象物体の距離値と対応付く三次元形状モデルが保持する面または三次元点までの距離の平均値や分散としてもよい。あるいは、距離点と対応付くモデル上の点を推定した位置姿勢にもとづいて画像上に投影し、画像上における距離の平均値や分散としてもよい。あるいは、画像から抽出した特徴と対応付く学習データの特徴との距離の最大値、平均値または分散としてもよい。あるいは、対象物体の位置姿勢推定を複数回実施して算出した複数の位置姿勢の最大値または分散としてもよい。
<Variation of position and attitude estimation accuracy>
In the present embodiment, the position and orientation estimation accuracy is set to the maximum value of the distance to a plane or a three-dimensional point held by the three-dimensional shape model corresponding to the distance value of the target object. However, the present invention is not limited to this, and any index indicating the accuracy of position and orientation estimation may be used. For example, the average value or the variance of the distances to the plane or three-dimensional point held by the three-dimensional shape model corresponding to the distance value of the target object may be used. Alternatively, the point on the model corresponding to the distance point may be projected on the image based on the estimated position and orientation, and the average value or the variance of the distance on the image may be used. Alternatively, the maximum value, the average value, or the variance of the distance between the feature extracted from the image and the feature of the corresponding learning data may be used. Alternatively, the maximum value or the variance of the plurality of positions and orientations calculated by performing the position and orientation estimation of the target object a plurality of times may be used.
<変形例1>
第1の実施形態では、第1の性能情報生成部104及び第2の性能情報生成部105で生成した位置姿勢推定の性能に関する情報として、位置姿勢推定の精度や処理時間をGUI上に表示した。本変形例では、取得画像上にコンピュータグラフィック(以下、CG)を重畳したものをGUI上に表示する。重畳するCGは、点、線分及び面で表現される対象物体の三次元モデルを推定した位置姿勢にもとづいて描画したものとする。これにより、画像上の対象物体と該画像上に重畳した対象物体のCGとの重なり具合を観察することで、ユーザが位置姿勢推定の性能を視覚的に判断することができる。
<Modification 1>
In the first embodiment, as information on position / posture estimation performance generated by the first performance information generation unit 104 and the second performance
図5は、画像上に対象物体のCGを描画して重畳したものを、表示装置120のGUI400に表示した時の例である。表示装置120は、カメラ1、カメラ2、カメラ3およびカメラ5が撮影した画像上に対象物体のCG434〜437を重畳して描画した画像を表示する。
FIG. 5 is an example when the CG of the target object is drawn and superimposed on the image and displayed on the
表示装置120は、カメラ2〜5が撮影した画像全てを貼り合わせた画像414上に対象物体のCG438を描画して重畳した画像を表示する。
The
CG434〜437と画像410〜414上の対象物体との重なり具合を観察することで、ユーザは位置姿勢推定の性能を視覚的に判断できる。例えば、CG436は、画像412上の対象物体とそれぞれ一致しているが、CG437は、画像413上の対象物体とずれが発生している。これより、画像412を用いた位置姿勢推定の精度は高いと判断できる。一方、画像413を用いた位置姿勢推定の精度は、画像412を用いた位置姿勢推定の精度に比べて低いと判断できる。
By observing the degree of overlap between the
以上説明したように、画像上に対象物体のCGを推定した位置姿勢にもとづいて描画して重畳して表示することで、ユーザは対象物体の位置姿勢推定の精度を視覚的に判断することが可能となる。 As described above, the user can visually determine the accuracy of the position and orientation estimation of the target object by drawing and superimposing the CG of the target object on the image based on the estimated position and orientation. It becomes possible.
<変形例2>
第1の実施形態では、第1の計測部102及び第2の計測部103において、対象物体の位置姿勢を推定した。本変形例では、第1の計測部および第2の計測部は、位置姿勢の推定ではなく、対象物体の有無や種類を特定する認識処理を行う。
<Modification 2>
In the first embodiment, in the
図3を用いて、本変形例における処理手順を説明する。 The processing procedure in this modification will be described using FIG.
(ステップS301)
ステップS301において、画像取得部101は、対象物体を撮影した画像を取得する。取得する画像は、対象物体を撮影した輝度画像とする。
(Step S301)
In step S301, the
(ステップS302)
ステップS302において、第1の計測部102は、ステップS301で画像取得部101が取得した各画像にもとづいて対象物体の認識を行う。認識処理は、以下の非特許文献2に記載される方法により行う。
(Step S302)
In step S302, the
”SCHMID、C.; R。 MOHR: ’Local grayvalue invariants for image retrieval’ IEEE PAMI 19 May 1997、 pages 530 − 534”.
具体的には、画像上から抽出した特徴を用いたテンプレートマッチング手法を用いて、対象物体の認識を行う。
"SCHMID, C. R. MOHR: 'Local gray value invariants for image retrieval' IEEE PAMI 19 May 1997, pages 530-534".
Specifically, the target object is recognized using a template matching method using features extracted from the image.
(ステップS303)
ステップS303において、第1の性能情報生成部104は、ステップS302で実施した認識処理に関する性能情報を生成する。本変形例において、認識に関する性能情報は、認識精度及び認識に要する処理時間とする。認識精度は、入力画像と入力画像と照合されたテンプレート画像間のハウスドルフ距離とする。認識に要する処理時間は、第1の計測部102で実施する認識処理に要する時間である。さらに、対象物体を撮影する時間や、撮影した画像を画像取得部101が取得する時間を処理時間に含めても良い。
(Step S303)
In step S303, the first performance information generation unit 104 generates performance information related to the recognition process performed in step S302. In the present modification, performance information related to recognition is recognition accuracy and processing time required for recognition. The recognition accuracy is the Hausdorff distance between the input image and the template image collated with the input image. The processing time required for recognition is the time required for the recognition processing performed by the
(ステップS304)
ステップS304において、第1の出力部106は、表示装置120に設定したGUI上に、ステップ303で生成した認識に関する第1の性能情報を表示させる。認識に関する性能情報は、上述した通り、認識精度及び認識に要する処理時間とする。また、位置姿勢推定の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャは、撮影画像上の該物体の位置付近に描画すればよく、その形状は他のものであってもよい。例えば、円形や星型などであってもよい。もっとも、認識に関する性能を示す情報であれば、他のものであってもよい。例えば、対象物体の有無を性能情報としてもよい。あるいは、同時に複数の物体を認識する場合には、認識した物体数を性能情報としてもよい。
(Step S304)
In step S304, the
(ステップS305)
ステップS305において、第2の計測部109は、ステップS301において画像取得部101で取得した複数の画像(2以上選択した画像)に基づいて対象物体の認識を行う。具体的な方法は、次の通りである。まず、画像ごとに対象物体の画像特徴を抽出する。そして、抽出した全ての画像特徴の中から、複数の画像で重複して抽出された特徴を選択する。そして、選択した画像を用いて、非特許文献2で開示される方法で対象物体の認識を行う。もっとも、複数の画像から抽出した画像特徴に基づいて対象物体の認識ができる他の方法であってもよい。例えば、複数の画像から抽出した画像特徴全てを用いて対象物体の認識を行っても良い。
(Step S305)
In step S305, the second measurement unit 109 recognizes the target object based on the plurality of images (two or more selected images) acquired by the
(ステップS306)
ステップS306において、第2の性能情報生成部105は、第2の計測部103で実施した認識に関する第2の性能情報を生成する。認識に関する性能情報は、ステップS303で説明した通りである。
(Step S306)
In step S306, the second performance
(ステップ307)
ステップS307において、第2の出力部107は、ステップ306で生成した認識に関する性能情報と撮像画像とを表示装置120の表示領域460に表示させる。認識に関する性能情報は、上述した通り、認識精度及び認識に要する処理時間とする。また、認識の対象となった物体を提示するために、撮影画像上の該物体の位置付近に矩形のテクスチャを描画して重畳した画像を表示する。該テクスチャの形状は矩形に限られず、例えば、円形や星型などであってもよい。
(Step 307)
In step S307, the
以上説明したように、ステップ301〜ステップ307の一連の処理を実行することで、画像ごとに実施した認識に関する性能情報と、複数の画像を利用して実施した認識に関する性能情報をGUI上に表示することができる。これにより、ユーザは、画像ごと及び複数の画像を用いた時の認識性能の確認や比較を行うことができる。 As described above, by executing the series of processes of step 301 to step 307, performance information on recognition performed for each image and performance information on recognition performed using a plurality of images are displayed on the GUI can do. Thereby, the user can confirm and compare the recognition performance when using each image and a plurality of images.
<変形例3>
第1の実施形態、変形例1及び2では、画像ごと及び複数の画像にもとづいて実施した対象物体の認識または位置姿勢推定に関する性能を表示した。さらに、性能低下の要因となるカメラに関して、該カメラの特性や該カメラの配置情報を示すパラメータの校正や、該カメラまたは画像の除去を促すGUIを表示してもよい。性能低下の要因となるカメラは、当該カメラで撮影した画像にもとづいて推定した位置姿勢推定の性能が予め定めた性能を満たさない場合や、性能が最も低くなるカメラとする。
<Modification 3>
In the first embodiment and the first and second modifications, the performance regarding recognition or position / orientation estimation of a target object performed based on each image and a plurality of images is displayed. Furthermore, with regard to a camera that causes performance degradation, calibration of parameters indicating the camera characteristics and arrangement information of the camera, and a GUI prompting removal of the camera or an image may be displayed. The camera that causes the performance degradation is a camera in which the performance of the position and orientation estimation estimated based on the image captured by the camera does not meet the predetermined performance, or the camera with the lowest performance.
(第2の実施形態)
第1の実施形態では、各画像にもとづいて実施した位置姿勢推定に関する性能と、複数の画像にもとづいて実施した位置姿勢推定に関する性能を表示する方法について説明した。本実施形態では、位置姿勢推定に関する性能を表示するとともに、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明する。これにより、ユーザは、位置姿勢推定に関する性能を確認しながら、位置姿勢推定に利用する画像の選択ができるようになり、精度の高い位置姿勢推定が可能となる。対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。また、位置姿勢推定に要する処理時間を、組み立て作業のタクトタイムで決定される該処理時間内に収めることが可能となる。
Second Embodiment
In the first embodiment, the method for displaying the performance related to position and orientation estimation performed based on each image and the performance related to position and orientation estimation performed based on a plurality of images has been described. In this embodiment, a method of displaying the performance regarding position and orientation estimation and selecting an image to be used for position and orientation estimation from among a plurality of input images will be described. As a result, the user can select an image to be used for position and orientation estimation while confirming the performance related to position and orientation estimation, and highly accurate position and orientation estimation can be performed. It is possible to perform position and orientation estimation adapted to changing conditions such as the shape and placement of the target object, and how the ambient light strikes. Further, the processing time required for position and orientation estimation can be kept within the processing time determined by the tact time of the assembling operation.
図6は、本実施形態におけるシステムの構成を示している。本実施形態における情報処理装置600の構成は、第1の実施形態で図1を用いて説明した情報処理装置100の構成に加え、画像選択部610を備える。その他の構成である画像取得部601〜第2の出力部607は画像取得部101〜第2の出力部107と同様の機能を有するため、ここでは、画像選択部610についてのみ説明する。また、情報処理装置600に接続される表示装置620は、第1の実施形態で説明した表示装置120と同等の機能を有する。また、情報処理装置600は、外部の操作装置620に接続されている。操作装置620は、マウスやキーボードであり、ユーザはこの操作装置を介して画像選択部610へ指示することができる。また、表示装置620の表示画面がタッチパネル機能を有する場合には、このタッチパネル機能が操作装置として機能する。
FIG. 6 shows the configuration of a system in the present embodiment. The configuration of the information processing apparatus 600 in the present embodiment includes an image selection unit 610 in addition to the configuration of the
画像選択部610は、画像取得部601が取得した複数の画像の中から第2の計測部での処理に用いる画像を選択する。本実施形態では、第1の実施形態と同様に、第2の計測部では対象物体の位置姿勢推定を行うため、画像選択部610は、位置姿勢推定の処理に用いる画像を選択する。 The image selection unit 610 selects an image to be used for processing in the second measurement unit from among the plurality of images acquired by the image acquisition unit 601. In the present embodiment, as in the first embodiment, since the second measurement unit estimates the position and orientation of the target object, the image selection unit 610 selects an image used for the process of position and orientation estimation.
図7は、本実施形態の処理手順を示すフローチャートである。ステップ701〜ステップ704及びステップ706、ステップ707における処理は、第1の実施形態で説明した処理と同様であるため、ここでの説明は省略する。 FIG. 7 is a flowchart showing the processing procedure of the present embodiment. The processes in steps 701 to 704 and steps 706 and 707 are the same as the processes described in the first embodiment, and thus the description thereof is omitted here.
(ステップ708)
ステップS708において、画像選択部610は、画像選択を行うか否かを判断する。この判断は、ユーザが操作装置611で行っても良いし、所定の回数は必ず画像選択を行うというような予め定めたルールに基づいて行っても良い。ステップS708において、画像選択部610が、画像を選択すると判断した場合には、ステップ709に進む。選択しない場合には、本処理を終了する。
(Step 708)
In step S708, the image selection unit 610 determines whether to perform image selection. This determination may be performed by the user using the operation device 611, or may be performed a predetermined number of times based on a predetermined rule such as image selection. If it is determined in step S 708 that the image selection unit 610 selects an image, the process proceeds to step 709. If not selected, this processing ends.
(ステップ709)
ステップS709において、画像選択部610は、操作装置を介したユーザからの操作に基づいて、位置姿勢推定に用いる画像を選択する。
(Step 709)
In step S709, the image selection unit 610 selects an image to be used for position and orientation estimation based on an operation from the user via the operation device.
図8は、表示装置620の表示画面に表示される、第2の実施形態におけるGUI800の例である。
FIG. 8 is an example of the
表示装置620は、カメラ2、カメラ3、カメラ4及びカメラ5が撮影した画像810〜813それぞれに基づいて実施した位置姿勢推定精度及び位置姿勢推定に要した処理時間820〜823を表示する。
The display device 620 displays the position and orientation estimation accuracy and the
画像選択部610は、GUI800に設定した選択ボタン810〜830を操作装置を介してユーザが選択して、カメラが撮影した画像ごとに位置姿勢推定に使用するか否かの選択を行う。図8の例では、カメラ2及びカメラ5の撮影画像は使用せず、カメラ2及びカメラ3の撮影画像は使用する選択をしている。本実施形態では、画像取得部601に入力した画像ごとに、位置姿勢推定に使用するか否かの設定を行った。しかし、位置姿勢推定に使用する画像が選択できれば、他の設定方法であってもよい。例えば、選択対象となる画像全てに対して、位置姿勢推定に使用するか否かを一括で設定するようにしてもよい。
The image selection unit 610 selects the selection buttons 810 to 830 set in the
表示装置620は、選択ボタン824〜827で、ユーザが使用すると選択したカメラ2及びカメラ3が撮影した画像にもとづいて実施した位置姿勢推定の精度及び位置姿勢推定に要した処理時間824を表示する。
The display device 620 displays the accuracy of the position and orientation estimation and the
(ステップ705)
ステップS705において、第2の計測部603は、ステップ701で選択した画像にもとづいて対象物体の位置姿勢推定を行う。
(Step 705)
In step S705, the second measuring unit 603 estimates the position and orientation of the target object based on the image selected in step S701.
<画像選択のバリエーション(選択方法)>
本実施形態では、画像取得部601で取得した画像ごとに、位置姿勢推定に使用するか否かの設定を行った。これに加えて、画像ごとに位置姿勢推定の処理方法を選択してもよい。例えば、画像特徴を用いた位置姿勢推定方法、距離値を用いた位置姿勢推定方法または画像特徴と距離値との両方を用いた位置姿勢推定方法の中から、処理方法を選択してもよい。こうすることで、対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。また、選択対象となる画像全てに対して、位置姿勢推定の処理方法を一括で設定するようにしてもよい。
<Variation of image selection (selection method)>
In the present embodiment, for each image acquired by the image acquisition unit 601, it is set whether to use for position and orientation estimation. In addition to this, the processing method of position and orientation estimation may be selected for each image. For example, the processing method may be selected from a position and orientation estimation method using an image feature, a position and orientation estimation method using a distance value, or a position and orientation estimation method using both an image feature and a distance value. In this way, it is possible to perform position and orientation estimation adapted to changing conditions such as the shape and placement of the target object and the way in which ambient light strikes. Further, the processing method of position and orientation estimation may be set collectively for all images to be selected.
<変形例2−1>
第1の実施形態、及び変形例1−1〜1−3では、第1の計測部において、各画像にもとづいて位置姿勢推定を実施した。しかし、これに限らず、2つ以上の画像にもとづいて位置姿勢推定を実施してもよい(1以上であればよい)。この場合、第1の性能情報生成部において、2以上の画像にもとづいて実施した位置姿勢に関する性能情報を生成し、表示装置620において、該性能情報を表示する。
<Modification 2-1>
In the first embodiment and the modified examples 1-1 to 1-3, in the first measurement unit, position and orientation estimation is performed based on each image. However, the present invention is not limited to this, and position and orientation estimation may be performed based on two or more images (one or more may be sufficient). In this case, the first performance information generation unit generates performance information related to the position and orientation performed based on the two or more images, and the display device 620 displays the performance information.
表示装置620は、カメラ2及びカメラ3が撮影した画像に基づいて実施した位置姿勢推定の推定精度及び処理時間820を表示する。また、表示装置620は、カメラ3及びカメラ4が撮影した画像に基づいて実施した位置姿勢推定の推定精度及び処理時間821を表示する。また、表示装置620は、カメラ4が撮影した画像にもとづいて実施した位置姿勢推定の推定精度及び処理時間822を表示する。また、表示装置620は、カメラ4及びカメラ5が撮影した画像にもとづいて実施した位置姿勢推定の推定精度及び処理時間823を表示する。また、これらの撮影画像810〜813を表示する。画像810、811及び813に関しては、撮影した画像を貼り合わせた画像とする。例えば、画像810は、カメラ2及び3で撮影した画像を貼り合わせた画像とする。
The display device 620 displays the estimation accuracy of the position and orientation estimation and the
画像選択部610は、選択ボタン824〜827をユーザが選択することで、使用するカメラを選択する。
The image selection unit 610 selects a camera to be used by the user selecting the
表示装置620は、カメラ3、カメラ4及びカメラ5が撮影した画像にもとづいて実施した位置姿勢推定の精度及び処理時間824を表示する。また、カメラ3、カメラ4及びカメラ5が撮影した画像を貼り合わせた画像814を表示する。
The display device 620 displays the accuracy of position and orientation estimation and the
なお、撮影画像810、811、813及び814は、貼り合わせた画像に代わって、貼り合わせた画像を構成する個々の画像を表示してもよい。例えば、画像810には、カメラ2で撮影した画像または、カメラ3で撮影した画像を表示する。あるいは、画像表示そのものをしなくてもよい。
The photographed
(第3の実施形態)
第1の実施形態では、各画像にもとづいて実施した位置姿勢推定に関する性能と、複数の画像にもとづいて実施した位置姿勢推定に関する性能を表示する方法について説明した。第2の実施形態では、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明した。第3の実施形態では、位置姿勢推定に関する条件を入力し、入力した条件を満たす時の位置姿勢推定に関する性能を表示する方法について説明する。これにより、ユーザが所望する条件を満たす位置姿勢推定が可能となる。また、対象物体の形状や置かれ方、環境光の当たり方といった変動する状況に適応した位置姿勢推定を行うことができる。
Third Embodiment
In the first embodiment, the method for displaying the performance related to position and orientation estimation performed based on each image and the performance related to position and orientation estimation performed based on a plurality of images has been described. In the second embodiment, the method of selecting an image used for position and orientation estimation from among a plurality of input images has been described. In the third embodiment, a method for inputting a condition regarding position and orientation estimation and displaying performance regarding position and orientation estimation when the input condition is satisfied will be described. This enables position and orientation estimation to meet the conditions desired by the user. In addition, it is possible to perform position and orientation estimation adapted to changing conditions such as the shape and placement of the target object and the way in which ambient light strikes.
図9は、本実施形態における情報処理装置900の構成を示している。情報処理装置900は、第1の実施形態で図1を用いて説明した構成に加え、条件取得部910を保持する。条件取得部910、第2の計測部903、第2の性能情報生成部905、第2の出力部以外は第1の実施形態で説明したものと同様であるため、ここでの説明は省略する。
FIG. 9 shows the configuration of the
条件取得部910は、位置姿勢推定に関する条件を取得する。本実施形態では、取得する位置姿勢推定に関する条件は、位置姿勢推定精度の下限値とする。
The
第2の計測部903は、入力した複数の画像の中から位置姿勢推定に使用する画像の組み合わせを複数生成し、生成した画像の組み合わせごとに位置姿勢推定を行う。位置姿勢推定方法は、第1の実施形態で説明した通りである。
The
第2の性能情報生成部905は、第2の計測部903で実施した複数の位置姿勢推定の結果に対して、位置姿勢推定に関する性能情報を生成する。さらに、生成した性能情報が条件取得部910で取得した条件を満たすか否かを判定する。具体的には、位置姿勢推定の精度が、取得した推定精度の閾値に収まっているかどうかを判定する。判定された結果、取得した閾値に収まっていると判定された精度の位置姿勢計測結果のみを第2の出力部907に送出する。
The second performance
第2の出力部907は、第2の性能情報生成部905で生成した性能情報のうち、性能情報生成部905において入力した条件を満たすと判定された位置姿勢推定に関する性能のみを出力する。
The
図10は、本実施形態における処理手順を示すフローチャートである。ステップ1001〜1006は、第1の実施形態で説明したステップS301〜306と同様であるため、ここでの説明は省略する。
FIG. 10 is a flowchart showing the processing procedure in the present embodiment.
(ステップ1007)
ステップS1007において、条件取得部910は、設定したGUIを介して、位置姿勢推定精度の閾値を取得する。本実施形態においては、ユーザが操作装置を介して入力したものを取得する。条件取得部910は、取得した条件を第2の出力部909へ送出する。
(Step 1007)
In step S1007, the
(ステップ1008)
ステップS1008において、第2の出力部907は、ステップS1006において生成された位置姿勢計測の精度を取得し、該取得した精度がステップS1007で取得した閾値内におさまっているかを判定する。そして、閾値以内に収まっていると判定された位置姿勢推定に関する性能情報を選択して表示装置920に出力する。
(Step 1008)
In step S1008, the
図11は、表示装置920及び条件取得部910に設定したGUI1100を示す例である。表示装置920は、条件を満たすと判定した複数の位置姿勢推定に関する性能情報の中から、性能情報表示切り替えボタン1128で指定した性能情報を表示する。また、表示装置920に表示した性能情報の対象となった位置姿勢推定に使用した画像を特定するために、各画像を使用したか否かを示す情報1124〜1127を表示する。この例では、カメラB及びCを使用した位置姿勢推定の性能情報を表示領域907に表示している。
FIG. 11 is an example showing the
条件取得部910は、GUI1100に設定された入力ボックス1129に、ユーザが操作装置を介して入力した推定精度の条件を取得する。
The
表示装置920は、カメラ2、カメラ3、カメラ4及びカメラ5が撮影した画像1110〜1113それぞれにもとづいて実施した位置姿勢推定精度及び位置姿勢推定に要した処理時間1120〜1123を表示する。
The
表示装置920は、表示領域1107に、カメラ3及び4が撮影した画像にもとづいて位置姿勢推定精度及び位置姿勢推定に要した処理時間を表示する。
The
<入力条件のバリエーション>
本実施形態では、入力する条件を推定精度の下限値とした。しかし、位置姿勢推定に関する条件であれば、他のものであってもよい。例えば、位置姿勢推定に要する処理時間の上限値を指定してもよい。この場合、位置姿勢推定に要する処理時間が、指定した処理時間の上限値を下回る場合に、該条件を満たすと判断する。あるいは、推定精度の下限値と処理時間の上限値の両方を条件として入力してもよい。
<Variation of input condition>
In the present embodiment, the input condition is the lower limit value of the estimation accuracy. However, other conditions may be used as long as the conditions are related to position and orientation estimation. For example, the upper limit value of the processing time required for position and orientation estimation may be designated. In this case, when the processing time required for position and orientation estimation falls below the specified upper limit of the processing time, it is determined that the condition is satisfied. Alternatively, both the lower limit value of the estimation accuracy and the upper limit value of the processing time may be input as a condition.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU or the like) of the system or apparatus reads the program. It is a process to execute.
<各実施形態の効果>
第1の実施形態では、撮影した各画像または複数の画像にもとづいてそれぞれ位置姿勢推定を行い、それぞれの位置姿勢推定の性能に関する情報をGUI上に表示する方法について説明した。これにより、各画像及び複数の画像を用いて実施した位置姿勢推定の性能の確認や比較を容易に行うことができるようになり、性能低下あるいは向上の要因となっている画像またはカメラの特定が行えるようになる。また、性能低下の要因と特定されたカメラの除去や配置変更を行うことができるようになる。
<Effect of each embodiment>
In the first embodiment, the method of performing position and orientation estimation based on each captured image or a plurality of images and displaying information on the performance of each position and orientation estimation on the GUI has been described. This makes it possible to easily confirm and compare the performance of position and orientation estimation performed using each image and a plurality of images, and the identification of the image or camera that is the cause of the performance degradation or improvement is You will be able to do it. In addition, it becomes possible to remove or change the camera specified as the cause of the performance degradation.
第2の実施形態では、撮影した各画像または複数の画像にもとづいて実施した位置姿勢推定の性能をそれぞれ表示するとともに、入力した複数の画像の中から位置姿勢推定に用いる画像を選択する方法について説明した。これにより、ユーザは、性能を確認しながら、位置姿勢推定に利用する画像の選択を実施できるようになるため、性能の高い位置姿勢推定を実施することが可能となる。また、位置姿勢推定に要する処理時間を、組み立て作業のタクトタイムで決定される該処理時間内に収めることが可能となる。 In the second embodiment, a method of displaying the performance of position and orientation estimation performed based on each captured image or a plurality of images, and selecting an image to be used for position and orientation estimation from among a plurality of input images explained. As a result, the user can select an image to be used for position and orientation estimation while confirming the performance, so that high-performance position and orientation estimation can be performed. Further, the processing time required for position and orientation estimation can be kept within the processing time determined by the tact time of the assembling operation.
第3の実施形態では、位置姿勢推定に関する条件を取得し、取得した条件を満たす際の位置姿勢推定に関する性能を表示する方法について説明する。これにより、ユーザが所望する条件を満たす位置姿勢推定が可能となる。 In the third embodiment, a method for acquiring conditions for position and orientation estimation and displaying performance for position and orientation estimation when the acquired conditions are satisfied will be described. This enables position and orientation estimation to meet the conditions desired by the user.
<定義>
本発明の画像取得手段は、情報処理装置100と接続した対象物体を撮影したカメラから画像を入力してもよいし、複数の視点で対象物体を撮影した画像を、情報処理装置100と接続した外部の記憶装置に一旦保持しておいたものを入力してもよい。
<Definition>
The image acquisition means of the present invention may input an image from a camera that has photographed the target object connected to the
本発明における第1及び第2の計測部では、画像にもとづいて算出した距離値にもとづいて認識または位置姿勢推定を実施してもよい。あるいは、画像から抽出した画像特徴にもとづいて認識または位置姿勢推定を実施してもよい。あるいは、画像にもとづいて算出した距離値と画像から抽出した画像特徴の両方にもとづいて認識または位置姿勢推定を実施してもよい。 The first and second measurement units in the present invention may perform recognition or position and orientation estimation based on the distance value calculated based on the image. Alternatively, recognition or position and orientation estimation may be performed based on image features extracted from an image. Alternatively, recognition or position and orientation estimation may be performed based on both of the distance value calculated based on the image and the image feature extracted from the image.
本発明における第1及び第2の性能情報生成部では、第1及び第2の計測部で実施した位置姿勢推定に関する性能情報を生成する。位置姿勢推定に関する性能情報は、位置姿勢の性能を示す情報であれば何でもよい。例えば、位置姿勢推定の精度または処理時間とする。あるいは、推定した位置姿勢、対象物体の有無、位置姿勢推定または認識の計算が破たんしたか否かの情報であってもよい。 The first and second performance information generation units in the present invention generate performance information on position and orientation estimation performed by the first and second measurement units. The performance information related to position and orientation estimation may be any information that indicates the performance of the position and orientation. For example, the accuracy or processing time of position and orientation estimation is used. Alternatively, it may be information on the estimated position and orientation, the presence or absence of the target object, and whether or not the calculation of position and orientation estimation or recognition is broken.
本発明における第1及び第2の出力部は、第1及び第2の性能情報生成部で生成した性能情報を表示装置の表示領域にそれぞれ表示する。表示方法は、位置姿勢推定の精度または処理時間の数値をGUI上に表示してもよいし、対象物体の形状を示す三次元モデルを推定した位置姿勢にもとづいて描画し入力画像上に重畳して表示してもよい。 The first and second output units in the present invention respectively display the performance information generated by the first and second performance information generation units in the display area of the display device. The display method may display the accuracy of the position and orientation estimation or the numerical value of the processing time on the GUI, or draw the three-dimensional model indicating the shape of the target object based on the estimated position and orientation and superimpose it on the input image. May be displayed.
101 画像取得部
102 第1の計測部
103 第2の計測部
104 第1の性能情報生成部
105 第2の性能情報生成部
106 第1の出力部
107 第2の出力部
101
Claims (12)
前記取得した複数の画像の各画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、いずれか1つの処理を実行する第1の実行手段と、
前記複数の撮像装置のそれぞれに対して、前記第1の実行手段で実行される処理に関する第1の性能情報を生成する第1の性能情報生成手段と、
前記複数の撮像装置のそれぞれと対応付けて、前記第1の性能情報を表示手段に表示させる第1の表示制御手段と、
前記第1の性能情報がそれぞれと対応付けて表示された前記複数の撮像装置から、ユーザの指示に基づいて2以上の撮像装置を選択する選択手段と、
前記選択した2以上の撮像装置で撮像した画像に基づいて、前記1つの処理を実行する第2の実行手段と、
前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成手段と、
前記第2の性能情報を前記表示手段に表示させる第2の表示制御手段と
を備えることを特徴とする情報処理装置。 An image acquisition unit that acquires a plurality of images obtained by imaging a target object with each of a plurality of imaging devices ;
A first execution unit that executes any one of the target object recognition process and the target object position and orientation estimation process based on each of the plurality of acquired images;
First performance information generation means for generating first performance information related to processing executed by the first execution means for each of the plurality of imaging devices ;
First display control means for causing the display means to display the first performance information in association with each of the plurality of imaging devices ;
A selection unit configured to select two or more imaging devices based on a user's instruction from the plurality of imaging devices in which the first performance information is displayed in association with each other;
A second execution unit that executes the one process based on the images captured by the two or more selected imaging devices;
Second performance information generation means for generating second performance information related to processing executed by the second execution means;
An information processing apparatus comprising: second display control means for causing the display means to display the second performance information .
前記第2の実行手段は、前記選択された処理方法に基づいて前記1つの処理を実施することを特徴とする請求項1または2に記載の情報処理装置。 The image processing apparatus further comprises means for selecting a processing method in the second execution means for the image acquired by the image acquisition means.
The information processing apparatus according to claim 1, wherein the second execution unit executes the one process based on the selected processing method.
前記画像取得手段は、前記撮像装置により撮像された前記パターンが投影された複数の画像を取得することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 And a plurality of imaging devices for capturing an image on which the pattern is projected, and a projection device for projecting a pattern, and
The information processing apparatus according to any one of claims 1 to 9 , wherein the image acquisition unit acquires a plurality of images on which the pattern captured by the imaging device is projected.
前記取得した複数の画像の各画像に基づいて、前記対象物体の認識処理と前記対象物体の位置姿勢推定の処理のうち、いずれか1つの処理を実行する第1の実行工程と、
前記複数の撮像装置のそれぞれに対して、前記第1の実行工程で実行される処理に関する第1の性能情報を生成する第1の性能情報生成工程と、
前記複数の撮像装置のそれぞれと対応付けて、前記第1の性能情報を表示手段に表示させる第1の表示制御工程と、
前記第1の性能情報がそれぞれと対応付けて表示された前記複数の撮像装置から、ユーザの指示に基づいて2以上の撮像装置を選択する選択工程と、
前記選択した2以上の撮像装置で撮像した画像に基づいて、前記1つの処理を実行する第2の実行工程と、
前記第2の実行手段で実行される処理に関する第2の性能情報を生成する第2の性能情報生成工程と、
前記第2の性能情報を前記表示手段に表示させる第2の表示制御工程と
を備えることを特徴とする情報処理方法。 An image acquisition step of acquiring a plurality of images obtained by imaging a target object with each of a plurality of imaging devices ;
A first execution step of executing any one of the target object recognition processing and the target object position and orientation estimation processing based on each of the plurality of acquired images;
A first performance information generation step of generating first performance information related to processing executed in the first execution step for each of the plurality of imaging devices ;
A first display control step of causing the display unit to display the first performance information in association with each of the plurality of imaging devices ;
A selection step of selecting two or more imaging devices based on a user's instruction from the plurality of imaging devices in which the first performance information is displayed in association with each other;
A second execution step of executing the one process based on the images captured by the two or more selected imaging devices;
A second performance information generation step of generating second performance information related to processing executed by the second execution means;
The information processing method characterized by comprising a <br/> a second display control step of displaying the second performance information to said display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014084715A JP6425405B2 (en) | 2014-04-16 | 2014-04-16 | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014084715A JP6425405B2 (en) | 2014-04-16 | 2014-04-16 | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015203680A JP2015203680A (en) | 2015-11-16 |
JP6425405B2 true JP6425405B2 (en) | 2018-11-21 |
Family
ID=54597189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014084715A Active JP6425405B2 (en) | 2014-04-16 | 2014-04-16 | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6425405B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12112502B2 (en) | 2021-04-21 | 2024-10-08 | Kabushiki Kaisha Toshiba | Three-dimensional map estimation apparatus and obstacle detection apparatus |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7022076B2 (en) * | 2016-12-19 | 2022-02-17 | 株式会社安川電機 | Image recognition processors and controllers for industrial equipment |
JP6840645B2 (en) * | 2017-09-08 | 2021-03-10 | 株式会社小松製作所 | Construction management equipment and construction management method |
JP7149707B2 (en) * | 2018-01-15 | 2022-10-07 | キヤノン株式会社 | Information processing device, its control method and program, and operation control system |
JP7031540B2 (en) * | 2018-09-07 | 2022-03-08 | オムロン株式会社 | Object recognition devices, manipulators, and mobile robots |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259642A (en) * | 1998-03-12 | 1999-09-24 | Omron Corp | Recognition processing method, recognition processor using the same, and license number plate reader |
JP2002365747A (en) * | 2001-06-07 | 2002-12-18 | Olympus Optical Co Ltd | Camera |
JP4859205B2 (en) * | 2005-02-04 | 2012-01-25 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2011022084A (en) * | 2009-07-17 | 2011-02-03 | Fuji Electric Holdings Co Ltd | Device and method for measuring three-dimensional pose |
JP5476943B2 (en) * | 2009-11-20 | 2014-04-23 | オムロン株式会社 | Posture recognition method and three-dimensional visual sensor using this method |
JP5624394B2 (en) * | 2010-07-16 | 2014-11-12 | キヤノン株式会社 | Position / orientation measurement apparatus, measurement processing method thereof, and program |
JP5854815B2 (en) * | 2011-12-20 | 2016-02-09 | キヤノン株式会社 | Information processing apparatus, information processing apparatus control method, and program |
JP6004851B2 (en) * | 2012-09-11 | 2016-10-12 | 株式会社キーエンス | Shape measuring device, shape measuring method, and shape measuring program |
-
2014
- 2014-04-16 JP JP2014084715A patent/JP6425405B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12112502B2 (en) | 2021-04-21 | 2024-10-08 | Kabushiki Kaisha Toshiba | Three-dimensional map estimation apparatus and obstacle detection apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2015203680A (en) | 2015-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9852358B2 (en) | Information processing device, information processing method, and information processing system | |
JP6425405B2 (en) | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM | |
JP5631086B2 (en) | Information processing apparatus, control method therefor, and program | |
JP6632208B2 (en) | Information processing apparatus, information processing method, and program | |
JP6584208B2 (en) | Information processing apparatus, information processing method, and program | |
JP2014199584A5 (en) | ||
US11989928B2 (en) | Image processing system | |
US9600893B2 (en) | Image processing device, method, and medium for discriminating a type of input image using non-common regions | |
JP2018091656A (en) | Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method | |
JPWO2021130860A5 (en) | Information processing device, control method and program | |
US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
JP2018510419A (en) | Method for reconstructing a 3D scene as a 3D model | |
KR101256046B1 (en) | Method and system for body tracking for spatial gesture recognition | |
US20160110840A1 (en) | Image processing method, image processing device, and robot system | |
CN115471863A (en) | Three-dimensional posture acquisition method, model training method and related equipment | |
JP2019211981A (en) | Information processor, information processor controlling method and program | |
JP5762099B2 (en) | Posture recognition apparatus, work robot, posture recognition method, program, and recording medium | |
KR20120020711A (en) | Object recognition system and method the same | |
JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
WO2020049636A1 (en) | Identification system, model presentation method, and model presentation program | |
JP6760656B2 (en) | Object identification method | |
JP2012125878A (en) | Information processing apparatus, information processing method, and program | |
US20230168103A1 (en) | Information processing apparatus, information processing method, and medium | |
JP2019159470A (en) | Estimation device, estimation method and estimation program | |
JP7533265B2 (en) | Support system, image processing device, support method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181023 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6425405 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |