[go: up one dir, main page]

JP7502343B2 - 画像処理システム - Google Patents

画像処理システム Download PDF

Info

Publication number
JP7502343B2
JP7502343B2 JP2021571181A JP2021571181A JP7502343B2 JP 7502343 B2 JP7502343 B2 JP 7502343B2 JP 2021571181 A JP2021571181 A JP 2021571181A JP 2021571181 A JP2021571181 A JP 2021571181A JP 7502343 B2 JP7502343 B2 JP 7502343B2
Authority
JP
Japan
Prior art keywords
image
model pattern
coordinate system
position information
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021571181A
Other languages
English (en)
Other versions
JPWO2021145304A1 (ja
Inventor
勇太 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of JPWO2021145304A1 publication Critical patent/JPWO2021145304A1/ja
Application granted granted Critical
Publication of JP7502343B2 publication Critical patent/JP7502343B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37097Marker on workpiece to detect reference position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理システムに関する。
従来、撮像装置によって取得した二次元の入力画像と、予め設定される基準情報としてのモデルパターンと、の間で特徴量のマッチングを行って合致度が所定のレベルを越えたときに対象物を検出できたと判断する技術が知られている。この種の手法として例えば、一般化ハフ変換等が知られている。入力画像から対象物を検出する画像処理の技術を開示するものとして特許文献1~3がある。
特許文献1は、エピポーラ線に対して交差角度が平行に近いエッジを三次元復元する技術に関するものである。例えば、特許文献1の落0014には、「上記第1エッジe2,e4は、同一平面上に位置するエッジの内、エピポーラ線EPと交差する交差角度が90°を基準として所定の角度範囲内にあるエッジであり、ステレオ法によって精度良く三次元復元可能なエッジのことである」という記載がある。
特許文献2は、撮像レンズを介して被測定物を撮像する少なくとも3つの撮像手段により、被測定物の所定領域までの距離を測定する技術に関するものである。
特許文献3は、影が落ちる領域に相当する画像領域から抽出される擬似的な画像特徴の影響を軽減し、フィッティング/マッチングの安定性・精度を向上する技術に関するものである。
特開2013-130508号公報 特開2009-002761号公報 特開2012-042396号公報
ところで、撮像装置として二次元カメラが用いられている場合、検出結果は画像座標系で表現されるので、ロボットが検出した対象物対して作業を行うためには、画像座標系で表現される二次元の検出結果をロボット座標系で表現される三次元の情報に変換する必要がある。三次元の情報に変換する方法としては、検出結果が特定の平面上に存在するという前提のもとで、画像上で見つかった検出結果を、その仮想平面に投影する方法が考えられる。
しかしながら、モデルパターンを教示したときの撮像装置と対象物の位置関係と、検出時の撮像装置と対象物の位置関係が異なると、画像上での対象物のサイズや形状が教示したモデルパターンと異なってしまう。この状態で対象物を検出しても、対象物が検出できなかったり、対象物の検出に時間がかかったりすることになる。これは、ロボットによって撮像装置が移動する場合やロボットによって対象物が移動する場合等に、位置関係が変わるため発生し易くなる。仮に撮像装置が固定されていたとしても、当該撮像装置の移設等で対象物と撮像装置の相対的な位置関係が変われば同様の問題が発生する。従来技術にも、同様の課題があった。
本開示に係る画像処理システムは、ロボットによって対象物との位置関係が変わる撮像装置により撮像された画像から対象物の像を検出する画像処理システムであって、ロボット座標系における前記撮像装置の位置を特定するための前記ロボットの位置情報と、画像座標系における前記対象物の位置を示す位置情報と、に基づいて前記撮像装置と前記対象物の位置関係を取得する制御部と、教示用画像から抽出された特徴点からなるモデルパターンと、前記教示用画像の撮像時の前記撮像装置と前記対象物の位置関係と、に基づいて前記モデルパターンを三次元位置情報の形式で記憶する記憶部と、を備え、前記制御部は、前記対象物を含む検出画像から抽出される特徴点と前記モデルパターンをマッチングした結果に基づいて前記検出画像から前記対象物を検出する検出処理を実行する。
本開示によれば、撮像装置と対象物の位置関係が教示時と検出時で異なっても、正確かつ効率的に対象物を検出できる画像処理システムを提供できる。
画像処理システムの構成を示す図である。 視覚センサ制御装置及びロボット制御装置の構成を示す図である。 制御部によって実行される画像処理に関する機能を模式的に示す機能ブロック図である。 複数の特徴点から構成されるモデルパターンを示す図である。 モデルパターンを作成する手順を示すフローチャートである。 画像にモデルパターン指定領域を指定した様子を示す図である。 モデルパターンの三次元点への変換処理を示すフローチャートである。 撮像装置としての視覚センサの視線と補正平面の関係を示す模式図である。 第1の例のマッチング処理の流れを示すフローチャートである。 第2の例のマッチング処理の流れを示すフローチャートである。
以下、本発明の実施形態の一例について説明する。図1は、本発明の一実施形態に係る画像処理システム1の構成を示す図である。図1に示す画像処理システム1は、ロボット2によって対象物Wとの位置関係が変わる撮像装置としての視覚センサ4により撮像された画像から対象物Wの像を検出する。なお、以下の説明において、画像座標系とは画像上で定義された座標系(2次元)であり、センサ座標系とは視覚センサ4からみた座標系(3次元)である。ロボット座標系(機械座標系)とはロボット2からみた座標系(3次元)である。
本実施形態の画像処理システム1は、ロボット2と、アーム3と、視覚センサ4と、視覚センサ制御装置5と、ロボット制御装置6と、操作盤7と、を備える。画像処理システム1は、例えば、視覚センサ4で撮像された対象物Wの画像に基づいて、対象物Wの位置を認識し、対象物Wのハンドリング又は加工等の作業を行う。
ロボット2のアーム3の先端部には、ハンド又はツールが取り付けられている。ロボット2は、ロボット制御装置6の制御により、対象物Wのハンドリング又は加工等の作業を行う。また、ロボット2のアーム3の先端部には、視覚センサ4が取り付けられている。
視覚センサ4は、視覚センサ制御装置5の制御により、対象物Wを撮像する撮像装置である。視覚センサ4は、CCD(Charge Coupled Device)イメージセンサで構成される撮像素子と、レンズを含む光学系とを有する二次元カメラが用いられてもよく、三次元計測ができるステレオカメラ等が用いられてもよい。本実施形態では、作業台8に固定された対象物Wが視覚センサ4によって撮像される。
ロボット制御装置6は、ロボット2の動作プログラムを実行し、ロボット2の動作を制御する。ロボット制御装置6によってロボット2が動作し、視覚センサ4の対象物Wに対する位置関係が変化する。
操作盤7は、ユーザが画像処理システム1の各種の操作を行う受付部である。ユーザは、操作盤7を通じて視覚センサ制御装置5に対し各種指令を入力する。
図2は、視覚センサ制御装置5及びロボット制御装置6の構成を示す図である。図3は、制御部によって実行される画像処理に関する機能を模式的に示す機能ブロック図である。本実施形態の視覚センサ制御装置5は、記憶部51と、制御部52と、を備える。
記憶部51は、OS(Operating System)やアプリケーションプログラム等を格納するROM(Read Only Memory)、RAM(Random Access Memory)、その他の各種情報を格納するハードディスクドライブやSSD(Solid State Drive)等の記憶装置である。
記憶部51は、モデルパターン記憶部511と、キャリブレーションデータ記憶部512と、を備える。
モデルパターン記憶部511について説明する。モデルパターン記憶部511は、対象物Wの像をモデル化したモデルパターンを記憶する。モデルパターンの例については後述する。
キャリブレーションデータ記憶部512は、ロボット2の動作制御の基準となるロボット座標系と、視覚センサ4による計測処理の基準となる画像座標系とを互いに関連付けるキャリブレーションデータを記憶する。キャリブレーションデータの形式及びそれを求める方法は、種々の方式が提案されており、いずれの方式を用いてもよい。
制御部52は、CPU(Central Processing Unit)等のプロセッサであり、画像処理システム1の各種の制御を実行する画像処理部である。
図3は、制御部52によって実行される画像処理に関する機能を模式的に示す機能ブロック図である。図3に示すように、制御部52は、特徴点抽出部521と、キャリブレーション部522と、判定部523と、表示処理部524と、を機能部として有する。制御部52が有するこれらの機能部は、記憶部51に記憶されたプログラムが実行されることにより、機能する。
特徴点抽出部521は、視覚センサ4の撮像によって取得される入力画像から特徴点を抽出する。特徴点の抽出方法としては、種々の方法を用いることができる。本実施形態では、画像中で輝度勾配が大きな点であり、対象物の輪郭形状を取得するために使用できるエッジ点を特徴点として抽出する。一般的に対象物Wの輪郭線の像は輝度勾配が大きくなるので、エッジ点を特徴量として用いることで対象物Wの輪郭線形状を取得できる。なお、エッジ点の抽出は、SobelフィルタやCannyエッジ検出器を利用してもよい。
キャリブレーション部522は、視覚センサ4と対象物Wの位置関係と、キャリブレーションデータ記憶部512に記憶されるキャリブレーションデータと、に基づいて、画像座標系における二次元点と、ロボット座標系における三次元点と、の位置を変換する処理を実行する。例えば、キャリブレーション部522は、ロボット座標系における三次元点のデータが与えられた場合は、その三次元点の視覚センサ4で撮像された画像上での像の位置、即ち、画像座標系における二次元点を計算する処理を実行する。また、キャリブレーション部522は、画像座標系における二次元点のデータが与えられたときには、ロボット座標系(ワールド座標系)における視線を計算する処理を実行する。ここでいう視線は、注視点と視覚センサ4の焦点を通る三次元直線である。注視点は、対象物Wのロボット座標系における三次元点(特徴点の三次元位置情報)である。そして、キャリブレーション部522は、計算した視線に基づいて二次元点のデータを三次元の位置を示すデータである三次元点に変換する処理を実行する。
判定部523は、撮像装置によって取得された入力画像から抽出された特徴点群(エッジ点群)と、モデルパターン記憶部511に記憶されるモデルパターンと、を比較し、合致度に基づいて対象物を検出する。
表示処理部524は、判定部523の判定結果や、後述する補正平面(仮想平面)の設定を行うための操作画面を操作盤7に表示する処理を実行する。
ロボット制御装置6は、動作制御部61を備える。動作制御部61は、視覚センサ制御装置5の指令に基づいてロボット2の動作プログラムを実行し、ロボット2の動作を制御する。
次に、特徴点抽出部521による画像座標系のモデルパターンの生成について説明する。図4は、複数の特徴点から構成されるモデルパターンを示す図である。図4に示すように、本実施形態では、複数の特徴点P_iから構成されるモデルパターンが用いられる。図4に示されるように、モデルパターンは複数の特徴点P_i(i=1~NP)で構成される。この例では、モデルパターンを構成する複数の特徴点P_iが、モデルパターン記憶部511に記憶される。
モデルパターンを構成する特徴点P_iの位置姿勢はどのような形式で表してもよい。例えば、モデルパターンに座標系を定義し(以下、モデルパターン座標系)、モデルパターンを構成する特徴点P_iの位置や姿勢をモデルパターン座標系から見た位置ベクトルや方向ベクトル等で表現する方法が挙げられる。
また、モデルパターン座標系の原点Oについても、どのように定義してもよい。例えば、モデルパターンを構成する特徴点P_iから任意の1点を選択して、その点を原点として定義してもよいし、モデルパターンを構成するすべての特徴点P_iの重心を原点として定義してもよい。
また、モデルパターン座標系の姿勢(軸の方向)もどのように定義してもよい。例えば、モデルパターンの作成を行った画像において画像座標系とモデルパターン座標系が平行になるように定義してもよいし、モデルパターンを構成する特徴点から任意の2点を選択して、その一方から他方に向かう方向がX軸方向となるように定義し、当該X軸方向に直交する方向をY軸方向と定義してもよい。また、モデルパターン50の作成を行った画像において画像座標系とモデルパターン座標系が平行になるように定義することもできる。このように、モデルパターン座標系及び原点Oの設定は、事情に応じて適宜変更できる。
次に、モデルパターンの作成例について説明する。図5は、モデルパターンを作成する手順を示すフローチャートである。図6は、画像にモデルパターン指定領域を指定した様子を示す図である。
モデルパターンとして教示したい対象物Wを視覚センサ4の視野内に配置して当該対象物Wの画像を撮像し、対象物Wが含まれる入力画像(教示画像)を取得する(ステップS101)。このとき、視覚センサ4と対象物Wの位置関係は、実際の使用時に対象物Wを検出するときの位置関係と同じ位置関係になるように行うことが好ましい。
次に、撮像した画像において、対象物Wが映った領域をモデルパターンの領域として指定する(ステップS102)。以下、このステップS102で指定した領域をモデルパターン指定領域60と称する。本実施形態のモデルパターン指定領域60は、対象物Wを囲むように矩形や円形で指定される。このモデルパターン指定領域60を操作者生成情報としてモデルパターン記憶部511に記憶してもよい。
次に、特徴点の抽出を行う(ステップS103)。特徴点は、上述のようにモデルパターンを構成するものである。モデルパターン指定領域60から複数の特徴点P_i(i=1~NP)が抽出される。
ステップS103では、エッジ点の物理量が求められる。エッジ点の物理量は、そのエッジ点の位置、輝度勾配方向、輝度勾配の大きさ等がある。エッジ点の輝度勾配の方向を特徴点の姿勢と定義すると、位置とあわせて特徴点の位置姿勢を定義することができる。特徴点の物理量としてエッジ点の物理量、即ちエッジ点の位置、姿勢(輝度勾配の方向)、輝度勾配の大きさを記憶する。
そして、指定されたモデルパターン指定領域60内にモデルパターン座標系を定義し、モデルパターン座標系及び原点Oに基づいて特徴点P_iの姿勢ベクトルv_Piや位置ベクトルt_Pi等で表現する。
次に、抽出された特徴点P_iの物理量に基づいてモデルパターン50の生成を行う(ステップS104)。ステップS104では、抽出された特徴点P_iの物理量が、モデルパターンを構成する特徴点P_iとして記憶される。これらの複数の特徴点P_iがモデルパターンとなる。本実施形態では、モデルパターン指定領域60内にモデルパターン座標系を定義し、特徴点P_iの位置や姿勢を、画像座標系(図6参照)で表現された値から、モデルパターン座標系(図4参照)で表現された値で記憶される。
モデルパターン50を修正する必要がある場合、モデルパターンの修正を行う(ステップS105)。このステップS105におけるモデルパターンの修正は、操作者又は画像処理部32によって行われる。なお、機械学習等を用いて自動で修正してもよい。なお、モデルパターンの修正を行う必要がなければステップS105を省略してもよい。以上説明した一連の処理により、画像座標系のモデルパターンが作成される。
次に、モデルパターンを三次元点に変換する処理について説明する。三次元点は、モデルパターンを構成する特徴の三次元の位置を特定する三次元位置情報である。図7は、モデルパターンの三次元点への変換処理を示すフローチャートである。図8は、撮像装置としての視覚センサ4の視線と補正平面の関係を示す模式図である。
モデルパターンが存在する平面を補正平面として指定する(ステップS201)。補正平面は、仮想的な平面である。補正平面の指定方法として種々の方法を用いることができる。例えば、ユーザがロボット座標系又はセンサ座標系から見た補正平面をロボットでタッチアップする等の方法で、操作盤7等を用いてユーザが設定する。なお、補正平面は単一の平面である必要はなく、複数の平面又は曲面で構成されてもよい。
次に、モデルパターンの各特徴点への視線を、視覚センサ4のキャリブレーションデータとロボット2の位置情報に基づいて取得する(ステップS202)。
図8に示すように、ステップS201で取得した補正平面とステップS202で取得した視線の交点Pwを取得し、取得した交点Pwに基づいて特徴点の三次元点を取得する(ステップS203)。三次元点は、特徴点の三次元位置情報である。モデルパターンを構成する特徴点の三次元位置情報が、マッチング用の情報としてモデルパターン記憶部511に記憶される。
以上、説明したように、本実施形態の画像処理システム1は、ロボット座標系における視覚センサ4の位置を特定するためのロボット2の位置情報と、画像座標系における対象物Wの位置を示す位置情報と、に基づいて視覚センサ4と対象物Wの位置関係を取得する制御部52と、教示用画像から抽出された特徴点からなるモデルパターンと、前記教示用画像の撮像時の視覚センサ4と対象物Wの位置関係と、に基づいて前記モデルパターンを三次元位置情報の形式で記憶する記憶部51と、を備える。制御部52は、対象物Wを含む検出画像から抽出される特徴点とモデルパターンをマッチングした結果に基づいて検出画像から対象物Wを検出する検出処理を実行する。これにより、三次元位置情報の形式で記憶されるモデルパターンに基づいてマッチング処理が行われることになる。従って、視覚センサ4と対象物Wの相対的な位置関係が教示時と検出時で異なる事態を回避することができる。対象物Wが検出できない又は対象物Wの検出に時間がかかったりすることを避けることができ、従来技術に比べ対象物Wの検出を正確かつ効率的に行うことができる。
また、本実施形態の画像処理システムでは、記憶部51に記憶されるモデルパターンの三次元位置情報は、教示用画像から抽出された特徴点が存在すると仮定される仮想平面としての補正平面と、視覚センサ4の対象物Wの特徴点に向かう視線と、の交点に基づいて取得される。これにより、仮想平面としての補正平面を利用してモデルパターンの三次元位置情報が取得されることになるので、当該補正平面を利用して検出処理をより一層正確に行うことができる。このように、本実施形態では、対象物Wの検出箇所が、ある平面(補正平面)上にあると仮定することにより、モデルパターンを構成する各特徴点(エッジ点)の三次元位置情報を取得するのである。
本実施形態の画像処理システム1は、モデルパターンを構成する各特徴点の三次元位置情報に基づいて検出対象の対象物が含まれる入力画像から当該対象物Wの像の検出を行う。モデルパターンを構成する各特徴点の三次元位置情報を利用した対象物Wの検出方法は、いくつかの方法を考えることができる。
まず、図9を参照して第1の例におけるマッチング処理について説明する。図9は、第1の例のマッチング処理の流れを示すフローチャートである。
ステップS301において、制御部52が視覚センサ4によって撮像された入力画像を取得する。入力画像は、検出したい対象物Wを含むマッチング対象の検出画像である。マッチング対象の画像は、モデルパターン生成時の教示画像と別の画像であり、視覚センサ4によって新たに取得されるものである。
ステップS302において、制御部52は入力画像から特徴点としてのエッジ点の抽出を行う。エッジ点の抽出は、上述した方法と同じ方法を用いることができる。
ステップS303において、制御部52は、撮像時の補正平面と視覚センサ4の位置関係を取得する。補正平面は、上述のモデルパターン生成時に設定したものと同様の仮想平面である。ここでいう視覚センサ4の位置関係は、視覚センサ4と対象物Wとの位置関係である。視覚センサ4の位置関係は、キャリブレーションデータ、ロボット2の位置情報、補正平面、画像座標系における対象物Wの位置情報等に基づいて取得される。例えば、視覚センサ4が二次元カメラの場合、特徴点(エッジ点)が補正平面に存在すると仮定して、エッジ点への視線と補正平面との交点を取得する。視覚センサ4が三次元センサの場合は、エッジ点が存在する箇所の距離の情報を取得して、三次元位置情報が取得される。
ステップS304において、マッチング対象の入力画像(検出画像)から抽出した特徴点としてのエッジ点を補正平面に投影し、エッジ点の三次元位置情報である三次元点を取得する。これによってマッチング対象の入力画像から抽出された三次元点群のデータが取得されることになる。
ステップS305において、マッチング対象の入力画像(検出画像)から抽出された三次元点と、モデルパターンの三次元点と、を比較するマッチング処理を行う。これによって、マッチング対象の入力画像から対象物の像が検出されることになる。
このように、第1の例の検出処理では、検出画像から抽出された特徴点が存在すると仮定される仮想平面としての補正平面と、視覚センサ4から対象物Wの特徴点に向かう視線と、の交点に基づいて検出画像の特徴点を三次元位置情報の形式で取得する。そして、三次元位置情報の形式で取得された検出画像の特徴点と、三次元位置情報の形式で記憶されるモデルパターンに基づく特徴点と、を比較するマッチング処理結果に基づいて検出画像から対象物Wを検出する。この第1の例により、モデルパターンの三次元位置情報を検出処理により正確に反映することができ、適切な位置関係に基づいて対象物Wを検出画像から検出できる。また、マッチング処理において三次元的な回転をモデルパターンに加えることで、三次元的な姿勢変化があっても検出することができ、三次元的な姿勢変化にも対応できる。
次に、図10を参照して第2の例におけるマッチング処理について説明する。図10は、第2の例のマッチング処理の流れを示すフローチャートである。
ステップS401において、制御部52が視覚センサ4によって撮像された入力画像を取得する。入力画像は、検出したい対象物Wを含むマッチング対象の画像である。マッチング対象の画像は、モデルパターン生成時の入力画像と別の画像であり、視覚センサ4によって新たに取得されたものである。
ステップS402において、入力画像から特徴点の抽出を行う。制御部52は入力画像から特徴点としてのエッジ点の抽出を行う。エッジ点の抽出は、上述した方法と同じ方法を用いることができる。
ステップS403において、制御部52は、撮像時の補正平面と視覚センサ4の位置関係を取得する。
ステップS404において、制御部52は、対象物Wが補正平面の任意の箇所で検出されると仮定して、モデルパターンの三次元点を補正平面に投影する処理を実行する。
ステップS405において、制御部52は、画像座標系にける入力画像の特徴点と投影したモデルパターンの特徴点とのマッチングを行う。即ち、入力画像の特徴点の二次元点と、モデルパターンの三次元点を二次元に変換した特徴点と、をマッチングし、合致度を取得する。なお、合致度の算出は上述のハフ変換等、公知の技術を用いることができる。
ステップS406において、終了条件が満たされているか否かが判定され、終了条件が満たされるまでステップS404、ステップS405の処理が繰り返される。ステップS406からステップS404に戻る場合は、前回とは異なる箇所を任意の箇所として仮定し、モデルパターンの三次元点を補正平面に投影した後、ステップS405の処理が実行される。これにより、複数のマッチング処理結果の中から、合致度の高いマッチング処理結果に基づいて対象物Wの像が検出されることになる。なお、終了条件は、例えばマッチングの合致度が高いものが検出された場合や所定時間が経過した場合等、種々の条件を設定できる。
このように、第2の例の前記検出処理では、検出画像から抽出される特徴点が仮想平面のある箇所で検出されると仮定し、当該仮想平面にモデルパターンを投影して画像座標系における特徴点を取得する投影処理と、検出画像から抽出される画像座標系の特徴点と、投影処理で取得されたモデルパターンに基づく画像座標系の特徴点と、を比較するマッチング処理と、を繰り返し実行し、合致度が高かったマッチング処理結果に基づいて検出画像から対象物Wを検出する。この第2の例においても、モデルパターンの三次元位置情報を検出処理により正確に反映することができ、適切な位置関係に基づいて対象物Wを検出画像から検出できる。また、位置の違いによる見え方の変化には投影処理とマッチング処理を繰り返すことで対応できるので、マッチング処理については二次元の画像座標系で行うことができる。
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。
上記実施形態では、ロボット2の動作によって撮像装置としての視覚センサ4と対象物Wの位置関係が変わる構成であるが、この構成に限定されない。例えば、撮像装置が固定されるとともに対象物がロボットの動作によって移動する構成にも本発明を適用することができる。即ち、ロボットが対象物を持ち、固定のカメラから撮像するという構成でもよい。この場合、ロボットの動作によって対象物が移動することにより、撮像装置と対象物の位置関係が変わることになる。
上記実施形態では、複数のエッジ点からなるモデルパターンを例として説明したが、モデルパターンがこの形式に限定されるわけではない。例えば、特徴点を画素の単位とし、モデルパターンを画像形式としてもよい。
1 画像処理システム
2 ロボット
4 視覚センサ(撮像装置)
51 記憶部
52 制御部

Claims (3)

  1. ロボットが撮像装置又は対象物を移動させる動作によって前記対象物との位置関係が変わる前記撮像装置により撮像された画像から前記対象物の像を検出する画像処理システムであって、
    画像座標系における前記対象物の位置を示す位置情報と、キャリブレーションデータとに基づいて、前記撮像装置と前記対象物との位置関係を取得する制御部と、
    予め前記対象物を撮像した教示用画像から抽出された特徴点からなるモデルパターンと、前記教示用画像の撮像時における前記位置関係と、に基づいて前記モデルパターンを、ロボット座標系における三次元位置情報の形式で記憶する記憶部と、
    を備え、
    前記制御部は、
    前記撮像装置によって撮像された前記対象物を含む検出画像から抽出される特徴点が所定の仮想平面で検出されると仮定し、当該所定の仮想平面に、前記三次元位置情報での前記モデルパターンを投影して前記モデルパターンの画像座標系における特徴点を取得する投影処理と、
    前記検出画像から抽出される前記画像座標系の特徴点と、前記投影処理で取得された前記モデルパターンの前記画像座標系における特徴点と、を比較するマッチング処理と、
    を前記所定の仮想平面を変えて繰り返し実行し、
    最も合致度が高かったマッチング処理結果に基づいて、前記検出画像から前記対象物の像を検出する、
    画像処理システム。
  2. ロボットが撮像装置又は対象物を移動させる動作によって前記対象物との位置関係が変わる前記撮像装置により撮像された画像から前記対象物の像を検出する画像処理システムであって、
    画像座標系における前記対象物の位置を示す位置情報と、キャリブレーションデータとに基づいて、前記撮像装置と前記対象物との位置関係を取得する制御部と、
    予め前記対象物を撮像した教示用画像から抽出された特徴点からなるモデルパターンと、前記教示用画像の撮像時における前記位置関係と、に基づいて前記モデルパターンを、ロボット座標系における三次元位置情報の形式で記憶する記憶部と、
    を備え、
    前記制御部は、
    前記撮像装置によって撮像された前記対象物を含む検出画像から抽出される特徴点が存在すると仮定される仮想平面と、
    前記撮像装置から前記対象物の前記特徴点に向かう視線と、
    の交点の三次元位置情報に基づいて、前記検出画像のロボット座標系における特徴点を三次元位置情報の形式で取得し、
    前記三次元位置情報の形式で取得された前記検出画像の前記ロボット座標系における特徴点と、前記三次元位置情報の形式で記憶される前記モデルパターンの前記ロボット座標系における特徴点と、を比較するマッチング処理の結果に基づいて、前記検出画像から前記対象物の像を検出する、
    画像処理システム。
  3. 前記記憶部に記憶される前記モデルパターンの三次元位置情報は、
    前記教示用画像から抽出された前記特徴点が存在すると仮定される仮想平面と、
    前記撮像装置から前記対象物の前記特徴点に向かう視線と、
    の交点の三次元位置情報に基づいて取得される請求項1又は2に記載の画像処理システム。
JP2021571181A 2020-01-17 2021-01-12 画像処理システム Active JP7502343B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020005768 2020-01-17
JP2020005768 2020-01-17
PCT/JP2021/000646 WO2021145304A1 (ja) 2020-01-17 2021-01-12 画像処理システム

Publications (2)

Publication Number Publication Date
JPWO2021145304A1 JPWO2021145304A1 (ja) 2021-07-22
JP7502343B2 true JP7502343B2 (ja) 2024-06-18

Family

ID=76863799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021571181A Active JP7502343B2 (ja) 2020-01-17 2021-01-12 画像処理システム

Country Status (5)

Country Link
US (1) US12236663B2 (ja)
JP (1) JP7502343B2 (ja)
CN (1) CN114902281A (ja)
DE (1) DE112021000595T5 (ja)
WO (1) WO2021145304A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384898B2 (ja) * 2019-03-13 2023-11-21 日本電気株式会社 情報処理装置、駆動制御方法およびコンピュータプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182274A (ja) 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5319443A (en) * 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
JP5093653B2 (ja) 2007-06-21 2012-12-12 株式会社ニコン 測距装置およびその測距方法
JP5671281B2 (ja) 2010-08-20 2015-02-18 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP5858773B2 (ja) 2011-12-22 2016-02-10 キヤノン株式会社 3次元計測方法、3次元計測プログラム及びロボット装置
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
CN104959982A (zh) * 2013-10-10 2015-10-07 精工爱普生株式会社 机器人控制系统、机器人、程序以及机器人控制方法
JP6372198B2 (ja) * 2014-07-01 2018-08-15 セイコーエプソン株式会社 ロボットシステム及び処理装置
JP2016070762A (ja) * 2014-09-29 2016-05-09 ファナック株式会社 対象物の三次元位置を検出する検出方法および検出装置
JP6348093B2 (ja) * 2015-11-06 2018-06-27 ファナック株式会社 入力データから検出対象物の像を検出する画像処理装置および方法
US10252417B2 (en) * 2016-03-02 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182274A (ja) 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム

Also Published As

Publication number Publication date
JPWO2021145304A1 (ja) 2021-07-22
US20230033339A1 (en) 2023-02-02
US12236663B2 (en) 2025-02-25
WO2021145304A1 (ja) 2021-07-22
CN114902281A (zh) 2022-08-12
DE112021000595T5 (de) 2022-12-01

Similar Documents

Publication Publication Date Title
US9672630B2 (en) Contour line measurement apparatus and robot system
US11625842B2 (en) Image processing apparatus and image processing method
JP5602392B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP5480914B2 (ja) 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
JP5713159B2 (ja) ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
JP6067175B2 (ja) 位置測定装置及び位置測定方法
JP2018055675A (ja) 3d画像データにおける3dポーズの改良されたスコアリング及び偽ポイント除去のためのシステム及び方法
CN108965690A (zh) 图像处理系统、图像处理装置及计算机可读存储介质
CN113034612B (zh) 一种标定装置、方法及深度相机
JP2011027724A (ja) 3次元計測装置、その計測方法及びプログラム
WO2020217878A1 (ja) 対象物の位置姿勢を検出する装置、方法およびプログラム
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP2017033429A (ja) 3次元物体検査装置
JP2021193400A (ja) アーチファクトを測定するための方法
JP7161857B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2019190969A (ja) 画像処理装置、画像処理方法
JP7502343B2 (ja) 画像処理システム
JP2015007639A (ja) 情報処理装置、情報処理方法およびプログラム
JP6863946B2 (ja) 画像処理装置
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP7533265B2 (ja) 支援システム、画像処理装置、支援方法およびプログラム
JP2021071420A (ja) 情報処理装置、情報処理方法、プログラム、システム、物品の製造方法、計測装置及び計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240606