[go: up one dir, main page]

JP6499716B2 - 形状認識装置、形状認識方法及びプログラム - Google Patents

形状認識装置、形状認識方法及びプログラム Download PDF

Info

Publication number
JP6499716B2
JP6499716B2 JP2017104819A JP2017104819A JP6499716B2 JP 6499716 B2 JP6499716 B2 JP 6499716B2 JP 2017104819 A JP2017104819 A JP 2017104819A JP 2017104819 A JP2017104819 A JP 2017104819A JP 6499716 B2 JP6499716 B2 JP 6499716B2
Authority
JP
Japan
Prior art keywords
shape
image
robot
cable
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017104819A
Other languages
English (en)
Other versions
JP2018200558A (ja
Inventor
凱濛 王
凱濛 王
文杰 陳
文杰 陳
晃市郎 林
晃市郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017104819A priority Critical patent/JP6499716B2/ja
Priority to DE102018206193.9A priority patent/DE102018206193A1/de
Priority to US15/964,472 priority patent/US10521687B2/en
Priority to CN201810473576.8A priority patent/CN108932363B/zh
Publication of JP2018200558A publication Critical patent/JP2018200558A/ja
Application granted granted Critical
Publication of JP6499716B2 publication Critical patent/JP6499716B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、形状認識装置、形状認識方法及びプログラムに関する。
従来、車体の艤装や電子部品のケーブル組み立ては、人の手によって行われて来た。これは、ケーブルのような柔軟物は形状が一定でないため、ロボットによる自動組み立てが困難であることが主な理由である。
なお、特許文献1には、ケーブルを撮像してケーブル組み立てを行うケーブル組立装置が記載されている。
特開平02−009199号公報
ケーブル組み立てを自動化するためには、ケーブルをリアルタイムで形状認識する必要がある。
しかしながら、カメラ(ビジョンセンサ等)を用いてケーブルを形状認識する場合、撮像、画像処理、認識に比較的長い時間を要するため、ケーブルを形状認識するサンプリング周期が長くなる。そのため、リアルタイムでのケーブルの形状認識が困難である。また、ロボットハンド等によりケーブルの一部が隠れてしまい、カメラ(ビジョンセンサ等)のみではケーブルをリアルタイムに形状認識できない場合もある。この問題点は、ケーブル以外の柔軟性を有する各種不定形物にも生じうる。
本発明は、柔軟性を有する不定形物の形状認識をリアルタイムかつ高精度に実現することを目的とする。
(1) 本発明の形状認識装置(例えば、後述の形状認識装置1)は、
ロボットによって組み立てられる、柔軟性を有する不定形物(例えば、後述のケーブルC)の形状を認識する形状認識装置であって、
前記不定形物を撮像する撮像部(例えば、後述の撮像部18)と、
前記撮像部が撮像した前記不定形物の画像に基づいて、前記不定形物の形状を認識する画像処理部(例えば、後述の画像処理部11c)と、
前記撮像部が撮像した前記不定形物の画像に基づいて、前記不定形物の形状をシミュレーションするシミュレーション処理部(例えば、後述のシミュレーション処理部11d)と、を備え、
前記シミュレーション処理部は、前記不定形物の形状のシミュレーション結果に基づいて、前記画像処理部による前記不定形物の形状の認識結果を補間することを特徴とする。
(2) (1)の形状認識装置において、前記シミュレーション処理部は、前記撮像部が撮像した前記不定形物の画像に基づいて、前記不定形物の形状を、前記撮像部の撮像周期よりも短い周期でシミュレーションしてもよい。
(3) (1)又は(2)の形状認識装置において、前記画像処理部は、前記撮像部が撮像した前記不定形物の画像と、背景のみを撮像した画像とに基づいて、前記撮像部が撮像した前記不定形物の画像の背景部分を除外した画像を取得してもよい。
(4) (3)の形状認識装置において、前記画像処理部は、前記背景部分を除外した画像と、当該背景部分を除外した画像における前記ロボットを表す画像とに基づいて、前記背景部分を除外した画像に含まれる前記ロボットの画像を除外した画像を取得してもよい。
(5) (1)から(4)の形状認識装置において、前記シミュレーション処理部は、前記撮像部が撮像した前記不定形物の画像において、前記不定形物の一部が欠落している場合又は異物がある場合、前記不定形物の形状のシミュレーション結果に基づいて、前記不定形物の形状を補間するか又は異物を除外してもよい。
(6) (1)から(5)の形状認識装置において、前記画像処理部による前記不定形物の形状の認識結果又は前記シミュレーション処理部によって補間された前記不定形物の形状の認識結果に基づいて、前記ロボットを動作させる動作軌跡を生成するロボット制御部(例えば、後述のロボット制御部11f)を備えてもよい。
(7) (6)の形状認識装置において、前記画像処理部は、前記不定形物において前記ロボットが把持すべき部分として設定されている把持ポイントを特定し、前記ロボット制御部は、前記画像処理部が特定した前記把持ポイントを把持させるように前記ロボットの前記動作軌跡を生成してもよい。
(8) (7)の形状認識装置において、前記画像処理部は、前記不定形物の前記把持ポイントを撮像できない場合には、警報を発すると共に、新たに把持ポイントを設定し、前記ロボット制御部は、新たに設定された把持ポイントを把持させるように前記ロボットの前記動作軌跡を生成してもよい。
(9) また、本発明の形状認識方法は、
ロボットによって組み立てられる、柔軟性を有する不定形物の形状を認識するための形状認識方法であって、
前記不定形物を撮像する撮像ステップと、
前記撮像ステップで撮像された前記不定形物の画像に基づいて、前記不定形物の形状を認識する画像処理ステップと、
前記撮像ステップで撮像された前記不定形物の画像に基づいて、前記不定形物の形状をシミュレーションするシミュレーション処理ステップと、を含み、
前記シミュレーション処理ステップでは、前記不定形物の形状のシミュレーション結果に基づいて、前記画像処理ステップにおける前記不定形物の形状の認識結果が補間されることを特徴とする。
(10) また、本発明のプログラムは、
ロボットによって組み立てられる、柔軟性を有する不定形物の形状を認識する形状認識装置を制御するコンピュータに、
前記不定形物を撮像させる撮像制御機能と、
前記撮像制御機能によって撮像された前記不定形物の画像に基づいて、前記不定形物の形状を認識する画像処理機能と、
前記撮像制御機能によって撮像された前記不定形物の画像に基づいて、前記不定形物の形状をシミュレーションするシミュレーション処理機能と、を実現させ、
前記シミュレーション処理機能は、前記不定形物の形状のシミュレーション結果に基づいて、前記画像処理機能による前記不定形物の形状の認識結果を補間することを特徴とする。
本発明によれば、柔軟性を有する不定形物の形状認識をリアルタイムかつ高精度に実現することができる。
本実施形態に係る形状認識装置の構成を示すブロック図である。 背景画像のデータを用いて、ケーブル及びロボットが撮像されている撮像画像のデータから背景が除外される処理(背景除外処理)を示す模式図である。 ケーブル及びロボットの領域が抽出された画像のデータからロボットの画像を除外する処理(ロボット除外処理)を示す模式図である。 ケーブルの把持ポイントが特定される状態を示す模式図である。 画像処理部の認識結果をシミュレーション処理部によって時間的に補間する状態を示す模式図である。 画像処理部の認識結果がシミュレーション処理部によって空間的に補間可能であることを示す模式図である。 形状認識装置のCPUが実行する形状認識処理の流れを説明するフローチャートである。 形状認識装置のCPUが実行するロボット動作制御処理の流れを説明するフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。
[構成]
図1は、本実施形態に係る形状認識装置1の構成を示すブロック図である。
形状認識装置1は、ロボットRによりケーブルC(不定形物)の組み立てが行われる組み立てラインに設置され、撮像画像からケーブルCの形状を認識して、認識結果によりロボットRの制御を行う装置である。
図1において、形状認識装置1は、CPU(Central Processing Unit)11と、ROM12と、RAM13と、入力部14と、表示部15と、記憶部16と、通信部17と、撮像部18とを備えている。
CPU11は、記憶部16に記憶された各種プログラムを実行することにより、形状認識装置1の全体を制御する。例えば、CPU11は、ケーブルCの形状認識を行う処理(以下、「形状認識処理」と称する。)のためのプログラムや形状認識処理の結果を用いてロボットRの制御を行う処理(以下、「ロボット動作制御処理」と称する。)のためのプログラムを実行する。
形状認識処理及びロボット動作制御処理のためのプログラムを実行することにより、CPU11には、機能的構成として、センサ情報取得部11aと、ロボット状態取得部11bと、画像処理部11cと、シミュレーション処理部11dと、形状表示部11eと、ロボット制御部11fとが形成される。
センサ情報取得部11aは、撮像部18から出力されるケーブルCの撮像画像のデータやケーブルCに関する各種データ(例えば、特徴点、位置あるいはサイズ等のデータ)を取得する。また、センサ情報取得部11aは、形状認識処理においてケーブルCの形状認識に用いるための背景画像のデータを取得する。背景画像は、ロボットRがケーブルCを把持等する領域においてケーブルCが存在しない状態を撮像した画像である。
ロボット状態取得部11bは、ロボットRの各軸の検出データ(モータの回転位置等)、ロボットRを表すモデルのデータ、撮像部18の位置及び撮像パラメータのデータ(カメラの視点や画角等)に基づいて、ロボットRの状態(例えば、ハンド部分の位置及び形状)のデータを取得する。なお、ロボットRのモデルのデータとしては、ロボットRを表すCAD(Computer Aided Design)のデータ等、ロボットRを正確に表すものの他、略円筒形のモデルのデータ等、ロボットRを概略的に近似するものを用いることが可能である。
画像処理部11cは、センサ情報取得部11aによって取得された背景画像のデータと、ケーブルCが撮像されている撮像画像のデータとに基づいて、ケーブルCの形状を認識する画像処理を実行する。このとき、本実施形態における画像処理部11cは、撮像画像のデータにおける背景を除外する処理(背景除外処理)と、ロボットRの画像を除外する処理(ロボット除外処理)とを実行する。
図2は、背景画像のデータを用いて、ケーブルC及びロボットRが撮像されている撮像画像のデータから背景が除外される処理(背景除外処理)を示す模式図である。
図2に示すように、本実施形態において、画像処理部11cは、背景画像と同一の画角で撮像されたケーブルCを含む撮像画像のデータと、背景画像のデータとのXOR(eXclusive OR)を取る論理演算を実行する。これにより、ケーブルCを含む撮像画像において、背景が除外され、ケーブルC及びロボットRの領域が抽出される。なお、このようにXORを取る論理演算以外であっても、ケーブルC等の領域を抽出できる画像処理であれば、他の方法を用いることが可能である。
図3は、ケーブルC及びロボットRの領域が抽出された画像のデータからロボットRの画像を除外する処理(ロボット除外処理)を示す模式図である。
図3に示すように、画像処理部11cは、ロボット状態取得部11bによって取得されたロボットRの現在の状態から、ロボットRのみが含まれる画像のデータを生成する。そして、画像処理部11cは、ケーブルC及びロボットRの領域が抽出された画像(背景を除外済みの画像)のデータと、生成したロボットRのみが含まれる画像のデータとのXORを取る論理演算を実行する。これにより、ケーブルCとロボットRとを含む画像において、ロボットRの画像が除外され、ケーブルCの形状が認識される。なお、このようにXORを取る論理演算以外であっても、ロボットRの画像を除外できる画像処理であれば、他の方法を用いることが可能である。
図1に示す画像処理部11cは、認識されたケーブルCの形状において、予め指定された把持ポイント(ロボットRが把持すべきケーブルCの部分)を特定する。
図4は、ケーブルCの把持ポイントが特定される状態を示す模式図である。
図4に示すように、ケーブルCの把持ポイントは、ケーブルCの全体が撮像されている状態(例えば、キャリブレーション時等)において、オペレータが撮像画像上で把持ポイントとする部分を選択することで指定される。そして、画像処理部11cは、以降の動作においてケーブルCの形状が変化した場合にも、ケーブルCの特徴点に基づいて、指定された把持ポイントをワーピング(マッピング)することにより、把持ポイントを継続的に特定する。一例として、ケーブルCの端部を特徴点とし、把持ポイントを端部から所定距離(例えば、50mm)の位置に指定した場合、ケーブルの形状が変化しても、ワーピング(マッピング)によって、特徴点であるケーブルCの端部から所定距離の位置が把持ポイントとして継続的に特定される。
ここで、ケーブルCが撮像されている撮像画像のデータにおいて、障害物等によって遮られ、把持ポイントが特定できない場合には、画像処理部11cは、把持ポイントをケーブルCの撮像されている部分に変更する。例えば、画像処理部11cは、ケーブルCの撮像されている部分において、障害物等によって遮られている把持ポイントに最も近い部分に新たな把持ポイントを設定する。なお、当初の把持ポイントが再び特定可能となった場合には、新たに設定した把持ポイントを破棄し、当初の把持ポイントに戻すこととしてもよい。
図1に示すシミュレーション処理部11dは、ケーブルCの撮像画像のデータと、ケーブルCの物理的な特性とに基づいて、ケーブルCの形状をシミュレーションする。本実施形態において、シミュレーション処理部11dによるケーブルCの形状のシミュレーションは、画像処理部11cによってケーブルCの形状が認識される周期(「周期A」ともいう)よりも短い周期(「周期B」ともいう)で実行される。そして、シミュレーション処理部11dは、シミュレーション結果を用いて、画像処理部11cによって認識されるケーブルCの形状を補間する。周期B/周期Aは、例えば5%〜30%である。
本実施形態において、シミュレーション処理部11dは、画像処理部11cによってケーブルCの形状が認識される周期の間を、シミュレーション結果によって時間的に補間する。また、シミュレーション処理部11dは、画像処理部11cによって認識されたケーブルCの形状が部分的に欠落している(遮られている)場合に、ケーブルCの認識結果における欠落した部分をシミュレーション結果によって物理的に補間する。
図5は、画像処理部11cの認識結果をシミュレーション処理部11dによって時間的に補間する状態を示す模式図である。
図5に示すように、画像処理部11cによってケーブルCの認識結果が出力されるタイミングの間において、シミュレーション処理部11dのシミュレーション結果が出力されることにより、ケーブルCの形状をリアルタイムにより近い周期で認識することができる。
また、図6は、画像処理部11cの認識結果がシミュレーション処理部11dによって空間的に補間可能であることを示す模式図である。
なお、図6においては、(A)撮像部18による撮像画像、(B)抽出されたケーブルCの領域(ケーブルCと推定される領域)、(C)シミュレーション処理部11dのシミュレーション結果が、(a)欠落がなくケーブルCが撮像された場合、(b)異物と共に欠落がなくケーブルCが撮像された場合、(c)ケーブルCの一部が欠落して撮像された場合、のそれぞれについて示されている。
図6に示すように、欠落がなくケーブルCが撮像された場合には、撮像部18による撮像画像から、ケーブルCの領域が抽出され、ケーブルCの形状が適切に認識される。
また、異物(工具や不要な部品等)と共に、欠落がなくケーブルCが撮像された場合には、撮像部18による撮像画像から、ケーブルCの領域と共に、異物の領域がケーブルCと推定される領域として抽出される。この場合、シミュレーション処理部11dのシミュレーション結果を用いることで、ケーブルCの領域として尤度が低い異物の領域を除外することができる。例えば、抽出された物体の色、位置、形状等のパラメータにおいて、異物として判定するための閾値を設定しておき、ケーブルCのシミュレーション結果と比較して、これらのパラメータが閾値を超えている物体については、異物として除外することができる。
さらに、ケーブルCの一部が欠落して撮像された場合には、ケーブルCの領域が分断して抽出される。このとき、シミュレーション処理部11dのシミュレーション結果において、分断されているケーブルCの領域に相当する部分を特定し、撮像画像から認識されるケーブルCの形状を空間的に補間することができる。
このように、画像処理部11cによって出力されたケーブルCの認識結果に欠落した部分がある場合、シミュレーション処理部11dのシミュレーション結果によって欠落した部分が補間されることにより、ケーブルCの形状全体を適切に認識することができる。
なお、シミュレーション処理部11dがケーブルCの形状をシミュレーションする場合、種々の方法を用いることができるが、一例として、特開2013−35083号公報又は特開2016−87750号公報に開示された方法を採用することができる。
また、シミュレーション処理部11dによってケーブルCの形状を補間するためには、撮像時においてケーブルCが遮られる状態が一時的であること、シミュレーションの開始時には、ケーブルCの全体が撮像されていることが条件となる。
形状表示部11eは、画像処理部11cによって認識されたケーブルCの形状又はシミュレーション処理部11dによって補間されたケーブルCの形状を表示部15に表示する。なお、形状表示部11eは、ケーブルCの形状を表示する場合、把持ポイントを識別(例えば、赤色に着色する等)して表示する。
ロボット制御部11fは、画像処理部11cによって特定されたケーブルCの把持ポイントを目標位置として、ケーブルCを把持するためのロボットRの動作軌跡を算出する。また、ロボット制御部11fは、画像処理部11cによって認識されたケーブルCの形状又はシミュレーション処理部11dによって補間されたケーブルCの形状に基づいて、把持されたケーブルCが物体と干渉しないようにロボットRを動作させる動作軌跡を算出する。そして、ロボット制御部11fは、算出した動作軌跡に沿ってロボットRを動作させるための各モータの制御データを、ロボットRに出力する。これにより、ロボットRはケーブルCの把持ポイントを把持し、把持したケーブルCが物体と干渉しない動作軌跡で動作しながら、ケーブルCの組み立て等を行う。
図1に戻り、ROM12には、形状認識装置1を制御するための各種システムプログラムが予め書き込まれている。
RAM13は、DRAM(Dynamic Random Access Memory)等の半導体メモリによって構成され、CPU11が各種処理を実行する際に生成されるデータを記憶する。
入力部14は、マウスやキーボード等の入力装置によって構成され、ユーザによる形状認識装置1への各種情報の入力を受け付ける。
表示部15は、LCD(Liquid Crystal Display)等の表示装置によって構成され、形状認識装置1の各種処理結果を表示する。
記憶部16は、ハードディスクあるいはフラッシュメモリ等の不揮発性の記憶装置によって構成され、形状認識処理及びロボット動作制御処理のためのプログラム等を記憶する。
通信部17は、無線LANやUSB等、所定の通信規格に基づいて信号処理を行う通信インターフェースを備え、形状認識装置1がロボットR等、他の装置との間で行う通信を制御する。
撮像部18は、CCD(Charge Coupled Device)素子の撮像素子、ステレオ3Dカメラ等を備えており、レンズによって集光された被写体像を撮像画像のデータとして出力する。本実施形態において、撮像部18は、ビジョンセンサによって構成され、ケーブルCの撮像画像のデータに加え、ケーブルCに関する各種データ(例えば、特徴点、位置あるいはサイズ等のデータ)を検出することができる。
[動作]
次に、形状認識装置1の動作を説明する。
[形状認識処理]
図7は、形状認識装置1のCPU11が実行する形状認識処理の流れを説明するフローチャートである。
形状認識処理は、入力部14を介して、形状認識処理を起動させる指示が入力されることにより開始される。
形状認識処理が開始されると、ステップS1において、センサ情報取得部11aは、ロボットRがケーブルCを把持等する領域においてケーブルCが存在しない状態を表す背景画像を取得する。
ステップS2において、ロボット状態取得部11bは、ロボットRの各軸の検出データ(ロボットの状態)を取得する。
ステップS3において、センサ情報取得部11aは、撮像部18から撮像画像のデータを取得する。このとき取得される撮像画像のデータには、背景及びケーブルCの画像が含まれ、ロボットRがケーブルCを把持する動作を行っている場合には、ロボットRの画像も含まれる。以下の処理では、撮像画像のデータにロボットRの画像が含まれているものとする。
ステップS4において、画像処理部11cは、背景画像のデータと、ケーブルCが撮像されている撮像画像のデータとに基づいて、撮像画像のデータにおける背景を除外する処理(背景除外処理)を実行する。これにより、ケーブルCを含む撮像画像において、背景が除外され、ケーブルC及びロボットRの領域が抽出される。
ステップS5において、画像処理部11cは、背景が除外された画像にロボットRの画像が含まれているか否かの判定を行う。背景が除外された画像にロボットRの画像が含まれているか否かについては、例えば、ロボットRのモデルと一致する物体、あるいは、ケーブルCとしての尤度が低い物体(色や形がケーブルCと異なる物体)が撮像画像に含まれるか否かによって判定することができる。
背景が除外された画像にロボットRの画像が含まれている場合、ステップS5においてYESと判定されて、処理はステップS6に移行する。
一方、背景が除外された画像にロボットRの画像が含まれていない場合、ステップS5においてNOと判定されて、処理はステップS8に移行する。
ステップS6において、画像処理部11cは、ロボットRの現在の状態から画角におけるロボットRの位置を特定し、ロボットRのみが含まれる画像のデータを生成する。
ステップS7において、画像処理部11cは、ケーブルC及びロボットRの領域が抽出された画像(背景を除外済みの画像)のデータと、生成したロボットRのみが含まれる画像のデータとに基づいて、ケーブルC及びロボットRの領域が抽出された画像からロボットRの画像を除外する処理(ロボット除外処理)を実行する。これにより、ケーブルCとロボットRとを含む画像において、ロボットRの画像が除外される。
ステップS8において、画像処理部11cは、画像のデータからケーブルCの形状を認識する。
ステップS9において、ケーブルCの撮像画像のデータと、ケーブルCの物理的な特性とに基づいて、ケーブルCの形状をシミュレーションする。
ステップS10において、画像処理部11cは、認識されたケーブルCの形状が部分的に欠落しているか否か又は異物があるか否かの判定を行う。
認識されたケーブルCの形状が部分的に欠落している場合又は異物がある場合、ステップS10においてYESと判定されて、処理はステップS11に移行する。
一方、認識されたケーブルCの形状が部分的に欠落していない場合かつ異物がない場合、ステップS10においてNOと判定されて、処理はステップS12に移行する。
ステップS11において、画像処理部11cは、ケーブルCの認識結果における欠落した部分をシミュレーション結果によって物理的に補間すると共に、異物を除外する。
なお、本実施形態においては、補間及び異物の除去の両方を行っているが、一方のみを行ってもよい。
ステップS12において、形状表示部11eは、ケーブルCの形状(画像処理部11cによって認識されたケーブルCの形状又はシミュレーション処理部11dによって補間されたケーブルCの形状)を表示部15に表示する。
ステップS13において、センサ情報取得部11aは、撮像部18による撮像タイミング(ビジョンセンサのデータ取得タイミング)となっているか否かの判定を行う。
撮像部18による撮像タイミング(ビジョンセンサのデータ取得タイミング)となっている場合、ステップS13においてYESと判定されて、処理はステップS2に移行する。
一方、撮像部18による撮像タイミング(ビジョンセンサのデータ取得タイミング)となっていない場合、ステップS13においてNOと判定されて、処理はステップS9に移行する。
このような処理が、形状認識処理を終了させる指示が入力されるまで繰り返される。
[ロボット動作制御処理]
次に、ロボット動作制御処理について説明する。
図8は、形状認識装置1のCPU11が実行するロボット動作制御処理の流れを説明するフローチャートである。
ロボット動作制御処理は、入力部14を介して、ロボット動作制御処理を起動させる指示が入力されることにより開始される。
ロボット動作制御処理が開始されると、ステップS21において、ロボット制御部11fは、形状認識処理で取得されるケーブルCの認識結果を取得する。
ステップS22において、画像処理部11cは、認識されたケーブルCの形状に把持ポイントをマッピングする。
ステップS23において、画像処理部11cは、マッピングされた把持ポイントが撮像画像において特定できるか否かの判定を行う。
マッピングされた把持ポイントが撮像画像において特定できない場合、ステップS23においてNOと判定されて、処理はステップS24に移行する。
一方、マッピングされた把持ポイントが撮像画像において特定できる場合、ステップS23においてYESと判定されて、処理はステップS26に移行する。
ステップS24において、画像処理部11cは、把持ポイントが特定できないことを表す警報(音又はメッセージの表示等)を出力する。
ステップS25において、画像処理部11cは、把持ポイントをケーブルCの撮像されている部分に変更すると共に、ロボット制御部11fは、変更された把持ポイントを目標位置として、ロボットRの動作軌跡を算出する。
ステップS25の後、処理はステップS27に移行する。
ステップS26において、ロボット制御部11fは、特定された把持ポイントを目標位置として、ロボットRの動作軌跡を算出する。
ステップS27において、ロボット制御部11fは、ステップS25又はステップS26で算出された動作軌跡でロボットRが動作するようにロボットRに対して制御データを出力する。
このような処理が、ロボット動作制御処理を終了させる指示が入力されるまで繰り返される。
[効果]
以上のように、本実施形態に係る形状認識装置1においては、撮像部18によって撮像されたケーブルCの画像に基づいて、画像処理部11cがケーブルCの形状を認識する。また、撮像部18によって撮像されたケーブルCの画像に基づいて、シミュレーション処理部11dがケーブルCの形状をシミュレーションする。そして、シミュレーション処理部11dは、ケーブルCの形状のシミュレーション結果に基づいて、画像処理部11cによるケーブルCの形状の認識結果を補間する。
これにより、ケーブルCを撮像した画像によるケーブルCの形状の認識結果をシミュレーション結果によって補間することができるため、ケーブルCを撮像した画像を用いた認識結果のみの場合よりも、リアルタイム性及び精度を高めた認識結果を得ることができる。
即ち、形状認識装置1によれば、ケーブルCの形状認識をリアルタイムかつ高精度に実現することが可能となる。
また、形状認識装置1において、シミュレーション処理部11dは、撮像部18が撮像したケーブルCの画像に基づいて、ケーブルCの形状を、撮像部18の撮像周期よりも短い周期でシミュレーションする。
これにより、ケーブルCを撮像した画像によるケーブルCの形状の認識結果を、シミュレーション結果によって時間的に補間することができる。
また、形状認識装置1において、画像処理部11cは、撮像部18が撮像したケーブルCの画像と、背景のみを撮像した画像とに基づいて、撮像部18が撮像したケーブルCの画像の背景部分を除外した画像を取得する。
これにより、撮像された画像に写る物体を適切に取得することができる。
また、形状認識装置1において、画像処理部11cは、背景部分を除外した画像と、当該背景部分を除外した画像におけるロボットRを表す画像とに基づいて、背景部分を除外した画像に含まれるロボットRの画像を除外した画像を取得する。
これにより、ケーブルCを把持するロボットRの画像を除外して、ケーブルCの画像のみを適切に取得することができる。
また、形状認識装置1において、シミュレーション処理部11dは、撮像部18が撮像したケーブルCの画像において、ケーブルCの一部が欠落している場合又は異物がある場合、ケーブルCの形状のシミュレーション結果に基づいて、ケーブルCの形状を補間すると共に、異物を除外する。
これにより、ケーブルCを撮像した画像によるケーブルCの形状の認識結果を、シミュレーション結果によって空間的に補間することができる。
また、形状認識装置1において、ロボット制御部11fは、画像処理部11cによるケーブルCの形状の認識結果又はシミュレーション処理部11dによって補間されたケーブルCの形状の認識結果に基づいて、ロボットRを動作させる動作軌跡を生成する。
これにより、ケーブルCの形状の認識結果を適切に反映させて、ロボットRを動作させることができる。
また、形状認識装置1において、画像処理部11cは、ケーブルCにおいてロボットRが把持すべき部分として設定されている把持ポイントを特定する。ロボット制御部11fは、画像処理部11cが特定した把持ポイントを把持させるようにロボットRの動作軌跡を生成する。
これにより、設定された把持ポイントを適切に把持して、ロボットRによるケーブルCの組み立てを行うことができる。
また、形状認識装置1において、画像処理部11cは、ケーブルCの把持ポイントを撮像できない場合には、警報を発すると共に、新たに把持ポイントを設定する。ロボット制御部11fは、新たに設定された把持ポイントを把持させるようにロボットRの動作軌跡を生成する。
これにより、設定されている把持ポイントが特定できないことを外部に報知しつつ、適切な動作に変更してロボットRを制御することができる。
[変形例]
なお、上述の実施形態において、形状認識装置1によって形状を認識する対象物として、ケーブルCを例に挙げて説明したが、これに限られない。即ち、形状認識装置1によって形状を認識する対象物としては、柔軟性を有する各種不定形物が含まれる。不定形物としては、ケーブル、ベルト、ワイヤ等の線状体が例示されるが、線状体以外でもよい。
以上説明した実施形態の形状認識装置1の機能の全部又は一部は、ハードウェア、ソフトウェア又はこれらの組合せにより実現することができる。ここで、ソフトウェアによって実現されるとは、プロセッサがプログラムを読み込んで実行することにより実現されることを意味する。ハードウェアで構成する場合、形状認識装置1の機能の一部又は全部を、例えば、ASIC(Application Specific Integrated Circuit)、ゲートアレイ、FPGA(Field Programmable Gate Array)、CPLD(Complex Programmable Logic Device)等の集積回路(IC)で構成することができる。
形状認識装置1の機能の全部又は一部をソフトウェアで構成する場合、形状認識装置1の動作の全部又は一部を記述したプログラムを記憶した、ハードディスク、ROM等の記憶部、演算に必要なデータを記憶するDRAM、CPU、及び各部を接続するバスで構成されたコンピュータにおいて、演算に必要な情報をDRAMに記憶し、CPUで当該プログラムを動作させることで実現することができる。
これらのプログラムは、様々なタイプのコンピュータ可読媒体(computer readable medium)を用いて格納され、コンピュータに供給することができる。コンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。コンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュメモリ、RAM(Random Access Memory))を含む。
また、これらのプログラムは、ネットワークを介してユーザのコンピュータにダウンロードされることにより配布されてもよい。
以上、本発明の実施形態について詳細に説明したが、前述した実施形態は、本発明を実施するにあたっての具体例を示したに過ぎない。本発明の技術的範囲は、前記実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の変更が可能であり、それらも本発明の技術的範囲に含まれる。
1 形状認識装置
11 CPU
11a センサ情報取得部
11b ロボット状態取得部
11c 画像処理部
11d シミュレーション処理部
11e 形状表示部
11f ロボット制御部
12 ROM
13 RAM
14 入力部
15 表示部
16 記憶部
17 通信部
18 撮像部
C ケーブル(不定形物)

Claims (10)

  1. ロボットによって組み立てられる、柔軟性を有する不定形物の形状を認識する形状認識装置であって、
    前記不定形物を撮像する撮像部と、
    前記撮像部が撮像した前記不定形物の画像に基づいて、前記不定形物の形状を認識する画像処理部と、
    前記撮像部が撮像した前記不定形物の画像に基づいて、前記不定形物の形状をシミュレーションするシミュレーション処理部と、を備え、
    前記シミュレーション処理部は、前記不定形物の形状のシミュレーション結果に基づいて、前記画像処理部による前記不定形物の形状の認識結果を補間する形状認識装置。
  2. 前記シミュレーション処理部は、前記撮像部が撮像した前記不定形物の画像に基づいて、前記不定形物の形状を、前記撮像部の撮像周期よりも短い周期でシミュレーションする請求項1に記載の形状認識装置。
  3. 前記画像処理部は、前記撮像部が撮像した前記不定形物の画像と、背景のみを撮像した画像とに基づいて、前記撮像部が撮像した前記不定形物の画像の背景部分を除外した画像を取得する請求項1又は2に記載の形状認識装置。
  4. 前記画像処理部は、前記背景部分を除外した画像と、当該背景部分を除外した画像における前記ロボット画像とに基づいて、前記背景部分を除外した画像に含まれる前記ロボットの画像を除外した画像を取得する請求項3に記載の形状認識装置。
  5. 前記シミュレーション処理部は、前記撮像部が撮像した前記不定形物の画像において、前記不定形物の一部が欠落している場合又は異物がある場合、前記不定形物の形状のシミュレーション結果に基づいて、前記不定形物の形状を補間するか又は異物を除外する請求項1から4のいずれか1項に記載の形状認識装置。
  6. 前記画像処理部による前記不定形物の形状の認識結果又は前記シミュレーション処理部によって補間された前記不定形物の形状の認識結果に基づいて、前記ロボットを動作させる動作軌跡を生成するロボット制御部を備える請求項1から5のいずれか1項に記載の形状認識装置。
  7. 前記画像処理部は、前記不定形物において前記ロボットが把持すべき部分として設定されている把持ポイントを特定し、
    前記ロボット制御部は、前記画像処理部が特定した前記把持ポイントを把持させるように前記ロボットの前記動作軌跡を生成する請求項6に記載の形状認識装置。
  8. 前記画像処理部は、前記不定形物の前記把持ポイントを撮像できない場合には、警報を発すると共に、新たに把持ポイントを設定し、
    前記ロボット制御部は、新たに設定された把持ポイントを把持させるように前記ロボットの前記動作軌跡を生成する請求項7に記載の形状認識装置。
  9. ロボットによって組み立てられる、柔軟性を有する不定形物の形状を認識するための形状認識方法であって、
    前記不定形物を撮像する撮像ステップと、
    前記撮像ステップで撮像された前記不定形物の画像に基づいて、前記不定形物の形状を認識する画像処理ステップと、
    前記撮像ステップで撮像された前記不定形物の画像に基づいて、前記不定形物の形状をシミュレーションするシミュレーション処理ステップと、を含み、
    前記シミュレーション処理ステップでは、前記不定形物の形状のシミュレーション結果に基づいて、前記画像処理ステップにおける前記不定形物の形状の認識結果が補間される形状認識方法。
  10. ロボットによって組み立てられる、柔軟性を有する不定形物の形状を認識する形状認識装置を制御するコンピュータに、
    前記不定形物を撮像させる撮像制御機能と、
    前記撮像制御機能によって撮像された前記不定形物の画像に基づいて、前記不定形物の形状を認識する画像処理機能と、
    前記撮像制御機能によって撮像された前記不定形物の画像に基づいて、前記不定形物の形状をシミュレーションするシミュレーション処理機能と、を実現させ、
    前記シミュレーション処理機能は、前記不定形物の形状のシミュレーション結果に基づいて、前記画像処理機能による前記不定形物の形状の認識結果を補間するプログラム。
JP2017104819A 2017-05-26 2017-05-26 形状認識装置、形状認識方法及びプログラム Active JP6499716B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017104819A JP6499716B2 (ja) 2017-05-26 2017-05-26 形状認識装置、形状認識方法及びプログラム
DE102018206193.9A DE102018206193A1 (de) 2017-05-26 2018-04-23 Formerkennungsvorrichtung, Formerkennungsverfahren und Programm
US15/964,472 US10521687B2 (en) 2017-05-26 2018-04-27 Shape recognition device, shape recognition method, and program
CN201810473576.8A CN108932363B (zh) 2017-05-26 2018-05-17 形状识别装置、形状识别方法以及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017104819A JP6499716B2 (ja) 2017-05-26 2017-05-26 形状認識装置、形状認識方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018200558A JP2018200558A (ja) 2018-12-20
JP6499716B2 true JP6499716B2 (ja) 2019-04-10

Family

ID=64109361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017104819A Active JP6499716B2 (ja) 2017-05-26 2017-05-26 形状認識装置、形状認識方法及びプログラム

Country Status (4)

Country Link
US (1) US10521687B2 (ja)
JP (1) JP6499716B2 (ja)
CN (1) CN108932363B (ja)
DE (1) DE102018206193A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6880457B2 (ja) * 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
JP6826069B2 (ja) 2018-04-18 2021-02-03 ファナック株式会社 ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
JP7120153B2 (ja) * 2019-05-21 2022-08-17 トヨタ自動車株式会社 ワーク識別方法
CN110977939B (zh) * 2019-11-26 2021-05-04 重庆凡聚智能科技有限公司 目标工件识别定位系统
JP7342974B2 (ja) * 2020-01-15 2023-09-12 オムロン株式会社 制御装置、学習装置、制御方法、及び制御プログラム
WO2025017796A1 (ja) * 2023-07-14 2025-01-23 ファナック株式会社 対象物検出装置、及びコンピュータ読み取り可能な記録媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666540B2 (ja) 1988-06-28 1994-08-24 株式会社日立製作所 ケーブル組立装置
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
JP3855050B2 (ja) * 2002-04-26 2006-12-06 独立行政法人産業技術総合研究所 衣類状態推定方法及びプログラム
ES2222853T1 (es) * 2002-07-15 2005-02-16 Baylor College Of Medicine Sistema de evaluacion e imagen que identifica caracteristicas de especimenes biologicos.
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP5288447B2 (ja) * 2008-03-28 2013-09-11 学校法人早稲田大学 手術支援システム、接近状態検出装置及びそのプログラム
JP5145605B2 (ja) * 2008-06-19 2013-02-20 セブン ドリーマーズ ラボラトリーズ,インコーポレイテッド 変形性薄物展開装置
CN101425178B (zh) 2008-11-05 2011-12-28 沈阳工业大学 一种柱状喷射沉积坯边缘轮廓图像修复的方法
US8606540B2 (en) * 2009-11-10 2013-12-10 Projectionworks, Inc. Hole measurement apparatuses
JP5523386B2 (ja) * 2011-04-15 2014-06-18 三菱電機株式会社 衝突回避装置
JP6088605B1 (ja) 2015-08-31 2017-03-01 ファナック株式会社 視覚センサを用いたロボットシステム
CN105809168A (zh) 2015-12-23 2016-07-27 佛山市质量计量监督检测中心 标准恒温槽玻璃温度计的图像模糊识别方法

Also Published As

Publication number Publication date
CN108932363B (zh) 2023-03-24
US10521687B2 (en) 2019-12-31
DE102018206193A1 (de) 2018-11-29
US20180341828A1 (en) 2018-11-29
CN108932363A (zh) 2018-12-04
JP2018200558A (ja) 2018-12-20

Similar Documents

Publication Publication Date Title
JP6499716B2 (ja) 形状認識装置、形状認識方法及びプログラム
CN108297096B (zh) 校准装置、校准方法以及计算机能够读取的介质
JP6230751B1 (ja) 物体検出装置および物体検出方法
JP6331517B2 (ja) 画像処理装置、システム、画像処理方法、および画像処理プログラム
JP6478136B1 (ja) 内視鏡システム、内視鏡システムの作動方法
JP7292000B2 (ja) 動的なカメラ較正
JP6444573B2 (ja) 作業認識装置および作業認識方法
CN109598264B (zh) 物体抓取方法及装置
KR20170053585A (ko) 로봇 제어 장치 및 로봇 제어 방법
WO2010047226A1 (ja) 車線区画線検出装置、車線区画線検出方法、及び車線区画線検出プログラム
JP2019124539A5 (ja)
JP2015186085A (ja) 移動量導出装置、及び、移動量導出方法
JP4962304B2 (ja) 歩行者検出装置
JP2012226645A (ja) 画像処理装置および方法、記録媒体並びにプログラム
CN112347837A (zh) 图像处理系统
JP2021128660A (ja) 操作検出方法、操作検出装置及び表示システム
CN111316283A (zh) 姿势识别方法及装置
JP2002259984A (ja) 動作解析装置及び動作解析方法
TWI550425B (zh) 三維點雲融合二維影像的方法、裝置與儲存媒體
EP3889738A1 (en) A system and a method for calibrating a user interface
WO2018074319A1 (ja) 画像認識装置
US12190598B2 (en) Method and device for recognizing an object for a vehicle including a mono camera, and camera system
WO2022004189A1 (ja) 作業判定装置および作業判定方法
JP4039423B2 (ja) エッジ位置算出装置、障害物検出システム
JP5925047B2 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180920

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190315

R150 Certificate of patent or registration of utility model

Ref document number: 6499716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150