[go: up one dir, main page]

JP2019113895A - ワークを撮像する視覚センサを備える撮像装置 - Google Patents

ワークを撮像する視覚センサを備える撮像装置 Download PDF

Info

Publication number
JP2019113895A
JP2019113895A JP2017244517A JP2017244517A JP2019113895A JP 2019113895 A JP2019113895 A JP 2019113895A JP 2017244517 A JP2017244517 A JP 2017244517A JP 2017244517 A JP2017244517 A JP 2017244517A JP 2019113895 A JP2019113895 A JP 2019113895A
Authority
JP
Japan
Prior art keywords
image
workpiece
robot
camera
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017244517A
Other languages
English (en)
Other versions
JP6734253B2 (ja
Inventor
勇太 並木
Yuta Namiki
勇太 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017244517A priority Critical patent/JP6734253B2/ja
Priority to US16/195,860 priority patent/US11267142B2/en
Priority to DE102018009815.0A priority patent/DE102018009815B4/de
Priority to CN201811553292.6A priority patent/CN109940662B/zh
Publication of JP2019113895A publication Critical patent/JP2019113895A/ja
Application granted granted Critical
Publication of JP6734253B2 publication Critical patent/JP6734253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】環境光の変化または対象物の輝度変化が大きくても対象物の特徴を捉えることができる撮像装置を提供する。【解決手段】撮像装置は、カメラ6と、カメラ6を移動するロボット1と、画像を処理する制御装置2とを備える。ワーク38上に定義された検出面と、ワーク38を検出するためのロボット1の仮想的な位置である設定位置とが予め定められている。カメラ6は、複数の位置において複数の第1の画像を撮像する。制御装置2は、複数の第1の画像を、設定位置にて撮像した時の複数の第2の画像に変換する画像変換部53を含む。制御装置2は、複数の第2の画像を合成した合成画像を生成する合成部54と、合成画像に基づいて検出面においてワーク38の検出および検査のうち少なくとも一方を行う合成画像処理部55とを含む。【選択図】図2

Description

本発明は、ワークを撮像する視覚センサを備える撮像装置に関する。
従来の技術において、ロボットに取り付けられたハンドがワークを把持して、ワークを搬送するロボットシステムが知られている。ロボットがハンドでワークを把持した時に、所望の位置からずれてワークを把持する場合がある。また、ロボットに作業ツールが取り付けられ、架台に固定されたワークに対して所定の作業を行うロボットシステムが知られている。ワークを架台に固定するときに、ワークの位置が所望の位置からずれる場合がある。このようなロボットシステムでは、ロボットに把持されているワークのハンド内での位置のずれ、または、架台に固定されているワークの位置のずれを正確に認識することが好ましい。
近年においては、ロボットがハンドでワークを把持するときの位置のずれ、または、架台に固定されたワークの位置のずれをカメラにて撮像された画像を用いて検出することが知られている。例えば、カメラは、ロボットのアームの先端部に取り付けられる。架台に配置されたワークの位置を測定する場合に、カメラにてワークを撮像する。ワークの画像に基づいて、架台におけるワークの位置を検出することができる(例えば、特開2015−160264号公報および特開2003−305675号公報)。
特開2015−160264号公報 特開2003−305675号公報
架台に固定されたワークまたはロボットに支持されたワークを検出するためには、予め定められた位置に視覚センサを配置してワークの画像を撮像することができる。視覚センサにて撮像した画像からワークを検出するためには、ワークの輪郭線等の特徴を用いることができる。しかしながら、画像を撮像する条件によっては、画像が鮮明にならずに、ワークの検出に適した画像を得られない場合がある。例えば、建物の窓から進入する太陽光の強度や向き、または、建物に配置された照明の強度や向きなどが変わる場合がある。すなわち、環境光の強度や向きが変化する場合がある。
環境光の強度や向きが変化すると、カメラにて写すワークの表面の明るさが変化して、画像のコントラストが低下する場合がある。または、ワークに光沢がある場合に、ワークの表面で正反射した光により輝度が高くなりすぎて、ワークの輪郭線などの特徴が画像に写らない場合がある。換言すると、画像においてハレーションが生じる場合がある。輪郭線などの特徴がある部分が画像に写されていないと、ワークを検出できなかったり、ワークの表面の状態を正しく計測できなかったりする場合がある。
本開示の一態様の撮像装置は、ワークの第1の画像を撮像する視覚センサと、ワークおよび視覚センサのうちの一方を移動して、他方に対する一方の相対的な位置を変更する移動装置とを備える。撮像装置は、第1の画像を処理する画像処理装置を備える。画像処理装置は、第1の画像と第1の画像を撮像した時の移動装置の位置とを組にして記憶する記憶部を含む。ワーク上に定義された検出面と、移動装置の位置である設定位置とが予め定められて記憶部に記憶されている。視覚センサは、ワークに対する視覚センサの相対位置が互いに異なるように複数の第1の画像を撮像する。画像処理装置は、複数の第1の画像を、第1の画像を撮像した時の移動装置の位置に基づいて、設定位置にて撮像したと仮定した時の複数の第2の画像に変換する画像変換部を含む。画像処理装置は、複数の第2の画像を合成した合成画像を生成する合成部を含む。画像処理装置は、合成画像に基づいて検出面においてワークの検出および検査のうち少なくとも一方を行う合成画像処理部を含む。
本開示の他の態様の撮像装置は、ワークの第1の画像を撮像する複数の視覚センサと、ワークを固定する第1の固定部と、視覚センサを固定する第2の固定部とを備える。撮像装置は、第1の画像を処理する画像処理装置を備える。複数の視覚センサは、互いに異なる位置からワークを撮像するように配置されている。画像処理装置は、複数の視覚センサにて撮像した第1の画像と第1の画像を撮像した視覚センサの位置とを組にして記憶する記憶部を含む。ワーク上に定義された検出面と、ワークを検出するための視覚センサの位置である検出位置とが予め定められて記憶部に記憶されている。画像処理装置は、複数の視覚センサにて撮像した複数の第1の画像を、それぞれの視覚センサの位置に基づいて、検出位置にて撮像したと仮定した時の複数の第2の画像に変換する画像変換部を含む。画像処理装置は、複数の第2の画像を合成した合成画像を生成する合成部を含む。画像処理装置は、合成画像に基づいて検出面においてワークの検出および検査のうち少なくとも一方を行う合成画像処理部を含む。
本開示の一態様によれば、環境光の変化または対象物の輝度変化が大きくても対象物の特徴を捉えることができる撮像装置を提供することができる。
実施の形態における第1のロボットシステムの側面図である。 実施の形態におけるロボットシステムのブロック図である。 第1のロボットシステムにおいて、カメラの移動を説明するロボットの側面図である。 カメラの検出位置を説明するカメラおよびワークの側面図である。 制御装置にて処理される画像である。 実際に撮像された第1の画像の画素と検出位置にカメラが配置されたと仮定した時の第2の画像の画素との関係を説明するカメラおよび検出面の側面図である。 実際に撮像された第1の画像を拡大した画素の図である。 検出位置にて撮像したと仮定した時の第2の画像の画素値を算出する方法の説明図である。 実施の形態における第2のロボットシステムの側面図である。 実施の形態における第2のロボットシステムの他の側面図である。 実施の形態における搬送システムの側面図である。 実施の形態における搬送システムのブロック図である。 実施の形態における撮像装置の側面図である。 実施の形態における撮像装置のブロック図である。
図1から図14を参照して、実施の形態における撮像装置について説明する。本実施の形態の撮像装置は、視覚センサにて撮像された画像に基づいてワークを検出したり検査したりする。
図1は、本実施の形態における第1のロボットシステムの概略図である。図2は、本実施の形態におけるロボットシステムのブロック図である。図1および図2を参照して、ロボットシステム3は、ワーク38を把持するハンド5と、ハンド5を移動するロボット1とを備える。ロボットシステム3は、ロボットシステム3を制御する制御装置2を備える。また、ロボットシステム3は、ワーク38を載置する架台95を備える。
本実施の形態のハンド5は、ワーク38を把持したり解放したりするエンドエフェクタである。ロボット1に取り付けられるエンドエフェクタとしては、この形態に限られず、ロボットシステム3が行う作業に応じた任意の作業ツールを採用することができる。例えば、エンドエフェクタとして、溶接を実施する作業ツールまたはシール材をワークの表面に塗布する作業ツール等を採用することができる。また、ロボット1の手先に作業ツールを取り付けずに、カメラ6のみをロボット1の手先に取り付けることもできる。
本実施の形態のロボット1は、複数の関節部18を含む多関節ロボットである。ロボット1は、上部アーム11と下部アーム12とを含む。下部アーム12は、旋回ベース13に支持されている。旋回ベース13は、ベース14に支持されている。ロボット1は、上部アーム11の端部に連結されているリスト15を含む。リスト15は、ハンド5を固定するフランジ16を含む。ロボット1の構成部材は、予め定められた駆動軸の周りに回転するように形成される。ロボットとしては、この形態に限られず、作業ツールを移動可能な任意のロボットを採用することができる。
本実施の形態のロボット1は、上部アーム11等の構成部材を駆動するロボット駆動装置21を含む。ロボット駆動装置21は、上部アーム11、下部アーム12、旋回ベース13、およびリスト15を駆動する駆動モータを含む。関節部18において、ロボット1の構成部品の向きが変化することにより、ロボット1の位置および姿勢が変化する。ハンド5は、ハンド5を駆動するハンド駆動装置22を含む。本実施の形態のハンド駆動装置22は、空気圧によりハンド5を駆動する。ハンド駆動装置22は、シリンダに圧縮空気を供給するための空気ポンプおよび電磁弁を含む。
制御装置2は、ロボット1およびハンド5を制御する。制御装置2は、CPU(Central Processing Unit)と、CPUにバスを介して互いに接続されたRAM(Random Access Memory)およびROM(Read Only Memory)等を有する演算処理装置(計算機)を含む。ロボット1は、制御装置2の動作指令に基づいて駆動する。ロボット1は、動作プログラム41に基づいてワーク38を自動的に搬送する。ロボット駆動装置21およびハンド駆動装置22は、制御装置2により制御されている。
制御装置2には、ロボット1の動作を行うために予め作成された動作プログラム41が入力される。動作プログラム41は、記憶部42に記憶される。動作制御部43は、動作プログラム41に基づいてロボット1を駆動するための動作指令をロボット駆動部44に送出する。ロボット駆動部44は、駆動モータを駆動する電気回路を含み、動作指令に基づいてロボット駆動装置21に電気を供給する。
また、動作制御部43は、ハンド駆動装置22を駆動する動作指令をハンド駆動部45に送出する。ハンド駆動部45は、空気ポンプ等を駆動する電気回路を含み、動作指令に基づいて空気ポンプ等に電気を供給する。
ロボット1は、ロボット1の位置および姿勢を検出するための状態検出器を含む。本実施の形態における状態検出器は、ロボット駆動装置21の各駆動軸の駆動モータに取り付けられた位置検出器23を含む。例えば、位置検出器23は、ロボット駆動装置21の駆動モータが駆動するときの回転角を検出することができる。位置検出器23の出力により、ロボット1の位置および姿勢が検出される。状態検出器としては、駆動モータに取り付けられた位置検出器に限られず、ロボット1の位置および姿勢の検出が可能な任意の検出器を採用することができる。
ロボットシステム3には、ロボット1の位置および姿勢が変化した時に不動の基準座標系71が設定される。図1に示す例では、ロボット1のベース14に、基準座標系71の原点が配置されている。基準座標系71はワールド座標系とも称される。基準座標系71では、原点の位置が固定され、更に、座標軸の向きが固定されている。ロボット1の位置および姿勢が変化しても基準座標系71の位置および向きは変化しない。基準座標系71は、座標軸として、互いに直交するX軸、Y軸、およびZ軸を有する。また、X軸の周りの座標軸としてW軸が設定される。Y軸の周りの座標軸としてP軸が設定される。Z軸の周りの座標軸としてR軸が設定される。
また、フランジ16の表面のうちハンド5を固定する面において、フランジ座標系72が設定されている。フランジ座標系72は、手先座標系とも称される。フランジ座標系72の原点は、フランジ16の回転軸上に配置されている。フランジ座標系72は、互いに直交するX軸、Y軸、およびZ軸を有する。また、フランジ座標系72は、X軸の周りのW軸、Y軸の周りのP軸、およびZ軸の周りのR軸を有する。フランジ座標系72は、ロボット1の位置および姿勢が変化すると、原点の位置および座標系の向きがフランジ16と共に変化する。フランジ座標系72の座標値を行列にて変換することにより、基準座標系71の座標値を算出することができる。または、基準座標系71の座標値を行列にて変換することにより、フランジ座標系72の座標値を算出することができる。
本実施の形態におけるロボットシステム3は、ワーク38の検出および検査のうち少なくとも一方を実施する撮像装置を備える。第1のロボットシステム3においては、ハンド5がワーク38を把持する前に、架台95におけるワーク38の位置を検出する。撮像装置は、ワーク38の第1の画像を撮像する視覚センサとしてのカメラ6を備える。第1の画像は、カメラ6にて実際にワーク38を撮像した画像である。本実施の形態のカメラ6は、2次元の画像を撮像するカメラである。カメラ6は、ロボット1に支持されている。カメラ6は、支持部材を介してリスト15に固定されている。カメラ6は、ロボット1が位置および姿勢を変更することにより、ワーク38の撮像が可能になるようにロボット1に固定されている。
本実施の形態の撮像装置は、ワーク38およびカメラ6のうちの一方を移動して、他方に対する一方の相対的な位置を変更する移動装置を備える。ロボットシステム3では、ロボット1が移動装置として機能し、カメラ6はロボット1の手先に搭載される。ロボット1の位置および姿勢が変化すると、カメラ6の位置および姿勢が変化する。また、架台95は、ワーク38を固定する固定部として機能する。
撮像装置は、視覚センサにて撮像した第1の画像を処理する画像処理装置を備える。本実施の形態のロボットシステム3では、制御装置2が画像処理装置として機能する。制御装置2は、画像制御部51を含む。画像制御部51は、カメラ6に対して画像を撮像する指令を送出する撮像制御部57を含む。画像制御部51は、カメラ6にて撮像した第1の画像を処理する機能を有する。画像制御部51は、ワーク38の撮像に関する情報を記憶する記憶部56を含む。
図3に、ワークを撮像するときのカメラの移動を説明するロボットの側面図を示す。ロボット1の位置および姿勢が変化すると、カメラ6の位置および姿勢が変化する。カメラ6は、ワーク38の画像が撮像できる任意の位置に配置することができる。第1のロボットシステム3では、カメラ6の予め定められた複数の位置においてワーク38を撮像する。カメラ6は、撮像する位置が異なる複数の第1の画像を撮像する。図3に示す例においては、カメラ6は、位置P6aにおいてワーク38を撮像する。そして、矢印91に示すように、ロボット1が位置P6aから位置P6bにカメラ6を移動した後に、カメラ6は、ワーク38を撮像する。また、矢印92に示すように、ロボット1が位置P6cにカメラ6を移動した後に、カメラ6は、ワーク38を撮像する。このように、ワーク38に対するカメラ6の複数の相対位置が互いに異なるように、ワーク38の複数の第1の画像を撮像する。第1の画像を撮像するカメラ6の複数の位置P6a,P6b,P6cは予め定められている。また、位置P6a,P6b,P6cに対応するロボット1の位置および姿勢は、動作プログラム41に設定されている。カメラ6は、予め定められた複数のロボット1の位置および姿勢において複数の第1の画像を撮像する。
なお、ロボット1の複数の位置および姿勢を予め定めることなく、カメラ6は、複数の第1の画像を撮像しても構わない。例えば、カメラ6の初期位置を位置P6aとし、カメラ6の移動後の位置を位置P6bに設定することができる。そして、ロボット1が駆動して、カメラ6が位置P6aから位置P6bに移動する期間中に、一定の時間間隔でワーク38を撮像することができる。この場合には、カメラ6が第1の画像を撮像した瞬間のロボット1の位置および姿勢は、それぞれの第1の画像に紐づけて、第1の画像とロボット1の位置および姿勢の組として記憶部56に記憶しておく必要がある。ここではロボット1の位置および姿勢を記憶したが、カメラ6の位置および姿勢などの、ロボット1の位置および姿勢から計算できる位置を記憶してもよい。
図4に、ワークを撮像するカメラの位置およびワークを検出するための画像に対応するカメラの位置を説明する側面図を示す。本実施の形態においては、ワーク38を検出するための検出面75がワーク38上に予め定義されている。画像制御部51は、検出面75におけるワーク38の位置を検出する。検出面75は、ワーク38の一部の表面に沿うように設定することができる。特に、検出面75は、ワーク38の一部の表面を含むように設定することができる。そして、画像制御部51は、この表面上に写る特徴点や輝度値を用いてワーク38の検出および検査のうち少なくとも一方を実施する。検出面75は、基準座標系71にて表すことができる。検出面75の情報は、記憶部56に記憶されている。特徴点としては様々な部分を使用できるが、本実施の形態ではエッジ点を特徴点として用いる。エッジ点は、画像中で輝度勾配が大きな点であり、ワーク38の輪郭の形状を取得するために使用できる。エッジ点を抽出する方法は周知であるので、ここでは説明を省略する。
カメラ6にて第1の画像を撮像する位置は、位置P6a,P6b,P6cである。これに対して、ワーク38を検出するためのカメラ6の位置である検出位置P6dが予め定められている。検出位置P6dは、作業者が定めた仮想的な位置である。検出位置P6dは、カメラ6がワーク38の撮像が可能な任意の位置に設定することができる。また、検出位置6dにカメラ6を配置するためのロボット1の位置および姿勢が、移動装置の設定位置として予め定められている。このロボット1の位置および姿勢は、記憶部56に記憶されている。カメラ6の検出位置P6dの情報についても、基準座標系71にて記憶部56に記憶しておいても構わない。なお、検出位置P6dは、仮想的な位置に限られず、複数の第1の画像を撮像したカメラ6の位置のうち、1つの位置を選定しても構わない。
図5に、本実施の形態において撮像される第1の画像および第1の画像の処理を説明する概略図を示す。図2、図4、および図5を参照して、位置P6a,P6b,P6cにおいて、カメラ6が第1の画像61a,61b,61cを撮像する。第1の画像61aは、位置P6aにおいてカメラ6が撮像した画像であり、第1の画像61bは、位置P6bにおいてカメラ6が撮像した画像であり、第1の画像61cは、位置P6cにおいてカメラ6が撮像した画像である。次に、画像制御部51は、矢印93に示す様に、それぞれの第1の画像61a,61b,61cを、検出位置P6dにて撮像された時の第2の画像62a,62b,62cに変換する。
第2の画像62a,62b,62cは、カメラ6にて撮像された第1の画像61a,61b,61cに写されたワーク38を、検出位置P6dから撮像したと仮定したときの画像である。第2の画像62aは第1の画像61aを変換した画像であり、第2の画像62bは第1の画像61bを変換した画像であり、第2の画像62cは第1の画像61cを変換した画像である。
次に、画像制御部51は、矢印94に示す様に、複数の第2の画像62a,62b,62cを合成して、1つの合成画像63を生成する。実際の撮像した第1の画像61a,61b,61cにおいて、ワーク38のエッジ点が不鮮明な場合がある。例えば、実際に撮像した第1の画像61bの部分65に、ハレーションが生じてワーク38の輪郭の線が不鮮明な場合がある。このような場合でも、合成画像63を生成することにより、不鮮明な部分を排除することができる。
この結果、画像制御部51は、ワーク38の位置を正確に検出することができる。この後に、動作制御部43は、ワーク38の位置に基づいて、ロボット1の位置および姿勢を修正する。この制御により、ハンド5にて、ワーク38を把持することができる。
次に、図2から図5を参照して、本実施の形態における制御を詳細に説明する。作業者は予めカメラ6のキャリブレーションを実施し、カメラ6による計測処理の基準となるカメラ座標系と基準座標系との関係を関連づけるためのキャリブレーションデータ59が求められているものとする。キャリブレーションデータ59は、記憶部42に記憶される。画像制御部51は、キャリブレーションデータ59を記憶部42から取得し、記憶部56に記憶する。キャリブレーションデータ59には、カメラ6の焦点距離およびレンズの歪み等の情報を有する内部パラメータが含まれる。また、キャリブレーションデータ59には、カメラ6にて撮像された第1の画像における画像座標系73に対するフランジ座標系72の相対的な位置の関係を有する外部パラメータが含まれる。
また、作業者は、入力データ58を制御装置2に入力する。入力データ58は、記憶部42に記憶される。画像制御部51は、入力データ58を記憶部42から取得し、記憶部56に記憶する。入力データ58は、検出面75の情報を含む。検出面75は、平面にて設定することができる。または、検出面75は、曲面を含んでいても構わないし、複数の多角形をつなぎ合わせることにより形成されていて構わない。
本実施の形態における検出面75は、作業者が予め設定している。検出面はこの形態に限られず、別のセンサによりワークの所定の表面を計測し、この表面を含むように検出面を設定しても構わない。
また、作業者は、最終的に生成する合成画像を、どこの位置から撮像した画像にするかを決めておく。入力データ58には、ワーク38の位置を検出するための検出位置P6dにカメラ6を配置するためのロボット1の位置および姿勢が含まれる。検出位置P6dに対応する画像では、実際にワーク38を撮像した時の撮像条件とは異なる条件を採用して構わない。例えば、検出位置P6dに対応する画像では、カメラの焦点距離、視野角、画素数、およびレンズ歪み等を、実際に画像を撮像した時の値と異なる値に設定しても構わない。このような情報も、入力データ58に含めることができる。
第1の画像を撮像するためのロボット1の位置および姿勢は、動作プログラム41に予め定められている。動作制御部43は、動作プログラム41に基づいて、ワーク38を撮像するようにロボット1の位置および姿勢を変更する。撮像制御部57は、ロボット1が予め定められた位置および姿勢になったときに、ワーク38の画像を撮像する指令をカメラ6に送出する。カメラ6は、予め定められた複数の位置P6a,P6b,P6cにおいて、ワーク38の第1の画像を撮像する。図3においては、位置P6a,P6b,P6cにおいて第1の画像61a,61b,61cを撮像しているが、この形態に限られず、任意の位置から2つ以上の第1の画像を撮像することができる。ワーク38を撮像するカメラ6の位置は、ワーク38がカメラ6の視野に入る任意の位置を選定することができる。このように、ワーク38を複数の視点から撮像する。
図3に示す例においては、ロボット1の複数の駆動軸を駆動しているが、この形態に限られず、単一の駆動軸を動作させてカメラ6の位置を変更しても構わない。この制御を実施することにより、駆動軸において構成部材が動作するときの誤差を抑制することができる。また、図3に示す例においては、カメラ6の向き(光軸の向き)を変更しているが、この形態に限られず、カメラ6の向きを変更せずに、カメラ6を平行移動させても構わない。
画像制御部51は、ワーク38に対するカメラ6の相対的な位置を取得する位置取得部52を含む。位置取得部52は、ワーク38を撮像したときのロボット1の位置および姿勢を取得する。位置取得部52は、ロボット1の位置および姿勢とキャリブレーションデータ59とに基づいて、ワーク38を撮像したときのカメラ6の位置を算出する。記憶部56は、複数の位置にてカメラ6が撮像した複数の第1の画像を記憶する。また、記憶部56は、第1の画像を撮像した時のロボット1の位置および姿勢と、第1の画像とを組にして記憶する。
画像制御部51は、検出面75に対するカメラ6の相対位置に基づいて、カメラ6にて撮像された複数の第1の画像61a,61b,61cを、検出位置P6dにて撮像したと仮定した時の複数の第2の画像62a,62b,62cに変換する画像変換部53を含む。ここでの例では、画像変換部53は、第1の画像61a,61b,61cと紐づけて記憶しているワーク38を撮像した時のロボット1の位置および姿勢に基づいて、第1の画像61a,61b,61cを変換する。画像変換部53は、それぞれの第1の画像61a,61b,61cに含まれるワーク38を、検出位置P6dに対応するロボット1の設定位置にて撮像したと仮定した時に得られるワーク38の第2の画像62a,62b,62cに変換する。第2の画像62a,62b,62cは、同一の仮想的な位置から撮像した仮想的な画像であると言うことができる。次に、図5における実際に撮像した第1の画像61a,61b,61cを検出位置P6dにて撮像した時の第2の画像62aに変換する処理について説明する。
図6に、実際に第1の画像を撮像するときのカメラの視線および検出位置に配置されたカメラの視線を説明する側面図を示す。図6には、実際に撮像する位置P6cに配置されたカメラ6と、検出位置P6dに配置されたカメラ6とが示されている。カメラ6の画角の内部には、撮像面76c,76dを設定することができる。撮像面76c,76dは、カメラ6の内部に配置された、CCD(Charge Coupled Device)センサまたはCMOS(Complementary Metal Oxide Semiconductor)センサなどの画像センサの表面を模擬したものである。
図5の第1の画像61cに示すように、カメラ6にて撮像した画像には、画像座標系73を設定することができる。画像座標系73は、撮像した画像において、予め定められた位置に原点を配置した2次元の座標系である。画像座標系73は、互いに直交するX軸およびY軸を有する。画像座標系73の座標値により、画像における位置を特定することができる。または、撮像面76c,76dに、画像座標系73を設定することができる。
カメラ6のキャリブレーションデータ59が求められていると、基準座標系71における3次元点(以下、注視点)が与えられた時に、その3次元点の画像上での像の位置、すなわち画像座標系73における2次元点を計算することができる。また、所定の注視点の像である画像座標系73における2次元点が与えられた時に、基準座標系71における視線(注視点とカメラ6の焦点を通る3次元直線)を計算することができる。カメラ6は、第1の画像61cにおける1点を選定すると、その1点に対応するカメラ6から延びる視線77cを算出することが出来る。視線77cは、フランジ座標系72により表すことができる。
すなわち、画像座標系73における任意の1点から、フランジ座標系72におけるカメラ6の視線77cを求めることができる。また、ロボット1の位置および姿勢により、基準座標系71におけるフランジ座標系72の原点の位置およびフランジ座標系72の姿勢を求めることができる。このため、フランジ座標系72にて表される視線77cを、基準座標系71にて表される視線77cに変換することができる。
これとは反対に、基準座標系71における1点を定めると、基準座標系71における視線77cを算出することができる。そして、基準座標系71における視線77cに基づいて、画像座標系73において対応する点の位置を算出することができる。
図4から図6を参照して、位置P6cに対応する第1の画像61cおよび変換後の第2の画像62cを例に取り上げて説明する。画像変換部53は、検出位置P6dに配置されたカメラ6にて撮像されたと仮定される第2の画像62cにおいて、任意の画素の中心点を選択する。例えば、画像変換部53は、1つの画素の中心点である点64bを選択する。画像変換部53は、画像座標系73における点64bの位置に基づいて、フランジ座標系72にて表される視線77dを算出する。更に、画像変換部53は、基準座標系71にて表される視線77dを算出する。
画像変換部53は、視線77dと検出面75との交点78を算出する。この交点78の位置は、基準座標系71にて表わすことができる。次に、画像変換部53は、実際に撮像した位置P6cに配置されたカメラ6について、交点78を通る視線77cを算出する。画像変換部53は、基準座標系71にて表されている視線77cを、フランジ座標系72にて表された視線77cに変更する。さらに、画像変換部53は、視線77cに基づいて、実際に撮像した撮像面76cにおける画像座標系73の位置を算出する。このように、第1の画像61cにおける点64aの位置を算出することができる。
図7に、実際に撮像された第1の画像の拡大図を示す。図7には、第2の画像62cの点64bに対応する点64aの周りの画素85a,85b,85cが示されている。点64aの位置が、検出位置P6dにおける第2の画像62cの画素の中心点64bに対応する対応位置になる。点64aは、中心点81aを含む画素85aの内部に配置されている。このために、画像変換部53は、第2の画像62cにおいて、点64bを中心とする画素の値を、第1の画像61cにおける画素85aの画素の値に設定することができる。画素の値は、画素の明るさ又は色に関する値であり、例えば輝度を採用することができる。
画像変換部53は、このような第2の画像62cにおける画素値の計算を、第2の画像62cに含まれる全ての画素について実施する。この制御により、画像変換部53は、第2の画像62cを生成することができる。
なお、第2の画像62cにおける位置に対応する第1の画像61cの位置が、第1の画像61cの範囲外である場合には、第2の画像62cの画素の値を予め定められた値に設定することができる。図5の第2の画像62cに示す例においては、カメラ6にて撮像した第1の画像61cにおいて対応する画素が無い場合には、第2の画像62cにおいて画素の輝度をゼロにしている。すなわち、第2の画像62cにおいて、黒くなるように画素値が設定されている。
更に、第2の画像62cにおける画素の画素値の算出においては、画素値を正確に求めるために、第1の画像61cの点64aが含まれる画素85aの周りの画素85b,85cの画素値を用いることができる。本実施の形態においては、点64aの近傍の複数の画素85b,85cの画素値と、点64aを含む画素85aの画素値とを線形補間することよって、第2の画像62cの点64bを含む画素の値を算出する。
画像変換部53は、画素85aの中心点81aに対する点64aの位置を判定する。図7に示す例では、点64aは、中心点81aの右側に配置され、中心点81aの下側に配置されている。そして、画像変換部53は、点64aに最も近い2つの画素として、画素85bおよび画素85cを選定する。
図8に、第2の画像の画素の値を算出する時の線形補間を説明する図を示す。X軸およびY軸を含む画像座標系73において、それぞれの画素85a,85b,85cの中心点81a,81b,81cを設定する。そして、X軸およびY軸に直交する画素値の座標軸を設定する。画像変換部53は、それぞれの中心点81a,81b,81cにおける画素値を通る平面82を算出する。画像変換部53は、点64aからX軸およびY軸を含む平面に垂直な線を算出する。画像変換部53は、この線と平面82との交点83を算出する。画像変換部53は、交点83の画素値を、第2の画像62cの点64bを含む画素の画素値に採用することができる。
このように、カメラ6は、撮像する位置が互いに異なる複数の第1の画像を撮像することができる。画像変換部53は、複数の第1の画像を変換して検出位置に対応する複数の第2の画像を生成する。画像変換部53は、第2の画像の画素に対応する第1の画像における対応位置を算出する。画像変換部53は、第1の画像における対応位置を含む画素の値および対応位置を含む画素に隣接する画素の値に基づいて、第2の画像の画素の値を算出することができる。この制御を採用することにより、変換後の画像において、より正確な画素値を算出することができる。
また、上記のように、画像変換部53は、対応位置を含む画素の値および対応位置の近傍の複数の画素の値に基づいて、内挿補間や外挿補間により第2の画像の画素の値を算出することができる。この制御により、第1の画像において対応位置が画素の中心と一致しない場合にも、より正確に、第2の画像の画素の画素値を算出することができる。上記の実施の形態においては、対応位置に最も近い2つの画素の画素値を採用しているが、この形態に限られず、対応位置に近い3つ以上の画素の画素値を採用しても構わない。
図2および図5を参照して、画像変換部53は、実際に撮像した第1の画像61a,61b,61cに基づいて、検出位置に対応するように第2の画像62a,62b,62cを生成することができる。
画像制御部51は、画像変換部53にて変換された複数の第2の画像62a,62b,62cを合成して、検出位置にて撮像した画像に対応する合成画像63を生成する合成部54を含む。合成部54は、矢印94に示すように、複数の第2の画像62a,62b,62cを合成することにより、合成画像63を生成する。
合成部54は、合成画像63に含まれる画素の値を、第2の画像62a,62b,62cに含まれる画素の値から算出する。合成部54は、合成画像63の1つの点64cを中心点とする画素を選定する。そして、合成部54は、第2の画像62a,62b,62cにおける点64cを中心とする画素の値の平均値を、合成画像63における点64cの画素の値に設定することができる。または、合成部54は、第2の画像62a,62b,62cにおける画素値の最小値または最大値を、合成画像63の画素の値に設定しても構わない。例えば、第2の画像62a,62b,62cにおける画素の値の平均値、中央値、または最小値を採用することにより、ハレーションにて鮮明でない部分の画素の値を排除することができる。また、合成部54は、画像変換部53にて変換された複数の第2の画像62a,62b,62cにおける画素の値の統計量を、合成画像63の画素の値に設定することができる。
また、合成部54は、画素値が非常に大きい画素または画素値が非常に小さい画素を排除しても構わない。作業者は、画素値に関する外れ値を予め定めておくことができる。合成部54は、外れ値に基づいて、画素値が所定の範囲を逸脱する画素を排除することができる。また、合成部54は、全ての画素の値を取得して、統計的手法により外れ値を設定しても構わない。または、画素値そのものではなく、輝度勾配等の画素値から計算できる値を使って外れ値を含む画素の排除を行っても構わない。
なお、第2の画像62a,62b,62cにおいては、輝度がゼロに設定されて黒い部分が存在する。合成部54は、合成画像63を作成する際に、この部分の画素値を排除して画素値を計算することができる。また、検出面75上から外れたワーク38の部分の形状は、正しい形状にて写らない。しかしながら、複数の第2の画像を合成することにより、検出面75上の特徴を有する部分以外の部分は不鮮明になる。ワーク38の検出に使用するのは検出面75上の特徴を有する部分であるので、検出面75上にない部分については問題にはならない。
本実施の形態における撮像装置は、環境光の影響または照明やワークの傾きに依存するコントラストの低下の影響を抑制することができる。また、ハレーションが発現した場合に、ハレーションが生じた部分を修正することができる。この結果、検出位置から撮像した時の鮮明な画像を得ることができる。本実施の形態の撮像装置は、環境光の変化または対象物の輝度変化が大きくても対象物の特徴を捉えることができる。換言すれば、本実施の形態の撮像装置は、ワークの特徴点が鮮明に写った画像を得ることができる。
本実施の形態における撮像装置は、合成画像63に基づいて、検出面75においてワーク38を検出する合成画像処理部55を含む。合成画像処理部55は、合成画像63におけるワーク38の特徴点に基づいてワーク38の位置を検出する。例えば、作業者は、検出位置に配置されたカメラ6にてワーク38を撮像した画像を予め作成することができる。記憶部56は、この画像を基準画像として予め記憶しておくことができる。合成画像処理部55は、基準画像に基づいて、検出面75におけるワークの位置を算出することができる。
画像制御部51は、検出されたワーク38の位置を動作制御部43に送出する。動作制御部43は、取得したワーク38の位置に基づいて、動作プログラム41に定められたロボット1の位置および姿勢を修正する。すなわち、ワーク38を把持する時のハンド5の位置および姿勢を修正する。そして、動作制御部43は、ロボット1およびハンド5を駆動して、ワーク38を把持することができる。
第1のロボットシステム3においては、架台95に固定されたワーク38を把持するために、架台95におけるワーク38の位置を検出しているが、この形態に限られない。画像制御部51の合成画像処理部55は、合成画像に基づいてワーク38の検査を実施することができる。例えば、合成画像処理部は、合成画像からワークの寸法を計測することができる。そして、ロボットシステムは、予め定められた寸法の判定値に基づいて、ワークの寸法の検査を実施することができる。ワークの検査としては、ワークの寸法の検査に限られず、任意のワークの検査を実施することができる。例えば、ワークの表面に所定の部品が配置されているか否かについて検査を実施することができる。または、ワークの表面に傷が存在するか否かについて検査を実施することができる。
第1のロボットシステム3においては、ワークの位置が固定され、カメラが移動装置にて移動するように形成されているが、この形態に限られない。カメラの位置が固定され、ワークが移動装置により移動しても構わない。
図9に、本実施の形態における第2のロボットシステムの側面図を示す。第2のロボットシステム4においては、カメラ6は架台96に固定されている。ワーク38は、ロボット1にて支持されている。第2のロボットシステム4は、矢印105に示す様に架台101に載置されたワーク38を架台102まで搬送する。ロボット1の位置および姿勢が変化することにより、ワーク38は、位置P38sから位置P38eまで搬送される。第2のロボットシステム4の撮像装置は、ワーク38をハンド5にて把持したときのハンド5内での位置のずれを検出する。
図10に、第2のロボットシステム4の他の側面図を示す。図2および図10を参照して、カメラ6は、予め定められた位置に固定されている。ワーク38の底面を含む検出面75が予め設定されている。また、カメラ6にてワーク38を撮像する時のワーク38の複数の位置P38a,P38bが予め定められている。ワーク38の位置P38a,P38bに対応するロボット1の位置および姿勢は、予め定められて動作プログラム41に設定されている。更に、ワーク38を検出するためのワーク38の検出位置が予め定められている。記憶部56には、検出位置にワーク38を配置するためのロボット1の位置および姿勢が、移動装置の設定位置として記憶されている。ワーク38の検出位置は、カメラ6にてワーク38の撮像が可能な任意の位置に設定することができる。カメラ6は、画像座標系73における点の位置に対応する基準座標系71におけるカメラ6の視線を算出できるように較正されている。
ロボット1は、カメラ6にて複数の第1の画像を撮像するためにワーク38を移動する。カメラ6は、ワーク38が複数の位置P38a,P38bに配置された時に、ワーク38を撮像する。位置取得部52は、ワーク38を撮像するときのロボット1の位置および姿勢を取得する。位置取得部52は、ロボット1の位置および姿勢に基づいて、ワーク38の位置P38a,P38bを算出する。記憶部56は、撮像した第1の画像と、ワーク38の複数の位置P38a,P38bに対応するロボット1の位置および姿勢とを組にして記憶する。すなわち、記憶部56は、第1の画像と移動装置の位置との組を複数記憶する。
画像変換部53は、ワーク38を撮像したときのロボット1の位置および姿勢に基づいて、カメラ6にて撮像された複数の第1の画像を、設定位置にて撮像した時とワーク38が位置P38a,P38bにあるときに撮像した時とで、ワーク38とカメラ6の相対位置関係が同じようになるように複数の第2の画像に変換する。第2のロボットシステム4においては、画像座標系73にて表される点の位置から基準座標系71にて表されるカメラ6の視線を算出することができる。または、基準座標系71にて表される点から画像座標系73にて表される点の位置を算出することができる。
合成部54は、画像変換部53にて変換された複数の第2の画像を合成して合成画像を生成する。合成画像処理部55は、合成画像におけるワークの特徴点に基づいてワーク38の位置を検出することができる。合成画像処理部55は、ロボット1の位置および姿勢とワーク38の位置とに基づいて、ワーク38を把持した時のずれを補正することができる。
ここで、図9を参照して、ワーク38を把持した時のずれを補正する方法について説明する。以下の説明において、W1,P2等の位置を表す記号は同次変換行列である。本実施の形態においては、ハンド5内におけるワーク38の把持のずれを補正するために、ロボット1のアーム先端部に対するワーク38の相対位置を計測する。ワーク38が検出位置に配置されていると仮定したときのロボット1の位置をQ1’にて表し、基準座標系71におけるワーク38の位置をW1’にて表すと、ロボット1のアーム先端部に対するワーク38の相対的な位置V1’は以下の式(1)に基づいて算出することができる。
Figure 2019113895
そして、ワーク38の最終的な位置P38eを教示したときに把持されていたワーク38の位置P2について、ロボット1のアーム先端部に対するワーク38の相対的な位置をV1とすると、ワーク38を解放すべき位置P2’は、以下の式(2)に基づいて算出することができる。ロボット1は、補正後の位置P2’においてワーク38を解放することができる。
Figure 2019113895
上記の実施の形態において、合成画像処理部55は、合成画像に基づいて、ワーク38を把持した時のずれを補正しているが、この形態に限られない。合成画像処理部55は、第1のロボットシステムと同様に、検出面75上のワーク38の特徴点を用いて、ワーク38の検査を実施することができる。第2のロボットシステムのその他の構成、作用、および効果は、本実施の形態の第1のロボットシステムと同様である。
図11に、本実施の形態における搬送システムの側面図を示す。図12に、本実施の形態における搬送システムのブロック図を示す。図11および図12を参照して、搬送システム9は、撮像装置を備える。搬送システム9は、ワーク38を移動する移動装置として、コンベヤ7を備える。搬送システム9は、第2のロボットシステム4のロボット1の代わりに、コンベヤ7が配置されている構成を有する。ワーク38は、コンベヤ7が駆動することにより、矢印90に示す方向に移動する。すなわち、コンベヤ7が駆動することにより、ワーク38の位置が変化し、視覚センサとワーク38との相対位置が変わる。視覚センサとしてのカメラ6は、支持部材97に支持されている。
搬送システム9は、コンベヤ7およびカメラ6を制御する制御装置8を備える。制御装置8は、CPU等を含む演算処理装置にて構成されている。制御装置8は、コンベヤ駆動部46を含む。コンベヤ7は、ベルトを駆動するための駆動モータを有するコンベヤ駆動装置24を含む。それぞれの駆動モータには、駆動モータの回転位置を検出する位置検出器25が状態検出器として配置されている。
制御装置8は、図2に示すロボットシステムの制御装置2と同様に、画像制御部51を含む。カメラ6は、ワーク38の撮像が可能な予め定められた位置に固定されている。ワーク38の表面を含む検出面75が予め設定されている。また、カメラ6にてワーク38を撮像するためのワーク38の複数の位置P38a,P38bが予め定められている。ワーク38の位置P38a,P38bに対応するコンベヤ7のベルトの位置は、動作プログラム41に設定されている。更に、ワーク38の位置を検出するためのワーク38の検出位置が予め定められている。記憶部56には、ワーク38を検出位置に配置するためのベルトの位置が、移動装置の設定位置として記憶されている。
コンベヤ7は、カメラ6にて複数の第1の画像を撮像するためにワーク38を移動する。そして、カメラ6は、複数の位置P38a,P38bに配置された時にワーク38を撮像する。位置取得部52は、ワーク38を撮像する時のコンベヤ7のベルトの位置をコンベヤ7に取り付けられた位置検出器25などのエンコーダから取得する。位置取得部52は、コンベヤ7のベルトの位置に基づいて、ワーク38の位置P38a,P38bを算出する。記憶部56は、撮像した第1の画像と、ワーク38の位置P38a,P38bに対応するコンベヤ7のベルトの位置とを組にして記憶する。記憶部56は、第1の画像と移動装置の位置との組を複数記憶する。この後に、第2のロボットシステム4と同様に、画像変換部53は、第1の画像を検出位置に対応する第2の画像に変換する。すなわち、第1の画像をコンベヤの設定位置にて撮像したと仮定した時の第2の画像に変換する。合成部54は、検出位置に対応する複数の第2の画像を合成する。合成画像処理部55は、ワーク38の位置の検出または検査を行うことができる。
搬送システムのその他の構成、作用、および、効果は、本実施の形態の第1のロボットシステムおよび第2のロボットシステムと同様である。
図13に、本実施の形態における撮像装置の側面図を示す。図14に、本実施の形態における撮像装置のブロック図を示す。撮像装置は、上記のロボット1およびコンベヤ7などの移動装置を備えていなくても構わない。図13および図14に示す撮像装置は、ワーク38よびカメラ31,32の両方が予め定められた位置に固定されている。図13および図14に示す撮像装置は、本実施の形態における第1のロボットシステム3において、ロボット1がカメラ6を撮像する位置を変更する代わりに、複数のカメラ31,32が配置されている。そして、位置が互いに異なる複数のカメラ31,32にて複数の第1の画像を撮像する。
撮像装置は、ワーク38を固定する第1の固定部としての架台95と、ワーク38の第1の画像を撮像する複数の視覚センサとしての複数のカメラ31,32とを備える。第1のカメラ31および第2のカメラ32は、第2の固定部としての支持部材98,99に支持されている。カメラ31,32は、互いに異なる位置からワーク38を撮像するように離れている。
撮像装置は、カメラ31,32にて撮像した第1の画像を処理する画像処理装置として機能する制御装置10を含む。制御装置10は、CPU等を含む演算処理装置にて構成されている。制御装置10は、図2に示すロボットシステムの画像制御部51と同様の構成を有する。撮像制御部57は、第1のカメラ31および第2のカメラ32に画像を撮像する指令を送出する。記憶部56は、第1のカメラ31および第2のカメラ32にて撮像された第1の画像と、第1の画像を撮像したカメラ31,32の位置とを組にして記憶する。
撮像装置において、基準座標系71が予め設定されている。図13に示す例では、基準座標系71は、架台95に設定されている。また、架台95に固定されたワーク38上には検出面75が定義されている。更に、ワーク38を検出するためのカメラの検出位置P6dが予め定められて記憶部56に記憶されている。それぞれのカメラ31,32は、画像座標系73における点の位置に対応する基準座標系71におけるカメラの視線を算出できるように較正されている。
制御装置10の位置取得部52は、予め定められたカメラ31,32の位置を取得する。画像変換部53は、複数のカメラ31,32にて撮像した複数の第1の画像を検出位置P6dにて撮像したと仮定した時の第2の画像に変換する。画像変換部53は、カメラ31,32の位置に基づいて、第1の画像を変換する。また、合成部54は、画像変換部53にて変換された複数の第2の画像を合成して合成画像を生成する。そして、合成画像処理部55は、合成画像に基づいて検出面75においてワーク38の検出および検査のうち少なくとも一方を行うことができる。例えば、合成画像処理部55は、予め定められた判定値に基づいてワーク38の寸法検査を実施することができる。または、ワーク38を搬送するロボット等が別に配置されていても構わない。撮像装置は、架台95におけるワーク38の位置を検出して、ロボットの制御装置等に送信することができる。
図13および図14に示す例では、2つのカメラが配置されているが、この形態に限られない。撮像装置は、3つ以上のカメラを備えていても構わない。画像変換部53は、カメラの台数に応じた個数の第1の画像を変換することができる。
撮像装置のその他の構成、作用および効果については、本実施の形態における第1のロボットシステム、第2のロボットシステム、および搬送システムと同様である。
上記の実施の形態においては、様々なワークの検出のうち、ワークの位置の検出を説明しているが、この形態に限られない。本実施の形態の制御は、任意のワークを検出する制御に適用することができる。たとえば、撮像装置は、所定の範囲の内部にワークが配置されている否かを判定する制御を実施することができる。または、多数のワークが配置されている場合に、撮像装置は、所定の個数のワークが存在するか否かを判定する制御を実施することができる。
また、上記の実施の形態においては、1つのワークに1つの検出面を配置しているが、この形態に限られず、1つのワークに対して複数の検出面を配置しても構わない。撮像装置は、それぞれの検出面ごとに、ワークの検出および検査のうち少なくとも一方を行うことができる。
上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、特許請求の範囲に示される実施の形態の変更が含まれている。
1 ロボット
2,8,10 制御装置
3,4 ロボットシステム
6,31,32 カメラ
P6a,P6b,P6c 位置
P6d 検出位置
7 コンベヤ
9 搬送システム
38 ワーク
P38a,P38b 位置
23,25 位置検出器
51 画像制御部
52 位置取得部
53 画像変換部
54 合成部
55 合成画像処理部
56 記憶部
61a,61b,61c 第1の画像
62a,62b,62c 第2の画像
63 合成画像
75 検出面
85a,85b,85c 画素
95,96 架台
97,98,99 支持部材

Claims (7)

  1. ワークの第1の画像を撮像する視覚センサと、
    前記ワークおよび前記視覚センサのうちの一方を移動して、他方に対する一方の相対的な位置を変更する移動装置と、
    前記第1の画像を処理する画像処理装置と、を備え、
    前記画像処理装置は、前記第1の画像と前記第1の画像を撮像した時の前記移動装置の位置とを組にして記憶する記憶部を含み、
    前記ワーク上に定義された検出面と、前記移動装置の位置である設定位置とが予め定められて前記記憶部に記憶されており、
    前記視覚センサは、前記ワークに対する前記視覚センサの相対位置が互いに異なるように複数の第1の画像を撮像し、
    前記画像処理装置は、複数の前記第1の画像を、前記第1の画像を撮像した時の前記移動装置の位置に基づいて、前記設定位置にて撮像したと仮定した時の複数の第2の画像に変換する画像変換部と、
    複数の前記第2の画像を合成した合成画像を生成する合成部と、
    前記合成画像に基づいて前記検出面において前記ワークの検出および検査のうち少なくとも一方を行う合成画像処理部とを含むことを特徴とする、撮像装置。
  2. 前記移動装置は、前記ワークおよび前記視覚センサのうちの一方を移動するロボットである、請求項1に記載の撮像装置。
  3. 前記移動装置は、前記ワークを搬送するコンベヤである、請求項1に記載の撮像装置。
  4. 前記画像変換部は、前記第2の画像の画素に対応する前記第1の画像における対応位置を算出し、前記対応位置を含む画素の値および前記対応位置を含む画素に隣接する画素の値に基づいて、前記第2の画像の画素の値を算出する、請求項1から3のいずれか一項に記載の撮像装置。
  5. 前記画像変換部は、前記第1の画像の前記対応位置を含む画素の値および前記対応位置の近傍の複数の画素の値に基づいて、前記第2の画像の画素の値を算出する、請求項4に記載の撮像装置。
  6. 前記合成部は、複数の前記第2の画像における画素の値の統計量を、前記合成画像の画素の値に設定する、請求項1から5のいずれか一項に記載の撮像装置。
  7. ワークの第1の画像を撮像する複数の視覚センサと、
    前記ワークを固定する第1の固定部と、
    前記視覚センサを固定する第2の固定部と、
    前記第1の画像を処理する画像処理装置と、を備え、
    複数の前記視覚センサは、互いに異なる位置から前記ワークを撮像するように配置されており、
    前記画像処理装置は、複数の前記視覚センサにて撮像した前記第1の画像と前記第1の画像を撮像した視覚センサの位置とを組にして記憶する記憶部を含み、
    前記ワーク上に定義された検出面と、前記ワークを検出するための前記視覚センサの位置である検出位置とが予め定められて前記記憶部に記憶されており、
    前記画像処理装置は、複数の前記視覚センサにて撮像した複数の前記第1の画像を、それぞれの前記視覚センサの位置に基づいて、前記検出位置にて撮像したと仮定した時の複数の第2の画像に変換する画像変換部と、
    複数の前記第2の画像を合成した合成画像を生成する合成部と、
    前記合成画像に基づいて前記検出面において前記ワークの検出および検査のうち少なくとも一方を行う合成画像処理部とを含むことを特徴とする、撮像装置。
JP2017244517A 2017-12-20 2017-12-20 ワークを撮像する視覚センサを備える撮像装置 Active JP6734253B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017244517A JP6734253B2 (ja) 2017-12-20 2017-12-20 ワークを撮像する視覚センサを備える撮像装置
US16/195,860 US11267142B2 (en) 2017-12-20 2018-11-20 Imaging device including vision sensor capturing image of workpiece
DE102018009815.0A DE102018009815B4 (de) 2017-12-20 2018-12-13 Bildgebungsvorrichtung umfassend einen Sichtsensor zum Erfassen des Bildes eines Werkstücks
CN201811553292.6A CN109940662B (zh) 2017-12-20 2018-12-18 具备拍摄工件的视觉传感器的摄像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017244517A JP6734253B2 (ja) 2017-12-20 2017-12-20 ワークを撮像する視覚センサを備える撮像装置

Publications (2)

Publication Number Publication Date
JP2019113895A true JP2019113895A (ja) 2019-07-11
JP6734253B2 JP6734253B2 (ja) 2020-08-05

Family

ID=66768464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017244517A Active JP6734253B2 (ja) 2017-12-20 2017-12-20 ワークを撮像する視覚センサを備える撮像装置

Country Status (4)

Country Link
US (1) US11267142B2 (ja)
JP (1) JP6734253B2 (ja)
CN (1) CN109940662B (ja)
DE (1) DE102018009815B4 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021009800A1 (ja) * 2019-07-12 2021-01-21 株式会社Fuji ロボット制御システム及びロボット制御方法
JP2021015616A (ja) * 2019-07-15 2021-02-12 株式会社Mujin 画像データに基づく物体検出システム及び方法
WO2022209578A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 ロボット制御システム、および制御装置
JPWO2023112337A1 (ja) * 2021-12-17 2023-06-22
WO2023238199A1 (ja) * 2022-06-06 2023-12-14 ファナック株式会社 3次元位置情報を取得するロボット装置の制御装置およびロボット装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
TWI696529B (zh) * 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
JP6841297B2 (ja) * 2019-05-31 2021-03-10 株式会社デンソー ビジュアルサーボシステム
JP7453762B2 (ja) * 2019-08-26 2024-03-21 川崎重工業株式会社 画像処理装置、撮像装置、ロボット及びロボットシステム
JP7306937B2 (ja) * 2019-09-25 2023-07-11 ファナック株式会社 ロボットに支持された部材の位置を調整するロボット装置の制御装置
CN114730454A (zh) * 2019-11-15 2022-07-08 直观外科手术操作公司 场景感知系统和方法
CN111230862B (zh) * 2020-01-10 2021-05-04 上海发那科机器人有限公司 一种基于视觉识别功能的手持工件去毛刺方法和系统
US11826908B2 (en) 2020-04-27 2023-11-28 Scalable Robotics Inc. Process agnostic robot teaching using 3D scans
CN112746812A (zh) * 2021-01-22 2021-05-04 安百拓(南京)建筑矿山设备有限公司 凿岩台车照明摄像随动系统、控制方法及凿岩台车
WO2022204799A1 (en) * 2021-03-29 2022-10-06 Poly-Robotics Inc. System for welding at least a portion of a piece and related methods
CN115609575A (zh) * 2021-07-12 2023-01-17 精工爱普生株式会社 校正输送机跟踪信息的校正方法、校正系统及存储介质
US20230086122A1 (en) * 2021-09-17 2023-03-23 Georgia Tech Research Corporation Human-Robot Collaborative Flexible Manufacturing System and Method
CN115922695B (zh) * 2022-11-03 2025-04-04 广州市新豪精密科技有限公司 一种基于平面视觉引导机械臂的抓取方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4727471A (en) * 1985-08-29 1988-02-23 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Miniature lightweight digital camera for robotic vision system applications
JPH0981759A (ja) * 1995-09-18 1997-03-28 Mitsubishi Heavy Ind Ltd 境界抽出方法およびその装置
US5802201A (en) * 1996-02-09 1998-09-01 The Trustees Of Columbia University In The City Of New York Robot system with vision apparatus and transparent grippers
JP2002310935A (ja) * 2001-04-19 2002-10-23 Murata Mfg Co Ltd 照明条件抽出方法、照明条件抽出装置、外観検査システム
JP2012073702A (ja) * 2010-09-28 2012-04-12 Sharp Corp 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2012194641A (ja) * 2011-03-15 2012-10-11 Omron Corp 画像処理装置および画像処理プログラム
JP2013065280A (ja) * 2011-09-01 2013-04-11 Canon Inc 画像処理方法、画像処理装置およびプログラム
JP2014010783A (ja) * 2012-07-02 2014-01-20 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2014228940A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 画像処理方法、画像処理装置および画像処理プログラム
JP2017040600A (ja) * 2015-08-21 2017-02-23 キヤノン株式会社 検査方法、検査装置、画像処理装置、プログラム及び記録媒体
JP2017040598A (ja) * 2015-08-21 2017-02-23 キヤノン株式会社 検査方法、検査装置、画像処理装置、プログラム及び記録媒体
JP2017040612A (ja) * 2015-08-21 2017-02-23 キヤノン株式会社 検査方法、検査装置、画像処理装置、プログラム及び記録媒体
JP2017083430A (ja) * 2015-10-30 2017-05-18 株式会社リコー 測距装置、移動システム及び測距方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3421608B2 (ja) 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
JP2003305675A (ja) 2002-04-15 2003-10-28 Denso Wave Inc 視覚認識装置
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
US20100017033A1 (en) * 2008-07-18 2010-01-21 Remus Boca Robotic systems with user operable robot control terminals
TWI346595B (en) * 2009-01-13 2011-08-11 Univ Chung Yuan Christian System for positioning micro tool of micro machine and method thereof
JP5448069B2 (ja) 2009-12-25 2014-03-19 株式会社Ihi ロボット制御装置及び方法
JP5812599B2 (ja) 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
JP4837116B2 (ja) 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
JP5665333B2 (ja) 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
JP5849403B2 (ja) * 2011-02-15 2016-01-27 セイコーエプソン株式会社 ロボットコントローラー、ロボット、及び、ロボットシステム
JP5670416B2 (ja) 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
JP6308423B2 (ja) 2014-02-26 2018-04-11 株式会社Ihi 把持方法および把持装置
JP6576059B2 (ja) * 2015-03-10 2019-09-18 キヤノン株式会社 情報処理、情報処理方法、プログラム
WO2017017710A1 (ja) * 2015-07-30 2017-02-02 川崎重工業株式会社 ロボットおよびその制御方法
US10094794B2 (en) * 2016-01-22 2018-10-09 The Boeing Company Characterization of wrinkles and periodic variations in material using infrared thermography
JP6430986B2 (ja) * 2016-03-25 2018-11-28 ファナック株式会社 ロボットを用いた位置決め装置
KR101980603B1 (ko) * 2016-05-20 2019-05-22 구글 엘엘씨 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치
US20180017501A1 (en) * 2016-07-13 2018-01-18 Sightline Innovation Inc. System and method for surface inspection

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4727471A (en) * 1985-08-29 1988-02-23 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Miniature lightweight digital camera for robotic vision system applications
JPH0981759A (ja) * 1995-09-18 1997-03-28 Mitsubishi Heavy Ind Ltd 境界抽出方法およびその装置
US5802201A (en) * 1996-02-09 1998-09-01 The Trustees Of Columbia University In The City Of New York Robot system with vision apparatus and transparent grippers
JP2002310935A (ja) * 2001-04-19 2002-10-23 Murata Mfg Co Ltd 照明条件抽出方法、照明条件抽出装置、外観検査システム
JP2012073702A (ja) * 2010-09-28 2012-04-12 Sharp Corp 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2012194641A (ja) * 2011-03-15 2012-10-11 Omron Corp 画像処理装置および画像処理プログラム
JP2013065280A (ja) * 2011-09-01 2013-04-11 Canon Inc 画像処理方法、画像処理装置およびプログラム
JP2014010783A (ja) * 2012-07-02 2014-01-20 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2014228940A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 画像処理方法、画像処理装置および画像処理プログラム
JP2017040600A (ja) * 2015-08-21 2017-02-23 キヤノン株式会社 検査方法、検査装置、画像処理装置、プログラム及び記録媒体
JP2017040598A (ja) * 2015-08-21 2017-02-23 キヤノン株式会社 検査方法、検査装置、画像処理装置、プログラム及び記録媒体
JP2017040612A (ja) * 2015-08-21 2017-02-23 キヤノン株式会社 検査方法、検査装置、画像処理装置、プログラム及び記録媒体
JP2017083430A (ja) * 2015-10-30 2017-05-18 株式会社リコー 測距装置、移動システム及び測距方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021009800A1 (ja) * 2019-07-12 2021-01-21 株式会社Fuji ロボット制御システム及びロボット制御方法
JPWO2021009800A1 (ja) * 2019-07-12 2021-01-21
JP7145332B2 (ja) 2019-07-12 2022-09-30 株式会社Fuji ロボット制御システム及びロボット制御方法
JP2021015616A (ja) * 2019-07-15 2021-02-12 株式会社Mujin 画像データに基づく物体検出システム及び方法
WO2022209578A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 ロボット制御システム、および制御装置
JP2022156506A (ja) * 2021-03-31 2022-10-14 Johnan株式会社 ロボット制御システム、および制御装置
JP7597370B2 (ja) 2021-03-31 2024-12-10 Johnan株式会社 ロボット制御システム、および制御装置
US12358151B2 (en) 2021-03-31 2025-07-15 Johnan Corporation Robot control system and control device
JPWO2023112337A1 (ja) * 2021-12-17 2023-06-22
WO2023112337A1 (ja) * 2021-12-17 2023-06-22 ファナック株式会社 教示装置
WO2023238199A1 (ja) * 2022-06-06 2023-12-14 ファナック株式会社 3次元位置情報を取得するロボット装置の制御装置およびロボット装置

Also Published As

Publication number Publication date
US11267142B2 (en) 2022-03-08
JP6734253B2 (ja) 2020-08-05
DE102018009815A1 (de) 2019-06-27
DE102018009815B4 (de) 2024-04-18
DE102018009815A9 (de) 2020-01-23
CN109940662A (zh) 2019-06-28
US20190184582A1 (en) 2019-06-20
CN109940662B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
JP6734253B2 (ja) ワークを撮像する視覚センサを備える撮像装置
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP2022028672A (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
US7532949B2 (en) Measuring system
US8306660B2 (en) Device and a method for restoring positional information of robot
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP4167954B2 (ja) ロボット及びロボット移動方法
US20040172164A1 (en) Method and apparatus for single image 3D vision guided robotics
US20050273199A1 (en) Robot system
US11446822B2 (en) Simulation device that simulates operation of robot
KR101972432B1 (ko) 레이저비전 센서 및 그 보정방법
JP7057841B2 (ja) ロボット制御システム及びロボット制御方法
US12128571B2 (en) 3D computer-vision system with variable spatial resolution
CN104976950B (zh) 物件空间信息量测装置与方法及取像路径的计算方法
CN112297004B (zh) 对机器人的位置进行控制的机器人装置的控制装置
JP2019049467A (ja) 距離計測システムおよび距離計測方法
TW202303089A (zh) 從藉由視覺感測器取得之三維的位置資訊來生成剖面圖像的處理裝置及處理方法
CN112566758A (zh) 机器人控制装置、机器人控制方法及机器人控制程序
US20240269853A1 (en) Calibration method, calibration device, and robotic system
TW202327835A (zh) 具備三維感測器的機器人裝置及機器人裝置的控制方法
JP2010214546A (ja) 組立装置および組立方法
US12288355B2 (en) Imaging device for calculating three-dimensional position on the basis of image captured by visual sensor
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
WO2022244212A1 (ja) 視覚センサにて撮像された画像に基づいて3次元の位置を算出する撮像装置
KR102726140B1 (ko) 캘리브레이션 시스템 및 이를 이용한 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191105

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200709

R150 Certificate of patent or registration of utility model

Ref document number: 6734253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150