JP7369653B2 - ガイド表示システムおよびこれを備えたクレーン - Google Patents
ガイド表示システムおよびこれを備えたクレーン Download PDFInfo
- Publication number
- JP7369653B2 JP7369653B2 JP2020056812A JP2020056812A JP7369653B2 JP 7369653 B2 JP7369653 B2 JP 7369653B2 JP 2020056812 A JP2020056812 A JP 2020056812A JP 2020056812 A JP2020056812 A JP 2020056812A JP 7369653 B2 JP7369653 B2 JP 7369653B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- suspended load
- data
- feature
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C13/00—Other constructional features or details
- B66C13/18—Control systems or devices
- B66C13/46—Position indicators for suspended loads or for crane elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C13/00—Other constructional features or details
- B66C13/18—Control systems or devices
- B66C13/20—Control systems or devices for non-electric drives
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C13/00—Other constructional features or details
- B66C13/18—Control systems or devices
- B66C13/40—Applications of devices for transmitting control pulses; Applications of remote control devices
- B66C13/42—Hydraulic transmitters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C23/00—Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes
- B66C23/62—Constructional features or details
- B66C23/64—Jibs
- B66C23/66—Outer or upper end constructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Control And Safety Of Cranes (AREA)
- Closed-Circuit Television Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
本発明は、ガイド表示システムおよびこれを備えたクレーンに関する。
従来、吊荷と吊荷周辺の地物について、位置および標高に関する情報をオペレータに提示できるガイド表示システムが公知となっている。かかるガイド表示システムは、特許文献1に開示されている。
特許文献1に開示されたガイド表示システムは、レーザスキャナが取得した点群データを用いてグリッドごとに代表点を算出するとともに代表点に基づいて三次元地図を作成するデータ処理部を備えている。データ処理部は、吊荷や地物を取り囲むガイド枠図形などのガイド情報を生成し、カメラが撮影した画像に対してガイド情報を重ね合わせてデータ表示部に表示する。このようなガイド表示システムによれば、吊荷と吊荷周辺の地物について、位置および標高に関する情報をオペレータに提示できる。
しかしながら、特許文献1に開示されたガイド表示システムは、カメラが撮影した画像に対してガイド情報を重ね合わせてデータ表示部に表示したときに、吊荷や地物に対してガイド枠図形がズレる場合があり、ガイド情報を的確に表示することができないという課題があった。
本発明は、このような課題を鑑みてなされたものであり、カメラが撮影した画像に対してガイド情報を重ね合わせてデータ表示部に表示するときに、吊荷や地物に対するガイド枠図形のズレを抑制することが可能なガイド表示システムを提供することを目的としている。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。
即ち、本発明に係るガイド表示システムは、吊荷の上方から当該吊荷ならびに地表面および地物を走査するレーザスキャナと、前記吊荷の上方から当該吊荷ならびに前記地表面および地物を撮影するカメラと、前記レーザスキャナが取得した点群データを用いて、当該吊荷ならびに前記地表面および地物の三次元地図と、前記吊荷および前記地物の輪郭を表すガイド枠図形と、を生成するデータ処理部と、前記カメラが撮影した画像を表示するデータ表示部と、を備え、前記データ表示部に表示した前記カメラが撮影した前記吊荷および前記地物の画像に、前記データ処理部により生成した前記ガイド枠図形を重ねて表示するクレーンのガイド表示システムであって、前記データ処理部は、前記カメラの計測領域を算出し、前記カメラの視点からの前記計測領域における前記三次元地図をキャプチャして第一画像を生成するとともに、前記カメラの画像を前記三次元地図の粒度に合わせてモザイク処理して第二画像を生成し、前記第一画像と前記第二画像をレジストレーション処理して、前記第一画像と前記第二画像のズレ量を算出し、算出したズレ量に基づいて、前記吊荷および前記地物の画像に対する前記ガイド枠図形の配置位置を補正しつつ、前記データ表示部に、前記吊荷および前記地物の画像と前記ガイド枠図形を重ねて表示することを特徴とする。
また、本発明に係るガイド表示システムにおいて、前記データ処理部は、画像処理により、前記第一画像と前記第二画像をレジストレーション処理することを特徴とする。
また、本発明に係るガイド表示システムにおいて、前記データ処理部は、テンプレートマッチング法による画像処理により、前記第一画像と前記第二画像をレジストレーション処理することを特徴とする。
また、本発明に係るガイド表示システムにおいて、前記データ処理部は、前記第二画像における前記吊荷を含まない位置の画像をテンプレート画像とすることを特徴とする。
また、本発明に係るクレーンは、前記ガイド表示システムの何れかを備えることを特徴とする。
本発明の効果として、以下に示すような効果を奏する。
本発明に係るガイド表示システムによれば、カメラが撮影した画像に対してガイド情報を重ね合わせてデータ表示部に表示するときに、吊荷や地物に対するガイド枠図形のズレを抑制することができる。これにより、ガイド表示システムにおけるガイド情報を的確に表示することができる。
また、本発明に係るガイド表示システムによれば、カメラで撮影した画像と、レーザスキャナで取得した点群データに基づく三次元地図の位置を容易に同期させることができる。
また、本発明に係るガイド表示システムによれば、カメラで撮影した画像と、レーザスキャナで取得した点群データに基づく三次元地図の位置を精度よく同期させることができる。
また、本発明に係るガイド表示システムによれば、カメラで撮影した画像と、レーザスキャナで取得した点群データに基づく三次元地図の位置をより精度よく同期させることができる。
また、ガイド表示システムを備えたクレーンにおいて、オペレータに対してガイド情報を的確に提示することができる。
まず、本発明の一実施形態に係るクレーン1について説明する。
図1に示すように、クレーン1は、不特定の場所に移動可能な移動式クレーンである。クレーン1は、走行車両2とクレーン装置6を備えている。
走行車両2は、クレーン装置6を搬送するものである。走行車両2は、複数の車輪3を有し、エンジン4を動力源として走行する。走行車両2には、アウトリガ5が設けられている。アウトリガ5は、走行車両2の幅方向に延伸するビームと地表面Fに接地して走行車両2を支持するジャッキシリンダで構成されている。
クレーン装置6は、吊荷Wを吊り上げた状態で搬送するものである。クレーン装置6は、ブーム7を備えている。ブーム7には、ワイヤロープ8が架け渡されている。ブーム7の先端部分から垂下するワイヤロープ8には、フック9が取り付けられている。また、ブーム7の基端側近傍には、ウインチ10が配置されている。尚、クレーン装置6は、ブーム7の側方にキャビン11を備えている。キャビン11の内部には、旋回操作具19や伸縮操作具20、起伏操作具21、巻回操作具22などが設けられている(図2参照)。
ブーム7は、アクチュエータによって旋回自在となっている。本願においては、かかるアクチュエータを旋回用モータ12と定義する。旋回用モータ12は、電磁比例切換弁である旋回用バルブ23によって適宜に稼動する(図2参照)。つまり、旋回用モータ12は、旋回用バルブ23が作動油の流量や流動方向を切り替えることで適宜に稼動する。尚、旋回用バルブ23は、制御装置18の指示に基づいて稼動する。ブーム7の旋回角度は、旋回用センサ27によって検出される(図2参照)。
また、ブーム7は、アクチュエータによって伸縮自在となっている。本願においては、かかるアクチュエータを伸縮用シリンダ13と定義する。伸縮用シリンダ13は、電磁比例切換弁である伸縮用バルブ24によって適宜に稼動する(図2参照)。つまり、伸縮用シリンダ13は、伸縮用バルブ24が作動油の流量や流動方向を切り替えることで適宜に稼動する。尚、伸縮用バルブ24は、制御装置18の指示に基づいて稼動する。ブーム7の伸縮長さは、伸縮用センサ28によって検出される(図2参照)。
更に、ブーム7は、アクチュエータによって起伏自在となっている。本願においては、かかるアクチュエータを起伏用シリンダ14と定義する。起伏用シリンダ14は、電磁比例切換弁である起伏用バルブ25によって適宜に稼動する(図2参照)。つまり、起伏用シリンダ14は、起伏用バルブ25が作動油の流量や流動方向を切り替えることで適宜に稼動する。尚、起伏用バルブ25は、制御装置18の指示に基づいて稼動する。ブーム7の起伏角度は、起伏用センサ29によって検出される(図2参照)。
加えて、フック9は、アクチュエータによって昇降自在となっている。本願においては、かかるアクチュエータを巻回用モータ15と定義する。巻回用モータ15は、電磁比例切換弁である巻回用バルブ26によって適宜に稼動する(図2参照)。つまり、巻回用モータ15は、巻回用バルブ26が作動油の流量や流動方向を切り替えることで適宜に稼動する。尚、巻回用バルブ26は、制御装置18の指示に基づいて稼動する。フック9の吊下長さは、巻回用センサ30によって検出される(図2参照)。
ところで、本願においては、クレーン1に対してXYZ座標系を規定している。XYZ座標系におけるX軸方向(奥行方向とも呼ぶ)は、ブーム7の起伏支点の軸方向に対して垂直、かつ重力方向に対して垂直な方向となっている。また、XYZ座標系におけるY軸方向(水平方向とも呼ぶ)は、ブーム7の起伏支点の軸方向に対して平行、かつ重力方向に対して垂直な方向となっている。更に、XYZ座標系におけるZ軸方向(鉛直方向とも呼ぶ)は、ブーム7の起伏支点の軸方向に対して垂直、かつ重力方向に対して平行な方向となっている。
次に、本発明の一実施形態に係るガイド表示システム50について説明する。
図2に示すように、ガイド表示システム50は、クレーン1の制御装置18と連携している。ガイド表示システム50は、データ取得部60とデータ処理部70とデータ表示部80とデータ入力部90を備えている。
データ取得部60は、後述するガイド情報を生成するために必要な情報を取得するものである。データ取得部60は、カメラ61とレーザスキャナ62と慣性計測装置63と第一測位装置64が一体に構成されたセンサユニット66を有している。センサユニット66は、ブーム7の先端部分にジンバルを介して取り付けられている(図1参照)。
カメラ61は、作業領域の一部を撮影するものである。カメラ61は、適宜なスペックを有しており、撮影した画像をデータ処理部70へ出力する。尚、カメラ61は、吊荷Wの上方から吊荷Wならびに吊荷W周辺の地表面F(地物Eを含む)を撮影する。そのため、データ処理部70は、吊荷Wならびに吊荷W周辺の地表面F(地物Eを含む)についての画像を取得することができる。
レーザスキャナ62は、作業領域の一部について点群データPを取得するものである(図3参照)。レーザスキャナ62は、適宜なスペックを有しており、取得した点群データPをデータ処理部70へ出力する。尚、レーザスキャナ62は、吊荷Wの上方から吊荷Wならびに吊荷W周辺の地表面F(地物Eを含む)を走査する。そのため、データ処理部70は、吊荷Wならびに吊荷W周辺の地表面F(地物Eを含む)についての点群データPを取得することができる。
慣性計測装置(Inertial Measurement Unit:以下「IMU」とする)63は、センサユニット66の姿勢に関する情報(具体的にはカメラ61とレーザスキャナ62の姿勢に関する情報)を取得するものである。IMU63は、適宜なスペックを有しており、取得したカメラ61とレーザスキャナ62の姿勢に関する情報をデータ処理部70へ出力する。そのため、データ処理部70は、カメラ61とレーザスキャナ62の姿勢に関する情報を取得することができる。
第一測位装置(Global Navigation Satellite System:以下「GNSS受信機」とする)64は、GNSS衛星から発せられた電波を受信することでセンサユニット66の緯度、経度、標高値(具体的にはレーザスキャナ62の座標値)を取得するものである。GNSS受信機64は、適宜なスペックを有しており、取得したレーザスキャナ62の座標値をデータ処理部70へ出力する。そのため、データ処理部70は、レーザスキャナ62の座標値を取得することができる。
加えて、データ取得部60においては、第二測位装置65がクレーン装置6の旋回中心位置に配置されている。第二測位装置(Global Navigation Satellite System:以下「GNSS受信機」とする)65は、GNSS衛星から発せられた電波を受信することでクレーン装置6の旋回中心の緯度、経度、標高値(具体的にはクレーン装置6の旋回中心の座標値)を取得するものである。GNSS受信機65は、適宜なスペックを有しており、取得した旋回中心の座標値をデータ処理部70へ出力する。そのため、データ処理部70は、クレーン装置6の旋回中心の座標値を取得することができる。
このように、ガイド表示システム50は、レーザスキャナ62の座標値とクレーン装置6の旋回中心の座標値によってブーム7を基線としたGNSSコンパスを構成している。このため、データ処理部70は、レーザスキャナ62の向きを算出することができる。また、ガイド表示システム50では、点群データPおよびIMU63の計測時刻がGNSS衛星の原子時計の時刻(以下「GNSS時刻」とする)で同期していることを要件としている。尚、GNSS受信機64とGNSS受信機65には、測位精度の高いRTK(Real Time Kinematic)測位方式を採用している。但し、RTK測位方式に限定せず、他の測位方式を採用していてもよい。
データ処理部70は、データ取得部60と接続されており、様々な処理を行うものである。データ処理部70は、例えば汎用のコンピュータによって構成されている。尚、データ処理部70は、センサユニット66の近傍に配置されている。但し、データ処理部70は、キャビン11の内部など他の場所に配置されていてもよい。もちろん持ち運び可能なものであってもよい。
データ表示部80は、データ処理部70と接続されており、様々な情報を映し出すものである。データ表示部80は、例えば汎用のモニタによって構成されている。尚、データ表示部80は、キャビン11の内部に配置されている。そのため、クレーン1のオペレータに対して情報を提示できる。もちろんデータ処理部70が持ち運び可能なものである場合などでは、一体となったモニタであってもよい。
データ入力部90は、データ処理部70と接続されており、様々な数値を入力或いは設定を変更するものである。データ入力部90は、例えば汎用のキーボードやマウス、タッチパネルによって構成されている。尚、データ入力部90も、キャビン11の内部に配置されている。そのため、クレーン1のオペレータが自在に数値を入力或いは設定を変更できる。もちろんデータ処理部70が持ち運び可能なものである場合などでは、一体となったキーボードやマウス、タッチパネルであってもよい。
次に、レーザスキャナ62による走査態様について説明する。
図3に示すように、レーザスキャナ62は、地表面Fに対して上方からレーザ光を照射する。レーザスキャナ62は、複数のレーザ発信機ならびにレーザ受信機を備えており、同時に複数本のレーザ光を照射して同時に複数個の点データp(点データpの集合が点群データPである)を取得できる。
具体的に説明すると、レーザスキャナ62は、合計16個のレーザ発信機を備えており、同時に16本のレーザ光を照射できる。それぞれのレーザ発信機は、Y軸方向を中心に2°ずつ照射角度を異にしている。また、それぞれのレーザ発信機は、X軸を中心に連続的に位相角を変えて照射可能に構成されている。そのため、レーザスキャナ62は、地表面Fの所定の範囲に対してレーザ光を照射できる。
更に、レーザスキャナ62は、合計16個のレーザ受信機を備えており、同時に16本のレーザ光の反射光を検出できる。それぞれのレーザ受信機は、Y軸方向を中心に2°ずつ検出角度を異にしている。また、それぞれのレーザ受信機は、レーザ発信機から発信されたレーザ光と同じ光路で反射光を検出可能に構成されている。こうして、レーザスキャナ62は、地表面Fを覆う点群データPを取得できるのである。尚、点群データPを取得できる範囲は、カメラ61によって撮影される範囲である計測領域Rを含んでいる。
このように構成することで、データ処理部70は、計測領域Rを含む範囲について点群データPを取得できる。レーザスキャナ62は、吊荷Wの上方から吊荷Wならびに吊荷W周辺の地表面F(地物Eを含む)を走査するため、点群データPには、吊荷W、地表面F、地物Eが表れることとなる(図8(B)参照)。点群データPを構成する各点データpには、IMU63やGNSS受信機64・65によって取得された様々な情報が付加される。例えば姿勢情報や位置情報などである。
次に、データ処理部70による処理の流れについて説明する。
図4に示すように、データ処理部70は、点群データ補正工程STEP-1と三次元地図作成工程STEP-2とクラスタリング工程STEP-3と作業領域可視化工程STEP-4を行う。これらの工程は、所定時間ごとに繰り返し行われる。
点群データ補正工程STEP-1は、レーザスキャナ62、IMU63、GNSS64・65による情報を基に現在時刻から最も近い時刻の点群データP、姿勢情報および位置情報を取得し、レーザスキャナ62の向きを算出する。そして、姿勢情報、位置情報および向きを用いて点群データPの位置と傾きを補正し、これを補正済みの点群データPとして出力する(図5参照)。
具体的に説明すると、点群データ補正工程STEP-1は、時刻同期処理STEP-11と剛体変換処理STEP-12で構成されている。
時刻同期処理STEP-11は、現在時刻から最も近い時刻で、かつ計測領域Rの端から端までを一巡したレーザスキャナ62、IMU63、GNSS64・65による情報同士をGNSS時刻にて同期する。そして、同期済みの点データp、姿勢情報、位置情報の組み合わせを出力する。
剛体変換処理STEP-12は、同期済みの点データp、姿勢情報、位置情報の組み合わせを一つ取得する。そして、取得した姿勢情報を用いて点データpの座標値を剛体変換し、点データpの座標系を平面直角座標系に変換して傾き、位置および向きを補正した点群データPを出力する。
三次元地図作成工程STEP-2は、異なる時期や位置から取得した補正済みの点群データP同士を重ね合わせ、格子状のグリッド(複数の点データpを含む格子状に分割された領域である)Gに分割し、グリッドGごとに代表点Prを算出する(図6(A)参照)。そして、代表点Prに基づいて面を生成することで、これを作業領域の三次元地図Mとして出力する(図6(B)参照)。
具体的に説明すると、三次元地図作成工程STEP-2は、グリッド生成処理STEP-21と三次元地図更新処理STEP-22で構成されている。
グリッド生成処理STEP-21は、補正済みの点群データP同士を重ね合わせて格子状のグリッドGに分割する。そして、グリッドGに含まれる点データpの標高値(座標値の高さ成分)について平均値を算出し、グリッドGの重心位置に高さ成分を平均値とした代表点Prを算出する。
三次元地図更新処理STEP-22は、グリッドGごとに新たに算出された代表点Prを取得する。また、前回に算出された既存の代表点Prも取得する。そして、新たに算出された代表点Prと既存の代表点Prが異なる場合に新たに算出された代表点Prに基づく面を生成して三次元地図Mを出力する。このとき取得する既存の代表点Prとしては、後述する画像による地物領域推定処理(STEP-34)による処理結果が反映されており、STEP-34において推定された地物Eが三次元地図Mに反映される。
クラスタリング工程STEP-3は、上下左右に隣り合うグリッドGの代表点Prについて互いの代表点Prの高さ成分の関係性から特定領域に対してラベルLを付与する(図7(A)参照)。なお、図7(A)等に示す丸囲み数字がラベルLを表している。そして、同じラベルLが付された特定領域について吊荷Wに相当する特定領域を吊荷Wとし、地表面Fに相当する特定領域を地表面Fとして出力する(図7(B)参照)。更に、それ以外の特定領域を地物Eとして出力する(図7(C)参照)。
具体的に説明すると、クラスタリング工程STEP-3は、ラベリング処理STEP-31、同一領域推定処理STEP-32、地物領域推定処理STEP-33、画像による地物領域推定処理STEP-34で構成されている。
ラベリング処理STEP-31は、格子状に並ぶグリッドGを画素に見立てる。また、各グリッドGに存在する代表点Prの高さ成分を輝度値に見立てる。そして、上下左右に隣り合うグリッドGの輝度値を所定の定めに基づいて比較し、特定領域に対してラベルLを付与する。
同一領域推定処理STEP-32は、同じラベルLが付された特定領域を一つの平面に見立てる。そして、同じラベルLが付された特定領域の中でオペレータが手動操作によって選択した特定領域を吊荷Wとして出力する。また、最も点データpが多い特定領域を地表面Fとして出力する。
地物領域推定処理STEP-33は、吊荷Wや地表面Fとされた特定領域以外の領域を、地物Eであるか否かを確認する。具体的な処理の流れについては後述する。
画像による地物領域推定処理STEP-34は、地物領域推定処理STEP-33において地表面Fとされた領域について、同領域をカメラ61で撮影した画像データに基づいて、当該確認領域が地物Eであるか否かを再度確認する。具体的な処理の流れについては後述する。
作業領域可視化工程STEP-4は、吊荷Wや地物Eを取り囲むガイド枠図形GD1などのガイド情報(標高を表す数値GD2・GD3を含む)を生成し、カメラ61が撮影した画像に対してガイド情報を重ね合わせてデータ表示部80に出力する(図8(A)参照)。また、吊荷W、地表面F、地物Eの三次元的な位置関係を表す三次元地図Mについて可視化して出力する(図8(B)参照)。
具体的に説明すると、作業領域可視化工程STEP-4は、領域可視化処理STEP-41と三次元地図可視化処理STEP-42で構成されている。
領域可視化処理STEP-41は、レーザスキャナ62の位置と向きに基づいて吊荷Wや地物Eの画像上における位置を算出する。そして、吊荷Wや地物Eを取り囲むガイド枠図形GD1を生成し、カメラ61が撮影した画像における吊荷Wや地物Eに対してガイド枠図形GD1を重ね合わせて出力する。また、吊荷Wの標高を表す数値GD2や地物Eの標高を表す数値GD3についても出力する。
三次元地図可視化処理STEP-42は、ラベルLが付された吊荷W、地表面F、地物EについてグリッドGごとに代表点Prの座標値を取得する。そして、グリッドGごとに代表点Prを重心とする面を生成する。このとき、面の一辺の幅は、グリッドGの幅と同じとする。その後、吊荷W、地表面F、地物Eごとに着色を行って、これを三次元地図Mとして可視化するのである。
次に、三次元地図更新処理STEP-22の流れについて説明する。
前述したように、データ処理部70は、三次元地図作成工程STEP-2にて三次元地図更新処理STEP-22を行う。
図9に示すように、三次元地図更新処理STEP-22は、グリッドGごとに行われる複数の処理によって構成されている。以下に説明する処理の流れは、本ガイド表示システム50に採用された一例である。但し、本願に掲げる発明を実現できればよく、処理の流れについて限定するものではない。
第一処理STEP-221において、データ処理部70は、グリッドGにおける最新の代表点Pr1を取得する(図10(A)参照)。「代表点Pr1」とは、現在時刻から最も近い時刻に算出された代表点Prを指している。代表点Pr1を取得した後には、第二処理STEP-222へ移行する。
第二処理STEP-222において、データ処理部70は、グリッドGにおける既存の代表点Pr2を取得する(図10(B)参照)。「代表点Pr2」とは、代表点Pr1が算出される前に算出された代表点Prを指している。代表点Pr2を取得した後には、第三処理STEP-223へ移行する。ここで取得する「代表点Pr2」には、後述する画像による地物領域推定処理STEP-34における処理結果が反映されている。
第三処理STEP-223において、データ処理部70は、最新の代表点Pr1と既存の代表点Pr2が異なるか否かを判断する。代表点Pr1と代表点Pr2が異なる場合には、第四処理STEP-224へ移行し、代表点Pr1と代表点Pr2が異ならない場合は、第八処理STEP-228へ移行する。
第四処理STEP-224において、データ処理部70は、かかるグリッドGがオクルージョン領域Roに含まれるか否かを判断する。ここでいう、「オクルージョン領域」とは、図15に示すように、吊荷の影になる領域のことである。グリッドGがオクルージョン領域Roに含まれる場合には、第五処理STEP-225へ移行し、グリッドGがオクルージョン領域Roに含まれない場合は、第九処理STEP-229へ移行する。
第五処理STEP-225において、データ処理部70は、吊荷Wの標高値Hを取得する(図8(B)参照)。つまり、オクルージョン領域Roから吊荷Wの上面までの距離を取得する。標高値Hを取得した後には、第六処理STEP-226へ移行する。
第六処理STEP-226において、データ処理部70は、吊荷Wの高さ寸法hを取得する(図8(B)参照)。吊荷Wの高さ寸法hは、吊荷Wが地表面Fに載置された状態(地物Eである状態)のときから引き継がれた標高値に相当する。高さ寸法hを取得した後には、第七処理STEP-227へ移行する。
第七処理STEP-227において、データ処理部70は、吊荷Wの標高値Hが吊荷Wの高さ寸法hに基づいて定まる閾値(本ガイド表示システム50においては高さ寸法hに等しい値としている)を超えるか否かを判断する。標高値Hが閾値を超えている場合には、第八処理STEP-228へ移行し、標高値Hが閾値を超えていない場合には、第九処理STEP-229へ移行する。
第八処理STEP-228において、データ処理部70は、かかるグリッドGにおける代表点Pr1を削除する(図10(C)参照)。そして、かかるグリッドGにあっては、既存の代表点Pr2に基づいて面を生成する。このようにすることで、最新の代表点Pr1と既存の代表点Pr2が異ならない場合に更新されないこととなる。また、最新の代表点Pr1と既存の代表点Pr2が異なっていても、グリッドGがオクルージョン領域Roに含まれており、吊荷Wの標高値Hが吊荷Wの高さ寸法hに基づいて定まる閾値を超えている場合に更新されないこととなる。
他方、第九処理STEP-229において、データ処理部70は、かかるグリッドGにおける代表点Pr2を削除する(図10(C)参照)。そして、かかるグリッドGにあっては、最新の代表点Pr1に基づいて面を生成する。このようにすることで、最新の代表点Pr1と既存の代表点Pr2が異なり、グリッドGがオクルージョン領域Roに含まれない場合に更新されることとなる。また、最新の代表点Pr1と既存の代表点Pr2が異なり、グリッドGがオクルージョン領域Roに含まれていても、吊荷Wの標高値Hが吊荷Wの高さ寸法hに基づいて定まる閾値を超えていない場合に更新されることとなる。
このように、ガイド表示システム50は、三次元地図Mに吊荷Wの影であるオクルージョン領域Roが発生すると、新たに算出された代表点Pr1と既存の代表点Prが異なる場合であってもオクルージョン領域Roについて更新を行わないものであり、オクルージョン領域Roが発生しても同一の地物Eを異なる複数の地物E或いは地表面Fであると誤認識することがない(図13参照)。加えて、ガイド表示システム50は、吊荷Wの標高値Hが吊荷Wの高さ寸法hに基づいて定まる閾値を超えると、新たに算出された代表点Pr1と既存の代表点Pr2が異なる場合であってもオクルージョン領域Roについて更新を行わない。
データ処理部70は、吊荷Wの影を含む広い領域をオクルージョン領域Roと認識する。具体的に説明すると、データ処理部70は、吊荷Wの外縁にあたるグリッドGの境界線B1を特定し、この境界線B1から外側へ一つ又は複数のグリッドGを隔てた境界線B2を特定する(図10(C)参照)。そして、境界線B2に囲まれた領域をオクルージョン領域Roと認識する。ガイド表示システム50では、吊荷Wの外縁から外側へ所定距離を取った領域をオクルージョン領域Roと認識するため、吊荷Wが搬送されたり振れたりしていても三次元地図Mにおける吊荷W周辺の精度が向上される。
次に、同一領域推定処理STEP-32の流れについて説明する。
前述したように、データ処理部70は、クラスタリング工程STEP-3にて同一領域推定処理STEP-32を行う。
図12に示すように、同一領域推定処理STEP-32は、グリッドGごとに行われる複数の処理によって構成されている。以下に説明する処理の流れは、ガイド表示システム50に採用された一例である。但し、本願に掲げる発明を実現できればよく、処理の流れについて限定するものではない。
第一処理STEP-321において、データ処理部70は、時系列に並んだ複数のフレームf・f・f・・・を取得する(図13(A)参照)。「フレームf」とは、ある時刻の点群データPに基づいて作成された三次元地図Mを指している。フレームfを取得した後には、第二処理STEP-322へ移行する。
第二処理STEP-322において、データ処理部70は、各フレームfの同じラベルLが付された特定領域についてグリッドGごとに標高値の平均値を算出する(図13(B)参照)。ガイド表示システム50においては、かかる平均値を小数点一桁で表している。平均値を算出した後には、第三処理STEP-323へ移行する。
第三処理STEP-323において、データ処理部70は、最新のフレームfの特定領域における標高値と平均値との差が閾値を超えるか否かを判断する。これらの差が閾値を超えている場合には、第四処理STEP-324へ移行し、これらの差が閾値を超えていない場合には、第五処理STEP-325へ移行する。
第四処理STEP-324において、データ処理部70は、かかる特定領域を動体mであると認定する(図13(C)参照)。尚、このような特定領域の中には、吊荷Wが含まれることがある。吊荷Wは、オペレータが手動操作によって選択した特定領域であることから、見分けることが可能である。このようにすることで、搬送される吊荷Wについて見失うことなく追跡することができ、吊荷Wを取り囲むガイド枠図形GD1を吊荷Wの搬送に応じて動かすことができるのである。
他方、第五処理STEP-325において、データ処理部70は、かかる特定領域を静止体sであると認定する(図13(C)参照)。このような特定領域の中には、吊荷Wが含まれることがある。吊荷Wは、オペレータが手動操作によって選択した特定領域であることから、見分けることが可能である。このようにすることで、搬送を停止された吊荷Wについても見失うことなく追跡することができ、吊荷Wを取り囲むガイド枠図形GD1を吊荷Wの停止に応じて止めることができるのである。
ところで、同一領域推定処理STEP-32においては、吊荷Wの上面を捉えた点データpの数が少ない場合など、何らかの原因によって吊荷Wを追跡できない事態(吊荷Wの位置を正確に特定できない事態を含む)が想定される。
このような事態にあっては、最新のフレームfを除いた過去のフレームf・f・f・・・から吊荷Wに相当する特定領域のラベルLを削除した上で同じ処理を行うものとする。このようにすることで、過去のフレームf・f・f・・・における吊荷Wを反映した三次元地図Mが作成されるのを防ぐことができる。ひいては、ガイド枠図形GD1が実際の吊荷Wの形状よりも大きく生成(図14における二点鎖線V参照)されるのを防ぐことができるのである。
このように、ガイド表示システム50は、現在のフレームfで吊荷Wを追跡できなかった場合に過去のフレームf・f・f・・・から吊荷Wの存在を削除して三次元地図Mを更新する、としたものである。かかるガイド表示システム50によれば、前述の効果に加え、吊荷Wが搬送されたり振れたりしていても三次元地図Mにおける吊荷Wの上面形状の精度を向上できる(ひいては三次元地図Mに基づいて生成されたガイド枠図形GD1が吊荷Wの上面形状に即したものとなる:図14参照)。
加えて、ガイド表示システム50は、カメラ61が撮影した画像に対して三次元地図Mに基づいて生成されたガイド情報(ガイド枠図形GD1など)を重ね合わせてデータ表示部80に表示する、としたものである。かかるガイド表示システム50によれば、前述の効果に加え、画像とともに精度の高いガイド情報(ガイド枠図形GD1や標高を表す数値GD2・GD3)をオペレータに提示できる。
次に、地物領域推定処理STEP-33および画像による地物領域推定処理STEP-34の流れについて説明する。
図16に示すように、データ処理部70は、クラスタリング工程STEP-3にて地物領域推定処理STEP-33を行う。
地物領域推定処理STEP-33では、まず、吊荷Wや地表面Fとされた特定領域以外の領域を地物領域(地物Eが存在する領域)であるか否かを確認する領域(以下、確認領域と呼ぶ)として設定し、当該確認領域における代表点Prの集合を取得し、その確認領域に含まれる代表点Prの高さ成分の平均値である平均標高値Hbを算出する(STEP-331)。
次に、当該確認領域に最も近い地表面Fとされた特定領域を取得し、その特定領域に含まれる代表点Prの高さ成分の平均値である平均標高値Haを算出する(STEP-332)。
そして、データ処理部70は、平均標高値Haと平均標高値Hbとの差に基づく判定を行う(STEP-333)。平均標高値Haと平均標高値Hbとの差が所定の閾値よりも大きい場合、当該確認領域を地物Eと推定する(STEP-335)。一方、データ処理部70は、平均標高値Haと平均標高値Hbとの差が所定の閾値以下である場合、当該確認領域を地表面Fと推定する(STEP-334)。
クラスタリング工程STEP-3では、地物領域推定処理STEP-33において、設定した確認領域が地表面Fと推定されたときには、さらに、当該確認領域に対する画像による地物領域推定処理STEP-34に移行する。
データ処理部70は、地物領域推定処理STEP-33により、確認領域が地表面Fと推定されたとき、カメラ61で取得した画像データを画像処理して、画像データに含まれるエッジEgを抽出する(STEP-341)。
次に、データ処理部70は、抽出されたエッジEgの画像を、地表面Fと推定された当該確認領域を含んだ三次元地図M(図17(A)参照)に重ね合わせる(STEP-342)。
次に、データ処理部70は、当該確認領域において抽出したエッジEgが通過するグリッドGcを特定し、特定されたグリッドGcを中心とした合計9個のグリッドGからなる近傍範囲Ma(図17(B)参照)を設定する(STEP-343)。
次に、データ処理部70は、当該近傍範囲Maに含まれる各グリッドGについて、最新のフレームfから所定時間(例えば、1秒間)過去に遡った複数のフレームf・f・・・(例えば、30フレーム分)における点群データPを記憶する(STEP-344)。
次に、データ処理部70は、記憶された複数フレーム分の点群データPを、高さ方向に所定の厚さでスライスし、所定の厚さを有する複数の層に区分する。そして、区分した複数の層の内で点群データPが含まれる最も上側の層(以下、最上層と呼ぶ)を特定する(STEP-345)。
小さい地物にレーザを照射した場合、地物がレーザの側線間隔の間に入り込んでしまい、直近に測定された1フレーム分の点群データPのみでは、当該地物を捉えた点データpが少ない(あるいは点データpが全くない)可能性がある。直近より前に測定した数フレーム分の点群データPを累積しておき、累積した複数フレーム分の点群データPを用いることで、当該地物にレーザが当たったときの点データpが累積して顕在化され、小さい地物Eが存在すること、およびその地物Eの大まかな位置を捉えることが可能になる。
次に、データ処理部70は、特定した最上層に含まれる点群データPの高さの平均値を算出し、この算出した平均値を当該グリッドGcの代表点Prの標高値として更新する(STEP-346)。この代表点Prの標高値の更新は、エッジEgが通過するものとして抽出された全てのグリッドGcに対して実行される。ここで標高値が更新された代表点Prは、次回に三次元地図更新処理STEP-22が実施される際の第二処理STEP-222において、「代表点Pr2」として取得され、画像による地物領域推定処理STEP-34の処理結果が、三次元地図更新処理STEP-22において、三次元地図Mに反映される。
次に、データ処理部70は、代表点Prの更新された標高値に基づいて、平均標高値Hbを再算出する(STEP-347)。
そして、データ処理部70は、平均標高値Haと再算出した平均標高値Hbとの差に基づく再判定を行う(STEP-348)。平均標高値Haと平均標高値Hbとの差が所定の閾値よりも大きい場合、当該確認領域を地物Eと推定し、その確認領域を地物Eとして出力する(STEP-349)。一方、データ処理部70は、平均標高値Haと平均標高値Hbとの差が所定の閾値以下である場合、当該確認領域を地表面Fと推定する(STEP-350)。
そして、ガイド表示システム50において、データ処理部70は、画像による地物領域推定処理STEP-34においてエッジEgを認識し、地物Eを推定した情報を蓄積し、三次元地図Mに反映させる。ガイド表示システム50では、このように一旦地物Eと推定された情報を蓄積していくことによって、小さい地物Eを確実に認識することが可能となる。
カメラ61で撮影した画像データには、地表面Fとされた特定領域においてレーザスキャナ62では捉えきれない小さい地物Eが含まれている可能性がある。ガイド表示システム50では、カメラ61で撮影した画像データを併用し、画像処理結果から地物Eが存在する位置を大まかに把握し、その把握した位置近傍の点群データPを累積して平均化処理することによって、レーザスキャナ62では捉えきれない小さい地物Eの検出漏れを抑制することができる。このため、ガイド表示システム50では、地物Eの大きさ(幅や奥行き)に関わらず、地物Eの高さを取得することができる。
次に、画像による地物領域推定処理STEP-34における画像処理の手法について説明する。
ガイド表示システム50では、地物EのエッジEgを抽出する工程(STEP-341)において行う画像処理の手法としてCanny法を採用している。Canny法は、画像の輪郭部分(エッジEg)を検出する一般的な画像処理のアルゴリズムである。Canny法による画像処理は、輪郭の検出漏れや誤検出が少ないという特徴があるため、画像による地物領域推定処理STEP-34における地物EのエッジEgの抽出に適している。Canny法を採用した画像処理によるエッジEgの抽出方法について、以下に述べる。
データ処理部70は、まず、平滑化フィルタを用いて画像データを平滑化し、画像データのノイズを削減する。具体的には、平滑化フィルタとしてガウシアンフィルタを使用する。ガウシアンフィルタは、ガウス関数を利用して、注目画素からの距離に応じてその注目画素近傍の画素の輝度に重み付け処理をするフィルタであり、平滑化フィルタとして一般的に用いられているものである。
次に、データ処理部70は、平滑化した画像データに輪郭を抽出するための空間フィルタを用いて、画像データ上のエッジEgを抽出する。空間フィルタとしては、ソーベルフィルタを使用する。ソーベルフィルタは、平滑化フィルタに微分フィルタを組み合わせた空間フィルタであり、注目画素からの距離に応じて重み付け量を変化させつつ、注目画素近傍の画素の輝度に重み付け処理をするものである。
次に、データ処理部70は、抽出した輪郭の強度が極大となっている部分(即ち、輪郭の法線方向において輝度が極大となっている部分)だけを残し、その他の部分の画像を削除して、輪郭を細線化する。
次に、データ処理部70は、細線化処理された輪郭の画像に対して大小2つの所定の閾値を適用して、2枚の2値化画像を生成する。小さい方の閾値は、該閾値が適用された2値化画像においてエッジEgであることが確実ではない輪郭が含まれるように設定される。大きい方の閾値は、該閾値が適用された2値化画像においてエッジEgであることが確実な輪郭のみが含まれるように設定される。そして、このようにして生成した2枚の2値化画像を重ね合わせて、その輪郭の重なり部分を最終的にエッジEgとして抽出する。
なお、地物EのエッジEgを抽出する工程(STEP-341)において行う画像処理の手法は、Canny法に限定されるものではなく、ソーベルフィルタのみでエッジEgを抽出する方法やラプラシアンフィルタのみでエッジEgを抽出する方法等を採用してもよく、エッジEgを抽出することが可能なその他種々の手法を採用することができる。Canny法では、線形情報を成すもののみをエッジEgとして抽出するため、ソーベルフィルタのみやラプラシアンフィルタのみでエッジEgを抽出する画像処理の手法に比べて扱う情報量が少なくて済み、データ処理部70の処理速度が低下する可能性も低い。このため、STEP-341のように、地物EのエッジEgの位置を大まかに捉えられればよい場面においては、Canny法を採用することが好適である。
そして、このようなガイド表示システム50を備えたクレーン1では、ガイド表示システム50によって、小さい地物Eがある場所を、地物が無い地表面であると誤認識することなく、確実にガイド表示がなされるため、オペレータが小さい地物Eを確実に認識することができ、作業性の向上が図られる。
即ち、本実施形態に示すガイド表示システム50は、吊荷Wの上方から当該吊荷Wならびに地表面Fおよび地物Eを走査するレーザスキャナ62と、吊荷Wの上方から当該吊荷Wならびに地表面Fおよび地物Eを撮影するカメラ61と、レーザスキャナ62が取得した点群データPを用いて、当該吊荷Wならびに地表面Fおよび地物Eの三次元地図Mと、吊荷Wおよび地物Eの輪郭を表すガイド枠図形GD1と、を生成するデータ処理部70と、カメラ61が撮影した計測領域Rの画像を表示するデータ表示部80と、を備え、データ表示部80に表示したカメラ61が撮影した吊荷Wおよび地物Eの画像に、データ処理部70により生成したガイド枠図形GD1を重ねて表示するクレーン1のガイド表示システム50である。
次に、領域可視化処理STEP-41における画像処理について説明する。
図18に示す如く、領域可視化処理STEP-41では、データ処理部70によって、カメラ61の現在位置と姿勢から、三次元地図Mの座標系(平面直角座標系)におけるカメラ61の計測領域R(図3(B)参照)に対応する領域を算出する(STEP-411)。なお、以下では算出された計測領域Rを、計測領域Rxと記載して区別する。
領域可視化処理STEP-41では、次に、データ処理部70によって、カメラ61の現在位置における視点から見た三次元地図Mを、算出した計測領域Rxにおいてキャプチャし、第一画像P1(図19参照)を生成する(STEP-412)。
なお、領域可視化処理STEP-41では、三次元地図Mとして、カラー処理(色付け)した三次元地図Mを使用している。三次元地図Mに対するカラー処理は、レーザスキャナ62により取得した点群データPに基づいて行うものであり、カメラ62により取得した画像から、各グリッドGの代表点Prの位置に対応する位置の色情報を抽出し、その抽出した色情報に対応する色で各グリッドGを塗りつぶすことによって生成する。
領域可視化処理STEP-41では、次に、データ処理部70によって、カメラ61の現在位置における視点から見た計測領域Rの画像を、三次元地図Mの画素数に合わせた粒度でモザイク処理して、第二画像P2(図19参照)を生成する(STEP-413)。
領域可視化処理STEP-41では、次に、データ処理部70によって、図18および図19に示すように、第一画像P1と第二画像P2のレジストレーション処理(位置合わせする処理)を行う(STEP-414)。このレジストレーション処理では、第一画像P1と第二画像P2に含まれる特徴点を用いたり、あるいは、第一画像P1と第二画像P2における画素の輝度値の差分等を用いたりすることができる。そして、STEP-414では、第一画像P1と第二画像P2の位置合わせを行うとともに、第一画像P1と第二画像P2のズレ量Dを算出する。カメラ61の計測領域Rと、データ処理部70により算出した計測領域Rxは一致することが理想的であるが、測定誤差等に起因して計測領域Rと計測領域Rxには通常はズレが生じてしまうため、ズレ量Dを算出して補正する。
また、領域可視化処理STEP-41では、データ処理部70によって、レーザスキャナ62の位置と向きに基づいて、カメラ61により撮影した画像上における吊荷Wや地物Eの位置を算出する(STEP-415)。
そして、領域可視化処理STEP-41では、データ処理部70によって、吊荷Wや地物Eを取り囲むガイド枠図形GD1を生成し、カメラ61が撮影した画像における吊荷Wや地物Eに対してガイド枠図形GD1を重ね合わせて出力する(STEP-416)。
このSTEP-416において、データ処理部70は、STEP-414で求めたズレ量Dに基づいて、吊荷Wや地物Eに対するガイド枠図形GD1の位置を補正して、ガイド情報を表示する。
即ち、データ処理部70は、画像処理により、第一画像P1と第二画像P2をレジストレーション処理するものであり、カメラ61で撮影した画像と、レーザスキャナ62で取得した点群データPに基づく三次元地図Mの位置を容易に同期させることができる。
即ち、ガイド表示システム50において、データ処理部70は、カメラ61の計測領域Rxを算出し、カメラ61の視点からの計測領域Rxにおける三次元地図Mをキャプチャして第一画像P1を生成するとともに、カメラ61の画像を三次元地図Mの粒度に合わせてモザイク処理して第二画像P2を生成し、第一画像P1と第二画像P2をレジストレーション処理して、第一画像P1と第二画像P2のズレ量Dを算出し、算出したズレ量Dに基づいて、吊荷Wおよび地物Eの画像に対するガイド枠図形GD1の配置位置を補正しつつ、データ表示部80に、吊荷Wおよび地物Eの画像とガイド枠図形GD1を重ねて表示する。
このような構成のガイド表示システム50によれば、カメラ61が撮影した画像に対してガイド情報を重ね合わせてデータ表示部80に表示するときに、吊荷Wや地物Eに対するガイド枠図形GD1のズレを抑制することが可能になる。これにより、ガイド表示システム50において、ガイド情報(即ち、吊荷Wや地物Eに対するガイド枠図形GD1)を的確に表示することができる。
次に、領域可視化処理STEP-41における画像処理によるレジストレーション処理について説明する。
本実施形態の領域可視化処理STEP-41では、(STEP-414)のレジストレーション処理において、「テンプレートマッチング」の手法を採用している。
「テンプレートマッチング」は、画像処理によって、ある画像と同じパターンが別の画像内に存在するか否かを探索する手法である。具体的には、1)テンプレート画像の各画素の値(輝度値)と、探索対象領域の画像における各画素の値(輝度値)の差分の二乗和を算出し、2)探索対象領域の画像に対してテンプレート画像を上下左右に移動させて、1)で算出した差分の二乗和が最小となる位置を検出する。そして、「テンプレートマッチング」では、検出したその位置を、探索対象領域においてテンプレート画像に対応する画像がある位置であると特定する。
具体的には、第二画像P2の少なくとも一部をテンプレート画像として設定する。そして、設定したテンプレート画像の各画素における輝度値と、第一画像P1における対応する各画素における輝度値との差分を算出し、その差分の二乗和が最小となるときのテンプレート画像の位置を算出する。
即ち、ガイド表示システム50において、データ処理部70は、テンプレートマッチング法による画像処理により、第一画像P1と第二画像P2をレジストレーション処理する構成とすることで、カメラ61で撮影した画像と、レーザスキャナ62で取得した点群データPに基づく三次元地図Mの位置を精度よく同期させることが可能になる。
クレーン1を用いた作業において、吊荷Wは揺れる可能性があるため、テンプレート画像から除外することが好ましい。このため、ガイド表示システム50においては、図20に示すように、テンプレート画像を、第二画像P2における吊荷Wを含まない画像の範囲に設定している。このような構成とすることで、第一画像P1と第二画像P2のレジストレーション処理をより精度よく行うことが可能になり、ひいては、ズレ量Dの算出精度が向上される。
即ち、ガイド表示システム50において、データ処理部70は、第二画像P2における吊荷Wを含まない位置の画像をテンプレート画像とし、撮影中に変位する吊荷Wの画像をテンプレート画像から除外することによって、カメラ61で撮影した画像と、レーザスキャナ62で取得した点群データPに基づく三次元地図Mの位置をより精度よく同期させることが可能になる。
そして、理想的には一致する計測領域Rと計測領域Rxの各画像P1・P2をテンプレートマッチングにより位置合わせしたときの外枠のズレた距離を求めることにより、ズレ量Dが算出される。なお、ズレ量Dには、XYZ座標系におけるX軸方向のズレ量DxとY軸方向のズレ量Dyが含まれている。
なお、本実施形態では、領域可視化処理STEP-41におけるレジストレーション処理の手法として、「テンプレートマッチング」を採用した場合を例示しているが、ガイド表示システム50により実行する領域可視化処理STEP-41におけるレジストレーション処理の手法がこれに限定されるものではない。領域可視化処理STEP-41におけるレジストレーション処理の手法としては、例えば「BRISK」「ORB」「AKAZE」等を採用してもよい。
「BRISK」は、画像処理によって対応点を探索するための手法であり、スケール(拡大および縮小)や回転に依存しない特徴量を算出することができる。具体的には、1)画像中から規則的に決められた同心円状の全60か所の画素を設定し、それらの画素値を用いる。2)その中からランダムに2画素を選択し、画素値の閾値をもとに、長距離ペアと短距離ペアに分類する。3)長距離ペアから画素値の平均勾配ベクトルを算出し、大局的な画素値の勾配方向をとらえる。4)算出した平均勾配ベクトルを用いて、輝度値を回転させて規格化する。5)規格化した輝度値に対して、短距離ペアの輝度値を比較し、バイナリコードの各ビットを特徴量として算出する。そして、第一画像P1と第二画像P2において、「BRISK」の手法によって対応点を探索し、検出された対応点同士を位置合わせすることによって、レジストレーション処理を行うことができる。
「ORB」は、「BRISK」と同様に、画像処理によって対応点を探索するための手法であり、スケール(拡大および縮小)や回転に依存しない特徴量を算出することができる。「BRISK」とは、長距離ペアおよび短距離ペアを選定する際に、Greedyアルゴリズムを用いてサンプリング位置を検定する点が相違している。「ORB」は、「BRISK」と比較して、バイナリコードのビット分散が大きく、バイナリコードのビット間の相関が小さいという特徴がある。
「AKAZE」は、画像内の特徴点を抽出する手法であり、スケール(拡大および縮小)や回転により影響されにくいという特徴がある。具体的には、1)対象画像に対して、非線形拡散フィルタにより平滑化画像を生成する。2)生成した平滑化画像において、隣接する画素の値との差分が大きい箇所を特徴点として抽出する。
そして、本実施形態で示したクレーン1は、以上の説明で示したガイド表示システム50を備えることによって、オペレータに対してガイド情報(即ち、吊荷Wや地物Eに対するガイド枠図形GD1)を的確に提示することが可能になる。
1 クレーン
50 ガイド表示システム
61 カメラ
62 レーザスキャナ
66 センサユニット
70 データ処理部
80 データ表示部
E 地物
F 地表面
GD1 ガイド枠図形(ガイド情報)
M 三次元地図
P 点群データ
W 吊荷
R 計測領域
Rx (算出した)計測領域
P1 第一画像
P2 第二画像
50 ガイド表示システム
61 カメラ
62 レーザスキャナ
66 センサユニット
70 データ処理部
80 データ表示部
E 地物
F 地表面
GD1 ガイド枠図形(ガイド情報)
M 三次元地図
P 点群データ
W 吊荷
R 計測領域
Rx (算出した)計測領域
P1 第一画像
P2 第二画像
Claims (5)
- 吊荷の上方から当該吊荷ならびに地表面および地物を走査するレーザスキャナと、
前記吊荷の上方から当該吊荷ならびに前記地表面および地物を撮影するカメラと、
前記レーザスキャナが取得した点群データを用いて、当該吊荷ならびに前記地表面および地物の三次元地図と、前記吊荷および前記地物の輪郭を表すガイド枠図形と、を生成するデータ処理部と、
前記カメラが撮影した画像を表示するデータ表示部と、を備え、
前記データ表示部に表示した前記カメラが撮影した前記吊荷および前記地物の画像に、前記データ処理部により生成した前記ガイド枠図形を重ねて表示するクレーンのガイド表示システムであって、
前記データ処理部は、
前記カメラの計測領域を算出し、前記カメラの視点からの前記計測領域における前記三次元地図をキャプチャして第一画像を生成するとともに、前記カメラの画像を前記三次元地図の粒度に合わせてモザイク処理して第二画像を生成し、
前記第一画像と前記第二画像をレジストレーション処理して、前記第一画像と前記第二画像のズレ量を算出し、算出したズレ量に基づいて、前記吊荷および前記地物の画像に対する前記ガイド枠図形の配置位置を補正しつつ、前記データ表示部に、前記吊荷および前記地物の画像と前記ガイド枠図形を重ねて表示する、
ことを特徴とするガイド表示システム。 - 前記データ処理部は、
画像処理により、前記第一画像と前記第二画像をレジストレーション処理する、ことを特徴とする請求項1に記載のガイド表示システム。 - 前記データ処理部は、
テンプレートマッチング法による画像処理により、前記第一画像と前記第二画像をレジストレーション処理する、ことを特徴とする請求項2に記載のガイド表示システム。 - 前記データ処理部は、前記第二画像における前記吊荷を含まない位置の画像をテンプレート画像とする、ことを特徴とする請求項3に記載のガイド表示システム。
- 請求項1~請求項4の何れか一項に記載のガイド表示システムを備えたクレーン。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056812A JP7369653B2 (ja) | 2020-03-26 | 2020-03-26 | ガイド表示システムおよびこれを備えたクレーン |
EP21775498.5A EP4129883A4 (en) | 2020-03-26 | 2021-03-23 | Guide display device and crane equipped with same |
US17/911,272 US11958725B2 (en) | 2020-03-26 | 2021-03-23 | Guide display device and crane equipped with same |
PCT/JP2021/012005 WO2021193640A1 (ja) | 2020-03-26 | 2021-03-23 | ガイド表示装置およびこれを備えたクレーン |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056812A JP7369653B2 (ja) | 2020-03-26 | 2020-03-26 | ガイド表示システムおよびこれを備えたクレーン |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021155173A JP2021155173A (ja) | 2021-10-07 |
JP7369653B2 true JP7369653B2 (ja) | 2023-10-26 |
Family
ID=77892256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020056812A Active JP7369653B2 (ja) | 2020-03-26 | 2020-03-26 | ガイド表示システムおよびこれを備えたクレーン |
Country Status (4)
Country | Link |
---|---|
US (1) | US11958725B2 (ja) |
EP (1) | EP4129883A4 (ja) |
JP (1) | JP7369653B2 (ja) |
WO (1) | WO2021193640A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240007160A (ko) * | 2021-04-12 | 2024-01-16 | 스트럭처럴 서비시스, 인크. | 크레인 오퍼레이터를 지원하기 위한 시스템 및 방법 |
US12195306B2 (en) * | 2021-04-12 | 2025-01-14 | Structural Services, Inc. | Systems and methods for identifying and locating building material objects |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002074323A (ja) | 2000-09-01 | 2002-03-15 | Kokusai Kogyo Co Ltd | 三次元市街地空間モデル作成方法およびシステム |
JP2004240599A (ja) | 2003-02-05 | 2004-08-26 | Nippon Telegr & Teleph Corp <Ntt> | 形状獲得方法、装置、プログラム、及びそのプログラムを記録した記録媒体 |
JP2005234603A (ja) | 2005-04-12 | 2005-09-02 | Hitachi Ltd | 地図情報更新方法及び地図更新装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5876679B2 (ja) * | 2011-07-08 | 2016-03-02 | 株式会社タダノ | 性能線表示装置 |
JP5963353B2 (ja) * | 2012-08-09 | 2016-08-03 | 株式会社トプコン | 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム |
CN104662389B (zh) * | 2012-09-21 | 2017-06-16 | 株式会社多田野 | 作业车的周围信息获取装置 |
SE541180C2 (en) * | 2017-04-03 | 2019-04-23 | Cargotec Patenter Ab | Driver assistance system for a vehicle provided with a crane using 3D representations |
JP6965050B2 (ja) | 2017-07-21 | 2021-11-10 | 株式会社タダノ | ガイド情報表示装置およびこれを備えたクレーンおよびガイド情報表示方法 |
JP6907061B2 (ja) * | 2017-07-21 | 2021-07-21 | 株式会社タダノ | 測定対象物の上面推定方法、ガイド情報表示装置およびクレーン |
JP6895835B2 (ja) * | 2017-07-21 | 2021-06-30 | 株式会社タダノ | ガイド情報表示装置およびクレーン |
US20200117201A1 (en) * | 2018-10-15 | 2020-04-16 | Caterpillar Paving Products Inc. | Methods for defining work area of autonomous construction vehicle |
-
2020
- 2020-03-26 JP JP2020056812A patent/JP7369653B2/ja active Active
-
2021
- 2021-03-23 WO PCT/JP2021/012005 patent/WO2021193640A1/ja unknown
- 2021-03-23 US US17/911,272 patent/US11958725B2/en active Active
- 2021-03-23 EP EP21775498.5A patent/EP4129883A4/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002074323A (ja) | 2000-09-01 | 2002-03-15 | Kokusai Kogyo Co Ltd | 三次元市街地空間モデル作成方法およびシステム |
JP2004240599A (ja) | 2003-02-05 | 2004-08-26 | Nippon Telegr & Teleph Corp <Ntt> | 形状獲得方法、装置、プログラム、及びそのプログラムを記録した記録媒体 |
JP2005234603A (ja) | 2005-04-12 | 2005-09-02 | Hitachi Ltd | 地図情報更新方法及び地図更新装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021193640A1 (ja) | 2021-09-30 |
US20230097473A1 (en) | 2023-03-30 |
EP4129883A1 (en) | 2023-02-08 |
US11958725B2 (en) | 2024-04-16 |
EP4129883A4 (en) | 2024-04-24 |
JP2021155173A (ja) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11084692B2 (en) | Guide information display device, crane equipped with same, and guide information display method | |
EP3809369B1 (en) | Data point group clustering method, guide information display device, and crane | |
JP7343433B2 (ja) | ガイド表示システムおよびこれを備えたクレーン | |
US11542127B2 (en) | Guide information display device and crane | |
CN111882597B (zh) | 测量对象物的上表面推测方法、引导信息显示装置以及起重机 | |
JP7402728B2 (ja) | ガイド表示システムおよびこれを備えたクレーン | |
CN111928782B (zh) | 引导信息显示装置、引导信息显示方法及作业机 | |
JP7369653B2 (ja) | ガイド表示システムおよびこれを備えたクレーン | |
JP2019023117A (ja) | ガイド情報表示装置およびこれを備えたクレーンおよびガイド情報表示方法 | |
WO2020122028A1 (ja) | 地表面推定方法、計測領域表示システムおよびクレーン | |
WO2020122025A1 (ja) | 地表面推定方法、計測領域表示システムおよびクレーン | |
JP7369654B2 (ja) | ガイド表示システムおよびこれを備えたクレーン | |
US12215001B2 (en) | Guide display device and crane equipped with same | |
KR20140053712A (ko) | 센서 융합에 의한 실내로봇용 위치인식 방법 | |
JP2019023567A (ja) | 地表面推定方法、ガイド情報表示装置およびクレーン | |
JP6832806B2 (ja) | ガイド情報表示装置、クレーンおよびガイド情報の生成方法 | |
KR20140032113A (ko) | 자연랜드마크 및 인공랜드마크와 엔코더를 이용한 지능형 이동로봇의 위치인식 방법 | |
US20240290184A1 (en) | Intrusion detection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231016 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7369653 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |