JPWO2019054209A1 - Map making system and map making device - Google Patents
Map making system and map making device Download PDFInfo
- Publication number
- JPWO2019054209A1 JPWO2019054209A1 JP2019541997A JP2019541997A JPWO2019054209A1 JP WO2019054209 A1 JPWO2019054209 A1 JP WO2019054209A1 JP 2019541997 A JP2019541997 A JP 2019541997A JP 2019541997 A JP2019541997 A JP 2019541997A JP WO2019054209 A1 JPWO2019054209 A1 JP WO2019054209A1
- Authority
- JP
- Japan
- Prior art keywords
- map
- space
- time
- data
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/383—Indoor data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Aviation & Aerospace Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Instructional Devices (AREA)
Abstract
地図作成システム(101、200)は、移動体が移動する空間に固定的に設置され、複数の異なる時刻に空間の一部をセンシングして、各時刻のセンサデータを出力する固定センサ(103)と、各時刻のセンサデータを受け取って、少なくとも空間の一部の地図を作成する地図作成装置(105)とを有する。各時刻のセンサデータ(231、223)は、各時刻における、空間の一部に存在する物体(221、223)の位置を示している。地図作成装置(105)は、各時刻のセンサデータを記憶する記憶装置(107)と、各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて空間の一部の地図である局所地図データを作成する信号処理回路(109)とを有する。The map creation system (101, 200) is fixedly installed in the space where the moving body moves, and a fixed sensor (103) that senses a part of the space at a plurality of different times and outputs sensor data at each time. And a map creation device (105) that receives sensor data at each time and creates a map of at least a part of the space. The sensor data (231, 223) at each time indicates the position of an object (221, 223) existing in a part of the space at each time. The map creation device (105) is a storage device (107) that stores sensor data at each time, and a map of a part of the space based on the position of a fixed object that is commonly included in all the sensor data at each time. It has a signal processing circuit (109) that creates certain local map data.
Description
本開示は、地図作成システムおよび地図作成装置に関する。 The present disclosure relates to a map making system and a map making device.
所定の経路に沿って自律的に空間を移動する自律移動ロボットが開発されている。自律移動ロボットは、レーザ距離センサ等の外界センサを用いて周囲の空間をセンシングし、センシング結果と、予め用意された地図とのマッチングを行い、自身の現在の位置および姿勢を推定(同定)する。自律移動ロボットは、自身の現在の位置および姿勢を制御しながら、当該経路に沿って移動することができる。 Autonomous mobile robots that autonomously move in space along a predetermined path have been developed. The autonomous mobile robot senses the surrounding space using an external sensor such as a laser distance sensor, matches the sensing result with a map prepared in advance, and estimates (identifies) its current position and posture. .. The autonomous mobile robot can move along the path while controlling its current position and posture.
特開2005−326944号公報および特表2014−509417号公報は、マッチングに利用される地図の作成技術を開示する。いずれもレーザ距離センサまたはレーザスキャナを移動させながら周囲をスキャンし、スキャンした領域の地図を作成する。スキャンが行われた時点で当該領域に存在していた物体は地図に反映される。 Japanese Unexamined Patent Publication No. 2005-326944 and Japanese Patent Application Laid-Open No. 2014-509417 disclose a map making technique used for matching. In each case, the laser distance sensor or the laser scanner is moved to scan the surrounding area and create a map of the scanned area. Objects that were in the area at the time the scan was performed are reflected on the map.
作成された地図には、荷物などの可動物体が反映されている場合があり得る。ロボットがそのような地図を利用してマッチングを行う時に当該可動物体が除去されていると、ロボットのセンシング結果と地図とが相違し、位置および姿勢の推定精度が低下し得る。 The created map may reflect moving objects such as luggage. If the moving object is removed when the robot performs matching using such a map, the sensing result of the robot and the map may differ, and the estimation accuracy of the position and the posture may decrease.
本願の、限定的ではない例示的なある実施形態は、可動物体の存在を考慮して、移動体が自己位置を推定するために参照される地図を作成する技術を提供する。 An exemplary, but not limited, embodiment of the present application provides a technique for creating a map in which a moving object is referenced to estimate its position, taking into account the presence of moving objects.
本開示による例示的な地図作成システムは、移動体が自己位置を推定するために参照する地図を作成する地図作成システムであって、前記移動体が移動する空間に固定的に設置され、複数の異なる時刻に前記空間の一部をセンシングして、各時刻のセンサデータを出力する固定センサと、前記各時刻のセンサデータを受け取って、少なくとも前記空間の一部の地図を作成する地図作成装置とを備え、前記各時刻のセンサデータは、各時刻における、前記空間の一部に存在する物体の位置を示しており、前記地図作成装置は、前記各時刻のセンサデータを記憶する記憶装置と、前記各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて前記空間の一部の地図である局所地図データを作成する信号処理回路とを備えている。 The exemplary map-making system according to the present disclosure is a map-making system that creates a map that a moving body refers to in order to estimate its own position, and is fixedly installed in a space in which the moving body moves, and a plurality of maps are created. A fixed sensor that senses a part of the space at different times and outputs sensor data at each time, and a map creation device that receives the sensor data at each time and creates a map of at least a part of the space. The sensor data at each time indicates the position of an object existing in a part of the space at each time, and the map-making device includes a storage device for storing the sensor data at each time. It is provided with a signal processing circuit that creates local map data that is a map of a part of the space based on the position of a fixed object that is commonly included in all the sensor data at each time.
上記の包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または記録媒体によって実現されてもよい。あるいは、システム、装置、方法、集積回路、コンピュータプログラム、および記録媒体の任意な組み合わせによって実現されてもよい。 The above-mentioned comprehensive or specific embodiment may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium. Alternatively, it may be realized by any combination of systems, devices, methods, integrated circuits, computer programs, and recording media.
本発明の例示的な実施形態にかかる地図作成システムによれば、可動物体の存在を考慮して、移動体が自己位置を推定するために参照される地図を作成することが可能になる。 According to the mapping system according to the exemplary embodiment of the present invention, it is possible to create a map in which a moving body is referred to for estimating its own position in consideration of the existence of a moving object.
<用語>
本開示の実施形態を説明する前に、本明細書において使用する用語の定義を説明する。<Terminology>
Before describing embodiments of the present disclosure, definitions of terms used herein will be described.
「無人搬送車」(AGV)とは、本体に人手または自動で荷物を積み込み、指示された場所まで自動走行し、人手または自動で荷卸しをする無軌道車両を意味する。「無人搬送車」は、無人牽引車および無人フォークリフトを含む。 An "automated guided vehicle" (AGV) means an automated guided vehicle that manually or automatically loads luggage into the body, automatically travels to a designated location, and manually or automatically unloads. "Automated guided vehicles" include unmanned tow trucks and unmanned forklifts.
「無人」の用語は、車両の操舵に人を必要としないことを意味しており、無人搬送車が「人(たとえば荷物の積み下ろしを行う者)」を搬送することは除外しない。 The term "unmanned" means that no person is required to steer the vehicle, and does not exclude automatic guided vehicles carrying "people (eg, those who load and unload luggage)".
「無人牽引車」とは、人手または自動で荷物の積み込み荷卸しをする台車を牽引して、指示された場所まで自動走行する無軌道車両である。 An "unmanned towing vehicle" is an untracked vehicle that automatically travels to a designated place by towing a trolley that manually or automatically loads and unloads luggage.
「無人フォークリフト」とは、荷物移載用のフォークなどを上下させるマストを備え、フォークなどに荷物を自動移載し指示された場所まで自動走行し、自動荷役作業をする無軌道車両である。 An "unmanned forklift" is an unmanned aerial vehicle equipped with a mast that raises and lowers a fork for transferring luggage, automatically transfers the luggage to the fork, etc., and automatically travels to a designated place to perform automatic cargo handling work.
「無軌道車両」とは、車輪と、車輪を回転させる電気モータまたはエンジンを備える移動体(vehicle)である。 A "trackless vehicle" is a vehicle that includes wheels and an electric motor or engine that rotates the wheels.
「移動体」とは、人または荷物を載せて移動する装置であり、移動のための駆動力(traction)を発生させる車輪、二足または多足歩行装置、プロペラなどの駆動装置を備える。本開示における「移動体」の用語は、狭義の無人搬送車のみならず、モバイルロボット、サービスロボット、およびドローンを含む。 A "moving body" is a device that carries a person or luggage to move, and includes a driving device such as a wheel, a two-legged or multi-legged walking device, or a propeller that generates a driving force (traction) for movement. The term "mobile" in the present disclosure includes mobile robots, service robots, and drones as well as automatic guided vehicles in the narrow sense.
「自動走行」は、無人搬送車が通信によって接続されるコンピュータの運行管理システムの指令に基づく走行と、無人搬送車が備える制御装置による自律的走行とを含む。自律的走行には、無人搬送車が所定の経路に沿って目的地に向かう走行のみならず、追尾目標に追従する走行も含まれる。また、無人搬送車は、一時的に作業者の指示に基づくマニュアル走行を行ってもよい。「自動走行」は、一般には「ガイド式」の走行および「ガイドレス式」の走行の両方を含むが、本開示では「ガイドレス式」の走行を意味する。 "Automated driving" includes traveling based on a command of a computer operation management system to which an automatic guided vehicle is connected by communication, and autonomous driving by a control device provided in the automated guided vehicle. Autonomous traveling includes not only traveling of an automated guided vehicle toward a destination along a predetermined route, but also traveling of following a tracking target. Further, the automatic guided vehicle may temporarily perform manual traveling based on the instruction of the operator. "Automatic driving" generally includes both "guided" driving and "guideless" driving, but in the present disclosure it means "guideless" driving.
「ガイド式」とは、誘導体を連続的または断続的に設置し、誘導体を利用して無人搬送車を誘導する方式である。 The "guide type" is a method in which derivatives are installed continuously or intermittently and an unmanned carrier is guided by using the derivatives.
「ガイドレス式」とは、誘導体を設置せずに誘導する方式である。本開示の実施形態における無人搬送車は、自己位置推定装置を備え、ガイドレス式で走行することができる。 The "guideless type" is a method of guiding without installing a derivative. The automatic guided vehicle according to the embodiment of the present disclosure includes a self-position estimation device and can travel in a guideless manner.
「自己位置推定装置」は、レーザレンジファインダなどの外界センサによって取得されたセンサデータに基づいて環境地図上における自己位置を推定する装置である。 The "self-position estimation device" is a device that estimates the self-position on the environmental map based on the sensor data acquired by an external sensor such as a laser range finder.
「外界センサ」は、移動体の外部の状態をセンシングするセンサである。外界センサには、たとえば、レーザレンジファインダ(測域センサともいう)、カメラ(またはイメージセンサ)、LIDAR(Light Detection and Ranging)、ミリ波レーダ、および磁気センサがある。 The "outside world sensor" is a sensor that senses the external state of a moving body. External world sensors include, for example, a laser range finder (also called a range finder), a camera (or image sensor), a lidar (Light Detection and Ranging), a millimeter wave radar, and a magnetic sensor.
「内界センサ」は、移動体の内部の状態をセンシングするセンサである。内界センサには、たとえばロータリエンコーダ(以下、単に「エンコーダ」と称することがある)、加速度センサ、および角加速度センサ(たとえばジャイロセンサ)がある。 The "inner world sensor" is a sensor that senses the internal state of a moving body. Internal world sensors include, for example, rotary encoders (hereinafter, may be simply referred to as “encoders”), acceleration sensors, and angular acceleration sensors (eg, gyro sensors).
「SLAM(スラム)」とは、Simultaneous Localization and Mappingの略語であり、自己位置推定と環境地図作成を同時に行うことを意味する。 "SLAM" is an abbreviation for Simultaneous Localization and Mapping, which means that self-position estimation and environmental mapping are performed at the same time.
<例示的な実施形態>
以下、添付の図面を参照しながら、本開示による地図作成装置および地図作成システムの一例を説明する。なお、必要以上に詳細な説明は省略する場合がある。たとえば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。本発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供する。これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。<Exemplary Embodiment>
Hereinafter, an example of the map creation device and the map creation system according to the present disclosure will be described with reference to the attached drawings. In addition, more detailed explanation than necessary may be omitted. For example, a detailed explanation of already well-known matters or a duplicate explanation for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. The inventors provide accompanying drawings and the following description for those skilled in the art to fully understand the present disclosure. These are not intended to limit the subject matter described in the claims.
図1は、本開示の例示的な実施形態における地図作成システムの概略構成を示すブロック図である。 FIG. 1 is a block diagram showing a schematic configuration of a map creation system according to an exemplary embodiment of the present disclosure.
地図作成システム101は、移動体が自己位置を推定するために参照する地図を作成するために利用される。地図作成システム101は、1または複数の固定センサ103a、103b、103cと、地図作成装置105とを備えている。
The
固定センサ103a、103b、103cは、移動体が移動する空間(以下「移動空間」と称する。)内の異なる位置に固定的に設置されている。固定センサ103a、103b、103cの各々は、周期的またはランダムなタイミングで周囲の空間をセンシング(スキャン)して、各時刻のスキャンデータ(センサデータ)を出力する。各時刻のセンサデータは、各時刻に当該移動空間の一部に存在している物体の位置を示している。
The fixed
固定センサ103a、103b、103cは、移動体が移動する空間の地図を新規に作成する際、または作成し直す際に搬入および設置され、地図作成のためのデータの収集が終了した後、撤去され得る。固定センサ103a、103b、103cは、スキャンデータを取得する時点で固定されていればよい。
The fixed
地図作成装置105は、固定センサ103a、103b、103cの各々から各時刻のセンサデータを受け取って、少なくとも当該移動空間の一部の地図を作成する。より具体的に説明する。
The
地図作成装置105は、記憶装置107と、信号処理回路109と、各固定センサから出力された各時刻のセンサデータを受信するインタフェース装置111とを有している。インタフェース装置111は、有線または無線の通信端子および/または通信回路であり得る。
The
図1では、地図作成装置105は、各固定センサから各時刻のセンサデータが出力される度に、当該センサデータを受信する態様を想定している。しかしながら、各固定センサ103が各時刻のセンサデータを取得した後、内部の記憶装置に保持しておき、後にまとめて地図作成装置105に転送してもよい。転送は、有線または無線の通信回線を介して行われてもよいし、メモリカードなどの記憶媒体を介して行われてもよい。
In FIG. 1, it is assumed that the
記憶装置107は、インタフェース装置111を介して各固定センサから受け取った各時刻のセンサデータを記憶する。また記憶装置107は、移動空間全体の地図データMを前もって記憶していてもよい。さらに、記憶装置107は、地図データを作成するために移動空間全体のスキャンを行いながら動き回るAGV等からも、各スキャンによって得られたスキャンデータを取得して記憶してもよい。AGV等から得られたスキャンデータと、各固定センサから得られた各時刻のセンサデータとを整合させながら移動空間全体の地図を作成することができる。
The
信号処理回路109は、記憶装置107に記憶されたセンサデータを利用して、固定センサ毎に以下の処理を行う。なお説明の便宜のため、固定センサ103aを例に挙げて説明するが、他の固定センサ103bおよび103cも同様である。
The
信号処理回路109は、固定センサ103aから出力された、複数の異なる時刻に取得されたセンサデータの集合SDaを、記憶装置107から取得する。信号処理回路109は、各時刻のセンサデータの全てに共通して含まれる物体の位置に基づいて局所地図データを作成する。ここでいう「各時刻のセンサデータの全てに共通して含まれる物体」は、固定センサによるセンシング期間中は移動しなかった物体を意味し、以下では「固定物体」と呼ぶ。固定物体は、典型的には、移動空間内に存在する壁、柱である。固定センサ103aによるセンシング期間中に移動しなかった物体であれば、移動させることが可能な荷物等であっても「固定物体」に含まれる。
The
以上の処理によれば、少なくとも各固定センサがセンシングを行った空間に関して、固定物体の位置を反映した局所地図を作成することができる。 According to the above processing, it is possible to create a local map that reflects the position of the fixed object at least with respect to the space sensed by each fixed sensor.
信号処理回路109は、作成した局所地図データを用いて、記憶装置107の地図データMを更新してもよい。更新された地図データMは、例えば移動体10a〜10d等に送信され、各移動体が自己位置を推定するために参照される。
The
なお、上述の例における、複数の異なる時刻に取得されたセンサデータの集合SDaには、各時刻のセンサデータの全てに共通して含まれないが、一部にのみ含まれる物体も存在し得る。当該物体を、以下では「可動物体」と呼ぶ。可動物体は、典型的には、移動空間の床の上に置かれその後移動または除去された荷物、または、移動空間の床の上に新たに置かれた荷物である。また可動物体は、移動するAGVおよび人を含み得る。 In the above example, the set SDa of the sensor data acquired at a plurality of different times may include an object that is not included in all of the sensor data at each time but is included only in a part thereof. .. The object is hereinafter referred to as a "movable object". A movable object is typically a load that has been placed on the floor of the moving space and then moved or removed, or a new load placed on the floor of the moving space. Movable objects may also include moving AGVs and people.
信号処理回路109は、固定物体の位置のみを示した局所地図を作成してもよいし、固定物体の位置と可動物体の位置とを識別可能に示した局所地図を作成してもよい。後者の一例は、複数の異なる時刻に取得されたセンサデータに存在した各可動物体の存在頻度(割合)が所定以上である場合に固定物体の位置を識別可能に示すことである。識別可能な表示の態様の例は、固定物体と可動物体とを異なるキャラクターまたはアイコンで表示すること、固定物体を最も濃い色で表示する一方、各可動物体の存在頻度(割合)が小さくなるほどより薄い色で表示してもよい。
The
以下、移動体が無人搬送車である場合のより具体的な例を説明する。本明細書では、略語を用いて、無人搬送車を「AGV」と記述することがある。なお、以下の説明は、矛盾がない限り、AGV以外の移動体、例えば移動ロボット、ドローン、または有人の車両などにも同様に適用することができる。 Hereinafter, a more specific example when the moving body is an automatic guided vehicle will be described. In this specification, an abbreviation may be used to describe an automatic guided vehicle as "AGV". The following description can be similarly applied to mobile objects other than AGVs, such as mobile robots, drones, and manned vehicles, as long as there is no contradiction.
(1)システムの基本構成
図2は、本開示による例示的な移動体管理システム100の基本構成例を示している。移動体管理システム100は、少なくとも1台のAGV10と、AGV10の運行管理を行う運行管理装置50とを含む。図2には、ユーザ1によって操作される端末装置20も記載されている。 (1) Basic configuration of the system FIG. 2 shows a basic configuration example of the exemplary
AGV10は、走行に磁気テープなどの誘導体が不要な「ガイドレス式」走行が可能な無人搬送台車である。AGV10は、自己位置推定を行い、推定の結果を端末装置20および運行管理装置50に送信することができる。AGV10は、運行管理装置50からの指令に従って移動空間S内を自動走行することが可能である。AGV10は、さらに、人または他の移動体に追従して移動する「追尾モード」で動作することも可能である。
The AGV10 is an automatic guided vehicle capable of "guideless" traveling that does not require a derivative such as a magnetic tape for traveling. The
運行管理装置50は各AGV10の位置をトラッキングし、各AGV10の走行を管理するコンピュータシステムである。運行管理装置50は、デスクトップ型PC、ノート型PC、および/または、サーバコンピュータであり得る。運行管理装置50は、複数のアクセスポイント2を介して、各AGV10と通信する。たとえば、運行管理装置50は、各AGV10が次に向かうべき位置の座標のデータを各AGV10に送信する。各AGV10は、定期的に、たとえば100ミリ秒ごとに自身の位置および姿勢(orientation)を示すデータを運行管理装置50に送信する。指示した位置にAGV10が到達すると、運行管理装置50は、さらに次に向かうべき位置の座標のデータを送信する。AGV10は、端末装置20に入力されたユーザ1の操作に応じて移動空間S内を走行することも可能である。端末装置20の一例はタブレットコンピュータである。典型的には、端末装置20を利用したAGV10の走行は地図作成時に行われ、運行管理装置50を利用したAGV10の走行は地図作成後に行われる。
The
図3は、3台のAGV10a、10bおよび10cが存在する移動空間Sの一例を示している。いずれのAGVも図中の奥行き方向に走行しているとする。AGV10aおよび10bは天板に載置された荷物を搬送中である。AGV10cは、前方のAGV10bに追従して走行している。なお、説明の便宜のため、図3では参照符号10a、10bおよび10cを付したが、以下では、「AGV10」と記述する。
FIG. 3 shows an example of the moving space S in which three
AGV10は、天板に載置された荷物を搬送する方法以外に、自身と接続された牽引台車を利用して荷物を搬送することも可能である。図4Aは接続される前のAGV10および牽引台車5を示している。牽引台車5の各足にはキャスターが設けられている。AGV10は牽引台車5と機械的に接続される。図4Bは、接続されたAGV10および牽引台車5を示している。AGV10が走行すると、牽引台車5はAGV10に牽引される。牽引台車5を牽引することにより、AGV10は、牽引台車5に載置された荷物を搬送できる。
In addition to the method of transporting the luggage placed on the top plate, the AGV10 can also transport the luggage by using a towing trolley connected to itself. FIG. 4A shows the
AGV10と牽引台車5との接続方法は任意である。ここでは一例を説明する。AGV10の天板にはプレート6が固定されている。牽引台車5には、スリットを有するガイド7が設けられている。AGV10は牽引台車5に接近し、プレート6をガイド7のスリットに差し込む。差し込みが完了すると、AGV10は、図示されない電磁ロック式ピンをプレート6およびガイド7に貫通させ、電磁ロックをかける。これにより、AGV10と牽引台車5とが物理的に接続される。
The connection method between the
再び図2を参照する。各AGV10と端末装置20とは、たとえば1対1で接続されてBluetooth(登録商標)規格に準拠した通信を行うことができる。各AGV10と端末装置20とは、1または複数のアクセスポイント2を利用してWi−Fi(登録商標)に準拠した通信を行うこともできる。複数のアクセスポイント2は、たとえばスイッチングハブ3を介して互いに接続されている。図2には2台のアクセスポイント2a、2bが記載されている。AGV10はアクセスポイント2aと無線で接続されている。端末装置20はアクセスポイント2bと無線で接続されている。AGV10が送信したデータはアクセスポイント2aで受信され、スイッチングハブ3を介してアクセスポイント2bに転送され、アクセスポイント2bから端末装置20に送信される。また、端末装置20が送信したデータは、アクセスポイント2bで受信され、スイッチングハブ3を介してアクセスポイント2aに転送され、アクセスポイント2aからAGV10に送信される。これにより、AGV10および端末装置20の間の双方向通信が実現される。複数のアクセスポイント2はスイッチングハブ3を介して運行管理装置50とも接続されている。これにより、運行管理装置50と各AGV10との間でも双方向通信が実現される。
See FIG. 2 again. Each
(2)環境地図の作成
自己位置を推定しながらAGV10が走行できるようにするため、移動空間S内の地図が作成される。AGV10には位置推定装置およびレーザレンジファインダが搭載されており、レーザレンジファインダの出力を利用して地図を作成できる。 (2) Creation of environmental map A map in the moving space S is created so that the AGV10 can travel while estimating its own position. The AGV10 is equipped with a position estimation device and a laser range finder, and can create a map by using the output of the laser range finder.
AGV10は、ユーザの操作によってデータ取得モードに遷移する。データ取得モードにおいて、AGV10はレーザレンジファインダを用いたセンサデータの取得を開始する。レーザレンジファインダは周期的にたとえば赤外線または可視光のレーザビームを周囲に放射して周囲の空間Sをスキャンする。レーザビームは、たとえば、壁、柱等の構造物、床の上に置かれた物体等の表面で反射される。レーザレンジファインダは、レーザビームの反射光を受けて各反射点までの距離を計算し、各反射点の位置が示された測定結果のデータを出力する。各反射点の位置には、反射光の到来方向および距離が反映されている。1回のスキャンによって得られた測定結果のデータは「計測データ」または「センサデータ」と呼ばれることがある。
The AGV10 shifts to the data acquisition mode by the operation of the user. In the data acquisition mode, the
位置推定装置は、センサデータを記憶装置に蓄積する。移動空間S内のセンサデータの取得が完了すると、記憶装置に蓄積されたセンサデータが外部装置に送信される。外部装置は、たとえば信号処理プロセッサを有し、かつ、地図作成プログラムがインストールされたコンピュータである。 The position estimation device stores the sensor data in the storage device. When the acquisition of the sensor data in the moving space S is completed, the sensor data stored in the storage device is transmitted to the external device. The external device is, for example, a computer having a signal processing processor and having a mapping program installed.
外部装置の信号処理プロセッサは、スキャンごとに得られたセンサデータ同士を重ね合わせる。信号処理プロセッサが重ね合わせる処理を繰り返し行うことにより、空間Sの地図を作成することができる。外部装置は、作成した地図のデータをAGV10に送信する。AGV10は、作成した地図のデータを内部の記憶装置に保存する。外部装置は、運行管理装置50であってもよいし、他の装置であってもよい。
The signal processor of the external device superimposes the sensor data obtained for each scan. A map of the space S can be created by repeatedly performing the superposition process by the signal processing processor. The external device transmits the created map data to the AGV10. The AGV10 stores the created map data in an internal storage device. The external device may be the
外部装置ではなくAGV10が地図の作成を行ってもよい。上述した外部装置の信号処理プロセッサが行った処理を、AGV10のマイクロコントローラユニット(マイコン)などの回路が行えばよい。AGV10内で地図を作成する場合には、蓄積されたセンサデータを外部装置に送信する必要が無くなる。センサデータのデータ容量は一般には大きいと考えられる。センサデータを外部装置に送信する必要がないため、通信回線の占有を回避できる。
The map may be created by the
なお、センサデータを取得するための移動空間S内の移動は、ユーザの操作に従ってAGV10が走行することによって実現し得る。たとえば、AGV10は、端末装置20を介して無線でユーザから前後左右の各方向への移動を指示する走行指令を受け取る。AGV10は走行指令にしたがって移動空間S内を前後左右に走行し、地図を作成する。AGV10がジョイスティック等の操縦装置と有線で接続されている場合には、当該操縦装置からの制御信号にしたがって移動空間S内を前後左右に走行し、地図を作成してもよい。レーザレンジファインダを搭載した計測台車を人が押し歩くことによってセンサデータを取得してもよい。
The movement in the moving space S for acquiring the sensor data can be realized by the
なお、図2および図3には複数台のAGV10が示されているが、AGVは1台であってもよい。複数台のAGV10が存在する場合、ユーザ1は端末装置20を利用して、登録された複数のAGVのうちから一台のAGV10を選択して、移動空間Sの地図を作成させることができる。
Although a plurality of
地図が作成されると、以後、各AGV10は当該地図を利用して自己位置を推定しながら自動走行することができる。自己位置を推定する処理の説明は後述する。 After the map is created, each AGV10 can automatically travel while estimating its own position using the map. The process of estimating the self-position will be described later.
(3)AGVの構成
図5は、本実施形態にかかる例示的なAGV10の外観図である。AGV10は、2つの駆動輪11aおよび11bと、4つのキャスター11c、11d、11eおよび11fと、フレーム12と、搬送テーブル13と、走行制御装置14と、レーザレンジファインダ15とを有する。2つの駆動輪11aおよび11bは、AGV10の右側および左側にそれぞれ設けられている。4つのキャスター11c、11d、11eおよび11fは、AGV10の4隅に配置されている。なお、AGV10は、2つの駆動輪11aおよび11bに接続される複数のモータも有するが、複数のモータは図5には示されていない。また、図5には、AGV10の右側に位置する1つの駆動輪11aおよび2つのキャスター11cおよび11eと、左後部に位置するキャスター11fとが示されているが、左側の駆動輪11bおよび左前部のキャスター11dはフレーム12の蔭に隠れているため明示されていない。4つのキャスター11c、11d、11eおよび11fは、自由に旋回することができる。以下の説明では、駆動輪11aおよび駆動輪11bを、それぞれ車輪11aおよび車輪11bとも称する。 (3) The configuration diagram 5 of the AGV is an external view of an
走行制御装置14は、AGV10の動作を制御する装置であり、主としてマイコン(後述)を含む集積回路、電子部品およびそれらが搭載された基板を含む。走行制御装置14は、上述した、端末装置20とのデータの送受信、および前処理演算を行う。
The
レーザレンジファインダ15は、たとえば赤外線または可視光のレーザビーム15aを放射し、当該レーザビーム15aの反射光を検出することにより、反射点までの距離を測定する光学機器である。本実施形態では、AGV10のレーザレンジファインダ15は、たとえばAGV10の正面を基準として左右135度(合計270度)の範囲の空間に、0.25度ごとに方向を変化させながらパルス状のレーザビーム15aを放射し、各レーザビーム15aの反射光を検出する。これにより、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点までの距離のデータを得ることができる。なお、本実施形態では、レーザレンジファインダ15が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかしながら、レーザレンジファインダ15は高さ方向のスキャンを行ってもよい。
The
AGV10の位置および姿勢(向き)と、レーザレンジファインダ15のスキャン結果とにより、AGV10は、空間Sの地図を作成することができる。地図には、AGVの周囲の壁、柱等の構造物、床の上に載置された物体の配置が反映され得る。地図のデータは、AGV10内に設けられた記憶装置に格納される。
Based on the position and orientation (orientation) of the AGV10 and the scan result of the
一般に、移動体の位置および姿勢は、ポーズ(pose)と呼ばれる。二次元面内における移動体の位置および姿勢は、XY直交座標系における位置座標(x, y)と、X軸に対する角度θによって表現される。AGV10の位置および姿勢、すなわちポーズ(x, y, θ)を、以下、単に「位置」と呼ぶことがある。
Generally, the position and posture of the moving body is called a pose. The position and orientation of the moving body in the two-dimensional plane are represented by the position coordinates (x, y) in the XY Cartesian coordinate system and the angle θ with respect to the X axis. The position and posture of the
レーザビーム15aの放射位置から見た反射点の位置は、角度および距離によって決定される極座標を用いて表現され得る。本実施形態では、レーザレンジファインダ15は極座標で表現されたセンサデータを出力する。ただし、レーザレンジファインダ15は、極座標で表現された位置を直交座標に変換して出力してもよい。
The position of the reflection point as seen from the radiation position of the
レーザレンジファインダの構造および動作原理は公知であるため、本明細書ではこれ以上の詳細な説明は省略する。レーザレンジファインダ15によって検出され得る物体の例は、人、荷物、棚、壁である。
Since the structure and operating principle of the laser range finder are known, further detailed description thereof will be omitted in this specification. Examples of objects that can be detected by the
レーザレンジファインダ15は、周囲の空間をセンシングしてセンサデータを取得するための外界センサの一例である。そのような外界センサの他の例としては、イメージセンサおよび超音波センサが考えられる。
The
走行制御装置14は、レーザレンジファインダ15の測定結果と、自身が保持する地図データとを比較して、自身の現在位置を推定することができる。なお、保持されている地図データは、他のAGV10が作成した地図データであってもよい。
The
図6Aは、AGV10の第1のハードウェア構成例を示している。また図6Aは、走行制御装置14の具体的な構成も示している。
FIG. 6A shows a first hardware configuration example of the AGV10. FIG. 6A also shows a specific configuration of the
AGV10は、走行制御装置14と、レーザレンジファインダ15と、2台のモータ16aおよび16bと、駆動装置17と、車輪11aおよび11bと、2つのロータリエンコーダ18aおよび18bとを備えている。
The
走行制御装置14は、マイコン14aと、メモリ14bと、記憶装置14cと、通信回路14dと、位置推定装置14eとを有している。マイコン14a、メモリ14b、記憶装置14c、通信回路14dおよび位置推定装置14eは通信バス14fで接続されており、相互にデータを授受することが可能である。レーザレンジファインダ15もまた通信インタフェース(図示せず)を介して通信バス14fに接続されており、計測結果である計測データを、マイコン14a、位置推定装置14eおよび/またはメモリ14bに送信する。
The
マイコン14aは、走行制御装置14を含むAGV10の全体を制御するための演算を行うプロセッサまたは制御回路(コンピュータ)である。典型的にはマイコン14aは半導体集積回路である。マイコン14aは、制御信号であるPWM(Pulse Width Modulation)信号を駆動装置17に送信して駆動装置17を制御し、モータに印加する電圧を調整させる。これによりモータ16aおよび16bの各々が所望の回転速度で回転する。
The
左右のモータ16aおよび16bの駆動を制御する1つ以上の制御回路(たとえばマイコン)を、マイコン14aとは独立して設けてもよい。たとえば、モータ駆動装置17が、モータ16aおよび16bの駆動をそれぞれ制御する2つのマイコンを備えていてもよい。それらの2つのマイコンは、エンコーダ18aおよび18bから出力されたエンコーダ情報を用いた座標計算をそれぞれ行い、所与の初期位置からのAGV10の移動距離を推定してもよい。また、当該2つのマイコンは、エンコーダ情報を利用してモータ駆動回路17aおよび17bを制御してもよい。
One or more control circuits (for example, a microcomputer) that control the drive of the left and
メモリ14bは、マイコン14aが実行するコンピュータプログラムを記憶する揮発性の記憶装置である。メモリ14bは、マイコン14aおよび位置推定装置14eが演算を行う際のワークメモリとしても利用され得る。
The
記憶装置14cは、不揮発性の半導体メモリ装置である。ただし、記憶装置14cは、ハードディスクに代表される磁気記録媒体、または、光ディスクに代表される光学式記録媒体であってもよい。さらに、記憶装置14cは、いずれかの記録媒体にデータを書き込みおよび/または読み出すためのヘッド装置および当該ヘッド装置の制御装置を含んでもよい。
The
記憶装置14cは、走行する空間Sの地図データM、および、1または複数の走行経路のデータ(走行経路データ)Rを記憶する。地図データMは、AGV10が地図作成モードで動作することによって作成され記憶装置14cに記憶される。走行経路データRは、地図データMが作成された後に外部から送信される。本実施形態では、地図データMおよび走行経路データRは同じ記憶装置14cに記憶されているが、異なる記憶装置に記憶されてもよい。
The
走行経路データRの例を説明する。 An example of the travel route data R will be described.
端末装置20がタブレットコンピュータである場合には、AGV10はタブレットコンピュータから走行経路を示す走行経路データRを受信する。このときの走行経路データRは、複数のマーカの位置を示すマーカデータを含む。「マーカ」は走行するAGV10の通過位置(経由点)を示す。走行経路データRは、走行開始位置を示す開始マーカおよび走行終了位置を示す終了マーカの位置情報を少なくとも含む。走行経路データRは、さらに、1以上の中間経由点のマーカの位置情報を含んでもよい。走行経路が1以上の中間経由点を含む場合には、開始マーカから、当該走行経由点を順に経由して終了マーカに至る経路が、走行経路として定義される。各マーカのデータは、そのマーカの座標データに加えて、次のマーカに移動するまでのAGV10の向き(角度)および走行速度のデータを含み得る。AGV10が各マーカの位置で一旦停止し、自己位置推定および端末装置20への通知などを行う場合には、各マーカのデータは、当該走行速度に達するまでの加速に要する加速時間、および/または、当該走行速度から次のマーカの位置で停止するまでの減速に要する減速時間のデータを含み得る。
When the
端末装置20ではなく運行管理装置50(たとえば、PCおよび/またはサーバコンピュータ)がAGV10の移動を制御してもよい。その場合には、運行管理装置50は、AGV10がマーカに到達する度に、次のマーカへの移動をAGV10に指示してもよい。たとえば、AGV10は、運行管理装置50から、次に向かうべき目的位置の座標データ、または、当該目的位置までの距離および進むべき角度のデータを、走行経路を示す走行経路データRとして受信する。
The operation management device 50 (for example, a PC and / or a server computer) may control the movement of the
AGV10は、作成された地図と走行中に取得されたレーザレンジファインダ15が出力したセンサデータとを利用して自己位置を推定しながら、記憶された走行経路に沿って走行することができる。
The
通信回路14dは、たとえば、Bluetooth(登録商標)および/またはWi−Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。いずれの規格も、2.4GHz帯の周波数を利用した無線通信規格を含む。たとえばAGV10を走行させて地図を作成するモードでは、通信回路14dは、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1で端末装置20と通信する。
The
位置推定装置14eは、地図の作成処理、および、走行時には自己位置の推定処理を行う。位置推定装置14eは、AGV10の位置および姿勢とレーザレンジファインダのスキャン結果とにより、移動空間Sの地図を作成する。走行時には、位置推定装置14eは、レーザレンジファインダ15からセンサデータを受け取り、また、記憶装置14cに記憶された地図データMを読み出す。レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)と、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を同定する。位置推定装置14eは、局所的地図データが地図データMに一致した程度を表す「信頼度」のデータを生成する。自己位置(x, y, θ)、および、信頼度の各データは、AGV10から端末装置20または運行管理装置50に送信され得る。端末装置20または運行管理装置50は、自己位置(x, y, θ)、および、信頼度の各データを受信して、内蔵または接続された表示装置に表示することができる。
The
本実施形態では、マイコン14aと位置推定装置14eとは別個の構成要素であるとしているが、これは一例である。マイコン14aおよび位置推定装置14eの各動作を独立して行うことが可能な1つのチップ回路または半導体集積回路であってもよい。図6Aには、マイコン14aおよび位置推定装置14eを包括するチップ回路14gが示されている。以下では、マイコン14aおよび位置推定装置14eが別個独立に設けられている例を説明する。
In the present embodiment, the
2台のモータ16aおよび16bは、それぞれ2つの車輪11aおよび11bに取り付けられ、各車輪を回転させる。つまり、2つの車輪11aおよび11bはそれぞれ駆動輪である。本明細書では、モータ16aおよびモータ16bは、それぞれAGV10の右輪および左輪を駆動するモータであるとして説明する。
The two
移動体10は、さらに、車輪11aおよび11bの回転位置または回転速度を測定するエンコーダユニット18をさらに備えている。エンコーダユニット18は、第1ロータリエンコーダ18aおよび第2ロータリエンコーダ18bを含む。第1ロータリエンコーダ18aは、モータ16aから車輪11aまでの動力伝達機構のいずれかの位置における回転を計測する。第2ロータリエンコーダ18bは、モータ16bから車輪11bまでの動力伝達機構のいずれかの位置における回転を計測する。エンコーダユニット18は、ロータリエンコーダ18aおよび18bによって取得された信号を、マイコン14aに送信する。マイコン14aは、位置推定装置14eから受信した信号だけでなく、エンコーダユニット18から受信した信号を利用して、移動体10の移動を制御してもよい。
The moving
駆動装置17は、2台のモータ16aおよび16bの各々に印加される電圧を調整するためのモータ駆動回路17aおよび17bを有する。モータ駆動回路17aおよび17bの各々はいわゆるインバータ回路を含む。モータ駆動回路17aおよび17bは、マイコン14aまたはモータ駆動回路17a内のマイコンから送信されたPWM信号によって各モータに流れる電流をオンまたはオフし、それによりモータに印加される電圧を調整する。
The
図6Bは、AGV10の第2のハードウェア構成例を示している。第2のハードウェア構成例は、レーザ測位システム14hを有する点、および、マイコン14aが各構成要素と1対1で接続されている点において、第1のハードウェア構成例(図6A)と相違する。
FIG. 6B shows a second hardware configuration example of the AGV10. The second hardware configuration example differs from the first hardware configuration example (FIG. 6A) in that it has a
レーザ測位システム14hは、位置推定装置14eおよびレーザレンジファインダ15を有する。位置推定装置14eおよびレーザレンジファインダ15は、たとえばイーサネット(登録商標)ケーブルで接続されている。位置推定装置14eおよびレーザレンジファインダ15の各動作は上述した通りである。レーザ測位システム14hは、AGV10のポーズ(x, y, θ)を示す情報をマイコン14aに出力する。
The
マイコン14aは、種々の汎用I/Oインタフェースまたは汎用入出力ポート(図示せず)を有している。マイコン14aは、通信回路14d、レーザ測位システム14h等の、走行制御装置14内の他の構成要素と、当該汎用入出力ポートを介して直接接続されている。
The
図6Bに関して上述した構成以外は、図6Aの構成と共通である。よって共通の構成の説明は省略する。 Except for the configuration described above with respect to FIG. 6B, the configuration is the same as that of FIG. 6A. Therefore, the description of the common configuration will be omitted.
本開示の実施形態におけるAGV10は、図示されていないバンパースイッチなどのセーフティセンサを備えていてもよい。AGV10は、ジャイロセンサなどの慣性計測装置を備えていてもよい。ロータリエンコーダ18aおよび18bまたは慣性計測装置などの内界センサによる測定データを利用すれば、AGV10の移動距離および姿勢の変化量(角度)を推定することができる。これらの距離および角度の推定値は、オドメトリデータと呼ばれ、位置推定装置14eによって得られる位置および姿勢の情報を補助する機能を発揮し得る。
The
(4)地図データ
図7A〜図7Fは、センサデータを取得しながら移動するAGV10を模式的に示す。ユーザ1は、端末装置20を操作しながらマニュアルでAGV10を移動させてもよい。あるいは、図6Aおよび6Bに示される走行制御装置14を備えるユニット、または、AGV10そのものを台車に載置し、台車をユーザ1が手で押す、または牽くことによってセンサデータを取得してもよい。 (4) Map data FIGS. 7A to 7F schematically show an
図7Aには、レーザレンジファインダ15を用いて周囲の空間をスキャンするAGV10が示されている。所定のステップ角毎にレーザビームが放射され、スキャンが行われる。なお、図示されたスキャン範囲は模式的に示した例であり、上述した合計270度のスキャン範囲とは異なっている。
FIG. 7A shows an
図7A〜図7Fの各々では、レーザビームの反射点の位置が、記号「・」で表される複数の黒点4を用いて模式的に示されている。レーザビームのスキャンは、レーザレンジファインダ15の位置および姿勢が変化する間に短い周期で実行される。このため、現実の反射点の個数は、図示されている反射点4の個数よりも遥かに多い。位置推定装置14eは、走行に伴って得られる黒点4の位置を、たとえばメモリ14bに蓄積する。AGV10が走行しながらスキャンを継続して行うことにより、地図データが徐々に完成されてゆく。図7Bから図7Eでは、簡略化のためスキャン範囲のみが示されている。当該スキャン範囲は例示であり、上述した合計270度の例とは異なる。
In each of FIGS. 7A to 7F, the positions of the reflection points of the laser beam are schematically shown by using a plurality of black points 4 represented by the symbol “•”. The laser beam scan is performed at short intervals while the position and orientation of the
地図は、地図作成に必要な量のセンサデータを取得した後、そのセンサデータに基づいて、このAGV10内のマイコン14aまたは外部のコンピュータを用いて作成してもよい。あるいは、移動しつつあるAGV10が取得したセンサデータに基づいてリアルタイムで地図を作成してもよい。
The map may be created by using the
図7Fは、完成した地図40の一部を模式的に示す。図7Fに示される地図では、レーザビームの反射点の集まりに相当する点群(Point Cloud)によって自由空間が仕切られている。地図の他の例は、物体が占有している空間と自由空間とをグリッド単位で区別する占有格子地図である。位置推定装置14eは、地図のデータ(地図データM)をメモリ14bまたは記憶装置14cに蓄積する。なお図示されている黒点の数または密度は一例である。
FIG. 7F schematically shows a part of the completed
こうして得られた地図データは、複数のAGV10によって共有され得る。 The map data thus obtained can be shared by a plurality of AGV10s.
AGV10が地図データに基づいて自己位置を推定するアルゴリズムの典型例は、ICP(Iterative Closest Point)マッチングである。前述したように、レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)と、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を推定することができる。
A typical example of an algorithm in which the AGV10 estimates its own position based on map data is ICP (Iterative Closest Point) matching. As described above, by matching the local map data (sensor data) created from the scan result of the
AGV10が走行するエリアが広い場合、地図データMのデータ量が多くなる。そのため、地図の作成時間が増大したり、自己位置推定に多大な時間を要するなどの不都合が生じる可能性がある。そのような不都合が生じる場合には、地図データMを、複数の部分地図のデータに分けて作成および記録してもよい。
When the area in which the
図8は、4つの部分地図データM1、M2、M3、M4の組み合わせによって1つの工場の1フロアの全域がカバーされる例を示している。この例では、1つの部分地図データは50m×50mの領域をカバーしている。X方向およびY方向のそれぞれにおいて隣接する2つの地図の境界部分に、幅5mの矩形の重複領域が設けられている。この重複領域を「地図切替エリア」と呼ぶ。1つの部分地図を参照しながら走行しているAGV10が地図切替エリアに到達すると、隣接する他の部分地図を参照する走行に切り替える。部分地図の枚数は4枚に限らず、AGV10が走行するフロアの面積、地図作成および自己位置推定を実行するコンピュータの性能に応じて適宜設定してよい。部分地図データのサイズおよび重複領域の幅も、上記の例に限定されず、任意に設定してよい。
FIG. 8 shows an example in which the entire area of one floor of one factory is covered by the combination of the four partial map data M1, M2, M3, and M4. In this example, one partial map data covers an area of 50m x 50m. A rectangular overlapping area having a width of 5 m is provided at the boundary between two adjacent maps in each of the X and Y directions. This overlapping area is called a "map switching area". When the
(5)運行管理装置の構成例
図9は、運行管理装置50のハードウェア構成例を示している。運行管理装置50は、CPU51と、メモリ52と、位置データベース(位置DB)53と、通信回路54と、地図データベース(地図DB)55と、画像処理回路56とを有する。 (5) Configuration Example of Operation Management Device FIG. 9 shows a hardware configuration example of the
CPU51、メモリ52、位置DB53、通信回路54、地図DB55および画像処理回路56は通信バス57で接続されており、相互にデータを授受することが可能である。
The
CPU51は、運行管理装置50の動作を制御する信号処理回路(コンピュータ)である。典型的にはCPU51は半導体集積回路である。
The
メモリ52は、CPU51が実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ52は、CPU51が演算を行う際のワークメモリとしても利用され得る。
The
位置DB53は、各AGV10の行き先となり得る各位置を示す位置データを格納する。位置データは、たとえば管理者によって工場内に仮想的に設定された座標によって表され得る。位置データは管理者によって決定される。
The
通信回路54は、たとえばイーサネット(登録商標)規格に準拠した有線通信を行う。通信回路54はアクセスポイント2(図1)と有線で接続されており、アクセスポイント2を介して、AGV10と通信することができる。通信回路54は、AGV10に送信すべきデータを、バス57を介してCPU51から受信する。また通信回路54は、AGV10から受信したデータ(通知)を、バス57を介してCPU51および/またはメモリ52に送信する。
The
地図DB55は、AGV10が走行する工場等の内部の地図のデータを格納する。当該地図は、地図40(図7F)と同じであってもよいし、異なっていてもよい。各AGV10の位置と1対1で対応関係を有する地図であれば、データの形式は問わない。たとえば地図DB55に格納される地図は、CADによって作成された地図であってもよい。
The
位置DB53および地図DB55は、不揮発性の半導体メモリ上に構築されてもよいし、ハードディスクに代表される磁気記録媒体、または光ディスクに代表される光学式記録媒体上に構築されてもよい。
The
画像処理回路56はモニタ58に表示される映像のデータを生成する回路である。画像処理回路56は、専ら、管理者が運行管理装置50を操作する際に動作する。本実施形態では特にこれ以上の詳細な説明は省略する。なお、モニタ59は運行管理装置50と一体化されていてもよい。また画像処理回路56の処理をCPU51が行ってもよい。
The
(6)運行管理装置の動作
図10を参照しながら、運行管理装置50の動作の概要を説明する。図10は、運行管理装置50によって決定されたAGV10の移動経路の一例を模式的に示す図である。 (6) Operation of the Operation Management Device The outline of the operation of the
AGV10および運行管理装置50の動作の概要は以下のとおりである。以下では、あるAGV10が現在、位置M1におり、幾つかの位置を通過して、最終的な目的地である位置Mn+1(n:1以上の正の整数)まで走行する例を説明する。なお、位置DB53には位置M1の次に通過すべき位置M2、位置M2の次に通過すべき位置M3等の各位置を示す座標データが記録されている。The outline of the operation of the
運行管理装置50のCPU51は、位置DB53を参照して位置M2の座標データを読み出し、位置M2に向かわせる走行指令を生成する。通信回路54は、アクセスポイント2を介して走行指令をAGV10に送信する。The
CPU51は、AGV10から、アクセスポイント2を介して、定期的に現在位置および姿勢を示すデータを受信する。こうして運行管理装置50は、各AGV10の位置をトラッキングすることができる。CPU51は、AGV10の現在位置が位置M2に一致したと判定すると、位置M3の座標データを読み出し、位置M3に向かわせる走行指令を生成してAGV10に送信する。つまり運行管理装置50は、AGV10がある位置に到達したと判定すると、次に通過すべき位置に向かわせる走行指令を送信する。これにより、AGV10は最終的な目的位置Mn+1に到達することができる。上述した、AGV10の通過位置および目的位置は「マーカ」と呼ばれることがある。The
(7)地図作成システムの詳細
次に、本実施形態にかかる地図作成システム200のより具体的な例を説明する。 (7) Details of Map Creation System Next, a more specific example of the
図11Aは、複数の固定センサ103が設置された移動空間Sの俯瞰図である。また図11Bは、固定センサ103および地図作成装置105を含む地図作成システム200の構成例を示している。地図作成装置105は、ハブ3を介してアクセスポイント2および運行管理装置50と接続されている。
FIG. 11A is a bird's-eye view of the moving space S in which a plurality of fixed
各固定センサ103は移動空間S内に固定的に設置されており、複数の異なる時刻に、各固定センサ103の視野に含まれる移動空間Sの一部をセンシングして、各時刻のセンサデータを無線で地図作成装置105宛てに出力する。
Each fixed
固定センサ103として、上述の「外界センサ」を用いることができる。固定センサ103の一例はレーザレンジファインダである。いま、固定センサ103が、時刻Tからスキャンを開始し、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点の位置のデータを出力したとする。出力されたデータは、レーザビームの反射点の集まりに相当する点群(Point Cloud)である。これらのデータの集合を、「時刻Tにおけるセンサデータ」と呼ぶ。時刻Tにおけるセンサデータの個数は最大で1081個である。反射光が戻ってこなかった場合には、センサデータの個数は1081個よりも少なくなる。
As the fixed
固定センサ103を移動空間S内に「固定的」に設置するとは、少なくともスキャン時において、各固定センサ103の位置および角度(姿勢)が変化しないことを意味する。位置および姿勢が変化しない限り、固定センサ103が床面に強固に固定されていなくてもよい。例えば、静止したAGV10に内蔵されたレーザレンジファインダ15を固定センサ103として利用してもよい。
Placing the fixed
アクセスポイント2は、各固定センサ103から出力された各時刻のセンサデータの無線信号を受信し、受信したセンサデータを、ハブ3を介して地図作成装置105に送信する。
The
地図作成装置105は、各固定センサ103から出力された各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて移動空間Sの一部の地図(局所地図)である局所地図データを作成する。地図作成装置105は、局所地図を用いて移動空間Sの地図を更新する。地図作成装置105が、更新した移動空間Sの地図を運行管理装置50に送信すると、運行管理装置50は自身が管理する地図を、受信した当該地図で更新する。運行管理装置50は、例えば更新された地図を自身が管理する1または複数台のAGVに送信する。これにより各AGVは最新の地図を参照して自己位置を推定することができる。
The
なお、特に説明した場合を除いては、図11Bに示される構成のうち、図2の構成と同じ構成には同じ参照符号を付しその説明は省略する。 Unless otherwise specified, of the configurations shown in FIG. 11B, the same configurations as those in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted.
図12および図13は、固定センサ103の一例であるレーザレンジファインダの外観を示す斜視図および内部構成を示すハードウェアブロック図である。図13を参照する。固定センサ103は、CPU201と、メモリ203と、通信回路205と、駆動回路207と、レーザ装置209とを有している。
12 and 13 are a perspective view showing the appearance of the laser range finder, which is an example of the fixed
CPU201は、固定センサ103の動作を制御する半導体集積回路である。メモリ203は、取得したセンサデータを一時的に蓄積する記憶装置である。通信回路205は、Wi−Fi(登録商標)規格に準拠した無線通信により、センサデータを送信する。駆動回路207はCPU201からの制御信号にしたがってレーザ装置209に流す駆動電流を生成する。レーザ装置209は、供給された駆動電流に基づいて赤外線または可視光のレーザビーム15bを放射する。またレーザ装置209は不図示の光検出器を有しており、放射したレーザビーム15bの反射光を検出する。
The
CPU201は、駆動回路207に電流を流すタイミング、および、電流値を指示する制御信号を生成し、当該制御信号によって駆動回路207を駆動させる。またCPU201は、放射したレーザビーム15bの位相と、レーザ装置209の光検出器によって取得された反射光の位相との差を利用して、反射点までの距離を算出する。距離の算出方法は周知であるから本明細書での説明は省略する。なお、レーザビーム15bの周波数は1つでなくてもよく複数であり得る。レーザビーム15bの反射光が到来した方向は、固定センサ103から見た、物体が存在する方位を表している。
The
なお、レーザレンジファインダ15(図6A、図6B等)の構成もまた、上述の固定センサ103と同等である。
The configuration of the laser range finder 15 (FIGS. 6A, 6B, etc.) is also the same as that of the fixed
図14は、移動空間Sに存在する物体221および223と、物体221または223を視野に含む固定センサ103p〜103sとを示している。理解の便宜のため、各固定センサ103p〜103sの視野を各固定センサを中心とする扇形によって示している。扇形の半径は各固定センサの検出可能距離に相当するが、図示された扇形の半径の大きさは一例に過ぎない。
FIG. 14 shows
図14の例では、固定センサ103pは物体221を検出し、固定センサ103q〜103sは物体223を検出する。例えば固定センサ103pは、物体221が存在する方位および物体221までの距離を検出することができる。固定センサ103q〜103sも同様である。
In the example of FIG. 14, the fixed
図15は、ある期間に各固定センサ103p〜103sから出力されたセンサデータを含む局所地図41を示している。前もって得られていた全体地図には存在せず、センサデータに特異的に現われている点群を一点鎖線231および233で囲っている。一点鎖線231および233の楕円内の点群は、可動物体の候補である。
FIG. 15 shows a
本実施形態では、一点鎖線231内のセンサデータは、固定センサ103pから出力された反射点の集合(点群)であり、物体221の位置を示している。一点鎖線233内のセンサデータは、固定センサ103q〜103sから出力された反射点の集合(点群)であり、物体223の位置を示している。
In the present embodiment, the sensor data in the alternate long and
いま、各固定センサ103p〜103sが1時間ごとに1回、24時間に亘ってセンシングを行ったとする。そして、初めの8時間では局所地図41が得られ、次の8時間では局所地図40(図7F)が得られ、残りの8時間では再び局所地図41が得られた例を考える。この例の場合、物体221および223は、各時刻のセンサデータの全てに共通して含まれないが、一部にのみ含まれるため「可動物体」である。
Now, it is assumed that each fixed
本実施形態では、固定センサ103p〜103sを含む複数の固定センサ103を用いて局所地図40および41が得られたとき、局所地図40を移動空間Sの全体地図に反映する。つまり、可動物体の位置を移動空間Sの地図に反映させず、固定物体の位置のみを移動空間Sの全体地図に反映させる。
In the present embodiment, when the
従って、前もって得られていた全体地図が局所地図41を含む場合には、地図作成装置105は、局所地図41を、可動物体を含まない局所地図40に更新する。図16は、更新後の局所地図40を示している。局所地図40の一点鎖線241および243で囲んだ領域にはセンサデータが存在しておらず、局所地図41(図15)に含まれていた可動物体221および223は反映されていないことが理解される。
Therefore, when the previously obtained overall map includes the
一方、前もって得られていた全体地図が局所地図40を含む場合には、後に局所地図41が得られたとしても、地図作成装置105は局所地図40を更新せず維持する。
On the other hand, when the previously obtained overall map includes the
上述の具体例を一般化して説明する。図17は、地図作成装置105の処理の手順を示すフローチャートである。
The above-mentioned specific example will be generalized and described. FIG. 17 is a flowchart showing a processing procedure of the
まず、1または複数の固定センサ103が時刻Tn(n:1,・・・,N;Nは2以上の整数)に移動空間Sの一部(部分空間)のセンシングを行い、各時刻におけるセンサデータを出力する。一連の時刻Tnは周期的であってもよいし、ランダムであってもよい。複数の固定センサを設置した場合、各固定センサは時刻Tnで同時にセンシングを行う必要はない。地図作成装置105が所定の期間内に各固定センサから受信したセンサデータを用いて処理できればよい。First, one or more
ステップS10において、地図作成装置105は、固定センサから各時刻Tnにおけるセンサデータを受け取る。信号処理回路109は受け取ったセンサデータを記憶装置107に記憶させる。In step S10, the
ステップS11において、信号処理回路109は、時刻T1から時刻TNのセンサデータのうちの全ての時刻のセンサデータに現れる物体を固定物体であると判定し、一部時刻のセンサデータにのみ現れる物体を可動物体であると判定する。信号処理回路109は、例えば、時刻T1から時刻TNのセンサデータの論理積を演算して得たデータで示される物体を、固定物体であると判定することができる。この演算の根拠は、固定センサ103の位置および姿勢は変化しないため、得られるセンサデータ中、固定物体の位置は実質的に変化しないことに基づく。In step S11, the
一方、信号処理回路109は、上述の論理積の否定と、時刻T1から時刻TNの各センサデータとの論理積を演算して得たデータに現われる物体を、可動物体であると判定することができる。On the other hand, the
ステップS12において、信号処理回路109は、固定物体の位置に基づいて局所地図を作成する。上述の論理積の演算結果によって得られたデータが固定物体の位置を表しているため、信号処理回路109は、当該演算結果を利用して局所地図を作成することができる。なお作成した局所地図が既に全体地図の一部と一致している場合には地図の更新を行わず、一致していなければ、全体地図の該当する部分を、作成した局所地図に更新すればよい。
In step S12, the
上述のステップS11の処理では、可動物体の背後に存在する固定物体を可動物体として判定する可能性がある。固定センサのレーザビームが可動物体によって遮られていたが、可動物体が除去されると、その背後に存在していた固定物体にレーザビームが到達する。レーザビームの反射点の集合(点群)は当該固定物体の位置を反映するが、これまで得られた時刻T1から時刻TNのセンサデータの全ての時刻のセンサデータには存在していない。その結果、当該固定物体は、新たに置かれた移動物体であると誤認され得る。In the process of step S11 described above, there is a possibility that a fixed object existing behind the movable object is determined as a movable object. The laser beam of the fixed sensor was blocked by a moving object, but when the moving object is removed, the laser beam reaches the fixed object that was behind it. The set of reflection points (point cloud) of the laser beam reflects the position of the fixed object, but it does not exist in the sensor data of all the time T 1 to time TN obtained so far. .. As a result, the fixed object can be mistaken for a newly placed moving object.
誤認を回避するためには、以下の方法が考えられる。ある固定センサ103が時刻t1およびt2(t1<t2)にそれぞれセンサデータを出力し、2つのセンサデータ同士が一致しない場合を考える。
The following methods can be considered to avoid misidentification. Consider a case where a fixed
第1の例:可動物体が、時刻t1では存在していたが、時刻t2では除去されていた場合には、2つのセンサデータ同士は一致しない。このときは、時刻t1では固定センサ103から相対的に近い位置に可動物体を表す点群が存在し、時刻t2では相対的に遠い位置に、新たに検出された点群が存在する。
First example: If the movable object was present at time t1 but was removed at time t2, the two sensor data do not match. At this time, at time t1, a point cloud representing a movable object exists at a position relatively close to the fixed
第2の例:可動物体が、時刻t1では存在していなかったが、時刻t2では新たに置かれた場合にも2つのセンサデータ同士が一致しない。このときは、時刻t1では固定センサ103から相対的に遠い位置に点群が存在しているが、時刻t2では相対的に近い位置に、新たに検出された、可動物体を表す点群が現われる。
Second example: The movable object did not exist at time t1, but the two sensor data do not match even when it is newly placed at time t2. At this time, at time t1, a point cloud exists at a position relatively far from the fixed
第1および第2の例から、ある固定センサ103が異なる時刻にセンシングした2つのセンサデータ同士が一致しない場合には、相対的に遠い位置の点群は、壁等の、現実的には固定物体である物体を表している可能性が高い。そこで、第1の例の場合には、時刻t2以後のセンサデータをさらに利用して、相対的に遠い位置の点群が引き続き同じ位置に存在しているか否かを判定し、同じ位置に存在している場合には当該点群が固定物体であると判定することができる。第2の例の場合には、時刻t1以前のセンサデータをさらに利用して、相対的に遠い位置の点群が以前から同じ位置に存在していたか否かを判定し、同じ位置に存在していた場合には当該点群が固定物体であると判定することができる。
From the first and second examples, when two sensor data sensed by a fixed
図18は、複数の物体が、異なる時刻に、かつ、異なる位置に現れた場合に固定センサ103から出力されたセンサデータの変遷を示している。なお、図18に示す例は、固定センサ103p〜103s(図14)を含む全ての固定センサから出力されたセンサデータに基づく例である。また、前もって移動空間Sの全体地図が用意されているとする。
FIG. 18 shows the transition of the sensor data output from the fixed
センサデータ251は、時刻t=1からTNに至るまでの全ての期間中存在する。よってセンサデータ251によって表される物体は「固定物体」である。The
一方、センサデータ253は時刻t=TkおよびTk+1にのみ存在し、センサデータ255は時刻t=Tk+mにのみ存在する。よってセンサデータ253および255は「可動物体」である。
On the other hand, the
地図作成装置105の信号処理回路109は、時刻T1から時刻TNのセンサデータの論理積を演算して、時刻t=T1またはTNに示すセンサデータを得る。信号処理回路109は、得られた地図データを移動空間Sの全体地図の一部に反映する。The
次に、図19から図22を参照しながら、可動物体の位置を反映した局所地図を作成する処理の例を説明する。可動物体および固定物体の判定処理は上述の例による。 Next, an example of a process of creating a local map reflecting the position of a movable object will be described with reference to FIGS. 19 to 22. The determination process of the movable object and the fixed object is based on the above example.
図19は、固定物体と可動物体とを識別可能に示した局所地図42の例を示す。図19の例では、壁等の固定物体の位置は、「・」で示すドット261の集合で表される。一方、可動物体の位置は、「X」で示すマーク263の集合で表される(一点鎖線の円内参照)。
FIG. 19 shows an example of a
固定物体のキャラクターとは異なるキャラクターで可動物体の位置を示すことにより、運行管理装置50または人は可動物体の位置を容易に認識して走行経路を決定することができる。または、管理者は、例えば荷物などの可動物体が置かれやすい位置を容易に認識できるため、AGV10の走行を妨害しないよう、荷物が一時的に置かれる位置を調整できる。これにより、人やAGV10の作業環境を改善しやすくなる。
By indicating the position of the movable object with a character different from the character of the fixed object, the
なお、固定物体のキャラクターと移動物体のキャラクターとを変更する以外にも、固定物体および移動物体をそれぞれ示すアイコン、文字を相違させることによって両者を識別可能にしてもよい。 In addition to changing the character of the fixed object and the character of the moving object, the two may be distinguished by different icons and characters indicating the fixed object and the moving object, respectively.
さらに、一定以上の存在期間を有していた可動物体の位置を局所地図上に表示し、一定期間に満たない存在期間を有していた可動物体の位置は局所地図上に表示しなくてもよい。いま、時刻Tkにおける1回のスキャンで得られた点群を1個のスキャンデータまたは1個のセンサデータと呼ぶ。時刻T1から時刻TNの各時刻において得られたN個のスキャンデータのうちの、K個(K:1以上N未満の整数)に可動物体の点群が含まれているとする。以下では、値Kを、可動物体のセンサデータの「存在頻度」と呼ぶ。存在頻度は、N個のスキャンデータに対する、可動物体の点群を含むスキャンデータの割合であると言うことができる。Further, the position of the movable object having a certain period of existence or more is displayed on the local map, and the position of the movable object having an existence period of less than a certain period is not displayed on the local map. Good. Now, once we obtained point group in the scan at time T k is referred to as one scan data or one sensor data. It is assumed that K (an integer of K: 1 or more and less than N) of the N scan data obtained at each time from time T 1 to time TN includes a point cloud of a movable object. Hereinafter, the value K is referred to as the "presence frequency" of the sensor data of the moving object. It can be said that the existence frequency is the ratio of the scan data including the point group of the moving object to the N scan data.
信号処理回路109は、存在頻度Kの値が閾値以上である場合に、可動物体の位置を局所地図に識別可能に表示する。閾値は固定値で表現されてもよいし、例えばスキャンの総回数Nに応じた割合によって変動する値で表現されてもよい。後者の例は、閾値=N/3である。
The
いま、図15に示す一点鎖線231および233の点群が得られたとする。それぞれの点群が可動物体の位置を表している。このうち一点鎖線231内の点群に相当する固定物体の存在頻度は閾値以上であり、一点鎖線233内の点群に相当する固定物体の存在頻度は閾値未満であるとする。このときの局所地図を図20に示す。局所地図43は、存在頻度が閾値以上であった可動物体の位置を示す、一点鎖線231内の点群を含むが、存在頻度が閾値未満であった可動物体の位置を示す、一点鎖線233内の点群を含まない。
Now, it is assumed that the point groups of the alternate long and
さらに、存在頻度Kの考え方を移動空間S全体に拡張して、局所地図または局所地図に付随する地図を作成することもできる。移動空間Sに存在する固定物体の点群の存在頻度Kの値はK=Nである。可動物体の点群の存在頻度Kの値は、1以上、N未満の整数値である。さらに、物体が存在しない空間、つまりAGV10が走行可能な通路等の自由空間に関する点群の存在頻度Kの値はK=0である。 Further, the concept of the existence frequency K can be extended to the entire moving space S to create a local map or a map attached to the local map. The value of the existence frequency K of the point group of the fixed object existing in the moving space S is K = N. The value of the existence frequency K of the point group of the movable object is an integer value of 1 or more and less than N. Further, the value of the existence frequency K of the point cloud relating to the space where no object exists, that is, the free space such as the passage where the AGV10 can travel is K = 0.
図21は、存在頻度Kの値が大きいほど濃く表示された格子地図44を示している。記載の便宜上、色の相違をパターンの相違によって表しているが、例えばグレースケールで濃度を変えることが可能である。信号処理回路109は、移動空間Sを格子状に分割し、マス目ごとに代表となるKを決定して、Kの値に応じた濃度でマス目を表すことにより、格子地図44を作成する。本実施形態による格子地図44では、AGV10が走行可能な通路(自由空間)は白色で表現され、走行不可能な固定物体が存在する位置は、白色よりも濃い色で表示される。可動物体が長く存在する位置のマス目ほど濃い色で表示される。格子地図44によれば、白色ではないマス目であっても、濃度が薄ければ可動物体の影響が小さい経路であると判断できる。グレースケールに代えて、存在頻度Kの値に応じた色彩で表してもよい。
FIG. 21 shows a
格子地図44は、局所地図とは別に作成されてもよいし、局所地図に付随する属性情報として作成されてもよい。属性情報として局所地図に関連付けられた場合、AGV10は、存在頻度Kの値を、各マス目に相当する位置の「重み」として利用することもできる。例えば、存在頻度Kの値が大きい(重みが大きい)マス目の領域ほど、固定物体または固定物体に準ずる物体が存在していると捉えることができる。一方、存在頻度Kの値が小さい(重みが小さい)マス目の領域ほど、走行可能な通路である、または、可動物体が存在しているが存在頻度が小さいため走行への影響が小さい通路である、と捉えることができる。AGV10は、重みが小さい経路を選択し得る。なお、例えば存在頻度Kの逆数を利用して、走行に影響が小さいマス目の領域ほど重みを大きくしてもよい。
The
以上の処理によれば、可動物体の影響を受けない地図、または、可動物体の影響の大きさを示す地図を作成し、または維持することができる。 According to the above processing, it is possible to create or maintain a map that is not affected by the moving object or a map that shows the magnitude of the influence of the moving object.
図22は、固定物体および可動物体を表示する地図を作成するための、地図作成装置105の処理の手順を示すフローチャートである。処理の開始からステップS11までは図17の処理の手順と同じであるため、再度の説明は省略する。
FIG. 22 is a flowchart showing a processing procedure of the
ステップS13において、信号処理回路109は、ステップS11の判定結果に応じて、固定物体および可動物体をそれぞれ識別可能に表示した局所地図を作成する。固定物体であるか可動物体であるかの識別は、キャラクター、アイコン、文字、存在頻度、存在頻度に応じた濃度等を相違させることによって実現され得る。
In step S13, the
上述の説明では、固定センサ103の設置位置には特に言及していない。しかしながら、可動物体が相対的に多い位置に設置すれば、可動物体を反映させた局所地図をより迅速に更新することが可能になる。
In the above description, the installation position of the fixed
可動物体が相対的に多い領域であるか少ない領域であるかは、AGV10が実際に走行してセンサデータと地図データとのマッチングを行ったときの一致度の程度によって知ることができる。上述のように、AGV10の位置推定装置14eは、局所的地図データが地図データMに一致した程度を表す「信頼度」のデータを生成する。AGV10を実際に走行させたとき、信頼度が低い位置または領域ほど、可動物体が多いと推定し得る。
Whether the region has a relatively large number of movable objects or a region with a relatively small number of movable objects can be known from the degree of matching when the
移動体管理システム100の導入時に、実際に利用される環境下でAGV10を走行させ、AGV10の記憶装置に信頼度のデータのログを記憶させておく。後にログを解析し、信頼度が所定の閾値以下であった位置または領域を含む視野を有するよう、1または複数の固定センサ103を設置すればよい。
When the mobile
上述の実施形態では、AGV10および運行管理装置50とは別個に地図作成装置105を設けたが、AGV10の内部、または運行管理装置50の内部のマイコン、CPU等が、地図作成装置105の動作を実行してもよい。
In the above-described embodiment, the
上述の実施形態の説明では、一例として二次元空間(床面)を走行するAGVを挙げた。しかしながら本開示は三次元空間を移動する移動体、たとえば飛行体(ドローン)、にも適用され得る。ドローンが飛行しながら三次元空間地図を作成する場合には、二次元空間を三次元空間に拡張することができる。 In the description of the above-described embodiment, an AGV traveling in a two-dimensional space (floor surface) is given as an example. However, the present disclosure may also apply to moving objects moving in three-dimensional space, such as flying objects (drones). When a drone creates a three-dimensional space map while flying, the two-dimensional space can be extended to the three-dimensional space.
本開示の移動体および移動体管理システムは、工場、倉庫、建設現場、物流、病院などで荷物、部品、完成品などの物の移動および搬送に好適に利用され得る。 The mobile body and mobile body management system of the present disclosure can be suitably used for moving and transporting items such as luggage, parts, and finished products in factories, warehouses, construction sites, physical distribution, hospitals, and the like.
1・・・ユーザ、2a、2b・・・アクセスポイント、10・・・AGV(移動体)、11a、11b・・・駆動輪(車輪)、11c、11d、11e、11f・・・キャスター、12・・・フレーム、13・・・搬送テーブル、14・・・走行制御装置、14a・・・マイコン、14b・・・メモリ、14c・・・記憶装置、14d・・・通信回路、14e・・・測位装置、16a、16b・・・モータ、15・・・レーザレンジファインダ、17a、17b・・・モータ駆動回路、20・・・端末装置(タブレットコンピュータなどのモバイルコンピュータ)、50・・・運行管理装置、51・・・CPU、52・・・メモリ、53・・・位置データベース(位置DB)、54・・・通信回路、55・・・地図データベース(地図DB)、56・・・画像処理回路、100・・・移動体管理システム、101、200・・・地図作成システム、103・・・固定センサ、105・・・地図作成装置、107・・・記憶装置、109・・・信号処理回路、111・・・インタフェース装置、M・・・移動空間の全体地図 1 ... User, 2a, 2b ... Access point, 10 ... AGV (moving body), 11a, 11b ... Drive wheels (wheels), 11c, 11d, 11e, 11f ... Caster, 12 ... frame, 13 ... transfer table, 14 ... travel control device, 14a ... microcomputer, 14b ... memory, 14c ... storage device, 14d ... communication circuit, 14e ... Positioning device, 16a, 16b ... motor, 15 ... laser range finder, 17a, 17b ... motor drive circuit, 20 ... terminal device (mobile computer such as tablet computer), 50 ... operation management Device, 51 ... CPU, 52 ... Memory, 53 ... Location database (location DB), 54 ... Communication circuit, 55 ... Map database (map DB), 56 ... Image processing circuit , 100 ... mobile management system, 101, 200 ... map creation system, 103 ... fixed sensor, 105 ... map creation device, 107 ... storage device, 109 ... signal processing circuit, 111 ... Interface device, M ... Overall map of moving space
Claims (9)
前記移動体が移動する空間に固定的に設置され、複数の異なる時刻に前記空間の一部をセンシングして、各時刻のセンサデータを出力する固定センサと、
前記各時刻のセンサデータを受け取って、少なくとも前記空間の一部の地図を作成する地図作成装置と
を備え、
前記各時刻のセンサデータは、各時刻における、前記空間の一部に存在する物体の位置を示しており、
前記地図作成装置は、
前記各時刻のセンサデータを記憶する記憶装置と、
前記各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて前記空間の一部の地図である局所地図データを作成する信号処理回路と
を備える地図作成システム。A mapping system that creates a map that a moving object refers to to estimate its own position.
A fixed sensor that is fixedly installed in the space where the moving body moves, senses a part of the space at a plurality of different times, and outputs sensor data at each time.
It is equipped with a mapping device that receives sensor data at each time and creates a map of at least a part of the space.
The sensor data at each time indicates the position of an object existing in a part of the space at each time.
The map-making device
A storage device that stores the sensor data at each time,
A map creation system including a signal processing circuit that creates local map data that is a map of a part of the space based on the position of a fixed object that is commonly included in all the sensor data at each time.
前記信号処理回路は、作成した前記局所地図データを用いて、前記記憶装置に記憶された前記地図データを更新する、請求項1に記載の地図作成システム。The storage device stores the map data of the space in advance.
The map creation system according to claim 1, wherein the signal processing circuit uses the created local map data to update the map data stored in the storage device.
時刻T1から時刻TNのN個のセンサデータのうちの、K個(K:1以上N未満の整数)のセンサデータに前記可動物体が含まれているとき、
前記信号処理回路は、Kの値が閾値以上である場合に、前記可動物体の位置を前記空間の一部の地図に識別可能に示す、請求項3に記載の地図作成システム。The fixed sensor senses a part of the space at time Tn (n: 1, ..., N; N is an integer of 2 or more).
When the movable object is included in K sensor data (integer of K: 1 or more and less than N) out of N sensor data from time T 1 to time TN .
The map creation system according to claim 3, wherein the signal processing circuit identifiablely indicates the position of the movable object on a map of a part of the space when the value of K is equal to or greater than a threshold value.
時刻T1から時刻TNのN個のセンサデータのうちの、K個(K:1以上N未満の整数)のセンサデータに前記可動物体が含まれているとき、
前記信号処理回路は、前記可動物体の位置をKの値に応じた濃度で前記空間の一部の地図に示す、請求項3または4に記載の地図作成システム。The fixed sensor senses a part of the space at time Tn (n: 1, ..., N; N is an integer of 2 or more).
When the movable object is included in K sensor data (integer of K: 1 or more and less than N) out of N sensor data from time T 1 to time TN .
The mapping system according to claim 3 or 4, wherein the signal processing circuit shows the position of the movable object on a map of a part of the space at a concentration corresponding to a value of K.
時刻T1から時刻TNのN個のセンサデータのうちの、K個(K:1以上N未満の整数)のセンサデータに前記可動物体が含まれているとき、
前記信号処理回路はKの値に応じた重みを決定し、前記可動物体の位置を前記空間の一部の地図に含め、前記可動物体の位置に前記重みを関連付ける、請求項3から5のいずれかに記載の地図作成システム。The fixed sensor senses a part of the space at time Tn (n: 1, ..., N; N is an integer of 2 or more).
When the movable object is included in K sensor data (integer of K: 1 or more and less than N) out of N sensor data from time T 1 to time TN .
Any of claims 3 to 5, wherein the signal processing circuit determines a weight according to a value of K, includes the position of the movable object in a map of a part of the space, and associates the weight with the position of the movable object. The map creation system described in Crab.
前記移動体は、
モータと、
前記モータを制御して前記移動体を移動させる駆動装置と、
前記空間の地図データを記憶するメモリと、
周囲の空間をセンシングしてセンサデータを出力する内蔵センサと、
前記内蔵センサが出力したセンサデータと前記メモリに記憶された前記空間の地図データとを照合して自己位置を推定し、照合の一致度を示す信頼性データを出力する測位装置と
を有しており、
前記固定センサは、前記信頼性データに基づいて、前記照合の一致度が閾値未満の位置に設置される、請求項2から6のいずれかに記載の地図作成システム。When the moving body estimates its own position using the map of the space,
The moving body is
With the motor
A drive device that controls the motor to move the moving body,
A memory for storing map data of the space and
A built-in sensor that senses the surrounding space and outputs sensor data,
It has a positioning device that collates the sensor data output by the built-in sensor with the map data of the space stored in the memory, estimates its own position, and outputs reliability data indicating the degree of matching of the collation. Ori,
The mapping system according to any one of claims 2 to 6, wherein the fixed sensor is installed at a position where the degree of matching of the collation is less than a threshold value based on the reliability data.
前記移動体が移動する空間に固定的に設置され、複数の異なる時刻に前記空間の一部をセンシングして、各時刻の前記空間の一部に存在する物体の位置を示すセンサデータを出力する固定センサから、前記センサデータを受け取るインタフェース装置と、
前記各時刻のセンサデータを記憶する記憶装置と、
前記各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて前記空間の一部の地図である局所地図データを作成する信号処理回路と
を備えた地図作成装置。A mapping device that creates a map that a moving object refers to to estimate its own position.
It is fixedly installed in the space where the moving body moves, senses a part of the space at a plurality of different times, and outputs sensor data indicating the position of an object existing in the part of the space at each time. An interface device that receives the sensor data from a fixed sensor,
A storage device that stores the sensor data at each time,
A map creation device including a signal processing circuit that creates local map data that is a map of a part of the space based on the position of a fixed object that is commonly included in all the sensor data at each time.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017175646 | 2017-09-13 | ||
| JP2017175646 | 2017-09-13 | ||
| PCT/JP2018/032448 WO2019054209A1 (en) | 2017-09-13 | 2018-08-31 | Map creation system and map creation device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPWO2019054209A1 true JPWO2019054209A1 (en) | 2020-10-29 |
Family
ID=65723937
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019541997A Pending JPWO2019054209A1 (en) | 2017-09-13 | 2018-08-31 | Map making system and map making device |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JPWO2019054209A1 (en) |
| WO (1) | WO2019054209A1 (en) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020202510A1 (en) * | 2019-04-03 | 2020-10-08 | 三菱電機株式会社 | Map data distribution device for mobile body and mobile body system |
| WO2020213645A1 (en) * | 2019-04-17 | 2020-10-22 | 日本電産株式会社 | Map creation system, signal processing circuit, moving body, and map creation method |
| JP7092741B2 (en) * | 2019-12-25 | 2022-06-28 | 財団法人車輌研究測試中心 | Self-position estimation method |
| JP7287353B2 (en) * | 2020-06-11 | 2023-06-06 | トヨタ自動車株式会社 | Position estimation device and position estimation computer program |
| US12455572B2 (en) | 2020-06-16 | 2025-10-28 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
| JP2022111524A (en) * | 2021-01-20 | 2022-08-01 | 株式会社豊田自動織機 | Self-localization device and method |
| WO2024076020A1 (en) * | 2022-10-07 | 2024-04-11 | 삼성전자 주식회사 | Method and server for generating space map |
| US20250189988A1 (en) * | 2023-12-08 | 2025-06-12 | The Regents Of The University Of Michigan | Robust Control Strategy For Autonomous Robot Mobility With Offboard Positioning System |
| JP2025178113A (en) * | 2024-05-24 | 2025-12-05 | 株式会社ハイパーデジタルツイン | Autonomous driving support system for mobile vehicles |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003300186A (en) * | 2002-04-03 | 2003-10-21 | Mitsubishi Heavy Ind Ltd | Mobile robot system |
| JP2010277548A (en) * | 2009-06-01 | 2010-12-09 | Hitachi Ltd | Robot management system, robot management terminal, robot management method and program |
| US20140207280A1 (en) * | 2013-01-18 | 2014-07-24 | Irobot Corporation | Environmental management systems including mobile robots and methods using same |
| JP2017045447A (en) * | 2015-08-28 | 2017-03-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Map generation method, own position estimation method, robot system and robot |
| JP2017097000A (en) * | 2015-11-18 | 2017-06-01 | 株式会社明電舎 | Local map creation device and local map creation method |
-
2018
- 2018-08-31 JP JP2019541997A patent/JPWO2019054209A1/en active Pending
- 2018-08-31 WO PCT/JP2018/032448 patent/WO2019054209A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003300186A (en) * | 2002-04-03 | 2003-10-21 | Mitsubishi Heavy Ind Ltd | Mobile robot system |
| JP2010277548A (en) * | 2009-06-01 | 2010-12-09 | Hitachi Ltd | Robot management system, robot management terminal, robot management method and program |
| US20140207280A1 (en) * | 2013-01-18 | 2014-07-24 | Irobot Corporation | Environmental management systems including mobile robots and methods using same |
| JP2017045447A (en) * | 2015-08-28 | 2017-03-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Map generation method, own position estimation method, robot system and robot |
| JP2017097000A (en) * | 2015-11-18 | 2017-06-01 | 株式会社明電舎 | Local map creation device and local map creation method |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2019054209A1 (en) | 2019-03-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7081881B2 (en) | Mobiles and mobile systems | |
| US20190294181A1 (en) | Vehicle, management device, and vehicle management system | |
| JP6825712B2 (en) | Mobiles, position estimators, and computer programs | |
| JP6816830B2 (en) | A position estimation system and a mobile body equipped with the position estimation system. | |
| JPWO2019054209A1 (en) | Map making system and map making device | |
| JP7168211B2 (en) | Mobile object that avoids obstacles and its computer program | |
| US11537140B2 (en) | Mobile body, location estimation device, and computer program | |
| JP7136426B2 (en) | Management device and mobile system | |
| JPWO2019026761A1 (en) | Mobile and computer programs | |
| JPWO2019187816A1 (en) | Mobiles and mobile systems | |
| JP2020166702A (en) | Mobile body system, map creation system, route creation program and map creation program | |
| JP2019175137A (en) | Mobile body and mobile body system | |
| JP2019053391A (en) | Mobile body | |
| WO2019194079A1 (en) | Position estimation system, moving body comprising said position estimation system, and computer program | |
| JP2019148871A (en) | Movable body and movable body system | |
| JP2019079171A (en) | Movable body | |
| JP7243014B2 (en) | moving body | |
| WO2020213645A1 (en) | Map creation system, signal processing circuit, moving body, and map creation method | |
| JP2019179497A (en) | Moving body and moving body system | |
| JP2021056764A (en) | Movable body | |
| JPWO2019069921A1 (en) | Mobile | |
| JP2019067001A (en) | Moving body | |
| JPWO2019059299A1 (en) | Operation management device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210730 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210730 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210806 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210806 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220401 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230214 |