[go: up one dir, main page]

JPWO2019054209A1 - Map making system and map making device - Google Patents

Map making system and map making device Download PDF

Info

Publication number
JPWO2019054209A1
JPWO2019054209A1 JP2019541997A JP2019541997A JPWO2019054209A1 JP WO2019054209 A1 JPWO2019054209 A1 JP WO2019054209A1 JP 2019541997 A JP2019541997 A JP 2019541997A JP 2019541997 A JP2019541997 A JP 2019541997A JP WO2019054209 A1 JPWO2019054209 A1 JP WO2019054209A1
Authority
JP
Japan
Prior art keywords
map
space
time
data
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019541997A
Other languages
Japanese (ja)
Inventor
信也 安達
信也 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Drive Technology Corp
Original Assignee
Nidec Shimpo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Shimpo Corp filed Critical Nidec Shimpo Corp
Publication of JPWO2019054209A1 publication Critical patent/JPWO2019054209A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Instructional Devices (AREA)

Abstract

地図作成システム(101、200)は、移動体が移動する空間に固定的に設置され、複数の異なる時刻に空間の一部をセンシングして、各時刻のセンサデータを出力する固定センサ(103)と、各時刻のセンサデータを受け取って、少なくとも空間の一部の地図を作成する地図作成装置(105)とを有する。各時刻のセンサデータ(231、223)は、各時刻における、空間の一部に存在する物体(221、223)の位置を示している。地図作成装置(105)は、各時刻のセンサデータを記憶する記憶装置(107)と、各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて空間の一部の地図である局所地図データを作成する信号処理回路(109)とを有する。The map creation system (101, 200) is fixedly installed in the space where the moving body moves, and a fixed sensor (103) that senses a part of the space at a plurality of different times and outputs sensor data at each time. And a map creation device (105) that receives sensor data at each time and creates a map of at least a part of the space. The sensor data (231, 223) at each time indicates the position of an object (221, 223) existing in a part of the space at each time. The map creation device (105) is a storage device (107) that stores sensor data at each time, and a map of a part of the space based on the position of a fixed object that is commonly included in all the sensor data at each time. It has a signal processing circuit (109) that creates certain local map data.

Description

本開示は、地図作成システムおよび地図作成装置に関する。 The present disclosure relates to a map making system and a map making device.

所定の経路に沿って自律的に空間を移動する自律移動ロボットが開発されている。自律移動ロボットは、レーザ距離センサ等の外界センサを用いて周囲の空間をセンシングし、センシング結果と、予め用意された地図とのマッチングを行い、自身の現在の位置および姿勢を推定(同定)する。自律移動ロボットは、自身の現在の位置および姿勢を制御しながら、当該経路に沿って移動することができる。 Autonomous mobile robots that autonomously move in space along a predetermined path have been developed. The autonomous mobile robot senses the surrounding space using an external sensor such as a laser distance sensor, matches the sensing result with a map prepared in advance, and estimates (identifies) its current position and posture. .. The autonomous mobile robot can move along the path while controlling its current position and posture.

特開2005−326944号公報および特表2014−509417号公報は、マッチングに利用される地図の作成技術を開示する。いずれもレーザ距離センサまたはレーザスキャナを移動させながら周囲をスキャンし、スキャンした領域の地図を作成する。スキャンが行われた時点で当該領域に存在していた物体は地図に反映される。 Japanese Unexamined Patent Publication No. 2005-326944 and Japanese Patent Application Laid-Open No. 2014-509417 disclose a map making technique used for matching. In each case, the laser distance sensor or the laser scanner is moved to scan the surrounding area and create a map of the scanned area. Objects that were in the area at the time the scan was performed are reflected on the map.

特開2005−326944号公報Japanese Unexamined Patent Publication No. 2005-326944 特表2014−509417号公報Japanese Patent Publication No. 2014-509417

作成された地図には、荷物などの可動物体が反映されている場合があり得る。ロボットがそのような地図を利用してマッチングを行う時に当該可動物体が除去されていると、ロボットのセンシング結果と地図とが相違し、位置および姿勢の推定精度が低下し得る。 The created map may reflect moving objects such as luggage. If the moving object is removed when the robot performs matching using such a map, the sensing result of the robot and the map may differ, and the estimation accuracy of the position and the posture may decrease.

本願の、限定的ではない例示的なある実施形態は、可動物体の存在を考慮して、移動体が自己位置を推定するために参照される地図を作成する技術を提供する。 An exemplary, but not limited, embodiment of the present application provides a technique for creating a map in which a moving object is referenced to estimate its position, taking into account the presence of moving objects.

本開示による例示的な地図作成システムは、移動体が自己位置を推定するために参照する地図を作成する地図作成システムであって、前記移動体が移動する空間に固定的に設置され、複数の異なる時刻に前記空間の一部をセンシングして、各時刻のセンサデータを出力する固定センサと、前記各時刻のセンサデータを受け取って、少なくとも前記空間の一部の地図を作成する地図作成装置とを備え、前記各時刻のセンサデータは、各時刻における、前記空間の一部に存在する物体の位置を示しており、前記地図作成装置は、前記各時刻のセンサデータを記憶する記憶装置と、前記各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて前記空間の一部の地図である局所地図データを作成する信号処理回路とを備えている。 The exemplary map-making system according to the present disclosure is a map-making system that creates a map that a moving body refers to in order to estimate its own position, and is fixedly installed in a space in which the moving body moves, and a plurality of maps are created. A fixed sensor that senses a part of the space at different times and outputs sensor data at each time, and a map creation device that receives the sensor data at each time and creates a map of at least a part of the space. The sensor data at each time indicates the position of an object existing in a part of the space at each time, and the map-making device includes a storage device for storing the sensor data at each time. It is provided with a signal processing circuit that creates local map data that is a map of a part of the space based on the position of a fixed object that is commonly included in all the sensor data at each time.

上記の包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または記録媒体によって実現されてもよい。あるいは、システム、装置、方法、集積回路、コンピュータプログラム、および記録媒体の任意な組み合わせによって実現されてもよい。 The above-mentioned comprehensive or specific embodiment may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium. Alternatively, it may be realized by any combination of systems, devices, methods, integrated circuits, computer programs, and recording media.

本発明の例示的な実施形態にかかる地図作成システムによれば、可動物体の存在を考慮して、移動体が自己位置を推定するために参照される地図を作成することが可能になる。 According to the mapping system according to the exemplary embodiment of the present invention, it is possible to create a map in which a moving body is referred to for estimating its own position in consideration of the existence of a moving object.

図1は、本開示の例示的な実施形態における移動体の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a moving body according to an exemplary embodiment of the present disclosure. 図2は、本開示による、各AGVの走行を制御する制御システムの概要を示す図である。FIG. 2 is a diagram showing an outline of a control system for controlling the traveling of each AGV according to the present disclosure. 図3は、AGVが存在する移動空間の一例を示す図である。FIG. 3 is a diagram showing an example of a moving space in which an AGV exists. 図4Aは、接続される前のAGVおよび牽引台車を示す図である。FIG. 4A is a diagram showing an AGV and a tow truck before being connected. 図4Bは、接続されたAGVおよび牽引台車を示す図である。FIG. 4B is a diagram showing a connected AGV and a tow truck. 図5は、本実施形態にかかる例示的なAGVの外観図である。FIG. 5 is an external view of an exemplary AGV according to the present embodiment. 図6Aは、AGVの第1のハードウェア構成例を示す図である。FIG. 6A is a diagram showing a first hardware configuration example of the AGV. 図6Bは、AGVの第2のハードウェア構成例を示す図である。FIG. 6B is a diagram showing a second hardware configuration example of the AGV. 図7Aは、移動しながら地図を生成するAGVを示す図である。FIG. 7A is a diagram showing an AGV that generates a map while moving. 図7Bは、移動しながら地図を生成するAGVを示す図である。FIG. 7B is a diagram showing an AGV that generates a map while moving. 図7Cは、移動しながら地図を生成するAGVを示す図である。FIG. 7C is a diagram showing an AGV that generates a map while moving. 図7Dは、移動しながら地図を生成するAGVを示す図である。FIG. 7D is a diagram showing an AGV that generates a map while moving. 図7Eは、移動しながら地図を生成するAGVを示す図である。FIG. 7E is a diagram showing an AGV that generates a map while moving. 図7Fは、完成した地図の一部を模式的に示す図である。FIG. 7F is a diagram schematically showing a part of the completed map. 図8は、複数の部分地図によって1つのフロアの地図が構成される例を示す図である。FIG. 8 is a diagram showing an example in which a map of one floor is configured by a plurality of partial maps. 図9は、運行管理装置のハードウェア構成例を示す図である。FIG. 9 is a diagram showing a hardware configuration example of the operation management device. 図10は、運行管理装置によって決定されたAGVの移動経路の一例を模式的に示す図である。FIG. 10 is a diagram schematically showing an example of the movement route of the AGV determined by the operation management device. 図11Aは、複数の固定センサが設置された移動空間の俯瞰図である。FIG. 11A is a bird's-eye view of a moving space in which a plurality of fixed sensors are installed. 図11Bは、固定センサおよび地図作成装置を含む地図作成システムの構成例を示す図である。FIG. 11B is a diagram showing a configuration example of a map creation system including a fixed sensor and a map creation device. 図12は、固定センサの一例であるレーザレンジファインダの外観を示す斜視図である。FIG. 12 is a perspective view showing the appearance of a laser range finder, which is an example of a fixed sensor. 図13は、固定センサの一例であるレーザレンジファインダの内部構成を示すハードウェアブロック図である。FIG. 13 is a hardware block diagram showing an internal configuration of a laser range finder, which is an example of a fixed sensor. 図14は、移動空間に存在する物体と、当該物体を視野に含む固定センサとを示す図である。FIG. 14 is a diagram showing an object existing in the moving space and a fixed sensor including the object in the field of view. 図15は、ある期間に固定センサから出力されたセンサデータを含む局所地図を示す図である。FIG. 15 is a diagram showing a local map including sensor data output from a fixed sensor during a certain period. 図16は、更新後の局所地図を示す図である。FIG. 16 is a diagram showing an updated local map. 図17は、地図作成装置の処理の手順を示すフローチャートである。FIG. 17 is a flowchart showing a processing procedure of the map creating device. 図18は、複数の物体が、異なる時刻に、かつ、異なる位置に現れた場合に固定センサから出力されたセンサデータの変遷を示す図である。FIG. 18 is a diagram showing the transition of sensor data output from the fixed sensor when a plurality of objects appear at different times and at different positions. 図19は、固定物体と可動物体とを識別可能に示した局所地図の例を示す図である。FIG. 19 is a diagram showing an example of a local map showing a fixed object and a movable object in a distinguishable manner. 図20は、存在頻度が閾値以上である固定物体を表す点群を示す図である。FIG. 20 is a diagram showing a point cloud representing a fixed object whose existence frequency is equal to or higher than a threshold value. 図21は、存在頻度の値が大きいほど濃い色で表示された格子地図を示す図である。FIG. 21 is a diagram showing a grid map displayed in a darker color as the value of the frequency of existence increases. 図22は、固定物体および可動物体を表示する地図を作成するための、地図作成装置の処理の手順を示すフローチャートである。FIG. 22 is a flowchart showing a processing procedure of a map creating device for creating a map displaying a fixed object and a movable object.

<用語>
本開示の実施形態を説明する前に、本明細書において使用する用語の定義を説明する。
<Terminology>
Before describing embodiments of the present disclosure, definitions of terms used herein will be described.

「無人搬送車」(AGV)とは、本体に人手または自動で荷物を積み込み、指示された場所まで自動走行し、人手または自動で荷卸しをする無軌道車両を意味する。「無人搬送車」は、無人牽引車および無人フォークリフトを含む。 An "automated guided vehicle" (AGV) means an automated guided vehicle that manually or automatically loads luggage into the body, automatically travels to a designated location, and manually or automatically unloads. "Automated guided vehicles" include unmanned tow trucks and unmanned forklifts.

「無人」の用語は、車両の操舵に人を必要としないことを意味しており、無人搬送車が「人(たとえば荷物の積み下ろしを行う者)」を搬送することは除外しない。 The term "unmanned" means that no person is required to steer the vehicle, and does not exclude automatic guided vehicles carrying "people (eg, those who load and unload luggage)".

「無人牽引車」とは、人手または自動で荷物の積み込み荷卸しをする台車を牽引して、指示された場所まで自動走行する無軌道車両である。 An "unmanned towing vehicle" is an untracked vehicle that automatically travels to a designated place by towing a trolley that manually or automatically loads and unloads luggage.

「無人フォークリフト」とは、荷物移載用のフォークなどを上下させるマストを備え、フォークなどに荷物を自動移載し指示された場所まで自動走行し、自動荷役作業をする無軌道車両である。 An "unmanned forklift" is an unmanned aerial vehicle equipped with a mast that raises and lowers a fork for transferring luggage, automatically transfers the luggage to the fork, etc., and automatically travels to a designated place to perform automatic cargo handling work.

「無軌道車両」とは、車輪と、車輪を回転させる電気モータまたはエンジンを備える移動体(vehicle)である。 A "trackless vehicle" is a vehicle that includes wheels and an electric motor or engine that rotates the wheels.

「移動体」とは、人または荷物を載せて移動する装置であり、移動のための駆動力(traction)を発生させる車輪、二足または多足歩行装置、プロペラなどの駆動装置を備える。本開示における「移動体」の用語は、狭義の無人搬送車のみならず、モバイルロボット、サービスロボット、およびドローンを含む。 A "moving body" is a device that carries a person or luggage to move, and includes a driving device such as a wheel, a two-legged or multi-legged walking device, or a propeller that generates a driving force (traction) for movement. The term "mobile" in the present disclosure includes mobile robots, service robots, and drones as well as automatic guided vehicles in the narrow sense.

「自動走行」は、無人搬送車が通信によって接続されるコンピュータの運行管理システムの指令に基づく走行と、無人搬送車が備える制御装置による自律的走行とを含む。自律的走行には、無人搬送車が所定の経路に沿って目的地に向かう走行のみならず、追尾目標に追従する走行も含まれる。また、無人搬送車は、一時的に作業者の指示に基づくマニュアル走行を行ってもよい。「自動走行」は、一般には「ガイド式」の走行および「ガイドレス式」の走行の両方を含むが、本開示では「ガイドレス式」の走行を意味する。 "Automated driving" includes traveling based on a command of a computer operation management system to which an automatic guided vehicle is connected by communication, and autonomous driving by a control device provided in the automated guided vehicle. Autonomous traveling includes not only traveling of an automated guided vehicle toward a destination along a predetermined route, but also traveling of following a tracking target. Further, the automatic guided vehicle may temporarily perform manual traveling based on the instruction of the operator. "Automatic driving" generally includes both "guided" driving and "guideless" driving, but in the present disclosure it means "guideless" driving.

「ガイド式」とは、誘導体を連続的または断続的に設置し、誘導体を利用して無人搬送車を誘導する方式である。 The "guide type" is a method in which derivatives are installed continuously or intermittently and an unmanned carrier is guided by using the derivatives.

「ガイドレス式」とは、誘導体を設置せずに誘導する方式である。本開示の実施形態における無人搬送車は、自己位置推定装置を備え、ガイドレス式で走行することができる。 The "guideless type" is a method of guiding without installing a derivative. The automatic guided vehicle according to the embodiment of the present disclosure includes a self-position estimation device and can travel in a guideless manner.

「自己位置推定装置」は、レーザレンジファインダなどの外界センサによって取得されたセンサデータに基づいて環境地図上における自己位置を推定する装置である。 The "self-position estimation device" is a device that estimates the self-position on the environmental map based on the sensor data acquired by an external sensor such as a laser range finder.

「外界センサ」は、移動体の外部の状態をセンシングするセンサである。外界センサには、たとえば、レーザレンジファインダ(測域センサともいう)、カメラ(またはイメージセンサ)、LIDAR(Light Detection and Ranging)、ミリ波レーダ、および磁気センサがある。 The "outside world sensor" is a sensor that senses the external state of a moving body. External world sensors include, for example, a laser range finder (also called a range finder), a camera (or image sensor), a lidar (Light Detection and Ranging), a millimeter wave radar, and a magnetic sensor.

「内界センサ」は、移動体の内部の状態をセンシングするセンサである。内界センサには、たとえばロータリエンコーダ(以下、単に「エンコーダ」と称することがある)、加速度センサ、および角加速度センサ(たとえばジャイロセンサ)がある。 The "inner world sensor" is a sensor that senses the internal state of a moving body. Internal world sensors include, for example, rotary encoders (hereinafter, may be simply referred to as “encoders”), acceleration sensors, and angular acceleration sensors (eg, gyro sensors).

「SLAM(スラム)」とは、Simultaneous Localization and Mappingの略語であり、自己位置推定と環境地図作成を同時に行うことを意味する。 "SLAM" is an abbreviation for Simultaneous Localization and Mapping, which means that self-position estimation and environmental mapping are performed at the same time.

<例示的な実施形態>
以下、添付の図面を参照しながら、本開示による地図作成装置および地図作成システムの一例を説明する。なお、必要以上に詳細な説明は省略する場合がある。たとえば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。本発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供する。これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
<Exemplary Embodiment>
Hereinafter, an example of the map creation device and the map creation system according to the present disclosure will be described with reference to the attached drawings. In addition, more detailed explanation than necessary may be omitted. For example, a detailed explanation of already well-known matters or a duplicate explanation for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. The inventors provide accompanying drawings and the following description for those skilled in the art to fully understand the present disclosure. These are not intended to limit the subject matter described in the claims.

図1は、本開示の例示的な実施形態における地図作成システムの概略構成を示すブロック図である。 FIG. 1 is a block diagram showing a schematic configuration of a map creation system according to an exemplary embodiment of the present disclosure.

地図作成システム101は、移動体が自己位置を推定するために参照する地図を作成するために利用される。地図作成システム101は、1または複数の固定センサ103a、103b、103cと、地図作成装置105とを備えている。 The map creation system 101 is used to create a map that the moving body refers to to estimate its own position. The map creation system 101 includes one or more fixed sensors 103a, 103b, 103c and a map creation device 105.

固定センサ103a、103b、103cは、移動体が移動する空間(以下「移動空間」と称する。)内の異なる位置に固定的に設置されている。固定センサ103a、103b、103cの各々は、周期的またはランダムなタイミングで周囲の空間をセンシング(スキャン)して、各時刻のスキャンデータ(センサデータ)を出力する。各時刻のセンサデータは、各時刻に当該移動空間の一部に存在している物体の位置を示している。 The fixed sensors 103a, 103b, and 103c are fixedly installed at different positions in the space in which the moving body moves (hereinafter referred to as "moving space"). Each of the fixed sensors 103a, 103b, and 103c senses (scans) the surrounding space at periodic or random timings, and outputs scan data (sensor data) at each time. The sensor data at each time indicates the position of an object existing in a part of the moving space at each time.

固定センサ103a、103b、103cは、移動体が移動する空間の地図を新規に作成する際、または作成し直す際に搬入および設置され、地図作成のためのデータの収集が終了した後、撤去され得る。固定センサ103a、103b、103cは、スキャンデータを取得する時点で固定されていればよい。 The fixed sensors 103a, 103b, 103c are carried in and installed when a new map of the space in which the moving body moves is created or recreated, and are removed after the collection of data for map creation is completed. obtain. The fixed sensors 103a, 103b, 103c may be fixed at the time of acquiring the scan data.

地図作成装置105は、固定センサ103a、103b、103cの各々から各時刻のセンサデータを受け取って、少なくとも当該移動空間の一部の地図を作成する。より具体的に説明する。 The map creating device 105 receives sensor data at each time from each of the fixed sensors 103a, 103b, and 103c, and creates a map of at least a part of the moving space. This will be described more specifically.

地図作成装置105は、記憶装置107と、信号処理回路109と、各固定センサから出力された各時刻のセンサデータを受信するインタフェース装置111とを有している。インタフェース装置111は、有線または無線の通信端子および/または通信回路であり得る。 The map creating device 105 includes a storage device 107, a signal processing circuit 109, and an interface device 111 that receives sensor data at each time output from each fixed sensor. The interface device 111 can be a wired or wireless communication terminal and / or a communication circuit.

図1では、地図作成装置105は、各固定センサから各時刻のセンサデータが出力される度に、当該センサデータを受信する態様を想定している。しかしながら、各固定センサ103が各時刻のセンサデータを取得した後、内部の記憶装置に保持しておき、後にまとめて地図作成装置105に転送してもよい。転送は、有線または無線の通信回線を介して行われてもよいし、メモリカードなどの記憶媒体を介して行われてもよい。 In FIG. 1, it is assumed that the map creating device 105 receives the sensor data each time the sensor data at each time is output from each fixed sensor. However, after each fixed sensor 103 acquires the sensor data at each time, it may be stored in an internal storage device and later collectively transferred to the map creating device 105. The transfer may be performed via a wired or wireless communication line, or may be performed via a storage medium such as a memory card.

記憶装置107は、インタフェース装置111を介して各固定センサから受け取った各時刻のセンサデータを記憶する。また記憶装置107は、移動空間全体の地図データMを前もって記憶していてもよい。さらに、記憶装置107は、地図データを作成するために移動空間全体のスキャンを行いながら動き回るAGV等からも、各スキャンによって得られたスキャンデータを取得して記憶してもよい。AGV等から得られたスキャンデータと、各固定センサから得られた各時刻のセンサデータとを整合させながら移動空間全体の地図を作成することができる。 The storage device 107 stores sensor data at each time received from each fixed sensor via the interface device 111. Further, the storage device 107 may store the map data M of the entire moving space in advance. Further, the storage device 107 may acquire and store the scan data obtained by each scan from the AGV or the like that moves around while scanning the entire moving space in order to create the map data. It is possible to create a map of the entire moving space while matching the scan data obtained from the AGV or the like with the sensor data obtained from each fixed sensor at each time.

信号処理回路109は、記憶装置107に記憶されたセンサデータを利用して、固定センサ毎に以下の処理を行う。なお説明の便宜のため、固定センサ103aを例に挙げて説明するが、他の固定センサ103bおよび103cも同様である。 The signal processing circuit 109 uses the sensor data stored in the storage device 107 to perform the following processing for each fixed sensor. For convenience of explanation, the fixed sensor 103a will be described as an example, but the same applies to the other fixed sensors 103b and 103c.

信号処理回路109は、固定センサ103aから出力された、複数の異なる時刻に取得されたセンサデータの集合SDaを、記憶装置107から取得する。信号処理回路109は、各時刻のセンサデータの全てに共通して含まれる物体の位置に基づいて局所地図データを作成する。ここでいう「各時刻のセンサデータの全てに共通して含まれる物体」は、固定センサによるセンシング期間中は移動しなかった物体を意味し、以下では「固定物体」と呼ぶ。固定物体は、典型的には、移動空間内に存在する壁、柱である。固定センサ103aによるセンシング期間中に移動しなかった物体であれば、移動させることが可能な荷物等であっても「固定物体」に含まれる。 The signal processing circuit 109 acquires a set SDa of sensor data output from the fixed sensor 103a and acquired at a plurality of different times from the storage device 107. The signal processing circuit 109 creates local map data based on the position of an object that is commonly included in all the sensor data at each time. The "object commonly included in all the sensor data at each time" referred to here means an object that did not move during the sensing period by the fixed sensor, and is hereinafter referred to as a "fixed object". A fixed object is typically a wall or pillar that exists in a moving space. Any object that has not moved during the sensing period by the fixed sensor 103a is included in the "fixed object" even if it is a baggage that can be moved.

以上の処理によれば、少なくとも各固定センサがセンシングを行った空間に関して、固定物体の位置を反映した局所地図を作成することができる。 According to the above processing, it is possible to create a local map that reflects the position of the fixed object at least with respect to the space sensed by each fixed sensor.

信号処理回路109は、作成した局所地図データを用いて、記憶装置107の地図データMを更新してもよい。更新された地図データMは、例えば移動体10a〜10d等に送信され、各移動体が自己位置を推定するために参照される。 The signal processing circuit 109 may update the map data M of the storage device 107 by using the created local map data. The updated map data M is transmitted to, for example, the moving bodies 10a to 10d, and each moving body is referred to for estimating its own position.

なお、上述の例における、複数の異なる時刻に取得されたセンサデータの集合SDaには、各時刻のセンサデータの全てに共通して含まれないが、一部にのみ含まれる物体も存在し得る。当該物体を、以下では「可動物体」と呼ぶ。可動物体は、典型的には、移動空間の床の上に置かれその後移動または除去された荷物、または、移動空間の床の上に新たに置かれた荷物である。また可動物体は、移動するAGVおよび人を含み得る。 In the above example, the set SDa of the sensor data acquired at a plurality of different times may include an object that is not included in all of the sensor data at each time but is included only in a part thereof. .. The object is hereinafter referred to as a "movable object". A movable object is typically a load that has been placed on the floor of the moving space and then moved or removed, or a new load placed on the floor of the moving space. Movable objects may also include moving AGVs and people.

信号処理回路109は、固定物体の位置のみを示した局所地図を作成してもよいし、固定物体の位置と可動物体の位置とを識別可能に示した局所地図を作成してもよい。後者の一例は、複数の異なる時刻に取得されたセンサデータに存在した各可動物体の存在頻度(割合)が所定以上である場合に固定物体の位置を識別可能に示すことである。識別可能な表示の態様の例は、固定物体と可動物体とを異なるキャラクターまたはアイコンで表示すること、固定物体を最も濃い色で表示する一方、各可動物体の存在頻度(割合)が小さくなるほどより薄い色で表示してもよい。 The signal processing circuit 109 may create a local map showing only the position of the fixed object, or may create a local map showing the position of the fixed object and the position of the movable object in an identifiable manner. An example of the latter is to identifiable the position of a fixed object when the existence frequency (ratio) of each movable object existing in the sensor data acquired at a plurality of different times is equal to or higher than a predetermined value. Examples of distinguishable display modes are that the fixed object and the movable object are displayed with different characters or icons, that the fixed object is displayed in the darkest color, while the frequency (ratio) of each movable object becomes smaller. It may be displayed in a light color.

以下、移動体が無人搬送車である場合のより具体的な例を説明する。本明細書では、略語を用いて、無人搬送車を「AGV」と記述することがある。なお、以下の説明は、矛盾がない限り、AGV以外の移動体、例えば移動ロボット、ドローン、または有人の車両などにも同様に適用することができる。 Hereinafter, a more specific example when the moving body is an automatic guided vehicle will be described. In this specification, an abbreviation may be used to describe an automatic guided vehicle as "AGV". The following description can be similarly applied to mobile objects other than AGVs, such as mobile robots, drones, and manned vehicles, as long as there is no contradiction.

(1)システムの基本構成
図2は、本開示による例示的な移動体管理システム100の基本構成例を示している。移動体管理システム100は、少なくとも1台のAGV10と、AGV10の運行管理を行う運行管理装置50とを含む。図2には、ユーザ1によって操作される端末装置20も記載されている。
(1) Basic configuration of the system FIG. 2 shows a basic configuration example of the exemplary mobile management system 100 according to the present disclosure. The mobile body management system 100 includes at least one AGV 10 and an operation management device 50 that manages the operation of the AGV 10. FIG. 2 also shows a terminal device 20 operated by the user 1.

AGV10は、走行に磁気テープなどの誘導体が不要な「ガイドレス式」走行が可能な無人搬送台車である。AGV10は、自己位置推定を行い、推定の結果を端末装置20および運行管理装置50に送信することができる。AGV10は、運行管理装置50からの指令に従って移動空間S内を自動走行することが可能である。AGV10は、さらに、人または他の移動体に追従して移動する「追尾モード」で動作することも可能である。 The AGV10 is an automatic guided vehicle capable of "guideless" traveling that does not require a derivative such as a magnetic tape for traveling. The AGV 10 can perform self-position estimation and transmit the estimation result to the terminal device 20 and the operation management device 50. The AGV 10 can automatically travel in the moving space S according to a command from the operation management device 50. The AGV10 can also operate in a "tracking mode" that follows a person or other moving object to move.

運行管理装置50は各AGV10の位置をトラッキングし、各AGV10の走行を管理するコンピュータシステムである。運行管理装置50は、デスクトップ型PC、ノート型PC、および/または、サーバコンピュータであり得る。運行管理装置50は、複数のアクセスポイント2を介して、各AGV10と通信する。たとえば、運行管理装置50は、各AGV10が次に向かうべき位置の座標のデータを各AGV10に送信する。各AGV10は、定期的に、たとえば100ミリ秒ごとに自身の位置および姿勢(orientation)を示すデータを運行管理装置50に送信する。指示した位置にAGV10が到達すると、運行管理装置50は、さらに次に向かうべき位置の座標のデータを送信する。AGV10は、端末装置20に入力されたユーザ1の操作に応じて移動空間S内を走行することも可能である。端末装置20の一例はタブレットコンピュータである。典型的には、端末装置20を利用したAGV10の走行は地図作成時に行われ、運行管理装置50を利用したAGV10の走行は地図作成後に行われる。 The operation management device 50 is a computer system that tracks the position of each AGV10 and manages the traveling of each AGV10. The operation management device 50 may be a desktop PC, a notebook PC, and / or a server computer. The operation management device 50 communicates with each AGV 10 via the plurality of access points 2. For example, the operation management device 50 transmits data of the coordinates of the position where each AGV10 should go next to each AGV10. Each AGV 10 periodically transmits data indicating its position and orientation to the operation management device 50, for example, every 100 milliseconds. When the AGV 10 reaches the instructed position, the operation management device 50 further transmits the coordinate data of the position to be next. The AGV 10 can also travel in the moving space S in response to the operation of the user 1 input to the terminal device 20. An example of the terminal device 20 is a tablet computer. Typically, the traveling of the AGV 10 using the terminal device 20 is performed at the time of creating the map, and the traveling of the AGV 10 using the operation management device 50 is performed after the map is created.

図3は、3台のAGV10a、10bおよび10cが存在する移動空間Sの一例を示している。いずれのAGVも図中の奥行き方向に走行しているとする。AGV10aおよび10bは天板に載置された荷物を搬送中である。AGV10cは、前方のAGV10bに追従して走行している。なお、説明の便宜のため、図3では参照符号10a、10bおよび10cを付したが、以下では、「AGV10」と記述する。 FIG. 3 shows an example of the moving space S in which three AGVs 10a, 10b and 10c exist. It is assumed that both AGVs are traveling in the depth direction in the figure. The AGVs 10a and 10b are transporting the load placed on the top plate. The AGV10c follows the front AGV10b and travels. For convenience of explanation, reference numerals 10a, 10b and 10c have been added in FIG. 3, but hereinafter, they will be referred to as “AGV10”.

AGV10は、天板に載置された荷物を搬送する方法以外に、自身と接続された牽引台車を利用して荷物を搬送することも可能である。図4Aは接続される前のAGV10および牽引台車5を示している。牽引台車5の各足にはキャスターが設けられている。AGV10は牽引台車5と機械的に接続される。図4Bは、接続されたAGV10および牽引台車5を示している。AGV10が走行すると、牽引台車5はAGV10に牽引される。牽引台車5を牽引することにより、AGV10は、牽引台車5に載置された荷物を搬送できる。 In addition to the method of transporting the luggage placed on the top plate, the AGV10 can also transport the luggage by using a towing trolley connected to itself. FIG. 4A shows the AGV 10 and the tow truck 5 before being connected. Casters are provided on each foot of the tow truck 5. The AGV 10 is mechanically connected to the towing carriage 5. FIG. 4B shows the connected AGV 10 and the tow truck 5. When the AGV 10 travels, the towing carriage 5 is towed by the AGV 10. By towing the towing trolley 5, the AGV 10 can carry the load mounted on the towing trolley 5.

AGV10と牽引台車5との接続方法は任意である。ここでは一例を説明する。AGV10の天板にはプレート6が固定されている。牽引台車5には、スリットを有するガイド7が設けられている。AGV10は牽引台車5に接近し、プレート6をガイド7のスリットに差し込む。差し込みが完了すると、AGV10は、図示されない電磁ロック式ピンをプレート6およびガイド7に貫通させ、電磁ロックをかける。これにより、AGV10と牽引台車5とが物理的に接続される。 The connection method between the AGV 10 and the towing carriage 5 is arbitrary. An example will be described here. A plate 6 is fixed to the top plate of the AGV 10. The tow truck 5 is provided with a guide 7 having a slit. The AGV 10 approaches the towing carriage 5 and inserts the plate 6 into the slit of the guide 7. When the insertion is completed, the AGV 10 penetrates the plate 6 and the guide 7 with an electromagnetic lock type pin (not shown) to lock the electromagnetic lock. As a result, the AGV 10 and the towing carriage 5 are physically connected.

再び図2を参照する。各AGV10と端末装置20とは、たとえば1対1で接続されてBluetooth(登録商標)規格に準拠した通信を行うことができる。各AGV10と端末装置20とは、1または複数のアクセスポイント2を利用してWi−Fi(登録商標)に準拠した通信を行うこともできる。複数のアクセスポイント2は、たとえばスイッチングハブ3を介して互いに接続されている。図2には2台のアクセスポイント2a、2bが記載されている。AGV10はアクセスポイント2aと無線で接続されている。端末装置20はアクセスポイント2bと無線で接続されている。AGV10が送信したデータはアクセスポイント2aで受信され、スイッチングハブ3を介してアクセスポイント2bに転送され、アクセスポイント2bから端末装置20に送信される。また、端末装置20が送信したデータは、アクセスポイント2bで受信され、スイッチングハブ3を介してアクセスポイント2aに転送され、アクセスポイント2aからAGV10に送信される。これにより、AGV10および端末装置20の間の双方向通信が実現される。複数のアクセスポイント2はスイッチングハブ3を介して運行管理装置50とも接続されている。これにより、運行管理装置50と各AGV10との間でも双方向通信が実現される。 See FIG. 2 again. Each AGV 10 and the terminal device 20 can be connected to each other on a one-to-one basis, for example, to perform communication conforming to the Bluetooth (registered trademark) standard. Each AGV 10 and the terminal device 20 can also perform Wi-Fi (registered trademark) compliant communication using one or a plurality of access points 2. The plurality of access points 2 are connected to each other via, for example, a switching hub 3. Two access points 2a and 2b are shown in FIG. The AGV10 is wirelessly connected to the access point 2a. The terminal device 20 is wirelessly connected to the access point 2b. The data transmitted by the AGV 10 is received by the access point 2a, transferred to the access point 2b via the switching hub 3, and transmitted from the access point 2b to the terminal device 20. Further, the data transmitted by the terminal device 20 is received by the access point 2b, transferred to the access point 2a via the switching hub 3, and transmitted from the access point 2a to the AGV10. As a result, bidirectional communication between the AGV 10 and the terminal device 20 is realized. The plurality of access points 2 are also connected to the operation management device 50 via the switching hub 3. As a result, bidirectional communication is also realized between the operation management device 50 and each AGV 10.

(2)環境地図の作成
自己位置を推定しながらAGV10が走行できるようにするため、移動空間S内の地図が作成される。AGV10には位置推定装置およびレーザレンジファインダが搭載されており、レーザレンジファインダの出力を利用して地図を作成できる。
(2) Creation of environmental map A map in the moving space S is created so that the AGV10 can travel while estimating its own position. The AGV10 is equipped with a position estimation device and a laser range finder, and can create a map by using the output of the laser range finder.

AGV10は、ユーザの操作によってデータ取得モードに遷移する。データ取得モードにおいて、AGV10はレーザレンジファインダを用いたセンサデータの取得を開始する。レーザレンジファインダは周期的にたとえば赤外線または可視光のレーザビームを周囲に放射して周囲の空間Sをスキャンする。レーザビームは、たとえば、壁、柱等の構造物、床の上に置かれた物体等の表面で反射される。レーザレンジファインダは、レーザビームの反射光を受けて各反射点までの距離を計算し、各反射点の位置が示された測定結果のデータを出力する。各反射点の位置には、反射光の到来方向および距離が反映されている。1回のスキャンによって得られた測定結果のデータは「計測データ」または「センサデータ」と呼ばれることがある。 The AGV10 shifts to the data acquisition mode by the operation of the user. In the data acquisition mode, the AGV 10 starts acquiring sensor data using the laser range finder. The laser range finder periodically emits a laser beam of, for example, infrared or visible light to the surroundings to scan the surrounding space S. The laser beam is reflected, for example, on the surface of a structure such as a wall or a pillar, or an object placed on the floor. The laser range finder receives the reflected light of the laser beam, calculates the distance to each reflection point, and outputs the measurement result data showing the position of each reflection point. The position of each reflection point reflects the arrival direction and distance of the reflected light. The measurement result data obtained by one scan is sometimes called "measurement data" or "sensor data".

位置推定装置は、センサデータを記憶装置に蓄積する。移動空間S内のセンサデータの取得が完了すると、記憶装置に蓄積されたセンサデータが外部装置に送信される。外部装置は、たとえば信号処理プロセッサを有し、かつ、地図作成プログラムがインストールされたコンピュータである。 The position estimation device stores the sensor data in the storage device. When the acquisition of the sensor data in the moving space S is completed, the sensor data stored in the storage device is transmitted to the external device. The external device is, for example, a computer having a signal processing processor and having a mapping program installed.

外部装置の信号処理プロセッサは、スキャンごとに得られたセンサデータ同士を重ね合わせる。信号処理プロセッサが重ね合わせる処理を繰り返し行うことにより、空間Sの地図を作成することができる。外部装置は、作成した地図のデータをAGV10に送信する。AGV10は、作成した地図のデータを内部の記憶装置に保存する。外部装置は、運行管理装置50であってもよいし、他の装置であってもよい。 The signal processor of the external device superimposes the sensor data obtained for each scan. A map of the space S can be created by repeatedly performing the superposition process by the signal processing processor. The external device transmits the created map data to the AGV10. The AGV10 stores the created map data in an internal storage device. The external device may be the operation management device 50 or another device.

外部装置ではなくAGV10が地図の作成を行ってもよい。上述した外部装置の信号処理プロセッサが行った処理を、AGV10のマイクロコントローラユニット(マイコン)などの回路が行えばよい。AGV10内で地図を作成する場合には、蓄積されたセンサデータを外部装置に送信する必要が無くなる。センサデータのデータ容量は一般には大きいと考えられる。センサデータを外部装置に送信する必要がないため、通信回線の占有を回避できる。 The map may be created by the AGV 10 instead of the external device. A circuit such as an AGV10 microcontroller unit (microcomputer) may perform the processing performed by the signal processing processor of the external device described above. When creating a map in AGV10, it is not necessary to transmit the accumulated sensor data to an external device. The data capacity of the sensor data is generally considered to be large. Since it is not necessary to transmit the sensor data to the external device, it is possible to avoid occupying the communication line.

なお、センサデータを取得するための移動空間S内の移動は、ユーザの操作に従ってAGV10が走行することによって実現し得る。たとえば、AGV10は、端末装置20を介して無線でユーザから前後左右の各方向への移動を指示する走行指令を受け取る。AGV10は走行指令にしたがって移動空間S内を前後左右に走行し、地図を作成する。AGV10がジョイスティック等の操縦装置と有線で接続されている場合には、当該操縦装置からの制御信号にしたがって移動空間S内を前後左右に走行し、地図を作成してもよい。レーザレンジファインダを搭載した計測台車を人が押し歩くことによってセンサデータを取得してもよい。 The movement in the moving space S for acquiring the sensor data can be realized by the AGV 10 traveling according to the operation of the user. For example, the AGV 10 wirelessly receives a travel command from the user via the terminal device 20 instructing the user to move in each of the front, rear, left, and right directions. The AGV10 travels back and forth and left and right in the moving space S according to a traveling command to create a map. When the AGV 10 is connected to a control device such as a joystick by wire, the map may be created by traveling in the moving space S in front, back, left and right according to a control signal from the control device. Sensor data may be acquired by a person pushing a measuring trolley equipped with a laser range finder.

なお、図2および図3には複数台のAGV10が示されているが、AGVは1台であってもよい。複数台のAGV10が存在する場合、ユーザ1は端末装置20を利用して、登録された複数のAGVのうちから一台のAGV10を選択して、移動空間Sの地図を作成させることができる。 Although a plurality of AGVs 10 are shown in FIGS. 2 and 3, the number of AGVs may be one. When a plurality of AGVs 10 exist, the user 1 can use the terminal device 20 to select one AGV10 from the plurality of registered AGVs and have the user 1 create a map of the moving space S.

地図が作成されると、以後、各AGV10は当該地図を利用して自己位置を推定しながら自動走行することができる。自己位置を推定する処理の説明は後述する。 After the map is created, each AGV10 can automatically travel while estimating its own position using the map. The process of estimating the self-position will be described later.

(3)AGVの構成
図5は、本実施形態にかかる例示的なAGV10の外観図である。AGV10は、2つの駆動輪11aおよび11bと、4つのキャスター11c、11d、11eおよび11fと、フレーム12と、搬送テーブル13と、走行制御装置14と、レーザレンジファインダ15とを有する。2つの駆動輪11aおよび11bは、AGV10の右側および左側にそれぞれ設けられている。4つのキャスター11c、11d、11eおよび11fは、AGV10の4隅に配置されている。なお、AGV10は、2つの駆動輪11aおよび11bに接続される複数のモータも有するが、複数のモータは図5には示されていない。また、図5には、AGV10の右側に位置する1つの駆動輪11aおよび2つのキャスター11cおよび11eと、左後部に位置するキャスター11fとが示されているが、左側の駆動輪11bおよび左前部のキャスター11dはフレーム12の蔭に隠れているため明示されていない。4つのキャスター11c、11d、11eおよび11fは、自由に旋回することができる。以下の説明では、駆動輪11aおよび駆動輪11bを、それぞれ車輪11aおよび車輪11bとも称する。
(3) The configuration diagram 5 of the AGV is an external view of an exemplary AGV 10 according to the present embodiment. The AGV 10 has two drive wheels 11a and 11b, four casters 11c, 11d, 11e and 11f, a frame 12, a transfer table 13, a traveling control device 14, and a laser range finder 15. The two drive wheels 11a and 11b are provided on the right side and the left side of the AGV 10, respectively. The four casters 11c, 11d, 11e and 11f are arranged at the four corners of the AGV10. The AGV10 also has a plurality of motors connected to the two drive wheels 11a and 11b, but the plurality of motors are not shown in FIG. Further, FIG. 5 shows one drive wheel 11a and two casters 11c and 11e located on the right side of the AGV 10, and a caster 11f located on the left rear portion, but the left drive wheel 11b and the left front portion are shown. Caster 11d is not specified because it is hidden behind the frame 12. The four casters 11c, 11d, 11e and 11f can freely rotate. In the following description, the drive wheels 11a and the drive wheels 11b will also be referred to as wheels 11a and wheels 11b, respectively.

走行制御装置14は、AGV10の動作を制御する装置であり、主としてマイコン(後述)を含む集積回路、電子部品およびそれらが搭載された基板を含む。走行制御装置14は、上述した、端末装置20とのデータの送受信、および前処理演算を行う。 The travel control device 14 is a device that controls the operation of the AGV 10, and mainly includes an integrated circuit including a microcomputer (described later), electronic components, and a substrate on which they are mounted. The travel control device 14 performs data transmission / reception and preprocessing calculation with the terminal device 20 described above.

レーザレンジファインダ15は、たとえば赤外線または可視光のレーザビーム15aを放射し、当該レーザビーム15aの反射光を検出することにより、反射点までの距離を測定する光学機器である。本実施形態では、AGV10のレーザレンジファインダ15は、たとえばAGV10の正面を基準として左右135度(合計270度)の範囲の空間に、0.25度ごとに方向を変化させながらパルス状のレーザビーム15aを放射し、各レーザビーム15aの反射光を検出する。これにより、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点までの距離のデータを得ることができる。なお、本実施形態では、レーザレンジファインダ15が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかしながら、レーザレンジファインダ15は高さ方向のスキャンを行ってもよい。 The laser range finder 15 is an optical device that measures the distance to a reflection point by emitting, for example, an infrared or visible light laser beam 15a and detecting the reflected light of the laser beam 15a. In the present embodiment, the laser range finder 15 of the AGV 10 is a pulsed laser beam, for example, in a space within a range of 135 degrees to the left and right (270 degrees in total) with reference to the front surface of the AGV 10 while changing the direction every 0.25 degrees. It emits 15a and detects the reflected light of each laser beam 15a. As a result, it is possible to obtain data on the distance to the reflection point in the direction determined by the angle of 1081 steps in total every 0.25 degrees. In the present embodiment, the scanning of the surrounding space performed by the laser range finder 15 is substantially parallel to the floor surface and is planar (two-dimensional). However, the laser range finder 15 may scan in the height direction.

AGV10の位置および姿勢(向き)と、レーザレンジファインダ15のスキャン結果とにより、AGV10は、空間Sの地図を作成することができる。地図には、AGVの周囲の壁、柱等の構造物、床の上に載置された物体の配置が反映され得る。地図のデータは、AGV10内に設けられた記憶装置に格納される。 Based on the position and orientation (orientation) of the AGV10 and the scan result of the laser range finder 15, the AGV10 can create a map of the space S. The map may reflect the placement of walls, pillars and other structures around the AGV, and objects placed on the floor. The map data is stored in a storage device provided in the AGV10.

一般に、移動体の位置および姿勢は、ポーズ(pose)と呼ばれる。二次元面内における移動体の位置および姿勢は、XY直交座標系における位置座標(x, y)と、X軸に対する角度θによって表現される。AGV10の位置および姿勢、すなわちポーズ(x, y, θ)を、以下、単に「位置」と呼ぶことがある。 Generally, the position and posture of the moving body is called a pose. The position and orientation of the moving body in the two-dimensional plane are represented by the position coordinates (x, y) in the XY Cartesian coordinate system and the angle θ with respect to the X axis. The position and posture of the AGV 10, that is, the pose (x, y, θ) may be simply referred to as “position” below.

レーザビーム15aの放射位置から見た反射点の位置は、角度および距離によって決定される極座標を用いて表現され得る。本実施形態では、レーザレンジファインダ15は極座標で表現されたセンサデータを出力する。ただし、レーザレンジファインダ15は、極座標で表現された位置を直交座標に変換して出力してもよい。 The position of the reflection point as seen from the radiation position of the laser beam 15a can be represented using polar coordinates determined by the angle and distance. In this embodiment, the laser range finder 15 outputs sensor data expressed in polar coordinates. However, the laser range finder 15 may convert the position expressed in polar coordinates into orthogonal coordinates and output it.

レーザレンジファインダの構造および動作原理は公知であるため、本明細書ではこれ以上の詳細な説明は省略する。レーザレンジファインダ15によって検出され得る物体の例は、人、荷物、棚、壁である。 Since the structure and operating principle of the laser range finder are known, further detailed description thereof will be omitted in this specification. Examples of objects that can be detected by the laser range finder 15 are people, luggage, shelves, and walls.

レーザレンジファインダ15は、周囲の空間をセンシングしてセンサデータを取得するための外界センサの一例である。そのような外界センサの他の例としては、イメージセンサおよび超音波センサが考えられる。 The laser range finder 15 is an example of an external sensor for sensing the surrounding space and acquiring sensor data. Other examples of such external sensors include image sensors and ultrasonic sensors.

走行制御装置14は、レーザレンジファインダ15の測定結果と、自身が保持する地図データとを比較して、自身の現在位置を推定することができる。なお、保持されている地図データは、他のAGV10が作成した地図データであってもよい。 The travel control device 14 can estimate its own current position by comparing the measurement result of the laser range finder 15 with the map data held by itself. The map data held may be map data created by another AGV10.

図6Aは、AGV10の第1のハードウェア構成例を示している。また図6Aは、走行制御装置14の具体的な構成も示している。 FIG. 6A shows a first hardware configuration example of the AGV10. FIG. 6A also shows a specific configuration of the travel control device 14.

AGV10は、走行制御装置14と、レーザレンジファインダ15と、2台のモータ16aおよび16bと、駆動装置17と、車輪11aおよび11bと、2つのロータリエンコーダ18aおよび18bとを備えている。 The AGV 10 includes a travel control device 14, a laser range finder 15, two motors 16a and 16b, a drive device 17, wheels 11a and 11b, and two rotary encoders 18a and 18b.

走行制御装置14は、マイコン14aと、メモリ14bと、記憶装置14cと、通信回路14dと、位置推定装置14eとを有している。マイコン14a、メモリ14b、記憶装置14c、通信回路14dおよび位置推定装置14eは通信バス14fで接続されており、相互にデータを授受することが可能である。レーザレンジファインダ15もまた通信インタフェース(図示せず)を介して通信バス14fに接続されており、計測結果である計測データを、マイコン14a、位置推定装置14eおよび/またはメモリ14bに送信する。 The travel control device 14 includes a microcomputer 14a, a memory 14b, a storage device 14c, a communication circuit 14d, and a position estimation device 14e. The microcomputer 14a, the memory 14b, the storage device 14c, the communication circuit 14d, and the position estimation device 14e are connected by a communication bus 14f, and data can be exchanged with each other. The laser range finder 15 is also connected to the communication bus 14f via a communication interface (not shown), and transmits the measurement data as the measurement result to the microcomputer 14a, the position estimation device 14e and / or the memory 14b.

マイコン14aは、走行制御装置14を含むAGV10の全体を制御するための演算を行うプロセッサまたは制御回路(コンピュータ)である。典型的にはマイコン14aは半導体集積回路である。マイコン14aは、制御信号であるPWM(Pulse Width Modulation)信号を駆動装置17に送信して駆動装置17を制御し、モータに印加する電圧を調整させる。これによりモータ16aおよび16bの各々が所望の回転速度で回転する。 The microcomputer 14a is a processor or a control circuit (computer) that performs an operation for controlling the entire AGV 10 including the travel control device 14. Typically, the microcomputer 14a is a semiconductor integrated circuit. The microcomputer 14a transmits a PWM (Pulse Width Modulation) signal, which is a control signal, to the drive device 17 to control the drive device 17 and adjust the voltage applied to the motor. As a result, each of the motors 16a and 16b rotates at a desired rotation speed.

左右のモータ16aおよび16bの駆動を制御する1つ以上の制御回路(たとえばマイコン)を、マイコン14aとは独立して設けてもよい。たとえば、モータ駆動装置17が、モータ16aおよび16bの駆動をそれぞれ制御する2つのマイコンを備えていてもよい。それらの2つのマイコンは、エンコーダ18aおよび18bから出力されたエンコーダ情報を用いた座標計算をそれぞれ行い、所与の初期位置からのAGV10の移動距離を推定してもよい。また、当該2つのマイコンは、エンコーダ情報を利用してモータ駆動回路17aおよび17bを制御してもよい。 One or more control circuits (for example, a microcomputer) that control the drive of the left and right motors 16a and 16b may be provided independently of the microcomputer 14a. For example, the motor drive device 17 may include two microcomputers that control the drive of the motors 16a and 16b, respectively. The two microcomputers may perform coordinate calculation using the encoder information output from the encoders 18a and 18b, respectively, and estimate the moving distance of the AGV 10 from a given initial position. Further, the two microcomputers may control the motor drive circuits 17a and 17b by using the encoder information.

メモリ14bは、マイコン14aが実行するコンピュータプログラムを記憶する揮発性の記憶装置である。メモリ14bは、マイコン14aおよび位置推定装置14eが演算を行う際のワークメモリとしても利用され得る。 The memory 14b is a volatile storage device that stores a computer program executed by the microcomputer 14a. The memory 14b can also be used as a work memory when the microcomputer 14a and the position estimation device 14e perform calculations.

記憶装置14cは、不揮発性の半導体メモリ装置である。ただし、記憶装置14cは、ハードディスクに代表される磁気記録媒体、または、光ディスクに代表される光学式記録媒体であってもよい。さらに、記憶装置14cは、いずれかの記録媒体にデータを書き込みおよび/または読み出すためのヘッド装置および当該ヘッド装置の制御装置を含んでもよい。 The storage device 14c is a non-volatile semiconductor memory device. However, the storage device 14c may be a magnetic recording medium typified by a hard disk or an optical recording medium typified by an optical disk. Further, the storage device 14c may include a head device for writing and / or reading data to any recording medium and a control device for the head device.

記憶装置14cは、走行する空間Sの地図データM、および、1または複数の走行経路のデータ(走行経路データ)Rを記憶する。地図データMは、AGV10が地図作成モードで動作することによって作成され記憶装置14cに記憶される。走行経路データRは、地図データMが作成された後に外部から送信される。本実施形態では、地図データMおよび走行経路データRは同じ記憶装置14cに記憶されているが、異なる記憶装置に記憶されてもよい。 The storage device 14c stores the map data M of the traveling space S and the data (traveling route data) R of one or a plurality of traveling routes. The map data M is created by the AGV 10 operating in the map creation mode and stored in the storage device 14c. The travel route data R is transmitted from the outside after the map data M is created. In the present embodiment, the map data M and the travel route data R are stored in the same storage device 14c, but may be stored in different storage devices.

走行経路データRの例を説明する。 An example of the travel route data R will be described.

端末装置20がタブレットコンピュータである場合には、AGV10はタブレットコンピュータから走行経路を示す走行経路データRを受信する。このときの走行経路データRは、複数のマーカの位置を示すマーカデータを含む。「マーカ」は走行するAGV10の通過位置(経由点)を示す。走行経路データRは、走行開始位置を示す開始マーカおよび走行終了位置を示す終了マーカの位置情報を少なくとも含む。走行経路データRは、さらに、1以上の中間経由点のマーカの位置情報を含んでもよい。走行経路が1以上の中間経由点を含む場合には、開始マーカから、当該走行経由点を順に経由して終了マーカに至る経路が、走行経路として定義される。各マーカのデータは、そのマーカの座標データに加えて、次のマーカに移動するまでのAGV10の向き(角度)および走行速度のデータを含み得る。AGV10が各マーカの位置で一旦停止し、自己位置推定および端末装置20への通知などを行う場合には、各マーカのデータは、当該走行速度に達するまでの加速に要する加速時間、および/または、当該走行速度から次のマーカの位置で停止するまでの減速に要する減速時間のデータを含み得る。 When the terminal device 20 is a tablet computer, the AGV 10 receives the travel route data R indicating the travel route from the tablet computer. The traveling route data R at this time includes marker data indicating the positions of a plurality of markers. The "marker" indicates a passing position (passage point) of the traveling AGV 10. The travel route data R includes at least the position information of the start marker indicating the travel start position and the end marker indicating the travel end position. The travel route data R may further include the position information of the markers of one or more intermediate waypoints. When the traveling route includes one or more intermediate waypoints, the route from the start marker to the end marker via the traveling waypoints in order is defined as the traveling route. The data of each marker may include, in addition to the coordinate data of the marker, data of the direction (angle) and the traveling speed of the AGV 10 until the movement to the next marker. When the AGV 10 temporarily stops at the position of each marker and performs self-position estimation and notification to the terminal device 20, the data of each marker is the acceleration time required for acceleration until the traveling speed is reached, and / or , The data of the deceleration time required for deceleration from the traveling speed to the stop at the position of the next marker may be included.

端末装置20ではなく運行管理装置50(たとえば、PCおよび/またはサーバコンピュータ)がAGV10の移動を制御してもよい。その場合には、運行管理装置50は、AGV10がマーカに到達する度に、次のマーカへの移動をAGV10に指示してもよい。たとえば、AGV10は、運行管理装置50から、次に向かうべき目的位置の座標データ、または、当該目的位置までの距離および進むべき角度のデータを、走行経路を示す走行経路データRとして受信する。 The operation management device 50 (for example, a PC and / or a server computer) may control the movement of the AGV 10 instead of the terminal device 20. In that case, the operation management device 50 may instruct the AGV 10 to move to the next marker each time the AGV 10 reaches the marker. For example, the AGV 10 receives from the operation management device 50 the coordinate data of the target position to be headed next, or the data of the distance to the target position and the angle to be traveled as the travel route data R indicating the travel route.

AGV10は、作成された地図と走行中に取得されたレーザレンジファインダ15が出力したセンサデータとを利用して自己位置を推定しながら、記憶された走行経路に沿って走行することができる。 The AGV 10 can travel along the stored travel route while estimating its own position using the created map and the sensor data output by the laser range finder 15 acquired during travel.

通信回路14dは、たとえば、Bluetooth(登録商標)および/またはWi−Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。いずれの規格も、2.4GHz帯の周波数を利用した無線通信規格を含む。たとえばAGV10を走行させて地図を作成するモードでは、通信回路14dは、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1で端末装置20と通信する。 The communication circuit 14d is, for example, a wireless communication circuit that performs wireless communication conforming to the Bluetooth (registered trademark) and / or Wi-Fi (registered trademark) standard. Both standards include wireless communication standards that utilize frequencies in the 2.4 GHz band. For example, in the mode in which the AGV 10 is run to create a map, the communication circuit 14d performs wireless communication conforming to the Bluetooth (registered trademark) standard and communicates with the terminal device 20 on a one-to-one basis.

位置推定装置14eは、地図の作成処理、および、走行時には自己位置の推定処理を行う。位置推定装置14eは、AGV10の位置および姿勢とレーザレンジファインダのスキャン結果とにより、移動空間Sの地図を作成する。走行時には、位置推定装置14eは、レーザレンジファインダ15からセンサデータを受け取り、また、記憶装置14cに記憶された地図データMを読み出す。レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)と、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を同定する。位置推定装置14eは、局所的地図データが地図データMに一致した程度を表す「信頼度」のデータを生成する。自己位置(x, y, θ)、および、信頼度の各データは、AGV10から端末装置20または運行管理装置50に送信され得る。端末装置20または運行管理装置50は、自己位置(x, y, θ)、および、信頼度の各データを受信して、内蔵または接続された表示装置に表示することができる。 The position estimation device 14e performs a map creation process and a self-position estimation process during traveling. The position estimation device 14e creates a map of the moving space S based on the position and orientation of the AGV 10 and the scan result of the laser range finder. During traveling, the position estimation device 14e receives the sensor data from the laser range finder 15 and reads out the map data M stored in the storage device 14c. By matching the local map data (sensor data) created from the scan results of the laser range finder 15 with the map data M in a wider range, the self-position (x, y, θ) on the map data M can be determined. To identify. The position estimation device 14e generates "reliability" data indicating the degree to which the local map data matches the map data M. The self-position (x, y, θ) and reliability data can be transmitted from the AGV 10 to the terminal device 20 or the operation management device 50. The terminal device 20 or the operation management device 50 can receive the self-position (x, y, θ) and reliability data and display them on the built-in or connected display device.

本実施形態では、マイコン14aと位置推定装置14eとは別個の構成要素であるとしているが、これは一例である。マイコン14aおよび位置推定装置14eの各動作を独立して行うことが可能な1つのチップ回路または半導体集積回路であってもよい。図6Aには、マイコン14aおよび位置推定装置14eを包括するチップ回路14gが示されている。以下では、マイコン14aおよび位置推定装置14eが別個独立に設けられている例を説明する。 In the present embodiment, the microcomputer 14a and the position estimation device 14e are considered to be separate components, but this is an example. It may be one chip circuit or a semiconductor integrated circuit capable of independently performing each operation of the microcomputer 14a and the position estimation device 14e. FIG. 6A shows a chip circuit 14g including the microcomputer 14a and the position estimation device 14e. Hereinafter, an example in which the microcomputer 14a and the position estimation device 14e are provided separately and independently will be described.

2台のモータ16aおよび16bは、それぞれ2つの車輪11aおよび11bに取り付けられ、各車輪を回転させる。つまり、2つの車輪11aおよび11bはそれぞれ駆動輪である。本明細書では、モータ16aおよびモータ16bは、それぞれAGV10の右輪および左輪を駆動するモータであるとして説明する。 The two motors 16a and 16b are attached to the two wheels 11a and 11b, respectively, to rotate each wheel. That is, the two wheels 11a and 11b are driving wheels, respectively. In the present specification, the motor 16a and the motor 16b are described as being motors for driving the right wheel and the left wheel of the AGV10, respectively.

移動体10は、さらに、車輪11aおよび11bの回転位置または回転速度を測定するエンコーダユニット18をさらに備えている。エンコーダユニット18は、第1ロータリエンコーダ18aおよび第2ロータリエンコーダ18bを含む。第1ロータリエンコーダ18aは、モータ16aから車輪11aまでの動力伝達機構のいずれかの位置における回転を計測する。第2ロータリエンコーダ18bは、モータ16bから車輪11bまでの動力伝達機構のいずれかの位置における回転を計測する。エンコーダユニット18は、ロータリエンコーダ18aおよび18bによって取得された信号を、マイコン14aに送信する。マイコン14aは、位置推定装置14eから受信した信号だけでなく、エンコーダユニット18から受信した信号を利用して、移動体10の移動を制御してもよい。 The moving body 10 further includes an encoder unit 18 for measuring the rotation position or rotation speed of the wheels 11a and 11b. The encoder unit 18 includes a first rotary encoder 18a and a second rotary encoder 18b. The first rotary encoder 18a measures the rotation of the power transmission mechanism from the motor 16a to the wheels 11a at any position. The second rotary encoder 18b measures the rotation of the power transmission mechanism from the motor 16b to the wheels 11b at any position. The encoder unit 18 transmits the signals acquired by the rotary encoders 18a and 18b to the microcomputer 14a. The microcomputer 14a may control the movement of the moving body 10 by using not only the signal received from the position estimation device 14e but also the signal received from the encoder unit 18.

駆動装置17は、2台のモータ16aおよび16bの各々に印加される電圧を調整するためのモータ駆動回路17aおよび17bを有する。モータ駆動回路17aおよび17bの各々はいわゆるインバータ回路を含む。モータ駆動回路17aおよび17bは、マイコン14aまたはモータ駆動回路17a内のマイコンから送信されたPWM信号によって各モータに流れる電流をオンまたはオフし、それによりモータに印加される電圧を調整する。 The drive device 17 has motor drive circuits 17a and 17b for adjusting the voltage applied to each of the two motors 16a and 16b. Each of the motor drive circuits 17a and 17b includes a so-called inverter circuit. The motor drive circuits 17a and 17b turn on or off the current flowing through each motor by the PWM signal transmitted from the microcomputer 14a or the microcomputer in the motor drive circuit 17a, thereby adjusting the voltage applied to the motor.

図6Bは、AGV10の第2のハードウェア構成例を示している。第2のハードウェア構成例は、レーザ測位システム14hを有する点、および、マイコン14aが各構成要素と1対1で接続されている点において、第1のハードウェア構成例(図6A)と相違する。 FIG. 6B shows a second hardware configuration example of the AGV10. The second hardware configuration example differs from the first hardware configuration example (FIG. 6A) in that it has a laser positioning system 14h and that the microcomputer 14a is connected to each component on a one-to-one basis. To do.

レーザ測位システム14hは、位置推定装置14eおよびレーザレンジファインダ15を有する。位置推定装置14eおよびレーザレンジファインダ15は、たとえばイーサネット(登録商標)ケーブルで接続されている。位置推定装置14eおよびレーザレンジファインダ15の各動作は上述した通りである。レーザ測位システム14hは、AGV10のポーズ(x, y, θ)を示す情報をマイコン14aに出力する。 The laser positioning system 14h includes a position estimation device 14e and a laser range finder 15. The position estimation device 14e and the laser range finder 15 are connected by, for example, an Ethernet (registered trademark) cable. Each operation of the position estimation device 14e and the laser range finder 15 is as described above. The laser positioning system 14h outputs information indicating the pose (x, y, θ) of the AGV 10 to the microcomputer 14a.

マイコン14aは、種々の汎用I/Oインタフェースまたは汎用入出力ポート(図示せず)を有している。マイコン14aは、通信回路14d、レーザ測位システム14h等の、走行制御装置14内の他の構成要素と、当該汎用入出力ポートを介して直接接続されている。 The microcomputer 14a has various general-purpose I / O interfaces or general-purpose input / output ports (not shown). The microcomputer 14a is directly connected to other components in the travel control device 14, such as the communication circuit 14d and the laser positioning system 14h, via the general-purpose input / output port.

図6Bに関して上述した構成以外は、図6Aの構成と共通である。よって共通の構成の説明は省略する。 Except for the configuration described above with respect to FIG. 6B, the configuration is the same as that of FIG. 6A. Therefore, the description of the common configuration will be omitted.

本開示の実施形態におけるAGV10は、図示されていないバンパースイッチなどのセーフティセンサを備えていてもよい。AGV10は、ジャイロセンサなどの慣性計測装置を備えていてもよい。ロータリエンコーダ18aおよび18bまたは慣性計測装置などの内界センサによる測定データを利用すれば、AGV10の移動距離および姿勢の変化量(角度)を推定することができる。これらの距離および角度の推定値は、オドメトリデータと呼ばれ、位置推定装置14eによって得られる位置および姿勢の情報を補助する機能を発揮し得る。 The AGV 10 in the embodiment of the present disclosure may include a safety sensor such as a bumper switch (not shown). The AGV10 may include an inertial measurement unit such as a gyro sensor. By using the measurement data by the rotary encoders 18a and 18b or the internal sensor such as the inertial measurement unit, it is possible to estimate the movement distance and the change amount (angle) of the posture of the AGV10. These distance and angle estimates are called odometry data and can exert a function of assisting the position and orientation information obtained by the position estimation device 14e.

(4)地図データ
図7A〜図7Fは、センサデータを取得しながら移動するAGV10を模式的に示す。ユーザ1は、端末装置20を操作しながらマニュアルでAGV10を移動させてもよい。あるいは、図6Aおよび6Bに示される走行制御装置14を備えるユニット、または、AGV10そのものを台車に載置し、台車をユーザ1が手で押す、または牽くことによってセンサデータを取得してもよい。
(4) Map data FIGS. 7A to 7F schematically show an AGV 10 moving while acquiring sensor data. The user 1 may manually move the AGV 10 while operating the terminal device 20. Alternatively, the unit including the travel control device 14 shown in FIGS. 6A and 6B, or the AGV10 itself may be placed on the trolley, and the user 1 may manually push or pull the trolley to acquire sensor data.

図7Aには、レーザレンジファインダ15を用いて周囲の空間をスキャンするAGV10が示されている。所定のステップ角毎にレーザビームが放射され、スキャンが行われる。なお、図示されたスキャン範囲は模式的に示した例であり、上述した合計270度のスキャン範囲とは異なっている。 FIG. 7A shows an AGV 10 that scans the surrounding space using the laser range finder 15. A laser beam is emitted at a predetermined step angle to perform scanning. The illustrated scan range is an example schematically shown, and is different from the above-mentioned scan range of 270 degrees in total.

図7A〜図7Fの各々では、レーザビームの反射点の位置が、記号「・」で表される複数の黒点4を用いて模式的に示されている。レーザビームのスキャンは、レーザレンジファインダ15の位置および姿勢が変化する間に短い周期で実行される。このため、現実の反射点の個数は、図示されている反射点4の個数よりも遥かに多い。位置推定装置14eは、走行に伴って得られる黒点4の位置を、たとえばメモリ14bに蓄積する。AGV10が走行しながらスキャンを継続して行うことにより、地図データが徐々に完成されてゆく。図7Bから図7Eでは、簡略化のためスキャン範囲のみが示されている。当該スキャン範囲は例示であり、上述した合計270度の例とは異なる。 In each of FIGS. 7A to 7F, the positions of the reflection points of the laser beam are schematically shown by using a plurality of black points 4 represented by the symbol “•”. The laser beam scan is performed at short intervals while the position and orientation of the laser range finder 15 changes. Therefore, the actual number of reflection points is much larger than the number of reflection points 4 shown in the figure. The position estimation device 14e stores the positions of the black spots 4 obtained during traveling, for example, in the memory 14b. The map data is gradually completed by continuously scanning while the AGV10 is running. In FIGS. 7B-7E, only the scan range is shown for brevity. The scan range is an example and is different from the above-mentioned example of total 270 degrees.

地図は、地図作成に必要な量のセンサデータを取得した後、そのセンサデータに基づいて、このAGV10内のマイコン14aまたは外部のコンピュータを用いて作成してもよい。あるいは、移動しつつあるAGV10が取得したセンサデータに基づいてリアルタイムで地図を作成してもよい。 The map may be created by using the microcomputer 14a in the AGV10 or an external computer based on the sensor data after acquiring the amount of sensor data required for map creation. Alternatively, a map may be created in real time based on the sensor data acquired by the moving AGV10.

図7Fは、完成した地図40の一部を模式的に示す。図7Fに示される地図では、レーザビームの反射点の集まりに相当する点群(Point Cloud)によって自由空間が仕切られている。地図の他の例は、物体が占有している空間と自由空間とをグリッド単位で区別する占有格子地図である。位置推定装置14eは、地図のデータ(地図データM)をメモリ14bまたは記憶装置14cに蓄積する。なお図示されている黒点の数または密度は一例である。 FIG. 7F schematically shows a part of the completed map 40. In the map shown in FIG. 7F, the free space is partitioned by a point cloud corresponding to a collection of reflection points of the laser beam. Another example of a map is an occupied grid map that distinguishes between the space occupied by an object and the free space on a grid-by-grid basis. The position estimation device 14e stores map data (map data M) in the memory 14b or the storage device 14c. The number or density of sunspots shown is an example.

こうして得られた地図データは、複数のAGV10によって共有され得る。 The map data thus obtained can be shared by a plurality of AGV10s.

AGV10が地図データに基づいて自己位置を推定するアルゴリズムの典型例は、ICP(Iterative Closest Point)マッチングである。前述したように、レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)と、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を推定することができる。 A typical example of an algorithm in which the AGV10 estimates its own position based on map data is ICP (Iterative Closest Point) matching. As described above, by matching the local map data (sensor data) created from the scan result of the laser range finder 15 with the map data M in a wider range, the self-position (x,) on the map data M is performed. y, θ) can be estimated.

AGV10が走行するエリアが広い場合、地図データMのデータ量が多くなる。そのため、地図の作成時間が増大したり、自己位置推定に多大な時間を要するなどの不都合が生じる可能性がある。そのような不都合が生じる場合には、地図データMを、複数の部分地図のデータに分けて作成および記録してもよい。 When the area in which the AGV 10 travels is wide, the amount of map data M increases. Therefore, inconveniences such as an increase in map creation time and a large amount of time required for self-position estimation may occur. When such an inconvenience occurs, the map data M may be created and recorded separately for a plurality of partial map data.

図8は、4つの部分地図データM1、M2、M3、M4の組み合わせによって1つの工場の1フロアの全域がカバーされる例を示している。この例では、1つの部分地図データは50m×50mの領域をカバーしている。X方向およびY方向のそれぞれにおいて隣接する2つの地図の境界部分に、幅5mの矩形の重複領域が設けられている。この重複領域を「地図切替エリア」と呼ぶ。1つの部分地図を参照しながら走行しているAGV10が地図切替エリアに到達すると、隣接する他の部分地図を参照する走行に切り替える。部分地図の枚数は4枚に限らず、AGV10が走行するフロアの面積、地図作成および自己位置推定を実行するコンピュータの性能に応じて適宜設定してよい。部分地図データのサイズおよび重複領域の幅も、上記の例に限定されず、任意に設定してよい。 FIG. 8 shows an example in which the entire area of one floor of one factory is covered by the combination of the four partial map data M1, M2, M3, and M4. In this example, one partial map data covers an area of 50m x 50m. A rectangular overlapping area having a width of 5 m is provided at the boundary between two adjacent maps in each of the X and Y directions. This overlapping area is called a "map switching area". When the AGV 10 traveling while referring to one partial map reaches the map switching area, it switches to traveling referring to another adjacent partial map. The number of partial maps is not limited to four, and may be appropriately set according to the area of the floor on which the AGV10 travels, the performance of the computer that performs map creation and self-position estimation. The size of the partial map data and the width of the overlapping area are not limited to the above example, and may be set arbitrarily.

(5)運行管理装置の構成例
図9は、運行管理装置50のハードウェア構成例を示している。運行管理装置50は、CPU51と、メモリ52と、位置データベース(位置DB)53と、通信回路54と、地図データベース(地図DB)55と、画像処理回路56とを有する。
(5) Configuration Example of Operation Management Device FIG. 9 shows a hardware configuration example of the operation management device 50. The operation management device 50 includes a CPU 51, a memory 52, a position database (position DB) 53, a communication circuit 54, a map database (map DB) 55, and an image processing circuit 56.

CPU51、メモリ52、位置DB53、通信回路54、地図DB55および画像処理回路56は通信バス57で接続されており、相互にデータを授受することが可能である。 The CPU 51, the memory 52, the position DB 53, the communication circuit 54, the map DB 55, and the image processing circuit 56 are connected by a communication bus 57, and data can be exchanged with each other.

CPU51は、運行管理装置50の動作を制御する信号処理回路(コンピュータ)である。典型的にはCPU51は半導体集積回路である。 The CPU 51 is a signal processing circuit (computer) that controls the operation of the operation management device 50. Typically, the CPU 51 is a semiconductor integrated circuit.

メモリ52は、CPU51が実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ52は、CPU51が演算を行う際のワークメモリとしても利用され得る。 The memory 52 is a volatile storage device that stores a computer program executed by the CPU 51. The memory 52 can also be used as a work memory when the CPU 51 performs an operation.

位置DB53は、各AGV10の行き先となり得る各位置を示す位置データを格納する。位置データは、たとえば管理者によって工場内に仮想的に設定された座標によって表され得る。位置データは管理者によって決定される。 The position DB 53 stores position data indicating each position that can be a destination of each AGV 10. Location data can be represented, for example, by coordinates virtually set within the factory by the administrator. Location data is determined by the administrator.

通信回路54は、たとえばイーサネット(登録商標)規格に準拠した有線通信を行う。通信回路54はアクセスポイント2(図1)と有線で接続されており、アクセスポイント2を介して、AGV10と通信することができる。通信回路54は、AGV10に送信すべきデータを、バス57を介してCPU51から受信する。また通信回路54は、AGV10から受信したデータ(通知)を、バス57を介してCPU51および/またはメモリ52に送信する。 The communication circuit 54 performs wired communication conforming to, for example, an Ethernet (registered trademark) standard. The communication circuit 54 is connected to the access point 2 (FIG. 1) by wire, and can communicate with the AGV 10 via the access point 2. The communication circuit 54 receives data to be transmitted to the AGV 10 from the CPU 51 via the bus 57. Further, the communication circuit 54 transmits the data (notification) received from the AGV 10 to the CPU 51 and / or the memory 52 via the bus 57.

地図DB55は、AGV10が走行する工場等の内部の地図のデータを格納する。当該地図は、地図40(図7F)と同じであってもよいし、異なっていてもよい。各AGV10の位置と1対1で対応関係を有する地図であれば、データの形式は問わない。たとえば地図DB55に格納される地図は、CADによって作成された地図であってもよい。 The map DB 55 stores map data of the inside of a factory or the like on which the AGV 10 runs. The map may be the same as or different from the map 40 (FIG. 7F). The data format does not matter as long as the map has a one-to-one correspondence with the position of each AGV10. For example, the map stored in the map DB 55 may be a map created by CAD.

位置DB53および地図DB55は、不揮発性の半導体メモリ上に構築されてもよいし、ハードディスクに代表される磁気記録媒体、または光ディスクに代表される光学式記録媒体上に構築されてもよい。 The position DB 53 and the map DB 55 may be built on a non-volatile semiconductor memory, a magnetic recording medium typified by a hard disk, or an optical recording medium typified by an optical disk.

画像処理回路56はモニタ58に表示される映像のデータを生成する回路である。画像処理回路56は、専ら、管理者が運行管理装置50を操作する際に動作する。本実施形態では特にこれ以上の詳細な説明は省略する。なお、モニタ59は運行管理装置50と一体化されていてもよい。また画像処理回路56の処理をCPU51が行ってもよい。 The image processing circuit 56 is a circuit that generates video data to be displayed on the monitor 58. The image processing circuit 56 operates exclusively when the administrator operates the operation management device 50. In this embodiment, further detailed description will be omitted. The monitor 59 may be integrated with the operation management device 50. Further, the CPU 51 may perform the processing of the image processing circuit 56.

(6)運行管理装置の動作
図10を参照しながら、運行管理装置50の動作の概要を説明する。図10は、運行管理装置50によって決定されたAGV10の移動経路の一例を模式的に示す図である。
(6) Operation of the Operation Management Device The outline of the operation of the operation management device 50 will be described with reference to FIG. FIG. 10 is a diagram schematically showing an example of the movement route of the AGV 10 determined by the operation management device 50.

AGV10および運行管理装置50の動作の概要は以下のとおりである。以下では、あるAGV10が現在、位置Mにおり、幾つかの位置を通過して、最終的な目的地である位置Mn+1(n:1以上の正の整数)まで走行する例を説明する。なお、位置DB53には位置Mの次に通過すべき位置M、位置Mの次に通過すべき位置M等の各位置を示す座標データが記録されている。The outline of the operation of the AGV 10 and the operation management device 50 is as follows. In the following, an example will be described in which a certain AGV 10 is currently in the position M 1 , passes through several positions, and travels to the final destination position M n + 1 (a positive integer greater than or equal to n: 1). .. In the position DB 53, coordinate data indicating each position such as the position M 2 to be passed next to the position M 1 and the position M 3 to be passed next to the position M 2 is recorded.

運行管理装置50のCPU51は、位置DB53を参照して位置Mの座標データを読み出し、位置Mに向かわせる走行指令を生成する。通信回路54は、アクセスポイント2を介して走行指令をAGV10に送信する。The CPU 51 of the operation management device 50 reads out the coordinate data of the position M 2 with reference to the position DB 53, and generates a travel command for the position M 2 . The communication circuit 54 transmits a travel command to the AGV 10 via the access point 2.

CPU51は、AGV10から、アクセスポイント2を介して、定期的に現在位置および姿勢を示すデータを受信する。こうして運行管理装置50は、各AGV10の位置をトラッキングすることができる。CPU51は、AGV10の現在位置が位置Mに一致したと判定すると、位置Mの座標データを読み出し、位置Mに向かわせる走行指令を生成してAGV10に送信する。つまり運行管理装置50は、AGV10がある位置に到達したと判定すると、次に通過すべき位置に向かわせる走行指令を送信する。これにより、AGV10は最終的な目的位置Mn+1に到達することができる。上述した、AGV10の通過位置および目的位置は「マーカ」と呼ばれることがある。The CPU 51 periodically receives data indicating the current position and posture from the AGV 10 via the access point 2. In this way, the operation management device 50 can track the position of each AGV 10. CPU51 determines that the current position of the AGV10 matches the position M 2, reads the coordinate data of the position M 3, and transmits the AGV10 generates a travel command to direct the position M 3. That is, when the operation management device 50 determines that the AGV 10 has reached a certain position, it transmits a travel command to move to the position to be passed next. As a result, the AGV 10 can reach the final target position M n + 1 . The above-mentioned passing position and target position of AGV10 may be referred to as "markers".

(7)地図作成システムの詳細
次に、本実施形態にかかる地図作成システム200のより具体的な例を説明する。
(7) Details of Map Creation System Next, a more specific example of the map creation system 200 according to the present embodiment will be described.

図11Aは、複数の固定センサ103が設置された移動空間Sの俯瞰図である。また図11Bは、固定センサ103および地図作成装置105を含む地図作成システム200の構成例を示している。地図作成装置105は、ハブ3を介してアクセスポイント2および運行管理装置50と接続されている。 FIG. 11A is a bird's-eye view of the moving space S in which a plurality of fixed sensors 103 are installed. Further, FIG. 11B shows a configuration example of the map creation system 200 including the fixed sensor 103 and the map creation device 105. The map creating device 105 is connected to the access point 2 and the operation management device 50 via the hub 3.

各固定センサ103は移動空間S内に固定的に設置されており、複数の異なる時刻に、各固定センサ103の視野に含まれる移動空間Sの一部をセンシングして、各時刻のセンサデータを無線で地図作成装置105宛てに出力する。 Each fixed sensor 103 is fixedly installed in the moving space S, and at a plurality of different times, a part of the moving space S included in the field of view of each fixed sensor 103 is sensed to obtain sensor data at each time. It is wirelessly output to the map creation device 105.

固定センサ103として、上述の「外界センサ」を用いることができる。固定センサ103の一例はレーザレンジファインダである。いま、固定センサ103が、時刻Tからスキャンを開始し、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点の位置のデータを出力したとする。出力されたデータは、レーザビームの反射点の集まりに相当する点群(Point Cloud)である。これらのデータの集合を、「時刻Tにおけるセンサデータ」と呼ぶ。時刻Tにおけるセンサデータの個数は最大で1081個である。反射光が戻ってこなかった場合には、センサデータの個数は1081個よりも少なくなる。 As the fixed sensor 103, the above-mentioned "outside sensor" can be used. An example of the fixed sensor 103 is a laser range finder. Now, suppose that the fixed sensor 103 starts scanning at time T and outputs data on the position of the reflection point in a direction determined by an angle of 1081 steps in total every 0.25 degrees. The output data is a point cloud (Point Cloud) corresponding to a collection of reflection points of the laser beam. The set of these data is called "sensor data at time T". The maximum number of sensor data at time T is 1081. If the reflected light does not come back, the number of sensor data will be less than 1081.

固定センサ103を移動空間S内に「固定的」に設置するとは、少なくともスキャン時において、各固定センサ103の位置および角度(姿勢)が変化しないことを意味する。位置および姿勢が変化しない限り、固定センサ103が床面に強固に固定されていなくてもよい。例えば、静止したAGV10に内蔵されたレーザレンジファインダ15を固定センサ103として利用してもよい。 Placing the fixed sensor 103 "fixedly" in the moving space S means that the position and angle (posture) of each fixed sensor 103 do not change, at least during scanning. The fixed sensor 103 does not have to be firmly fixed to the floor surface as long as the position and posture do not change. For example, the laser range finder 15 built in the stationary AGV 10 may be used as the fixed sensor 103.

アクセスポイント2は、各固定センサ103から出力された各時刻のセンサデータの無線信号を受信し、受信したセンサデータを、ハブ3を介して地図作成装置105に送信する。 The access point 2 receives the radio signal of the sensor data of each time output from each fixed sensor 103, and transmits the received sensor data to the map creating device 105 via the hub 3.

地図作成装置105は、各固定センサ103から出力された各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて移動空間Sの一部の地図(局所地図)である局所地図データを作成する。地図作成装置105は、局所地図を用いて移動空間Sの地図を更新する。地図作成装置105が、更新した移動空間Sの地図を運行管理装置50に送信すると、運行管理装置50は自身が管理する地図を、受信した当該地図で更新する。運行管理装置50は、例えば更新された地図を自身が管理する1または複数台のAGVに送信する。これにより各AGVは最新の地図を参照して自己位置を推定することができる。 The map creation device 105 is a local map which is a partial map (local map) of the moving space S based on the position of the fixed object which is commonly included in all the sensor data of each time output from each fixed sensor 103. Create data. The map creation device 105 updates the map of the moving space S using the local map. When the map creation device 105 transmits the updated map of the moving space S to the operation management device 50, the operation management device 50 updates the map managed by itself with the received map. The operation management device 50 transmits, for example, an updated map to one or a plurality of AGVs managed by the operation management device 50. This allows each AGV to estimate its own position with reference to the latest map.

なお、特に説明した場合を除いては、図11Bに示される構成のうち、図2の構成と同じ構成には同じ参照符号を付しその説明は省略する。 Unless otherwise specified, of the configurations shown in FIG. 11B, the same configurations as those in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted.

図12および図13は、固定センサ103の一例であるレーザレンジファインダの外観を示す斜視図および内部構成を示すハードウェアブロック図である。図13を参照する。固定センサ103は、CPU201と、メモリ203と、通信回路205と、駆動回路207と、レーザ装置209とを有している。 12 and 13 are a perspective view showing the appearance of the laser range finder, which is an example of the fixed sensor 103, and a hardware block view showing the internal configuration. See FIG. The fixed sensor 103 includes a CPU 201, a memory 203, a communication circuit 205, a drive circuit 207, and a laser device 209.

CPU201は、固定センサ103の動作を制御する半導体集積回路である。メモリ203は、取得したセンサデータを一時的に蓄積する記憶装置である。通信回路205は、Wi−Fi(登録商標)規格に準拠した無線通信により、センサデータを送信する。駆動回路207はCPU201からの制御信号にしたがってレーザ装置209に流す駆動電流を生成する。レーザ装置209は、供給された駆動電流に基づいて赤外線または可視光のレーザビーム15bを放射する。またレーザ装置209は不図示の光検出器を有しており、放射したレーザビーム15bの反射光を検出する。 The CPU 201 is a semiconductor integrated circuit that controls the operation of the fixed sensor 103. The memory 203 is a storage device that temporarily stores the acquired sensor data. The communication circuit 205 transmits sensor data by wireless communication conforming to the Wi-Fi (registered trademark) standard. The drive circuit 207 generates a drive current to be passed through the laser device 209 according to a control signal from the CPU 201. The laser device 209 emits an infrared or visible light laser beam 15b based on the supplied drive current. Further, the laser device 209 has a light detector (not shown), and detects the reflected light of the emitted laser beam 15b.

CPU201は、駆動回路207に電流を流すタイミング、および、電流値を指示する制御信号を生成し、当該制御信号によって駆動回路207を駆動させる。またCPU201は、放射したレーザビーム15bの位相と、レーザ装置209の光検出器によって取得された反射光の位相との差を利用して、反射点までの距離を算出する。距離の算出方法は周知であるから本明細書での説明は省略する。なお、レーザビーム15bの周波数は1つでなくてもよく複数であり得る。レーザビーム15bの反射光が到来した方向は、固定センサ103から見た、物体が存在する方位を表している。 The CPU 201 generates a control signal for instructing the timing of passing a current through the drive circuit 207 and the current value, and drives the drive circuit 207 by the control signal. Further, the CPU 201 calculates the distance to the reflection point by using the difference between the phase of the emitted laser beam 15b and the phase of the reflected light acquired by the photodetector of the laser device 209. Since the method of calculating the distance is well known, the description in this specification is omitted. The frequency of the laser beam 15b does not have to be one, but may be plural. The direction in which the reflected light of the laser beam 15b arrives represents the direction in which the object exists as seen from the fixed sensor 103.

なお、レーザレンジファインダ15(図6A、図6B等)の構成もまた、上述の固定センサ103と同等である。 The configuration of the laser range finder 15 (FIGS. 6A, 6B, etc.) is also the same as that of the fixed sensor 103 described above.

図14は、移動空間Sに存在する物体221および223と、物体221または223を視野に含む固定センサ103p〜103sとを示している。理解の便宜のため、各固定センサ103p〜103sの視野を各固定センサを中心とする扇形によって示している。扇形の半径は各固定センサの検出可能距離に相当するが、図示された扇形の半径の大きさは一例に過ぎない。 FIG. 14 shows objects 221 and 223 existing in the moving space S, and fixed sensors 103p to 103s including the objects 221 or 223 in the field of view. For convenience of understanding, the field of view of each fixed sensor 103p to 103s is indicated by a fan shape centered on each fixed sensor. The radius of the sector corresponds to the detectable distance of each fixed sensor, but the size of the radius of the sector shown is only an example.

図14の例では、固定センサ103pは物体221を検出し、固定センサ103q〜103sは物体223を検出する。例えば固定センサ103pは、物体221が存在する方位および物体221までの距離を検出することができる。固定センサ103q〜103sも同様である。 In the example of FIG. 14, the fixed sensor 103p detects the object 221 and the fixed sensor 103q-103s detects the object 223. For example, the fixed sensor 103p can detect the orientation in which the object 221 exists and the distance to the object 221. The same applies to the fixed sensors 103q to 103s.

図15は、ある期間に各固定センサ103p〜103sから出力されたセンサデータを含む局所地図41を示している。前もって得られていた全体地図には存在せず、センサデータに特異的に現われている点群を一点鎖線231および233で囲っている。一点鎖線231および233の楕円内の点群は、可動物体の候補である。 FIG. 15 shows a local map 41 including sensor data output from each fixed sensor 103p-103s during a period of time. Point clouds that do not exist in the previously obtained overall map and appear specifically in the sensor data are surrounded by alternate long and short dash lines 231 and 233. The point groups in the ellipse of the alternate long and short dash lines 231 and 233 are candidates for movable objects.

本実施形態では、一点鎖線231内のセンサデータは、固定センサ103pから出力された反射点の集合(点群)であり、物体221の位置を示している。一点鎖線233内のセンサデータは、固定センサ103q〜103sから出力された反射点の集合(点群)であり、物体223の位置を示している。 In the present embodiment, the sensor data in the alternate long and short dash line 231 is a set (point group) of reflection points output from the fixed sensor 103p, and indicates the position of the object 221. The sensor data in the alternate long and short dash line 233 is a set (point group) of reflection points output from the fixed sensor 103q to 103s, and indicates the position of the object 223.

いま、各固定センサ103p〜103sが1時間ごとに1回、24時間に亘ってセンシングを行ったとする。そして、初めの8時間では局所地図41が得られ、次の8時間では局所地図40(図7F)が得られ、残りの8時間では再び局所地図41が得られた例を考える。この例の場合、物体221および223は、各時刻のセンサデータの全てに共通して含まれないが、一部にのみ含まれるため「可動物体」である。 Now, it is assumed that each fixed sensor 103p to 103s performs sensing once every hour for 24 hours. Then, consider an example in which the local map 41 is obtained in the first 8 hours, the local map 40 (FIG. 7F) is obtained in the next 8 hours, and the local map 41 is obtained again in the remaining 8 hours. In the case of this example, the objects 221 and 223 are "movable objects" because they are not included in all of the sensor data at each time, but are included in only a part of them.

本実施形態では、固定センサ103p〜103sを含む複数の固定センサ103を用いて局所地図40および41が得られたとき、局所地図40を移動空間Sの全体地図に反映する。つまり、可動物体の位置を移動空間Sの地図に反映させず、固定物体の位置のみを移動空間Sの全体地図に反映させる。 In the present embodiment, when the local maps 40 and 41 are obtained by using a plurality of fixed sensors 103 including the fixed sensors 103p to 103s, the local map 40 is reflected in the entire map of the moving space S. That is, the position of the movable object is not reflected on the map of the moving space S, and only the position of the fixed object is reflected on the entire map of the moving space S.

従って、前もって得られていた全体地図が局所地図41を含む場合には、地図作成装置105は、局所地図41を、可動物体を含まない局所地図40に更新する。図16は、更新後の局所地図40を示している。局所地図40の一点鎖線241および243で囲んだ領域にはセンサデータが存在しておらず、局所地図41(図15)に含まれていた可動物体221および223は反映されていないことが理解される。 Therefore, when the previously obtained overall map includes the local map 41, the map creation device 105 updates the local map 41 to the local map 40 that does not include the moving object. FIG. 16 shows the updated local map 40. It is understood that there is no sensor data in the area surrounded by the alternate long and short dash lines 241 and 243 of the local map 40, and the movable objects 221 and 223 included in the local map 41 (FIG. 15) are not reflected. To.

一方、前もって得られていた全体地図が局所地図40を含む場合には、後に局所地図41が得られたとしても、地図作成装置105は局所地図40を更新せず維持する。 On the other hand, when the previously obtained overall map includes the local map 40, the map creation device 105 maintains the local map 40 without updating it even if the local map 41 is obtained later.

上述の具体例を一般化して説明する。図17は、地図作成装置105の処理の手順を示すフローチャートである。 The above-mentioned specific example will be generalized and described. FIG. 17 is a flowchart showing a processing procedure of the map creating device 105.

まず、1または複数の固定センサ103が時刻T(n:1,・・・,N;Nは2以上の整数)に移動空間Sの一部(部分空間)のセンシングを行い、各時刻におけるセンサデータを出力する。一連の時刻Tは周期的であってもよいし、ランダムであってもよい。複数の固定センサを設置した場合、各固定センサは時刻Tで同時にセンシングを行う必要はない。地図作成装置105が所定の期間内に各固定センサから受信したセンサデータを用いて処理できればよい。First, one or more fixed sensors 103 sense a part (subspace) of the moving space S at time Tn (n: 1, ..., N; N is an integer of 2 or more), and at each time. Output sensor data. The series of time T n may be periodic or random. Case of installing a plurality of fixed sensors, each of the fixed sensors need not simultaneously perform sensing at time T n. It suffices if the map creating device 105 can process using the sensor data received from each fixed sensor within a predetermined period.

ステップS10において、地図作成装置105は、固定センサから各時刻Tにおけるセンサデータを受け取る。信号処理回路109は受け取ったセンサデータを記憶装置107に記憶させる。In step S10, the map creation device 105 receives the sensor data at each time T n from the fixed sensor. The signal processing circuit 109 stores the received sensor data in the storage device 107.

ステップS11において、信号処理回路109は、時刻Tから時刻Tのセンサデータのうちの全ての時刻のセンサデータに現れる物体を固定物体であると判定し、一部時刻のセンサデータにのみ現れる物体を可動物体であると判定する。信号処理回路109は、例えば、時刻Tから時刻Tのセンサデータの論理積を演算して得たデータで示される物体を、固定物体であると判定することができる。この演算の根拠は、固定センサ103の位置および姿勢は変化しないため、得られるセンサデータ中、固定物体の位置は実質的に変化しないことに基づく。In step S11, the signal processing circuit 109, an object appearing in the sensor data for all time of the sensor data at time T N from the time T 1 is determined to be a stationary object, appears at the sensor data in some time only The object is determined to be a movable object. The signal processing circuit 109 can determine, for example, an object represented by the data obtained by calculating the logical product of the sensor data from the time T 1 to the time TN as a fixed object. The basis for this calculation is that the position and orientation of the fixed sensor 103 do not change, so that the position of the fixed object does not substantially change in the obtained sensor data.

一方、信号処理回路109は、上述の論理積の否定と、時刻Tから時刻Tの各センサデータとの論理積を演算して得たデータに現われる物体を、可動物体であると判定することができる。On the other hand, the signal processing circuit 109 determines that the object appearing in the data obtained by calculating the negative product of the above-mentioned logical product and the logical product of each sensor data from time T 1 to time TN is a movable object. be able to.

ステップS12において、信号処理回路109は、固定物体の位置に基づいて局所地図を作成する。上述の論理積の演算結果によって得られたデータが固定物体の位置を表しているため、信号処理回路109は、当該演算結果を利用して局所地図を作成することができる。なお作成した局所地図が既に全体地図の一部と一致している場合には地図の更新を行わず、一致していなければ、全体地図の該当する部分を、作成した局所地図に更新すればよい。 In step S12, the signal processing circuit 109 creates a local map based on the position of the fixed object. Since the data obtained by the calculation result of the above-mentioned logical product represents the position of the fixed object, the signal processing circuit 109 can create a local map using the calculation result. If the created local map already matches a part of the whole map, the map is not updated. If it does not match, the corresponding part of the whole map may be updated to the created local map. ..

上述のステップS11の処理では、可動物体の背後に存在する固定物体を可動物体として判定する可能性がある。固定センサのレーザビームが可動物体によって遮られていたが、可動物体が除去されると、その背後に存在していた固定物体にレーザビームが到達する。レーザビームの反射点の集合(点群)は当該固定物体の位置を反映するが、これまで得られた時刻Tから時刻Tのセンサデータの全ての時刻のセンサデータには存在していない。その結果、当該固定物体は、新たに置かれた移動物体であると誤認され得る。In the process of step S11 described above, there is a possibility that a fixed object existing behind the movable object is determined as a movable object. The laser beam of the fixed sensor was blocked by a moving object, but when the moving object is removed, the laser beam reaches the fixed object that was behind it. The set of reflection points (point cloud) of the laser beam reflects the position of the fixed object, but it does not exist in the sensor data of all the time T 1 to time TN obtained so far. .. As a result, the fixed object can be mistaken for a newly placed moving object.

誤認を回避するためには、以下の方法が考えられる。ある固定センサ103が時刻t1およびt2(t1<t2)にそれぞれセンサデータを出力し、2つのセンサデータ同士が一致しない場合を考える。 The following methods can be considered to avoid misidentification. Consider a case where a fixed sensor 103 outputs sensor data at time t1 and t2 (t1 <t2), respectively, and the two sensor data do not match each other.

第1の例:可動物体が、時刻t1では存在していたが、時刻t2では除去されていた場合には、2つのセンサデータ同士は一致しない。このときは、時刻t1では固定センサ103から相対的に近い位置に可動物体を表す点群が存在し、時刻t2では相対的に遠い位置に、新たに検出された点群が存在する。 First example: If the movable object was present at time t1 but was removed at time t2, the two sensor data do not match. At this time, at time t1, a point cloud representing a movable object exists at a position relatively close to the fixed sensor 103, and at time t2, a newly detected point cloud exists at a position relatively far from the fixed sensor 103.

第2の例:可動物体が、時刻t1では存在していなかったが、時刻t2では新たに置かれた場合にも2つのセンサデータ同士が一致しない。このときは、時刻t1では固定センサ103から相対的に遠い位置に点群が存在しているが、時刻t2では相対的に近い位置に、新たに検出された、可動物体を表す点群が現われる。 Second example: The movable object did not exist at time t1, but the two sensor data do not match even when it is newly placed at time t2. At this time, at time t1, a point cloud exists at a position relatively far from the fixed sensor 103, but at time t2, a newly detected point group representing a movable object appears at a position relatively close to it. ..

第1および第2の例から、ある固定センサ103が異なる時刻にセンシングした2つのセンサデータ同士が一致しない場合には、相対的に遠い位置の点群は、壁等の、現実的には固定物体である物体を表している可能性が高い。そこで、第1の例の場合には、時刻t2以後のセンサデータをさらに利用して、相対的に遠い位置の点群が引き続き同じ位置に存在しているか否かを判定し、同じ位置に存在している場合には当該点群が固定物体であると判定することができる。第2の例の場合には、時刻t1以前のセンサデータをさらに利用して、相対的に遠い位置の点群が以前から同じ位置に存在していたか否かを判定し、同じ位置に存在していた場合には当該点群が固定物体であると判定することができる。 From the first and second examples, when two sensor data sensed by a fixed sensor 103 at different times do not match, the point cloud at a relatively distant position is actually fixed, such as a wall. It is likely to represent an object that is an object. Therefore, in the case of the first example, the sensor data after the time t2 is further used to determine whether or not the point group at a relatively distant position continues to exist at the same position, and the point group exists at the same position. If so, it can be determined that the point group is a fixed object. In the case of the second example, the sensor data before the time t1 is further used to determine whether or not the point group at a relatively distant position has existed at the same position from before, and the point group exists at the same position. If so, it can be determined that the point group is a fixed object.

図18は、複数の物体が、異なる時刻に、かつ、異なる位置に現れた場合に固定センサ103から出力されたセンサデータの変遷を示している。なお、図18に示す例は、固定センサ103p〜103s(図14)を含む全ての固定センサから出力されたセンサデータに基づく例である。また、前もって移動空間Sの全体地図が用意されているとする。 FIG. 18 shows the transition of the sensor data output from the fixed sensor 103 when a plurality of objects appear at different times and at different positions. The example shown in FIG. 18 is an example based on sensor data output from all fixed sensors including the fixed sensor 103p to 103s (FIG. 14). Further, it is assumed that the entire map of the moving space S is prepared in advance.

センサデータ251は、時刻t=1からTに至るまでの全ての期間中存在する。よってセンサデータ251によって表される物体は「固定物体」である。The sensor data 251 exists during the entire period from time t = 1 to TN . Therefore, the object represented by the sensor data 251 is a "fixed object".

一方、センサデータ253は時刻t=TkおよびTk+1にのみ存在し、センサデータ255は時刻t=Tk+mにのみ存在する。よってセンサデータ253および255は「可動物体」である。 On the other hand, the sensor data 253 exists only at time t = Tk and Tk + 1, and the sensor data 255 exists only at time t = Tk + m. Therefore, the sensor data 253 and 255 are "movable objects".

地図作成装置105の信号処理回路109は、時刻Tから時刻Tのセンサデータの論理積を演算して、時刻t=TまたはTに示すセンサデータを得る。信号処理回路109は、得られた地図データを移動空間Sの全体地図の一部に反映する。The signal processing circuit 109 of the map creating device 105 calculates the logical product of the sensor data at the time TN from the time T 1 to obtain the sensor data indicated at the time t = T 1 or TN . The signal processing circuit 109 reflects the obtained map data in a part of the entire map of the moving space S.

次に、図19から図22を参照しながら、可動物体の位置を反映した局所地図を作成する処理の例を説明する。可動物体および固定物体の判定処理は上述の例による。 Next, an example of a process of creating a local map reflecting the position of a movable object will be described with reference to FIGS. 19 to 22. The determination process of the movable object and the fixed object is based on the above example.

図19は、固定物体と可動物体とを識別可能に示した局所地図42の例を示す。図19の例では、壁等の固定物体の位置は、「・」で示すドット261の集合で表される。一方、可動物体の位置は、「X」で示すマーク263の集合で表される(一点鎖線の円内参照)。 FIG. 19 shows an example of a local map 42 showing a fixed object and a movable object in a distinguishable manner. In the example of FIG. 19, the position of a fixed object such as a wall is represented by a set of dots 261 indicated by “•”. On the other hand, the position of the movable object is represented by a set of marks 263 indicated by "X" (see the circle of the alternate long and short dash line).

固定物体のキャラクターとは異なるキャラクターで可動物体の位置を示すことにより、運行管理装置50または人は可動物体の位置を容易に認識して走行経路を決定することができる。または、管理者は、例えば荷物などの可動物体が置かれやすい位置を容易に認識できるため、AGV10の走行を妨害しないよう、荷物が一時的に置かれる位置を調整できる。これにより、人やAGV10の作業環境を改善しやすくなる。 By indicating the position of the movable object with a character different from the character of the fixed object, the operation management device 50 or a person can easily recognize the position of the movable object and determine the traveling route. Alternatively, since the administrator can easily recognize the position where a movable object such as a luggage is likely to be placed, the position where the luggage is temporarily placed can be adjusted so as not to interfere with the running of the AGV10. This makes it easier to improve the working environment of people and AGV10.

なお、固定物体のキャラクターと移動物体のキャラクターとを変更する以外にも、固定物体および移動物体をそれぞれ示すアイコン、文字を相違させることによって両者を識別可能にしてもよい。 In addition to changing the character of the fixed object and the character of the moving object, the two may be distinguished by different icons and characters indicating the fixed object and the moving object, respectively.

さらに、一定以上の存在期間を有していた可動物体の位置を局所地図上に表示し、一定期間に満たない存在期間を有していた可動物体の位置は局所地図上に表示しなくてもよい。いま、時刻Tにおける1回のスキャンで得られた点群を1個のスキャンデータまたは1個のセンサデータと呼ぶ。時刻Tから時刻Tの各時刻において得られたN個のスキャンデータのうちの、K個(K:1以上N未満の整数)に可動物体の点群が含まれているとする。以下では、値Kを、可動物体のセンサデータの「存在頻度」と呼ぶ。存在頻度は、N個のスキャンデータに対する、可動物体の点群を含むスキャンデータの割合であると言うことができる。Further, the position of the movable object having a certain period of existence or more is displayed on the local map, and the position of the movable object having an existence period of less than a certain period is not displayed on the local map. Good. Now, once we obtained point group in the scan at time T k is referred to as one scan data or one sensor data. It is assumed that K (an integer of K: 1 or more and less than N) of the N scan data obtained at each time from time T 1 to time TN includes a point cloud of a movable object. Hereinafter, the value K is referred to as the "presence frequency" of the sensor data of the moving object. It can be said that the existence frequency is the ratio of the scan data including the point group of the moving object to the N scan data.

信号処理回路109は、存在頻度Kの値が閾値以上である場合に、可動物体の位置を局所地図に識別可能に表示する。閾値は固定値で表現されてもよいし、例えばスキャンの総回数Nに応じた割合によって変動する値で表現されてもよい。後者の例は、閾値=N/3である。 The signal processing circuit 109 identifiablely displays the position of the movable object on the local map when the value of the existence frequency K is equal to or greater than the threshold value. The threshold value may be represented by a fixed value, or may be represented by, for example, a value that varies depending on the ratio according to the total number of scans N. In the latter example, the threshold = N / 3.

いま、図15に示す一点鎖線231および233の点群が得られたとする。それぞれの点群が可動物体の位置を表している。このうち一点鎖線231内の点群に相当する固定物体の存在頻度は閾値以上であり、一点鎖線233内の点群に相当する固定物体の存在頻度は閾値未満であるとする。このときの局所地図を図20に示す。局所地図43は、存在頻度が閾値以上であった可動物体の位置を示す、一点鎖線231内の点群を含むが、存在頻度が閾値未満であった可動物体の位置を示す、一点鎖線233内の点群を含まない。 Now, it is assumed that the point groups of the alternate long and short dash lines 231 and 233 shown in FIG. 15 are obtained. Each point group represents the position of a movable object. It is assumed that the existence frequency of the fixed object corresponding to the point group in the alternate long and short dash line 231 is equal to or higher than the threshold value, and the existence frequency of the fixed object corresponding to the point group in the alternate long and short dash line 233 is less than the threshold value. The local map at this time is shown in FIG. The local map 43 includes a point group within the alternate long and short dash line 231 indicating the position of the movable object whose existence frequency is equal to or higher than the threshold value, but indicates the position of the movable object whose existence frequency is less than the threshold value within the alternate long and short dash line 233. Does not include the point group of.

さらに、存在頻度Kの考え方を移動空間S全体に拡張して、局所地図または局所地図に付随する地図を作成することもできる。移動空間Sに存在する固定物体の点群の存在頻度Kの値はK=Nである。可動物体の点群の存在頻度Kの値は、1以上、N未満の整数値である。さらに、物体が存在しない空間、つまりAGV10が走行可能な通路等の自由空間に関する点群の存在頻度Kの値はK=0である。 Further, the concept of the existence frequency K can be extended to the entire moving space S to create a local map or a map attached to the local map. The value of the existence frequency K of the point group of the fixed object existing in the moving space S is K = N. The value of the existence frequency K of the point group of the movable object is an integer value of 1 or more and less than N. Further, the value of the existence frequency K of the point cloud relating to the space where no object exists, that is, the free space such as the passage where the AGV10 can travel is K = 0.

図21は、存在頻度Kの値が大きいほど濃く表示された格子地図44を示している。記載の便宜上、色の相違をパターンの相違によって表しているが、例えばグレースケールで濃度を変えることが可能である。信号処理回路109は、移動空間Sを格子状に分割し、マス目ごとに代表となるKを決定して、Kの値に応じた濃度でマス目を表すことにより、格子地図44を作成する。本実施形態による格子地図44では、AGV10が走行可能な通路(自由空間)は白色で表現され、走行不可能な固定物体が存在する位置は、白色よりも濃い色で表示される。可動物体が長く存在する位置のマス目ほど濃い色で表示される。格子地図44によれば、白色ではないマス目であっても、濃度が薄ければ可動物体の影響が小さい経路であると判断できる。グレースケールに代えて、存在頻度Kの値に応じた色彩で表してもよい。 FIG. 21 shows a grid map 44 that is displayed darker as the value of the existence frequency K is larger. For convenience of description, the difference in color is represented by the difference in pattern, but it is possible to change the density on a gray scale, for example. The signal processing circuit 109 creates a grid map 44 by dividing the moving space S in a grid pattern, determining a representative K for each square, and representing the squares with a density corresponding to the value of K. .. In the grid map 44 according to the present embodiment, the passage (free space) in which the AGV 10 can travel is expressed in white, and the position where the non-travelable fixed object exists is displayed in a darker color than white. The squares where the movable object exists for a long time are displayed in a darker color. According to the grid map 44, even if the grid is not white, it can be determined that the path is less affected by the moving object if the density is low. Instead of the gray scale, it may be represented by a color corresponding to the value of the existence frequency K.

格子地図44は、局所地図とは別に作成されてもよいし、局所地図に付随する属性情報として作成されてもよい。属性情報として局所地図に関連付けられた場合、AGV10は、存在頻度Kの値を、各マス目に相当する位置の「重み」として利用することもできる。例えば、存在頻度Kの値が大きい(重みが大きい)マス目の領域ほど、固定物体または固定物体に準ずる物体が存在していると捉えることができる。一方、存在頻度Kの値が小さい(重みが小さい)マス目の領域ほど、走行可能な通路である、または、可動物体が存在しているが存在頻度が小さいため走行への影響が小さい通路である、と捉えることができる。AGV10は、重みが小さい経路を選択し得る。なお、例えば存在頻度Kの逆数を利用して、走行に影響が小さいマス目の領域ほど重みを大きくしてもよい。 The grid map 44 may be created separately from the local map, or may be created as attribute information attached to the local map. When associated with the local map as attribute information, the AGV10 can also use the value of the existence frequency K as the "weight" of the position corresponding to each square. For example, it can be considered that a fixed object or an object similar to a fixed object exists in the area of the square where the value of the existence frequency K is large (the weight is large). On the other hand, the area of the square where the value of the existence frequency K is small (the weight is small) is a passage that can be traveled, or a passage where a movable object exists but the existence frequency is small, so that the influence on traveling is small. It can be regarded as being. The AGV10 may select a route with a small weight. In addition, for example, by using the reciprocal of the existence frequency K, the weight may be increased as the area of the square having a smaller influence on running.

以上の処理によれば、可動物体の影響を受けない地図、または、可動物体の影響の大きさを示す地図を作成し、または維持することができる。 According to the above processing, it is possible to create or maintain a map that is not affected by the moving object or a map that shows the magnitude of the influence of the moving object.

図22は、固定物体および可動物体を表示する地図を作成するための、地図作成装置105の処理の手順を示すフローチャートである。処理の開始からステップS11までは図17の処理の手順と同じであるため、再度の説明は省略する。 FIG. 22 is a flowchart showing a processing procedure of the map creation device 105 for creating a map displaying a fixed object and a movable object. Since the process from the start of the process to step S11 is the same as the procedure of the process of FIG. 17, the description thereof will be omitted again.

ステップS13において、信号処理回路109は、ステップS11の判定結果に応じて、固定物体および可動物体をそれぞれ識別可能に表示した局所地図を作成する。固定物体であるか可動物体であるかの識別は、キャラクター、アイコン、文字、存在頻度、存在頻度に応じた濃度等を相違させることによって実現され得る。 In step S13, the signal processing circuit 109 creates a local map in which a fixed object and a movable object are identifiablely displayed according to the determination result in step S11. Identification of a fixed object or a movable object can be realized by differentiating a character, an icon, a character, an existence frequency, a concentration according to the existence frequency, and the like.

上述の説明では、固定センサ103の設置位置には特に言及していない。しかしながら、可動物体が相対的に多い位置に設置すれば、可動物体を反映させた局所地図をより迅速に更新することが可能になる。 In the above description, the installation position of the fixed sensor 103 is not particularly mentioned. However, if it is installed at a position where there are relatively many movable objects, the local map reflecting the movable objects can be updated more quickly.

可動物体が相対的に多い領域であるか少ない領域であるかは、AGV10が実際に走行してセンサデータと地図データとのマッチングを行ったときの一致度の程度によって知ることができる。上述のように、AGV10の位置推定装置14eは、局所的地図データが地図データMに一致した程度を表す「信頼度」のデータを生成する。AGV10を実際に走行させたとき、信頼度が低い位置または領域ほど、可動物体が多いと推定し得る。 Whether the region has a relatively large number of movable objects or a region with a relatively small number of movable objects can be known from the degree of matching when the AGV 10 actually travels and matches the sensor data and the map data. As described above, the position estimation device 14e of the AGV10 generates "reliability" data indicating the degree to which the local map data matches the map data M. When the AGV 10 is actually run, it can be estimated that the lower the reliability of the position or region, the more movable objects there are.

移動体管理システム100の導入時に、実際に利用される環境下でAGV10を走行させ、AGV10の記憶装置に信頼度のデータのログを記憶させておく。後にログを解析し、信頼度が所定の閾値以下であった位置または領域を含む視野を有するよう、1または複数の固定センサ103を設置すればよい。 When the mobile body management system 100 is introduced, the AGV 10 is run in an environment where it is actually used, and a log of reliability data is stored in the storage device of the AGV 10. Later, the logs may be analyzed and one or more fixed sensors 103 may be installed to have a field of view that includes a position or region whose reliability is below a predetermined threshold.

上述の実施形態では、AGV10および運行管理装置50とは別個に地図作成装置105を設けたが、AGV10の内部、または運行管理装置50の内部のマイコン、CPU等が、地図作成装置105の動作を実行してもよい。 In the above-described embodiment, the map creation device 105 is provided separately from the AGV 10 and the operation management device 50, but the microcomputer, CPU, etc. inside the AGV 10 or the operation management device 50 operate the map creation device 105. You may do it.

上述の実施形態の説明では、一例として二次元空間(床面)を走行するAGVを挙げた。しかしながら本開示は三次元空間を移動する移動体、たとえば飛行体(ドローン)、にも適用され得る。ドローンが飛行しながら三次元空間地図を作成する場合には、二次元空間を三次元空間に拡張することができる。 In the description of the above-described embodiment, an AGV traveling in a two-dimensional space (floor surface) is given as an example. However, the present disclosure may also apply to moving objects moving in three-dimensional space, such as flying objects (drones). When a drone creates a three-dimensional space map while flying, the two-dimensional space can be extended to the three-dimensional space.

本開示の移動体および移動体管理システムは、工場、倉庫、建設現場、物流、病院などで荷物、部品、完成品などの物の移動および搬送に好適に利用され得る。 The mobile body and mobile body management system of the present disclosure can be suitably used for moving and transporting items such as luggage, parts, and finished products in factories, warehouses, construction sites, physical distribution, hospitals, and the like.

1・・・ユーザ、2a、2b・・・アクセスポイント、10・・・AGV(移動体)、11a、11b・・・駆動輪(車輪)、11c、11d、11e、11f・・・キャスター、12・・・フレーム、13・・・搬送テーブル、14・・・走行制御装置、14a・・・マイコン、14b・・・メモリ、14c・・・記憶装置、14d・・・通信回路、14e・・・測位装置、16a、16b・・・モータ、15・・・レーザレンジファインダ、17a、17b・・・モータ駆動回路、20・・・端末装置(タブレットコンピュータなどのモバイルコンピュータ)、50・・・運行管理装置、51・・・CPU、52・・・メモリ、53・・・位置データベース(位置DB)、54・・・通信回路、55・・・地図データベース(地図DB)、56・・・画像処理回路、100・・・移動体管理システム、101、200・・・地図作成システム、103・・・固定センサ、105・・・地図作成装置、107・・・記憶装置、109・・・信号処理回路、111・・・インタフェース装置、M・・・移動空間の全体地図 1 ... User, 2a, 2b ... Access point, 10 ... AGV (moving body), 11a, 11b ... Drive wheels (wheels), 11c, 11d, 11e, 11f ... Caster, 12 ... frame, 13 ... transfer table, 14 ... travel control device, 14a ... microcomputer, 14b ... memory, 14c ... storage device, 14d ... communication circuit, 14e ... Positioning device, 16a, 16b ... motor, 15 ... laser range finder, 17a, 17b ... motor drive circuit, 20 ... terminal device (mobile computer such as tablet computer), 50 ... operation management Device, 51 ... CPU, 52 ... Memory, 53 ... Location database (location DB), 54 ... Communication circuit, 55 ... Map database (map DB), 56 ... Image processing circuit , 100 ... mobile management system, 101, 200 ... map creation system, 103 ... fixed sensor, 105 ... map creation device, 107 ... storage device, 109 ... signal processing circuit, 111 ... Interface device, M ... Overall map of moving space

Claims (9)

移動体が自己位置を推定するために参照する地図を作成する地図作成システムであって、
前記移動体が移動する空間に固定的に設置され、複数の異なる時刻に前記空間の一部をセンシングして、各時刻のセンサデータを出力する固定センサと、
前記各時刻のセンサデータを受け取って、少なくとも前記空間の一部の地図を作成する地図作成装置と
を備え、
前記各時刻のセンサデータは、各時刻における、前記空間の一部に存在する物体の位置を示しており、
前記地図作成装置は、
前記各時刻のセンサデータを記憶する記憶装置と、
前記各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて前記空間の一部の地図である局所地図データを作成する信号処理回路と
を備える地図作成システム。
A mapping system that creates a map that a moving object refers to to estimate its own position.
A fixed sensor that is fixedly installed in the space where the moving body moves, senses a part of the space at a plurality of different times, and outputs sensor data at each time.
It is equipped with a mapping device that receives sensor data at each time and creates a map of at least a part of the space.
The sensor data at each time indicates the position of an object existing in a part of the space at each time.
The map-making device
A storage device that stores the sensor data at each time,
A map creation system including a signal processing circuit that creates local map data that is a map of a part of the space based on the position of a fixed object that is commonly included in all the sensor data at each time.
前記記憶装置は、前記空間の地図データを予め記憶しており、
前記信号処理回路は、作成した前記局所地図データを用いて、前記記憶装置に記憶された前記地図データを更新する、請求項1に記載の地図作成システム。
The storage device stores the map data of the space in advance.
The map creation system according to claim 1, wherein the signal processing circuit uses the created local map data to update the map data stored in the storage device.
前記信号処理回路は、前記各時刻のセンサデータの一部に含まれる可動物体の位置を、前記空間の一部の地図に識別可能に示す、請求項1または2に記載の地図作成システム。 The map creation system according to claim 1 or 2, wherein the signal processing circuit identifiablely indicates the position of a movable object included in a part of the sensor data at each time on a map of a part of the space. 前記固定センサは、時刻T(n:1,・・・,N;Nは2以上の整数)に前記空間の一部をセンシングし、
時刻Tから時刻TのN個のセンサデータのうちの、K個(K:1以上N未満の整数)のセンサデータに前記可動物体が含まれているとき、
前記信号処理回路は、Kの値が閾値以上である場合に、前記可動物体の位置を前記空間の一部の地図に識別可能に示す、請求項3に記載の地図作成システム。
The fixed sensor senses a part of the space at time Tn (n: 1, ..., N; N is an integer of 2 or more).
When the movable object is included in K sensor data (integer of K: 1 or more and less than N) out of N sensor data from time T 1 to time TN .
The map creation system according to claim 3, wherein the signal processing circuit identifiablely indicates the position of the movable object on a map of a part of the space when the value of K is equal to or greater than a threshold value.
前記固定センサは、時刻T(n:1,・・・,N;Nは2以上の整数)に前記空間の一部をセンシングし、
時刻Tから時刻TのN個のセンサデータのうちの、K個(K:1以上N未満の整数)のセンサデータに前記可動物体が含まれているとき、
前記信号処理回路は、前記可動物体の位置をKの値に応じた濃度で前記空間の一部の地図に示す、請求項3または4に記載の地図作成システム。
The fixed sensor senses a part of the space at time Tn (n: 1, ..., N; N is an integer of 2 or more).
When the movable object is included in K sensor data (integer of K: 1 or more and less than N) out of N sensor data from time T 1 to time TN .
The mapping system according to claim 3 or 4, wherein the signal processing circuit shows the position of the movable object on a map of a part of the space at a concentration corresponding to a value of K.
前記固定センサは、時刻T(n:1,・・・,N;Nは2以上の整数)に前記空間の一部をセンシングし、
時刻Tから時刻TのN個のセンサデータのうちの、K個(K:1以上N未満の整数)のセンサデータに前記可動物体が含まれているとき、
前記信号処理回路はKの値に応じた重みを決定し、前記可動物体の位置を前記空間の一部の地図に含め、前記可動物体の位置に前記重みを関連付ける、請求項3から5のいずれかに記載の地図作成システム。
The fixed sensor senses a part of the space at time Tn (n: 1, ..., N; N is an integer of 2 or more).
When the movable object is included in K sensor data (integer of K: 1 or more and less than N) out of N sensor data from time T 1 to time TN .
Any of claims 3 to 5, wherein the signal processing circuit determines a weight according to a value of K, includes the position of the movable object in a map of a part of the space, and associates the weight with the position of the movable object. The map creation system described in Crab.
前記空間の地図を利用して移動体が自己位置を推定する場合において、
前記移動体は、
モータと、
前記モータを制御して前記移動体を移動させる駆動装置と、
前記空間の地図データを記憶するメモリと、
周囲の空間をセンシングしてセンサデータを出力する内蔵センサと、
前記内蔵センサが出力したセンサデータと前記メモリに記憶された前記空間の地図データとを照合して自己位置を推定し、照合の一致度を示す信頼性データを出力する測位装置と
を有しており、
前記固定センサは、前記信頼性データに基づいて、前記照合の一致度が閾値未満の位置に設置される、請求項2から6のいずれかに記載の地図作成システム。
When the moving body estimates its own position using the map of the space,
The moving body is
With the motor
A drive device that controls the motor to move the moving body,
A memory for storing map data of the space and
A built-in sensor that senses the surrounding space and outputs sensor data,
It has a positioning device that collates the sensor data output by the built-in sensor with the map data of the space stored in the memory, estimates its own position, and outputs reliability data indicating the degree of matching of the collation. Ori,
The mapping system according to any one of claims 2 to 6, wherein the fixed sensor is installed at a position where the degree of matching of the collation is less than a threshold value based on the reliability data.
前記固定センサは、静止した移動体に内蔵されたレーザレンジファインダである、請求項1から7のいずれかに記載の地図作成システム。 The mapping system according to any one of claims 1 to 7, wherein the fixed sensor is a laser range finder built in a stationary moving body. 移動体が自己位置を推定するために参照する地図を作成する地図作成装置であって、
前記移動体が移動する空間に固定的に設置され、複数の異なる時刻に前記空間の一部をセンシングして、各時刻の前記空間の一部に存在する物体の位置を示すセンサデータを出力する固定センサから、前記センサデータを受け取るインタフェース装置と、
前記各時刻のセンサデータを記憶する記憶装置と、
前記各時刻のセンサデータの全てに共通して含まれる固定物体の位置に基づいて前記空間の一部の地図である局所地図データを作成する信号処理回路と
を備えた地図作成装置。
A mapping device that creates a map that a moving object refers to to estimate its own position.
It is fixedly installed in the space where the moving body moves, senses a part of the space at a plurality of different times, and outputs sensor data indicating the position of an object existing in the part of the space at each time. An interface device that receives the sensor data from a fixed sensor,
A storage device that stores the sensor data at each time,
A map creation device including a signal processing circuit that creates local map data that is a map of a part of the space based on the position of a fixed object that is commonly included in all the sensor data at each time.
JP2019541997A 2017-09-13 2018-08-31 Map making system and map making device Pending JPWO2019054209A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017175646 2017-09-13
JP2017175646 2017-09-13
PCT/JP2018/032448 WO2019054209A1 (en) 2017-09-13 2018-08-31 Map creation system and map creation device

Publications (1)

Publication Number Publication Date
JPWO2019054209A1 true JPWO2019054209A1 (en) 2020-10-29

Family

ID=65723937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019541997A Pending JPWO2019054209A1 (en) 2017-09-13 2018-08-31 Map making system and map making device

Country Status (2)

Country Link
JP (1) JPWO2019054209A1 (en)
WO (1) WO2019054209A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202510A1 (en) * 2019-04-03 2020-10-08 三菱電機株式会社 Map data distribution device for mobile body and mobile body system
WO2020213645A1 (en) * 2019-04-17 2020-10-22 日本電産株式会社 Map creation system, signal processing circuit, moving body, and map creation method
JP7092741B2 (en) * 2019-12-25 2022-06-28 財団法人車輌研究測試中心 Self-position estimation method
JP7287353B2 (en) * 2020-06-11 2023-06-06 トヨタ自動車株式会社 Position estimation device and position estimation computer program
US12455572B2 (en) 2020-06-16 2025-10-28 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
JP2022111524A (en) * 2021-01-20 2022-08-01 株式会社豊田自動織機 Self-localization device and method
WO2024076020A1 (en) * 2022-10-07 2024-04-11 삼성전자 주식회사 Method and server for generating space map
US20250189988A1 (en) * 2023-12-08 2025-06-12 The Regents Of The University Of Michigan Robust Control Strategy For Autonomous Robot Mobility With Offboard Positioning System
JP2025178113A (en) * 2024-05-24 2025-12-05 株式会社ハイパーデジタルツイン Autonomous driving support system for mobile vehicles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003300186A (en) * 2002-04-03 2003-10-21 Mitsubishi Heavy Ind Ltd Mobile robot system
JP2010277548A (en) * 2009-06-01 2010-12-09 Hitachi Ltd Robot management system, robot management terminal, robot management method and program
US20140207280A1 (en) * 2013-01-18 2014-07-24 Irobot Corporation Environmental management systems including mobile robots and methods using same
JP2017045447A (en) * 2015-08-28 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Map generation method, own position estimation method, robot system and robot
JP2017097000A (en) * 2015-11-18 2017-06-01 株式会社明電舎 Local map creation device and local map creation method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003300186A (en) * 2002-04-03 2003-10-21 Mitsubishi Heavy Ind Ltd Mobile robot system
JP2010277548A (en) * 2009-06-01 2010-12-09 Hitachi Ltd Robot management system, robot management terminal, robot management method and program
US20140207280A1 (en) * 2013-01-18 2014-07-24 Irobot Corporation Environmental management systems including mobile robots and methods using same
JP2017045447A (en) * 2015-08-28 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Map generation method, own position estimation method, robot system and robot
JP2017097000A (en) * 2015-11-18 2017-06-01 株式会社明電舎 Local map creation device and local map creation method

Also Published As

Publication number Publication date
WO2019054209A1 (en) 2019-03-21

Similar Documents

Publication Publication Date Title
JP7081881B2 (en) Mobiles and mobile systems
US20190294181A1 (en) Vehicle, management device, and vehicle management system
JP6825712B2 (en) Mobiles, position estimators, and computer programs
JP6816830B2 (en) A position estimation system and a mobile body equipped with the position estimation system.
JPWO2019054209A1 (en) Map making system and map making device
JP7168211B2 (en) Mobile object that avoids obstacles and its computer program
US11537140B2 (en) Mobile body, location estimation device, and computer program
JP7136426B2 (en) Management device and mobile system
JPWO2019026761A1 (en) Mobile and computer programs
JPWO2019187816A1 (en) Mobiles and mobile systems
JP2020166702A (en) Mobile body system, map creation system, route creation program and map creation program
JP2019175137A (en) Mobile body and mobile body system
JP2019053391A (en) Mobile body
WO2019194079A1 (en) Position estimation system, moving body comprising said position estimation system, and computer program
JP2019148871A (en) Movable body and movable body system
JP2019079171A (en) Movable body
JP7243014B2 (en) moving body
WO2020213645A1 (en) Map creation system, signal processing circuit, moving body, and map creation method
JP2019179497A (en) Moving body and moving body system
JP2021056764A (en) Movable body
JPWO2019069921A1 (en) Mobile
JP2019067001A (en) Moving body
JPWO2019059299A1 (en) Operation management device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210730

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210730

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210806

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210806

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230214