[go: up one dir, main page]

JP7641551B1 - Map creation system and automated driving system - Google Patents

Map creation system and automated driving system Download PDF

Info

Publication number
JP7641551B1
JP7641551B1 JP2024048728A JP2024048728A JP7641551B1 JP 7641551 B1 JP7641551 B1 JP 7641551B1 JP 2024048728 A JP2024048728 A JP 2024048728A JP 2024048728 A JP2024048728 A JP 2024048728A JP 7641551 B1 JP7641551 B1 JP 7641551B1
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
dimensional point
wide
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024048728A
Other languages
Japanese (ja)
Other versions
JP2025148120A (en
Inventor
昌寛 品田
洋士 日高
亮太 土岐
尚人 岡
仁紀 木内
俊大 諸橋
佳雅 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haloworld
Original Assignee
Haloworld
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Haloworld filed Critical Haloworld
Priority to JP2024048728A priority Critical patent/JP7641551B1/en
Application granted granted Critical
Publication of JP7641551B1 publication Critical patent/JP7641551B1/en
Publication of JP2025148120A publication Critical patent/JP2025148120A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Instructional Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】様々な高さの広域マップを容易に作成することができるマップ作成システムを提供する。【解決手段】マップ作成システム10は、周囲を計測して三次元点群データD1を取得する第1三次元点群データ取得部11と、第1三次元点群データ取得部11によって取得された三次元点群データD1のうち、高さ方向における所定の範囲Hr内の三次元点群データD1aを水平方向の平面に投影して二次元の広域マップM1を作成する広域マップ作成部12と、を備える。【選択図】図1[Problem] To provide a map creation system that can easily create wide-area maps of various heights. [Solution] The map creation system 10 includes a first three-dimensional point cloud data acquisition unit 11 that measures the surroundings and acquires three-dimensional point cloud data D1, and a wide-area map creation unit 12 that projects three-dimensional point cloud data D1a within a predetermined range Hr in the height direction out of the three-dimensional point cloud data D1 acquired by the first three-dimensional point cloud data acquisition unit 11 onto a horizontal plane to create a two-dimensional wide-area map M1. [Selected Figure] Figure 1

Description

特許法第30条第2項適用 展示会名: CEATEC 2023 開催場所: 幕張メッセ (千葉県千葉市美浜区中瀬2-1) 公開日 : 令和5年10月17日~10月20日Applicable under Article 30, Paragraph 2 of the Patent Act Exhibition name: CEATEC 2023 Venue: Makuhari Messe (2-1 Nakase, Mihama-ku, Chiba City, Chiba Prefecture) Opening date: October 17th to October 20th, 2023

本発明は、マップ作成システム及び自動走行システムに関する。 The present invention relates to a map creation system and an automated driving system.

特許文献1には、車輪を有する移動体が自律走行する移動体制御装置の発明が開示されている。 Patent document 1 discloses an invention for a mobile object control device that enables a mobile object with wheels to travel autonomously.

特許文献1に記載された移動体制御装置では、移動体が自律走行する前に、走行エリア内を移動体を走行させて環境マップ(広域マップ)をSLAM(Simultaneous Localization and Mapping)技術に基づいて作成している。そして、移動体は、環境マップと移動体に搭載された二次元LiDAR(Light Detection And Ranging)によって認識した周囲の状況(二次元点群データ)とに基づいて自律走行する。 In the mobile body control device described in Patent Document 1, before the mobile body starts autonomous driving, an environmental map (wide area map) is created based on SLAM (Simultaneous Localization and Mapping) technology by driving the mobile body within a driving area. Then, the mobile body drives autonomously based on the environmental map and the surrounding situation (two-dimensional point cloud data) recognized by a two-dimensional LiDAR (Light Detection And Ranging) mounted on the mobile body.

特開2022-13243号公報JP 2022-13243 A

二次元LiDARは、周囲の状況を二次元(平面)で認識する。特許文献1に記載された発明は、環境マップと二次元LiDARによって認識した周囲の状況とを比較するものであるため、二次元LiDARの測定位置に合わせた環境マップを予め用意する必要がある。 Two-dimensional LiDAR recognizes the surrounding situation in two dimensions (plane). The invention described in Patent Document 1 compares an environmental map with the surrounding situation recognized by the two-dimensional LiDAR, so it is necessary to prepare an environmental map in advance that matches the measurement position of the two-dimensional LiDAR.

ところで、特許文献1に記載されるような発明において、同じ空間において複数の移動体を走行させたいという要望がある。この場合に、移動体に搭載された二次元LiDARの設置位置(高さ)が移動体によって異なっていると、それぞれの移動体に搭載された二次元LiDARの設置位置(高さ)に合わせた環境マップ(広域マップ)が必要となる。この場合には、各移動体が自律走行する前に、それぞれの設置位置(高さ)に応じた環境マップ(広域マップ)を作成する必要があるため、過度の労力と時間を要する。 However, in the invention described in Patent Document 1, there is a demand for multiple moving bodies to travel in the same space. In this case, if the installation position (height) of the two-dimensional LiDAR mounted on the moving bodies differs depending on the moving body, an environmental map (wide area map) that matches the installation position (height) of the two-dimensional LiDAR mounted on each moving body is required. In this case, it is necessary to create an environmental map (wide area map) according to each installation position (height) before each moving body can travel autonomously, which requires excessive effort and time.

本発明は、様々な高さの広域マップを容易に作成することができるマップ作成システムを提供することを目的とする。 The present invention aims to provide a map creation system that can easily create wide-area maps at various heights.

本発明は、周囲を計測して三次元点群データを取得する第1三次元点群データ取得部と、第1三次元点群データ取得部によって取得された三次元点群データのうち、水平方向の任意の一平面に高さ方向における所定の範囲内の三次元点群データを高さ方向に投影して二次元の広域マップを作成する広域マップ作成部と、を備える。
The present invention comprises a first three-dimensional point cloud data acquisition unit that measures the surroundings and acquires three-dimensional point cloud data, and a wide-area map creation unit that projects, in the height direction , three-dimensional point cloud data within a predetermined range in the height direction from the three-dimensional point cloud data acquired by the first three-dimensional point cloud data acquisition unit onto any horizontal plane , to create a two-dimensional wide-area map.

本発明によれば、様々な高さの広域マップを容易に作成することができる。 The present invention makes it easy to create wide-area maps at various heights.

図1は、本発明の実施形態に係るマップ作成システム及び自動走行システムのブロック図である。FIG. 1 is a block diagram of a map creation system and an automatic driving system according to an embodiment of the present invention. 図2は、本発明の実施形態に係るマップ作成システムに係る台車の側面図である。FIG. 2 is a side view of a cart in the map creation system according to the embodiment of the present invention. 図3は、本発明の実施形態に係るマップ作成システムに係る台車の上面図である。FIG. 3 is a top view of a cart in a map creation system according to an embodiment of the present invention. 図4は、建設現場の所定の区画Rを示す図である。FIG. 4 is a diagram showing a specific section R of a construction site. 図5は、本発明の実施形態に係る自動走行体の側面図である。FIG. 5 is a side view of an automatic vehicle according to an embodiment of the present invention. 図6は、本発明の実施形態に係る広域マップを作成するためのフローを示すフローチャートである。FIG. 6 is a flowchart showing a flow for creating a wide-area map according to an embodiment of the present invention. 図7(A)は、三次元点群データを一平面で抽出した場合のデータの一部を示す図であり、図7(B)は、三次元点群データを所定の範囲で抽出して圧縮した場合のデータの一部を示す図である。FIG. 7(A) is a diagram showing a portion of the data when three-dimensional point cloud data is extracted on one plane, and FIG. 7(B) is a diagram showing a portion of the data when three-dimensional point cloud data is extracted within a specified range and compressed. 図8は、本発明の実施形態に係る自動走行体を自動走行させるときのフローを示すフローチャートである。FIG. 8 is a flowchart showing a flow when an automatic vehicle according to an embodiment of the present invention is caused to automatically travel. 図9は、変形例に係る自動走行体の側面図、及び計測した三次元点群データの抽出範囲を説明するための図である。FIG. 9 is a side view of an automated vehicle according to a modified example, and a diagram for explaining an extraction range of measured three-dimensional point cloud data. 図10は、変形例に係る広域マップを作成するためのフローを示すフローチャートである。FIG. 10 is a flowchart showing a flow for creating a wide-area map according to a modified example. 図11は、変形例に係る自動走行体を自動走行させるときのフローを示すフローチャートである。FIG. 11 is a flowchart showing a flow when an automatic vehicle according to the modified example is caused to automatically travel.

以下、図面を参照して、本発明の実施形態に係るマップ作成システム10及び自動走行システム100について説明する。 The following describes a map creation system 10 and an automated driving system 100 according to an embodiment of the present invention, with reference to the drawings.

本実施形態の自動走行システム100は、例えば、建設現場、物流現場、生産工場、飲食店、あるいは医療現場などにおいて使用される自動走行体1の自動走行を制御するために用いられる。自動走行システム100は、マップ作成システム10と、自動走行体1と、を備える。自動走行システム100は、マップ作成システム10によって作成される広域マップM1と、自動走行体1に搭載されたコントローラ20によって作成される周辺マップM2と、を用いて、自動走行体1を自動走行させる。なお、以下の実施例では、マップ作成システム10及び自動走行システム100を建設現場において用いる場合について説明する。 The autonomous driving system 100 of this embodiment is used to control the autonomous driving of an autonomous vehicle 1 used, for example, at construction sites, logistics sites, production plants, restaurants, or medical facilities. The autonomous driving system 100 includes a map creation system 10 and an autonomous vehicle 1. The autonomous driving system 100 automatically drives the autonomous vehicle 1 using a wide-area map M1 created by the map creation system 10 and a surrounding map M2 created by a controller 20 mounted on the autonomous vehicle 1. In the following embodiment, the map creation system 10 and the autonomous driving system 100 are used at a construction site.

まず、図1から図4を参照しながら、マップ作成システム10について説明する。なお、図1は、自動走行システム100のブロック図である。 First, the map creation system 10 will be described with reference to Figures 1 to 4. Figure 1 is a block diagram of the automated driving system 100.

本実施形態のマップ作成システム10は、建設現場において、自動走行体1を目的地まで自動で走行させるために必要な広域マップM1を作成する。 The map creation system 10 of this embodiment creates a wide-area map M1 required for the automated vehicle 1 to automatically navigate to a destination at a construction site.

図1に示すように、マップ作成システム10は、第1三次元点群データ取得部11と、コンピューターCと、を備える。コンピューターCは、広域マップ作成部12と、記憶部13と、傾斜補正部14と、を有する。第1三次元点群データ取得部11及びコンピューターCは、台車15(移動体)(図2及び図3参照)に搭載される。なお、広域マップ作成部12及び傾斜補正部14は、コンピューターCにおける機能を仮想的なユニットとしたものであり、物理的な存在を意味するものではない。 As shown in FIG. 1, the map creation system 10 includes a first three-dimensional point cloud data acquisition unit 11 and a computer C. The computer C includes a wide-area map creation unit 12, a memory unit 13, and a tilt correction unit 14. The first three-dimensional point cloud data acquisition unit 11 and the computer C are mounted on a cart 15 (mobile body) (see FIG. 2 and FIG. 3). Note that the wide-area map creation unit 12 and the tilt correction unit 14 are virtual units that represent the functions of the computer C, and do not represent physical entities.

本実施形態では、広域マップ作成部12、記憶部13及び傾斜補正部14は、台車15に搭載される1つのコンピューターCの内部に設けられるが、これらは、同じコンピューター内に設けられていなくてもよい。つまり、コンピューターCは、1つのコンピューターによって構成されているものに限らず、複数のコンピューターによって構成されていてもよい。また、広域マップ作成部12、記憶部13及び傾斜補正部14の一部あるいは全部が、台車15とは異なる場所に設置されたコンピューターに設けられていてもよい。 In this embodiment, the wide-area map creation unit 12, the memory unit 13, and the tilt correction unit 14 are provided inside one computer C mounted on the dolly 15, but they do not have to be provided inside the same computer. In other words, the computer C is not limited to being composed of one computer, but may be composed of multiple computers. In addition, some or all of the wide-area map creation unit 12, the memory unit 13, and the tilt correction unit 14 may be provided in a computer installed in a location different from the dolly 15.

第1三次元点群データ取得部11は、三次元LiDARによって構成され、台車15に搭載される(図2参照)。なお、以下では、三次元LiDARについても、第1三次元点群データ取得部11と同じ付番「11」を付して説明する。 The first three-dimensional point cloud data acquisition unit 11 is composed of a three-dimensional LiDAR and is mounted on a cart 15 (see FIG. 2). In the following description, the three-dimensional LiDAR will be given the same reference number "11" as the first three-dimensional point cloud data acquisition unit 11.

図2及び図3に示すように、三次元LiDAR11は、台車15の周囲を計測して三次元点群データを取得する。具体的には、三次元LiDAR11は、レーザ光を走査しながら対象物に照射し、その反射光を測定することで対象物(壁や柱など)までの距離及び高さを計測する。なお、三次元LiDAR11によって取得されるデータは、三次元の点の集合体となる(以下では、三次元LiDAR11によって取得されるデータの集合体を「三次元点群データD1」という。)。本実施形態の三次元LiDAR11は、計測距離が数十メートルから200m程度のものが使用される。また、三次元LiDAR11は、図2や図3に示すように、三次元LiDAR11を中心として、上下方向及び水平方向における所定の角度の範囲内の計測を行う。 As shown in Figures 2 and 3, the three-dimensional LiDAR 11 measures the surroundings of the cart 15 to obtain three-dimensional point cloud data. Specifically, the three-dimensional LiDAR 11 measures the distance and height to the object (such as a wall or pillar) by irradiating the object with a laser light while scanning and measuring the reflected light. The data obtained by the three-dimensional LiDAR 11 is a collection of three-dimensional points (hereinafter, the collection of data obtained by the three-dimensional LiDAR 11 is referred to as "three-dimensional point cloud data D1"). In this embodiment, a three-dimensional LiDAR 11 with a measurement distance of several tens of meters to about 200 m is used. In addition, as shown in Figures 2 and 3, the three-dimensional LiDAR 11 performs measurements within a range of a predetermined angle in the vertical and horizontal directions with the three-dimensional LiDAR 11 as the center.

マップ作成システム10を用いて、広域マップM1を作成する際には、例えば、作業員が、図4に示すような建設現場の自動走行体1を自動走行させる区画R内を台車15を押しながら隈なく移動する。その間、三次元LiDAR11は、常時台車15の周囲を計測して三次元点群データD1を取得する。 When creating a wide-area map M1 using the map creation system 10, for example, a worker moves thoroughly around an area R in a construction site where an automated vehicle 1 is to automatically travel, pushing a cart 15 as shown in FIG. 4. During this time, the 3D LiDAR 11 constantly measures the area around the cart 15 and acquires 3D point cloud data D1.

広域マップ作成部12は、三次元LiDAR11によって計測された三次元点群データD1に基づいて、広域マップM1を作成する。本実施形態では、SLAM(Simultaneous Localization and Mapping)技術に基づいて広域マップM1を作成する。なお、本実施形態における広域マップM1とは、柱、壁、及び障害物などを含む区画R全体の二次元の地図を意味する。広域マップM1の具体的な作成方法については、後で詳しく説明する。 The wide area map creation unit 12 creates a wide area map M1 based on the three-dimensional point cloud data D1 measured by the three-dimensional LiDAR 11. In this embodiment, the wide area map M1 is created based on SLAM (Simultaneous Localization and Mapping) technology. Note that the wide area map M1 in this embodiment refers to a two-dimensional map of the entire section R including pillars, walls, obstacles, etc. A specific method for creating the wide area map M1 will be described in detail later.

記憶部13は、三次元LiDAR11によって計測された三次元点群データD1、及び広域マップ作成部12によって作成された広域マップM1などを記憶する。記憶部13は、コンピューターCに搭載されるハードディスク等の各種記憶装置、あるいは、コンピューターCに接続可能なメモリーカード、USBメモリーなどの記憶媒体によって構成される。記憶部13は、台車15に搭載されていてもよく、台車15とは別の場所に設置されたコンピューター等に設けられていてもよい。 The storage unit 13 stores the three-dimensional point cloud data D1 measured by the three-dimensional LiDAR 11, the wide-area map M1 created by the wide-area map creation unit 12, and the like. The storage unit 13 is composed of various storage devices such as a hard disk mounted on the computer C, or storage media such as a memory card or USB memory connectable to the computer C. The storage unit 13 may be mounted on the cart 15, or may be provided in a computer or the like installed in a location separate from the cart 15.

傾斜補正部14は、三次元LiDAR11によって計測した三次元点群データD1の中から、水平方向の基準となるもの(例えば、床面や天井)の点群データを抽出し、この抽出した点群データの傾斜を算出して、三次元点群データD1の傾きを水平になるように補正する。なお、これに代えて、台車15に傾斜角センサ(図示せず)を設け、この傾斜角センサによって台車15の傾斜角及び傾斜方向を検出し、検出した傾斜角及び傾斜方向に基づいて、計測した三次元点群データD1の傾きを補正してもよい。 The tilt correction unit 14 extracts point cloud data of horizontal references (e.g., floors and ceilings) from the three-dimensional point cloud data D1 measured by the three-dimensional LiDAR 11, calculates the tilt of the extracted point cloud data, and corrects the tilt of the three-dimensional point cloud data D1 to be horizontal. Alternatively, a tilt angle sensor (not shown) may be provided on the cart 15, and the tilt angle and tilt direction of the cart 15 may be detected by the tilt angle sensor, and the tilt of the measured three-dimensional point cloud data D1 may be corrected based on the detected tilt angle and tilt direction.

次に、自動走行体1について説明する。 Next, we will explain the autonomous vehicle 1.

本実施形態の自動走行体1は、例えば、自律走行搬送台車である。図5に示すように、自動走行体1は、車体2と、車体2の前後左右に配置された4つの車輪3と、車輪3を駆動するモータ(図示せず)に電力を供給するバッテリ4と、二次元点群データ取得部5と、自動走行体1の走行を制御するコントローラ20と、を備える。車体2上には、荷物が置かれる荷台6が設置される。なお、自動走行体1は、必ずしも搬送機能を有する自動走行体でなくてもよい。 The autonomous vehicle 1 of this embodiment is, for example, an autonomous transport cart. As shown in FIG. 5, the autonomous vehicle 1 includes a vehicle body 2, four wheels 3 arranged on the front, rear, left and right sides of the vehicle body 2, a battery 4 that supplies power to a motor (not shown) that drives the wheels 3, a two-dimensional point cloud data acquisition unit 5, and a controller 20 that controls the travel of the autonomous vehicle 1. A loading platform 6 on which luggage is placed is installed on the vehicle body 2. Note that the autonomous vehicle 1 does not necessarily have to be an autonomous vehicle with a transport function.

図1に示すように、コントローラ20は、周辺マップ作成部21と、記憶部22と、制御部23と、送受信部24と、を有する。なお、周辺マップ作成部21及び制御部23は、コントローラ20における機能を仮想的なユニットとしたものであり、物理的な存在を意味するものではない。 As shown in FIG. 1, the controller 20 has a surrounding area map creation unit 21, a memory unit 22, a control unit 23, and a transmission/reception unit 24. Note that the surrounding area map creation unit 21 and the control unit 23 are virtual units that represent the functions of the controller 20, and do not represent physical entities.

本実施形態では、二次元点群データ取得部5は、二次元LiDARによって構成され、自動走行体1に搭載される。なお、以下では、自動走行体1に搭載される二次元LiDARについては、二次元点群データ取得部5と同じ付番「5」を付して説明する。二次元LiDAR5は、自動走行体1の周囲を計測して二次元点群データD2を取得する。 In this embodiment, the two-dimensional point cloud data acquisition unit 5 is configured with a two-dimensional LiDAR and is mounted on the autonomous vehicle 1. In the following, the two-dimensional LiDAR mounted on the autonomous vehicle 1 will be described with the same reference number "5" as the two-dimensional point cloud data acquisition unit 5. The two-dimensional LiDAR 5 measures the surroundings of the autonomous vehicle 1 and acquires two-dimensional point cloud data D2.

周辺マップ作成部21は、二次元LiDAR5によって取得された二次元点群データD2に基づいて、自動走行体1の周辺のマップ(以下では、「周辺マップM2」という。)を作成する。周辺マップM2の具体的な作成方法については、後で詳しく説明する。 The surrounding area map creation unit 21 creates a map of the surroundings of the autonomous vehicle 1 (hereinafter referred to as the "surrounding area map M2") based on the two-dimensional point cloud data D2 acquired by the two-dimensional LiDAR 5. The specific method of creating the surrounding area map M2 will be described in detail later.

記憶部22は、読み書き可能なハードディスクやSSDなどの記憶媒体によって構成される。記憶部22には、二次元LiDAR5によって計測された二次元点群データD2及びマップ作成システム10によって作成された広域マップM1が記憶されるとともに、自動走行体1の走行動作を制御するための各種プログラムが記憶される。さらに、記憶部22には、自動走行体1の目的地、及び目的地までのルートなど各種データが記憶される。 The storage unit 22 is composed of a storage medium such as a readable/writable hard disk or SSD. The storage unit 22 stores the two-dimensional point cloud data D2 measured by the two-dimensional LiDAR 5 and the wide-area map M1 created by the map creation system 10, as well as various programs for controlling the driving operation of the autonomous vehicle 1. Furthermore, the storage unit 22 stores various data such as the destination of the autonomous vehicle 1 and the route to the destination.

なお、記憶部22をコントローラ20に対して着脱可能な記憶媒体(例えば、メモリーカード)によって構成してもよい。あるいは、記憶部22をコントローラ20とは異なる場所に設置された記憶媒体によって構成してもよい。さらには、これらを併用してもよい。 The memory unit 22 may be configured as a storage medium (e.g., a memory card) that is detachable from the controller 20. Alternatively, the memory unit 22 may be configured as a storage medium installed in a location different from the controller 20. Furthermore, these may be used in combination.

制御部23は、記憶部22に記憶された広域マップM1と周辺マップ作成部21によって作成された周辺マップM2とに基づいて、自動走行体1の走行動作を制御する。具体的には、自動走行体1に目的地が入力されると、制御部23は、障害物の回避など考慮しつつ目的地までのルートを算出する。その後、制御部23は、自動走行体1の走行中に随時作成される周辺マップM2と、記憶部22に記憶された広域マップM1と、に基づいて、自動走行体1の現在位置を推定しつつ、図示しないモータによって車輪3を駆動して、自動走行体1を目的地まで自動で走行させる。 The control unit 23 controls the traveling operation of the automated vehicle 1 based on the wide-area map M1 stored in the memory unit 22 and the surrounding area map M2 created by the surrounding area map creation unit 21. Specifically, when a destination is input to the automated vehicle 1, the control unit 23 calculates a route to the destination while taking into consideration obstacle avoidance. The control unit 23 then estimates the current position of the automated vehicle 1 based on the surrounding area map M2, which is created as needed while the automated vehicle 1 is traveling, and the wide-area map M1 stored in the memory unit 22, and drives the wheels 3 with a motor (not shown) to automatically drive the automated vehicle 1 to the destination.

送受信部24は、コントローラ20と外部のコンピューターとの間でデータ通信を行う。コントローラ20は、送受信部24を通じて、例えば、外部のコンピューターに、自動走行体1の現在位置情報や、走行ルートなどの情報を送信することができるとともに、外部のコンピューターから広域マップM1や目的地情報などを受信することができる。 The transmission/reception unit 24 communicates data between the controller 20 and an external computer. Through the transmission/reception unit 24, the controller 20 can transmit, for example, information about the current position of the automated driving vehicle 1 and the driving route to the external computer, and can receive information such as a wide-area map M1 and destination information from the external computer.

このように、自動走行システム100では、マップ作成システム10によって作成した広域マップM1と、自動走行体1の二次元LiDAR5によって取得された二次元点群データD2に基づいて作成された周辺マップM2と、に基づいて、自動走行体1を目的地まで自動で走行させることができる。 In this way, the autonomous vehicle 1 can automatically navigate to a destination based on the wide-area map M1 created by the map creation system 10 and the surrounding area map M2 created based on the two-dimensional point cloud data D2 acquired by the two-dimensional LiDAR 5 of the autonomous vehicle 1.

ところで、自動走行体1の二次元LiDAR5によって取得された二次元点群データD2は、二次元(水平面上)の点群データとなる。これに対し、マップ作成システム10における三次元LiDAR11によって計測された三次元点群データD1は、三次元(立体)の点群データである。しかしながら、三次元点群データD1は、疎らな点のデータの集合体である。このため、例えば、二次元点群データD2と比較するために、三次元点群データD1の中から二次元点群データD2と同じ高さの平面のデータのみを抽出すると、図7(A)に示すように、疎らな点によって構成されたマップ、言い換えると、情報量が少ない(精度の低い)マップとなってしまう。このようなマップを用いて自動走行体1を自動走行させると、例えば、自動走行体1の自己位置を推定できなくなってしまうおそれがある。 The two-dimensional point cloud data D2 acquired by the two-dimensional LiDAR 5 of the autonomous vehicle 1 is two-dimensional (on a horizontal plane) point cloud data. In contrast, the three-dimensional point cloud data D1 measured by the three-dimensional LiDAR 11 in the map creation system 10 is three-dimensional (solid) point cloud data. However, the three-dimensional point cloud data D1 is a collection of sparse point data. For this reason, for example, if only plane data at the same height as the two-dimensional point cloud data D2 is extracted from the three-dimensional point cloud data D1 in order to compare it with the two-dimensional point cloud data D2, the map will be composed of sparse points, as shown in FIG. 7(A), in other words, it will be a map with a small amount of information (low accuracy). If the autonomous vehicle 1 is driven automatically using such a map, for example, there is a risk that the autonomous vehicle 1 will not be able to estimate its own position.

また、自動走行システム100を使用する際には、区画R内において複数の自動走行体1を走行させることがある。この場合に、自動走行体1に搭載された二次元LiDAR5の設置位置(図5の高さH)が自動走行体1によって異なっていると、それぞれの自動走行体1に搭載された二次元LiDARの設置位置(高さH)に合わせた広域マップM1が必要となる。このため、各自動走行体1を自動走行させる前に、それぞれの二次元LiDAR5の設置位置(高さH)に応じた広域マップM1を作成する必要が生じ、その分、労力と時間を要してしまう。 Furthermore, when using the automated driving system 100, multiple automated vehicles 1 may be driven within the area R. In this case, if the installation position (height H in FIG. 5) of the two-dimensional LiDAR 5 mounted on each automated vehicle 1 differs depending on the automated vehicle 1, a wide-area map M1 that matches the installation position (height H) of the two-dimensional LiDAR mounted on each automated vehicle 1 is required. For this reason, before each automated vehicle 1 is driven automatically, it becomes necessary to create a wide-area map M1 that matches the installation position (height H) of each two-dimensional LiDAR 5, which requires more effort and time.

そこで、本実施形態のマップ作成システム10では、三次元LiDAR11によって計測された三次元点群データD1を用いて、簡単に二次元LiDAR5の設置位置(高さ)に対応でき、かつ精度の高い広域マップM1の作成方法を採用する。以下に、図6に示すフローチャートを参照しながら、広域マップM1の具体的な作成方法について説明する。 Therefore, the map creation system 10 of this embodiment employs a method for creating a wide-area map M1 that is highly accurate and can easily correspond to the installation position (height) of the two-dimensional LiDAR 5, using three-dimensional point cloud data D1 measured by the three-dimensional LiDAR 11. Below, a specific method for creating the wide-area map M1 will be described with reference to the flowchart shown in FIG. 6.

ステップS11では、三次元点群データD1を取得する。具体的には、台車15を移動させている間、三次元LiDAR11によって台車15の周囲を計測して三次元点群データD1を取得する。 In step S11, three-dimensional point cloud data D1 is acquired. Specifically, while the cart 15 is moving, the three-dimensional LiDAR 11 measures the surroundings of the cart 15 to acquire the three-dimensional point cloud data D1.

ステップS12では、傾き補正を行う。具体的には、三次元LiDAR11によって計測した三次元点群データD1の中から、水平方向の基準となるもの(例えば、床面や天井)の点群データを抽出し、この抽出した点群データの傾斜を算出して、三次元点群データD1の傾きを水平になるように補正する。なお、傾き補正が必要ない場合には、ステップS13の処理を省略してもよい。 In step S12, tilt correction is performed. Specifically, point cloud data of horizontal reference points (e.g., floor surface or ceiling) is extracted from the three-dimensional point cloud data D1 measured by the three-dimensional LiDAR 11, the tilt of the extracted point cloud data is calculated, and the tilt of the three-dimensional point cloud data D1 is corrected to be horizontal. Note that if tilt correction is not required, the processing of step S13 may be omitted.

ステップS13では、自動走行体1に搭載されている二次元LiDAR5の設置位置の高さ(高さH)を入力する。具体的には、自動走行体1に搭載されている二次元LiDAR5が計測する二次元点群データD2の床面からの高さHをコンピューターCに入力する。 In step S13, the height (height H) of the installation position of the two-dimensional LiDAR 5 mounted on the autonomous vehicle 1 is input. Specifically, the height H from the floor surface of the two-dimensional point cloud data D2 measured by the two-dimensional LiDAR 5 mounted on the autonomous vehicle 1 is input to computer C.

ステップS14では、所定の範囲Hrの三次元点群データD1aを抽出する。具体的には、コンピューターC(広域マップ作成部12)は、三次元LiDAR11によって取得された三次元点群データD1のうち、高さ方向における所定の範囲Hr内の三次元点群データD1aを抽出する。本実施形態では、範囲Hrは、自動走行体1に搭載される二次元LiDAR5によって計測する平面(二次元LiDAR5の設置位置)の高さHを中心として、例えば、±20cm程度までの範囲に設定される(図2参照)。 In step S14, three-dimensional point cloud data D1a within a predetermined range Hr is extracted. Specifically, computer C (wide area map creation unit 12) extracts three-dimensional point cloud data D1a within a predetermined range Hr in the height direction from the three-dimensional point cloud data D1 acquired by the three-dimensional LiDAR 11. In this embodiment, the range Hr is set to a range of, for example, about ±20 cm, centered on the height H of the plane (the installation position of the two-dimensional LiDAR 5) measured by the two-dimensional LiDAR 5 mounted on the autonomous vehicle 1 (see FIG. 2).

ステップS15では、三次元点群データD1aを圧縮する。具体的には、コンピューターC(広域マップ作成部12)は、範囲Hr内にある三次元点群データD1aを水平方向の平面に投影して広域マップM1を作成する、別の言い方をすると、範囲Hr内にある点群データを1つの平面上に重ね合わせて、二次元の広域マップM1を作成する。これにより、三次元点群データD1のある一平面のデータのみを抽出した場合(図7(A)参照)に比べ、データ間の隙間が小さくなる(図7(B)参照)。この結果、データの密度が高くなるので、精度の高い広域マップM1を作成することができる。 In step S15, the three-dimensional point cloud data D1a is compressed. Specifically, computer C (wide area map creation unit 12) projects the three-dimensional point cloud data D1a within range Hr onto a horizontal plane to create a wide area map M1; in other words, the point cloud data within range Hr is overlaid on a single plane to create a two-dimensional wide area map M1. This reduces the gaps between data (see FIG. 7B) compared to when only data from one plane of the three-dimensional point cloud data D1 is extracted (see FIG. 7A). As a result, the data density increases, making it possible to create a wide area map M1 with high accuracy.

また、二次元LiDAR5の設置位置の高さHの異なる自動走行体1を自動走行させる場合には、それぞれの自動走行体1の二次元LiDAR5の設置位置の高さに応じて、上記ステップS12における二次元LiDAR5の設置位置の高さHの入力を変更するだけで、自動走行体1に応じた広域マップM1を容易に作成することができる。 In addition, when autonomous vehicles 1 with different installation heights H of the two-dimensional LiDAR 5 are operated autonomously, a wide-area map M1 corresponding to the autonomous vehicle 1 can be easily created simply by changing the input of the installation height H of the two-dimensional LiDAR 5 in step S12 according to the installation height of the two-dimensional LiDAR 5 of each autonomous vehicle 1.

次に、自動走行システム100における自動走行体1の走行制御について、図8に示すフローチャートを参照しながら説明する。図8のフローチャートに示す処理は、コントローラ20の記憶部22に予め記憶されたプログラムに基づいて実行される。コントローラ20は、図8に示す処理を毎秒当たり数回繰り返し行う。 Next, the driving control of the autonomous vehicle 1 in the autonomous driving system 100 will be described with reference to the flowchart shown in FIG. 8. The process shown in the flowchart in FIG. 8 is executed based on a program pre-stored in the memory unit 22 of the controller 20. The controller 20 repeats the process shown in FIG. 8 several times per second.

なお、図8に示す処理は、コントローラ20に自動走行体1の目的地までのルートが設定されて、自動走行体1が自動走行している間に行われる処理である。 The process shown in FIG. 8 is performed when the route to the destination of the autonomous vehicle 1 is set in the controller 20 and the autonomous vehicle 1 is traveling autonomously.

ステップS21では、二次元点群データD2を取得する。具体的には、自動走行体1に搭載された二次元LiDAR5によって自動走行体1の周囲の二次元点群データD2を取得する。 In step S21, two-dimensional point cloud data D2 is acquired. Specifically, two-dimensional point cloud data D2 of the surroundings of the autonomous vehicle 1 is acquired by a two-dimensional LiDAR 5 mounted on the autonomous vehicle 1.

ステップS22では、自己位置を推定する。具体的には、コントローラ20(周辺マップ作成部21)は、二次元LiDAR5によって取得した二次元点群データD2から、自動走行体1の周囲の周辺マップM2を作成する。次いで、コントローラ20(制御部23)は、予め記憶部22に記憶された広域マップM1と作成した周辺マップM2とを比較して、自動走行体1の現在位置(自己位置)を推定する。 In step S22, the self-position is estimated. Specifically, the controller 20 (periphery map creation unit 21) creates a peripheral map M2 of the surroundings of the autonomous vehicle 1 from the two-dimensional point cloud data D2 acquired by the two-dimensional LiDAR 5. Next, the controller 20 (control unit 23) compares the wide-area map M1 previously stored in the memory unit 22 with the created peripheral map M2 to estimate the current position (self-position) of the autonomous vehicle 1.

ステップS23では、障害物の有無を判断する。具体的には、コントローラ20(制御部23)は、ステップS22において作成した周辺マップM2あるいは、二次元点群データD2に基づいて、設定された目的地までのルート上に障害物が出現していないか否かを判断する。例えば、建設現場では、広域マップM1を作成した段階では、存在しなかった資材や装置が、自動走行体1が走行する段階で設定されたルート上に置かれていることがある。コントローラ20(制御部23)は、このように自動走行体1が走行する段階で出現した障害物を検知する。設定された目的地までのルート上に障害物が検知されなければ、ステップS24に進み、設定された目的地までのルート上に障害物が検知された場合には、ステップS25に進む。なお、障害物の検知は、広域マップM1と周辺マップM2とを比較することによって行ってもよい。 In step S23, the presence or absence of an obstacle is determined. Specifically, the controller 20 (control unit 23) determines whether or not an obstacle has appeared on the route to the set destination based on the surrounding area map M2 created in step S22 or the two-dimensional point cloud data D2. For example, at a construction site, materials or equipment that did not exist when the wide-area map M1 was created may be placed on the route set when the automated vehicle 1 is traveling. The controller 20 (control unit 23) detects obstacles that have appeared in this way when the automated vehicle 1 is traveling. If an obstacle is not detected on the route to the set destination, the process proceeds to step S24. If an obstacle is detected on the route to the set destination, the process proceeds to step S25. Note that the detection of an obstacle may be performed by comparing the wide-area map M1 with the surrounding area map M2.

ステップS24では、目的地に到達したか否かを判断する。具体的には、コントローラ20(制御部23)は、ステップS22で推定した自動走行体1の現在位置が、目的地であるか否かを判断する。自動走行体1が目的地に到達していれば、制御(自動走行)を終了する。これに対し、自動走行体1が目的地に到達していなければ、ステップS21に戻る。 In step S24, it is determined whether the destination has been reached. Specifically, the controller 20 (control unit 23) determines whether the current position of the automated vehicle 1 estimated in step S22 is the destination. If the automated vehicle 1 has reached the destination, the control (automatic driving) is terminated. In contrast, if the automated vehicle 1 has not reached the destination, the process returns to step S21.

続いて、ステップS25について説明する。上述のように、ステップS23において、設定された目的地までのルート上に障害物が存在していると判断された場合には、ステップS25に進む。ステップS25では、ルートを再設定する。具体的には、コントローラ20(制御部23)は、設定されたルート上に障害物を検知した場合には、自動走行体1の障害物を回避しつつ、目的地に到達するルートを検索し、ルートを再設定する。そして、ステップS21に戻って、再びステップS21以降の処理を実行する。 Next, step S25 will be described. As described above, if it is determined in step S23 that an obstacle exists on the route to the set destination, the process proceeds to step S25. In step S25, the route is reset. Specifically, if the controller 20 (control unit 23) detects an obstacle on the set route, the controller 20 searches for a route to reach the destination while avoiding the obstacle of the automated driving body 1, and resets the route. Then, the process returns to step S21, and the process from step S21 onwards is executed again.

上述のように、本実施形態のマップ作成システム10では、所定の高さの範囲Hr内にある三次元点群データD1aを水平方向の平面に投影して広域マップM1を作成しているので、精度の高い広域マップM1を作成することができる。そして、本実施形態の自動走行システム100では、自動走行体1を自動走行させる際に、精度の高い広域マップM1を用いているので、自動走行体1の自己位置の推定精度を向上させることができ、自動走行の精度も向上させることができる。 As described above, in the map creation system 10 of this embodiment, the three-dimensional point cloud data D1a within a predetermined height range Hr is projected onto a horizontal plane to create a wide-area map M1, so that a highly accurate wide-area map M1 can be created. And in the automated driving system 100 of this embodiment, the highly accurate wide-area map M1 is used when the automated driving vehicle 1 is driven automatically, so that the estimation accuracy of the self-position of the automated driving vehicle 1 can be improved, and the accuracy of the automated driving can also be improved.

さらに、マップ作成システム10では、二次元LiDAR5の設置位置の高さHの入力を変更するだけで、簡単に、自動走行体1の二次元LiDAR5の設置位置の高さHに応じた広域マップM1を作成することができる。つまり、マップ作成システム10を使用することにより、様々な高さの広域マップM1を容易に作成することができるので、二次元LiDAR5の設置位置の異なる自動走行体1を使用する際に、広域マップM1を作り直す労力や時間を大幅に低減することができる。 Furthermore, with the map creation system 10, it is possible to easily create a wide-area map M1 that corresponds to the height H of the installation position of the two-dimensional LiDAR 5 of the autonomous vehicle 1, simply by changing the input of the height H of the installation position of the two-dimensional LiDAR 5. In other words, by using the map creation system 10, wide-area maps M1 of various heights can be easily created, so that the effort and time required to recreate the wide-area map M1 can be significantly reduced when using an autonomous vehicle 1 with a different installation position of the two-dimensional LiDAR 5.

次に、自動走行システム100の変形例について説明する。自動走行システム100では、自動走行体1に二次元LiDAR5が搭載されていたが、変形例に係る自動走行システム100では、自動走行体1に三次元LiDAR50(第2三次元点群データ取得部)が搭載される(図9参照)点で、相違する。また、自動走行システム100では、二次元LiDAR5の設置位置の高さHに合わせて広域マップM1を作成しているが、変形例に係る自動走行システム100では、任意の高さで広域マップM11を作成できる点で、相違する。なお、以下では、同じ構成や、同じ処理については、同一の付番を付して適宜説明を省略する。 Next, a modified example of the automated driving system 100 will be described. In the automated driving system 100, the automated vehicle 1 is equipped with a two-dimensional LiDAR 5, but the automated driving system 100 according to the modified example differs in that the automated vehicle 1 is equipped with a three-dimensional LiDAR 50 (second three-dimensional point cloud data acquisition unit) (see FIG. 9). In addition, in the automated driving system 100, the wide-area map M1 is created according to the height H of the installation position of the two-dimensional LiDAR 5, but the automated driving system 100 according to the modified example differs in that the wide-area map M11 can be created at any height. Note that, in the following, the same configurations and the same processes are given the same numbers and descriptions are omitted as appropriate.

まず、変形例における広域マップM11の作成方法について、図10に示すフローチャートを参照しながら説明する。なお、ここでは、図6に示すフローチャートと相違するステップS113、S114、及びS115についてのみ説明する。 First, the method for creating the wide-area map M11 in the modified example will be described with reference to the flowchart shown in FIG. 10. Note that only steps S113, S114, and S115, which differ from the flowchart shown in FIG. 6, will be described here.

この変形例においても、台車15に搭載された三次元LiDAR11によって計測された三次元点群データD1を用いる。ステップS113では、高さH1(図9参照)を入力する。具体的には、床面からの高さH1をコンピューターCに入力する。高さH1は、任意の高さであり、自動走行体1に搭載される三次元LiDAR50の設置位置に対応させる必要はない。本変形例では、例えば、高さH1を2m程度に設定する(図9参照)。 In this modified example, the three-dimensional point cloud data D1 measured by the three-dimensional LiDAR 11 mounted on the cart 15 is also used. In step S113, the height H1 (see FIG. 9) is input. Specifically, the height H1 from the floor surface is input to the computer C. The height H1 is an arbitrary height and does not need to correspond to the installation position of the three-dimensional LiDAR 50 mounted on the autonomous vehicle 1. In this modified example, the height H1 is set to about 2 m, for example (see FIG. 9).

そして、ステップS114において、所定の範囲Hrの三次元点群データD1bを抽出する。具体的には、コンピューターC(広域マップ作成部12)は、三次元LiDAR11によって取得された三次元点群データD1のうち、高さ方向における所定の範囲Hr1内の三次元点群データD1bを抽出する。本変形例では、三次元点群データD1を抽出する所定の範囲Hr1を、例えば、高さH1±50cm程度の範囲とする(図9参照)。 Then, in step S114, three-dimensional point cloud data D1b of a predetermined range Hr is extracted. Specifically, computer C (wide area map creation unit 12) extracts three-dimensional point cloud data D1b within a predetermined range Hr1 in the height direction from the three-dimensional point cloud data D1 acquired by the three-dimensional LiDAR 11. In this modified example, the predetermined range Hr1 from which the three-dimensional point cloud data D1 is extracted is, for example, a range of about height H1 ± 50 cm (see Figure 9).

建設現場などでは、資材や装置を一時的に床面に仮置きしておくことがある(図9参照)。この状態で広域マップM11を作成すると、当然資材や装置が広域マップM11に反映されることになる。しかしながら、自動走行体1を自動走行させるときに、床面に置かれていた資材や装置が移動してしまっていることがある。この場合には、予め作成した広域マップM11と自動走行体1が自動走行中に取得した周辺マップM2との間に相違が出てしまい、コントローラ20(制御部23)が自動走行体1の現在位置を推定できなくなるおそれがある。 At construction sites, materials and equipment are sometimes temporarily placed on the floor (see Figure 9). If a wide-area map M11 is created in this state, the materials and equipment will naturally be reflected in the wide-area map M11. However, when the autonomous vehicle 1 is driven automatically, the materials and equipment that were placed on the floor may have moved. In this case, there may be a discrepancy between the wide-area map M11 created in advance and the surrounding area map M2 acquired by the autonomous vehicle 1 while it is driving automatically, and the controller 20 (control unit 23) may not be able to estimate the current position of the autonomous vehicle 1.

このため、本変形例のように、三次元点群データD1の抽出範囲の高さH1を2m程度(範囲Hr1を高さ1.5mから2.5m程度)とすることで、床面に仮置きされた資材や装置が含まない範囲の点群データを使用して広域マップM11を作成することができる。つまり、資材や装置の影響を受けないで広域マップM11を作成することができる。 Therefore, by setting the height H1 of the extraction range of the three-dimensional point cloud data D1 to about 2 m (range Hr1 is about 1.5 m to 2.5 m in height) as in this modified example, the wide-area map M11 can be created using point cloud data in a range that does not include materials or equipment temporarily placed on the floor. In other words, the wide-area map M11 can be created without being affected by materials or equipment.

ステップS115では、三次元点群データD1bを圧縮する。具体的な方法は、ステップS15と同様であるので、説明を省略する。 In step S115, the three-dimensional point cloud data D1b is compressed. The specific method is the same as in step S15, so the explanation is omitted.

次に、本変形例における自動走行体1の走行制御について、図11に示すフローチャートを参照しながら説明する。なお、図11のフローチャートに示す処理は、コントローラ20の記憶部22に予め記憶されたプログラムに基づいて実行される。コントローラ20は、図11に示す処理を毎秒当たり数回繰り返し行う。 Next, the driving control of the automated driving vehicle 1 in this modified example will be described with reference to the flowchart shown in FIG. 11. The process shown in the flowchart in FIG. 11 is executed based on a program pre-stored in the memory unit 22 of the controller 20. The controller 20 repeats the process shown in FIG. 11 several times per second.

本変形例では、自動走行体1に搭載される三次元LiDAR50によって計測された三次元点群データD3に基づいて作成される周辺マップM12は、広域マップM11と同じ方法(図10のフローチャート)で作成する。図示はしないが、簡単に説明すると、三次元LiDAR50によって取得された三次元点群データD3のうち、高さ方向における所定の範囲内Hr1を、三次元点群データD1の抽出範囲(高さH1±50cm程度)と同じにする。なお、周辺マップM12を作成する際には、図10のステップS112における高さH1の入力を一度行えば、以降は高さH1の入力(ステップS112)を不要とする。 In this modified example, the surrounding map M12 is created based on the three-dimensional point cloud data D3 measured by the three-dimensional LiDAR 50 mounted on the autonomous vehicle 1, and is created in the same manner as the wide-area map M11 (flowchart in FIG. 10). Although not shown, to briefly explain, the predetermined range Hr1 in the height direction of the three-dimensional point cloud data D3 acquired by the three-dimensional LiDAR 50 is set to be the same as the extraction range of the three-dimensional point cloud data D1 (height H1 ± 50 cm). When creating the surrounding map M12, once the height H1 is input in step S112 in FIG. 10, there is no need to input the height H1 (step S112) thereafter.

このように、広域マップM11と周辺マップM12を作成する条件を同じとすることで、自己位置の推定精度を向上させることができる。このため、最適には、自動走行体1に搭載される三次元LiDAR50は、台車15に搭載される三次元LiDAR11と同じ機種であることが望ましい。 In this way, by creating the wide-area map M11 and the surrounding area map M12 under the same conditions, the accuracy of estimating the self-position can be improved. Therefore, optimally, it is desirable that the 3D LiDAR 50 mounted on the autonomous vehicle 1 is the same model as the 3D LiDAR 11 mounted on the bogie 15.

また、本変形例の自動走行システム100においても、三次元点群データD1,D3のデータの抽出範囲、すなわち、作成する広域マップM11と周辺マップM12の高さを適宜変更することができる。例えば、床面に置かれる資材や装置の高さや工事の進捗に応じて、三次元点群データD1,D3のデータの抽出範囲(高さH、H1)を換えることで、適宜、これらの影響を受けない範囲の広域マップM11及び周辺マップM12を作成することができる。これにより、自動走行体1の自己位置の推定精度を向上させることができ、自動走行の精度も向上させることができる。 Also, in the automated driving system 100 of this modified example, the extraction range of the data of the three-dimensional point cloud data D1, D3, i.e., the height of the wide-area map M11 and surrounding area map M12 to be created, can be changed as appropriate. For example, by changing the extraction range (heights H, H1) of the data of the three-dimensional point cloud data D1, D3 according to the height of materials and equipment placed on the floor surface and the progress of construction, it is possible to create the wide-area map M11 and surrounding area map M12 of a range that is not affected by these factors as appropriate. This makes it possible to improve the estimation accuracy of the self-position of the automated driving body 1, and also improve the accuracy of automated driving.

以上のマップ作成システム10及び自動走行システム100によれば、以下の効果を奏する。 The above map creation system 10 and automated driving system 100 provide the following advantages:

マップ作成システム10では、三次元LiDAR11によって取得された三次元点群データD1のうち、高さ方向における所定の範囲Hr内の三次元点群データD1aを抽出し、この三次元点群データD1aを圧縮して、二次元の広域マップM1を作成している。これにより、三次元点群データD1を用いた場合でも、精度の高い二次元の広域マップM1を作成することができる。 In the map creation system 10, from the three-dimensional point cloud data D1 acquired by the three-dimensional LiDAR 11, three-dimensional point cloud data D1a within a predetermined range Hr in the height direction is extracted, and this three-dimensional point cloud data D1a is compressed to create a two-dimensional wide-area map M1. This makes it possible to create a highly accurate two-dimensional wide-area map M1 even when using the three-dimensional point cloud data D1.

また、マップ作成システム10では、範囲Hr(高さHの入力)を適宜変更するだけで、簡単に高さの異なる二次元の広域マップM1を作成することができる。つまり、マップ作成システム10を使用することにより、様々な高さの二次元の広域マップM1を容易に作成することができるので、例えば、二次元LiDAR5の設置位置の異なる自動走行体1を複数使用する際に、それぞれの自動走行体1に対応する広域マップM1を作るための労力や時間を大幅に低減することができる。 In addition, with the map creation system 10, two-dimensional wide-area maps M1 of different heights can be easily created simply by changing the range Hr (input of height H) as appropriate. In other words, by using the map creation system 10, two-dimensional wide-area maps M1 of various heights can be easily created. For example, when using multiple automated vehicles 1 with different installation positions of the two-dimensional LiDAR 5, the effort and time required to create a wide-area map M1 corresponding to each automated vehicle 1 can be significantly reduced.

さらに、本実施形態の自動走行システム100では、自動走行体1を自動走行させる際に、マップ作成システム10によって作成した精度の高い広域マップM1を用いることにより、自動走行体1の自己位置の推定精度を向上させることができ、自動走行の精度も向上させることができる。 Furthermore, in the autonomous driving system 100 of this embodiment, when the autonomous vehicle 1 is driven autonomously, the high-precision wide-area map M1 created by the map creation system 10 is used, thereby improving the estimation accuracy of the autonomous vehicle 1's own position and improving the accuracy of autonomous driving.

また、自動走行体1に三次元LiDAR50を搭載した場合には、床面に置かれる資材や装置の高さや工事の進捗に応じて、三次元点群データD1,D3のデータの抽出範囲(高さH、H1)を変えることで、適宜、これらの影響を受けない範囲の広域マップM11及び周辺マップM12を作成することができる。これにより、自動走行体1の自己位置の推定精度をより向上させることができ、自動走行の精度もより向上させることができる。 In addition, when a 3D LiDAR 50 is mounted on the autonomous vehicle 1, the data extraction range (heights H, H1) of the 3D point cloud data D1, D3 can be changed according to the height of materials and equipment placed on the floor and the progress of the construction work, making it possible to appropriately create a wide-area map M11 and a surrounding map M12 of a range that is not affected by these. This can further improve the estimation accuracy of the autonomous vehicle 1's self-position, and also further improve the accuracy of autonomous driving.

以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。 Although the embodiments of the present invention have been described above, the above embodiments merely show some of the application examples of the present invention, and are not intended to limit the technical scope of the present invention to the specific configurations of the above embodiments.

上記実施形態では、三次元点群データを取得する方法として、三次元LiDAR11、50を用いる場合を説明したが、三次元点群データを取得する方法は、これに限らない。例えば、カメラなど撮像装置を用いたVisualSLAM技術から三次元点群データを取得する、あるいは、二次元LiDARを三次元的に動かして三次元点群データを取得してもよい。 In the above embodiment, the method of acquiring three-dimensional point cloud data has been described using three-dimensional LiDAR 11, 50, but the method of acquiring three-dimensional point cloud data is not limited to this. For example, three-dimensional point cloud data may be acquired from VisualSLAM technology using an imaging device such as a camera, or three-dimensional point cloud data may be acquired by moving a two-dimensional LiDAR three-dimensionally.

また、上記実施形態では、二次元点群データD2から周辺マップM2を作成して処理を進めるものとしたが、二次元点群データD2をそのまま使用するものとしてもよい。 In addition, in the above embodiment, the surrounding map M2 is created from the two-dimensional point cloud data D2 and processing is then carried out, but the two-dimensional point cloud data D2 may be used as is.

上記実施形態では、作業員によって押される台車15に搭載された三次元LiDAR11によって三次元点群データD1を取得する場合を例に説明したが、これに限らない。例えば、三次元LiDAR11をリモートコントロール可能な台車に搭載し、この台車を遠隔操作して三次元点群データD1を取得してもよい。また、作業員が三次元LiDAR11を手に持って移動してもよく、あるいは、三次元LiDAR11をヘルメットに搭載したり、腕に付けたりして、区画R内を歩くことにより三次元点群データD1を取得してもよい。 In the above embodiment, an example was described in which three-dimensional point cloud data D1 is acquired by a three-dimensional LiDAR 11 mounted on a cart 15 pushed by a worker, but this is not limited to the above. For example, the three-dimensional LiDAR 11 may be mounted on a remotely controllable cart, and the cart may be remotely operated to acquire the three-dimensional point cloud data D1. In addition, a worker may move around holding the three-dimensional LiDAR 11 in his/her hand, or may acquire the three-dimensional point cloud data D1 by mounting the three-dimensional LiDAR 11 on a helmet or wearing it on the arm and walking within the section R.

さらに、上記実施形態では、三次元LiDAR11を移動させながら三次元点群データD1を取得する場合を例に説明をしたが、三次元点群データD1は、必ずしも三次元LiDAR11を移動させながら取得する必要はない。例えば、複数の地点で取得した三次元点群データD1を重ね合わせて、この重ね合わせた三次元点群データD1に基づいて広域マップM1を作成してもよい。また、カメラなど撮像装置によって定点で撮像した画像を用いて三次元点群データを取得してもよい。 In addition, in the above embodiment, an example was described in which the three-dimensional point cloud data D1 is acquired while the three-dimensional LiDAR11 is moved, but the three-dimensional point cloud data D1 does not necessarily have to be acquired while the three-dimensional LiDAR11 is moved. For example, three-dimensional point cloud data D1 acquired at multiple points may be overlaid, and a wide-area map M1 may be created based on this overlaid three-dimensional point cloud data D1. Also, three-dimensional point cloud data may be acquired using images captured at fixed points by an imaging device such as a camera.

100 自動走行システム
10 マップ作成システム
1 自動走行体
5 二次元LiDAR(二次元点群データ取得部)
11 三次元LiDAR(第1三次元点群データ取得部)
12 広域マップ作成部
13 記憶部
14 傾斜補正部
15 台車(移動体)
20 コントローラ
21 周辺マップ作成部
22 記憶部
23 制御部
50 三次元LiDAR(第2三次元点群データ取得部)
C コンピューター
100 Autonomous driving system 10 Map creation system 1 Autonomous driving body 5 Two-dimensional LiDAR (two-dimensional point cloud data acquisition unit)
11 3D LiDAR (first 3D point cloud data acquisition unit)
12 Wide area map creation unit 13 Memory unit 14 Inclination correction unit 15 Cart (moving body)
20 Controller 21 Surrounding area map creation unit 22 Memory unit 23 Control unit 50 Three-dimensional LiDAR (second three-dimensional point cloud data acquisition unit)
C Computer

Claims (3)

周囲を計測して三次元点群データを取得する第1三次元点群データ取得部と、
前記第1三次元点群データ取得部によって取得された三次元点群データのうち、水平方向の任意の一平面に高さ方向における所定の範囲内の三次元点群データを前記高さ方向に投影して二次元の広域マップを作成する広域マップ作成部と、を備えたマップ作成システム。
a first three-dimensional point cloud data acquisition unit that measures the surroundings and acquires three-dimensional point cloud data;
a wide-area map creation unit that projects three-dimensional point cloud data within a predetermined range in the height direction onto any horizontal plane , from the three-dimensional point cloud data acquired by the first three-dimensional point cloud data acquisition unit, in the height direction to create a two-dimensional wide-area map.
目的地まで自動走行する自動走行体と、
請求項1に記載されたマップ作成システムによって得られた前記広域マップを記憶する記憶部と、
前記自動走行体に搭載され、前記自動走行体の周囲を計測して所定の水平面上の二次元点群データを取得する二次元点群データ取得部と、
前記記憶部に記憶された前記広域マップと前記二次元点群データ取得部によって取得された二次元点群データとに基づいて、前記自動走行体の走行動作を制御する制御部と、を備え、
前記広域マップ作成部は、前記二次元点群データ取得部によって計測する前記水平面を含む所定の範囲内の三次元点群データから前記広域マップを作成する自動走行システム。
An autonomous vehicle that automatically drives to a destination;
A storage unit that stores the wide-area map obtained by the map creation system according to claim 1;
a two-dimensional point cloud data acquisition unit mounted on the automated driving body and configured to measure the surroundings of the automated driving body and acquire two-dimensional point cloud data on a predetermined horizontal plane;
a control unit that controls a traveling operation of the automated driving vehicle based on the wide-area map stored in the storage unit and the two-dimensional point cloud data acquired by the two-dimensional point cloud data acquisition unit,
The wide-area map creation unit is an automated driving system that creates the wide-area map from three-dimensional point cloud data within a predetermined range including the horizontal plane measured by the two-dimensional point cloud data acquisition unit.
目的地まで自動走行する自動走行体と、
請求項1に記載されたマップ作成システムによって得られた前記広域マップを記憶する記憶部と、
前記自動走行体に搭載され、前記自動走行体の周囲を計測して三次元点群データを取得する第2三次元点群データ取得部と、
前記第2三次元点群データ取得部によって取得された三次元点群データのうち、水平方向の任意の一平面に前記高さ方向における所定の範囲内の三次元点群データを前記高さ方向に投影して前記自動走行体の周辺の二次元の周辺マップを作成する周辺マップ作成部と、
前記記憶部に記憶された前記広域マップと前記周辺マップ作成部によって作成した前記周辺マップとに基づいて、前記自動走行体の走行動作を制御する制御部と、を備えた自動走行システム。
An autonomous vehicle that automatically travels to a destination;
A storage unit that stores the wide-area map obtained by the map creation system according to claim 1;
A second three-dimensional point cloud data acquisition unit that is mounted on the automated driving body and measures the surroundings of the automated driving body to acquire three-dimensional point cloud data;
a surroundings map creation unit that creates a two-dimensional surroundings map of the surroundings of the autonomous vehicle by projecting, in a height direction , three-dimensional point cloud data within a predetermined range in the height direction, among the three-dimensional point cloud data acquired by the second three-dimensional point cloud data acquisition unit, onto any one plane in the horizontal direction ;
An autonomous driving system comprising: a control unit that controls the driving operation of the autonomous driving body based on the wide-area map stored in the memory unit and the surrounding area map created by the surrounding area map creation unit.
JP2024048728A 2024-03-25 2024-03-25 Map creation system and automated driving system Active JP7641551B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024048728A JP7641551B1 (en) 2024-03-25 2024-03-25 Map creation system and automated driving system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024048728A JP7641551B1 (en) 2024-03-25 2024-03-25 Map creation system and automated driving system

Publications (2)

Publication Number Publication Date
JP7641551B1 true JP7641551B1 (en) 2025-03-07
JP2025148120A JP2025148120A (en) 2025-10-07

Family

ID=94825604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024048728A Active JP7641551B1 (en) 2024-03-25 2024-03-25 Map creation system and automated driving system

Country Status (1)

Country Link
JP (1) JP7641551B1 (en)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041657A (en) 2005-07-29 2007-02-15 Sony Corp MOBILE BODY CONTROL METHOD AND MOBILE BODY
US20130325244A1 (en) 2011-01-28 2013-12-05 Intouch Health Time-dependent navigation of telepresence robots
JP2016028311A (en) 2014-07-10 2016-02-25 株式会社リコー Robot, program, and recording medium
US20190370691A1 (en) 2019-07-12 2019-12-05 Lg Electronics Inc. Artificial intelligence robot for determining cleaning route using sensor data and method for the same
US20200029488A1 (en) 2018-07-26 2020-01-30 Bear Flag Robotics, Inc. Vehicle Controllers For Agricultural And Industrial Applications
US20200109954A1 (en) 2017-06-30 2020-04-09 SZ DJI Technology Co., Ltd. Map generation systems and methods
US20200394410A1 (en) 2016-08-29 2020-12-17 Trifo, Inc. Visual-Inertial Positional Awareness for Autonomous and Non-Autonomous Tracking
US20210000006A1 (en) 2019-07-02 2021-01-07 Bear Flag Robotics, Inc. Agricultural Lane Following
JP2022098432A (en) 2020-12-21 2022-07-01 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション Vehicle navigation
WO2023276187A1 (en) 2021-06-30 2023-01-05 パナソニックIpマネジメント株式会社 Travel map creation device, travel map creation method, and program
WO2023112515A1 (en) 2021-12-17 2023-06-22 株式会社クボタ Map generation system and map generation method
WO2023139793A1 (en) 2022-01-24 2023-07-27 三菱電機株式会社 Slam device, slam attack countermeasure program, and autonomous mobility
JP2023112670A (en) 2022-02-01 2023-08-14 キヤノン株式会社 Control system, control method, and computer program
JP2023112659A (en) 2022-02-01 2023-08-14 キヤノン株式会社 Information processing apparatus, control system, control method, and computer program
JP2024022888A (en) 2022-08-08 2024-02-21 株式会社日立製作所 Automatic map generation device and transportation vehicle system

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041657A (en) 2005-07-29 2007-02-15 Sony Corp MOBILE BODY CONTROL METHOD AND MOBILE BODY
US20130325244A1 (en) 2011-01-28 2013-12-05 Intouch Health Time-dependent navigation of telepresence robots
JP2016028311A (en) 2014-07-10 2016-02-25 株式会社リコー Robot, program, and recording medium
US20200394410A1 (en) 2016-08-29 2020-12-17 Trifo, Inc. Visual-Inertial Positional Awareness for Autonomous and Non-Autonomous Tracking
US20200109954A1 (en) 2017-06-30 2020-04-09 SZ DJI Technology Co., Ltd. Map generation systems and methods
US20200029488A1 (en) 2018-07-26 2020-01-30 Bear Flag Robotics, Inc. Vehicle Controllers For Agricultural And Industrial Applications
US20210000006A1 (en) 2019-07-02 2021-01-07 Bear Flag Robotics, Inc. Agricultural Lane Following
US20190370691A1 (en) 2019-07-12 2019-12-05 Lg Electronics Inc. Artificial intelligence robot for determining cleaning route using sensor data and method for the same
JP2022098432A (en) 2020-12-21 2022-07-01 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション Vehicle navigation
WO2023276187A1 (en) 2021-06-30 2023-01-05 パナソニックIpマネジメント株式会社 Travel map creation device, travel map creation method, and program
WO2023112515A1 (en) 2021-12-17 2023-06-22 株式会社クボタ Map generation system and map generation method
WO2023139793A1 (en) 2022-01-24 2023-07-27 三菱電機株式会社 Slam device, slam attack countermeasure program, and autonomous mobility
JP2023112670A (en) 2022-02-01 2023-08-14 キヤノン株式会社 Control system, control method, and computer program
JP2023112659A (en) 2022-02-01 2023-08-14 キヤノン株式会社 Information processing apparatus, control system, control method, and computer program
JP2024022888A (en) 2022-08-08 2024-02-21 株式会社日立製作所 Automatic map generation device and transportation vehicle system

Also Published As

Publication number Publication date
JP2025148120A (en) 2025-10-07

Similar Documents

Publication Publication Date Title
CN115516398B (en) Method for controlling an automated guided vehicle and control system suitable for executing said method
US10222808B2 (en) Inspection system and method for performing inspections in a storage facility
US10025317B2 (en) Methods and systems for camera-based autonomous parking
CN111837136B (en) Autonomous navigation based on local sensing and associated systems and methods
CN108290294B (en) Mobile robot and its control method
US11269347B2 (en) Method for operating a partially autonomous or autonomous motor vehicle, and motor vehicle
US5155684A (en) Guiding an unmanned vehicle by reference to overhead features
JP5278283B2 (en) Autonomous mobile device and control method thereof
EP1365300A2 (en) Autonomous multi-platform robotic system
JPWO2019026761A1 (en) Mobile and computer programs
US20100053593A1 (en) Apparatus, systems, and methods for rotating a lidar device to map objects in an environment in three dimensions
CN111033561A (en) System and method for navigating robotic devices using semantic information
JP7393185B2 (en) Map information provision system to autonomous mobile devices and autonomous mobile devices
CN104777835A (en) Omni-directional automatic forklift and 3D stereoscopic vision navigating and positioning method
CN105190461A (en) Mobile body and position detection device
JP2011209845A (en) Autonomous mobile body, self-position estimation method and map information creation system
US20190163201A1 (en) Autonomous Vehicle Sensor Compensation Using Displacement Sensor
CN114714357A (en) Sorting and carrying method, sorting and carrying robot and storage medium
CN106774318B (en) Multi-agent interactive environment perception and path planning motion system
EP0366350A2 (en) Guiding an unmanned vehicle by reference to overhead features
JP2014067223A (en) Autonomous mobile body
JP2025063042A (en) MOBILE BODY, CONTROL METHOD, AND PROGRAM
US12235093B2 (en) Method for designing packaging plants
EP4318165B1 (en) Industrial truck autonomous or assisted driving using a plurality of cameras
US20240011790A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20240416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241016

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20241016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250213

R150 Certificate of patent or registration of utility model

Ref document number: 7641551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150