JP7641551B1 - Map creation system and automated driving system - Google Patents
Map creation system and automated driving system Download PDFInfo
- Publication number
- JP7641551B1 JP7641551B1 JP2024048728A JP2024048728A JP7641551B1 JP 7641551 B1 JP7641551 B1 JP 7641551B1 JP 2024048728 A JP2024048728 A JP 2024048728A JP 2024048728 A JP2024048728 A JP 2024048728A JP 7641551 B1 JP7641551 B1 JP 7641551B1
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cloud data
- dimensional point
- wide
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Instructional Devices (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】様々な高さの広域マップを容易に作成することができるマップ作成システムを提供する。【解決手段】マップ作成システム10は、周囲を計測して三次元点群データD1を取得する第1三次元点群データ取得部11と、第1三次元点群データ取得部11によって取得された三次元点群データD1のうち、高さ方向における所定の範囲Hr内の三次元点群データD1aを水平方向の平面に投影して二次元の広域マップM1を作成する広域マップ作成部12と、を備える。【選択図】図1[Problem] To provide a map creation system that can easily create wide-area maps of various heights. [Solution] The map creation system 10 includes a first three-dimensional point cloud data acquisition unit 11 that measures the surroundings and acquires three-dimensional point cloud data D1, and a wide-area map creation unit 12 that projects three-dimensional point cloud data D1a within a predetermined range Hr in the height direction out of the three-dimensional point cloud data D1 acquired by the first three-dimensional point cloud data acquisition unit 11 onto a horizontal plane to create a two-dimensional wide-area map M1. [Selected Figure] Figure 1
Description
特許法第30条第2項適用 展示会名: CEATEC 2023 開催場所: 幕張メッセ (千葉県千葉市美浜区中瀬2-1) 公開日 : 令和5年10月17日~10月20日Applicable under Article 30,
本発明は、マップ作成システム及び自動走行システムに関する。 The present invention relates to a map creation system and an automated driving system.
特許文献1には、車輪を有する移動体が自律走行する移動体制御装置の発明が開示されている。
特許文献1に記載された移動体制御装置では、移動体が自律走行する前に、走行エリア内を移動体を走行させて環境マップ(広域マップ)をSLAM(Simultaneous Localization and Mapping)技術に基づいて作成している。そして、移動体は、環境マップと移動体に搭載された二次元LiDAR(Light Detection And Ranging)によって認識した周囲の状況(二次元点群データ)とに基づいて自律走行する。
In the mobile body control device described in
二次元LiDARは、周囲の状況を二次元(平面)で認識する。特許文献1に記載された発明は、環境マップと二次元LiDARによって認識した周囲の状況とを比較するものであるため、二次元LiDARの測定位置に合わせた環境マップを予め用意する必要がある。
Two-dimensional LiDAR recognizes the surrounding situation in two dimensions (plane). The invention described in
ところで、特許文献1に記載されるような発明において、同じ空間において複数の移動体を走行させたいという要望がある。この場合に、移動体に搭載された二次元LiDARの設置位置(高さ)が移動体によって異なっていると、それぞれの移動体に搭載された二次元LiDARの設置位置(高さ)に合わせた環境マップ(広域マップ)が必要となる。この場合には、各移動体が自律走行する前に、それぞれの設置位置(高さ)に応じた環境マップ(広域マップ)を作成する必要があるため、過度の労力と時間を要する。
However, in the invention described in
本発明は、様々な高さの広域マップを容易に作成することができるマップ作成システムを提供することを目的とする。 The present invention aims to provide a map creation system that can easily create wide-area maps at various heights.
本発明は、周囲を計測して三次元点群データを取得する第1三次元点群データ取得部と、第1三次元点群データ取得部によって取得された三次元点群データのうち、水平方向の任意の一平面に高さ方向における所定の範囲内の三次元点群データを高さ方向に投影して二次元の広域マップを作成する広域マップ作成部と、を備える。
The present invention comprises a first three-dimensional point cloud data acquisition unit that measures the surroundings and acquires three-dimensional point cloud data, and a wide-area map creation unit that projects, in the height direction , three-dimensional point cloud data within a predetermined range in the height direction from the three-dimensional point cloud data acquired by the first three-dimensional point cloud data acquisition unit onto any horizontal plane , to create a two-dimensional wide-area map.
本発明によれば、様々な高さの広域マップを容易に作成することができる。 The present invention makes it easy to create wide-area maps at various heights.
以下、図面を参照して、本発明の実施形態に係るマップ作成システム10及び自動走行システム100について説明する。
The following describes a
本実施形態の自動走行システム100は、例えば、建設現場、物流現場、生産工場、飲食店、あるいは医療現場などにおいて使用される自動走行体1の自動走行を制御するために用いられる。自動走行システム100は、マップ作成システム10と、自動走行体1と、を備える。自動走行システム100は、マップ作成システム10によって作成される広域マップM1と、自動走行体1に搭載されたコントローラ20によって作成される周辺マップM2と、を用いて、自動走行体1を自動走行させる。なお、以下の実施例では、マップ作成システム10及び自動走行システム100を建設現場において用いる場合について説明する。
The
まず、図1から図4を参照しながら、マップ作成システム10について説明する。なお、図1は、自動走行システム100のブロック図である。
First, the
本実施形態のマップ作成システム10は、建設現場において、自動走行体1を目的地まで自動で走行させるために必要な広域マップM1を作成する。
The
図1に示すように、マップ作成システム10は、第1三次元点群データ取得部11と、コンピューターCと、を備える。コンピューターCは、広域マップ作成部12と、記憶部13と、傾斜補正部14と、を有する。第1三次元点群データ取得部11及びコンピューターCは、台車15(移動体)(図2及び図3参照)に搭載される。なお、広域マップ作成部12及び傾斜補正部14は、コンピューターCにおける機能を仮想的なユニットとしたものであり、物理的な存在を意味するものではない。
As shown in FIG. 1, the
本実施形態では、広域マップ作成部12、記憶部13及び傾斜補正部14は、台車15に搭載される1つのコンピューターCの内部に設けられるが、これらは、同じコンピューター内に設けられていなくてもよい。つまり、コンピューターCは、1つのコンピューターによって構成されているものに限らず、複数のコンピューターによって構成されていてもよい。また、広域マップ作成部12、記憶部13及び傾斜補正部14の一部あるいは全部が、台車15とは異なる場所に設置されたコンピューターに設けられていてもよい。
In this embodiment, the wide-area
第1三次元点群データ取得部11は、三次元LiDARによって構成され、台車15に搭載される(図2参照)。なお、以下では、三次元LiDARについても、第1三次元点群データ取得部11と同じ付番「11」を付して説明する。
The first three-dimensional point cloud
図2及び図3に示すように、三次元LiDAR11は、台車15の周囲を計測して三次元点群データを取得する。具体的には、三次元LiDAR11は、レーザ光を走査しながら対象物に照射し、その反射光を測定することで対象物(壁や柱など)までの距離及び高さを計測する。なお、三次元LiDAR11によって取得されるデータは、三次元の点の集合体となる(以下では、三次元LiDAR11によって取得されるデータの集合体を「三次元点群データD1」という。)。本実施形態の三次元LiDAR11は、計測距離が数十メートルから200m程度のものが使用される。また、三次元LiDAR11は、図2や図3に示すように、三次元LiDAR11を中心として、上下方向及び水平方向における所定の角度の範囲内の計測を行う。
As shown in Figures 2 and 3, the three-dimensional LiDAR 11 measures the surroundings of the
マップ作成システム10を用いて、広域マップM1を作成する際には、例えば、作業員が、図4に示すような建設現場の自動走行体1を自動走行させる区画R内を台車15を押しながら隈なく移動する。その間、三次元LiDAR11は、常時台車15の周囲を計測して三次元点群データD1を取得する。
When creating a wide-area map M1 using the
広域マップ作成部12は、三次元LiDAR11によって計測された三次元点群データD1に基づいて、広域マップM1を作成する。本実施形態では、SLAM(Simultaneous Localization and Mapping)技術に基づいて広域マップM1を作成する。なお、本実施形態における広域マップM1とは、柱、壁、及び障害物などを含む区画R全体の二次元の地図を意味する。広域マップM1の具体的な作成方法については、後で詳しく説明する。
The wide area
記憶部13は、三次元LiDAR11によって計測された三次元点群データD1、及び広域マップ作成部12によって作成された広域マップM1などを記憶する。記憶部13は、コンピューターCに搭載されるハードディスク等の各種記憶装置、あるいは、コンピューターCに接続可能なメモリーカード、USBメモリーなどの記憶媒体によって構成される。記憶部13は、台車15に搭載されていてもよく、台車15とは別の場所に設置されたコンピューター等に設けられていてもよい。
The
傾斜補正部14は、三次元LiDAR11によって計測した三次元点群データD1の中から、水平方向の基準となるもの(例えば、床面や天井)の点群データを抽出し、この抽出した点群データの傾斜を算出して、三次元点群データD1の傾きを水平になるように補正する。なお、これに代えて、台車15に傾斜角センサ(図示せず)を設け、この傾斜角センサによって台車15の傾斜角及び傾斜方向を検出し、検出した傾斜角及び傾斜方向に基づいて、計測した三次元点群データD1の傾きを補正してもよい。
The
次に、自動走行体1について説明する。
Next, we will explain the
本実施形態の自動走行体1は、例えば、自律走行搬送台車である。図5に示すように、自動走行体1は、車体2と、車体2の前後左右に配置された4つの車輪3と、車輪3を駆動するモータ(図示せず)に電力を供給するバッテリ4と、二次元点群データ取得部5と、自動走行体1の走行を制御するコントローラ20と、を備える。車体2上には、荷物が置かれる荷台6が設置される。なお、自動走行体1は、必ずしも搬送機能を有する自動走行体でなくてもよい。
The
図1に示すように、コントローラ20は、周辺マップ作成部21と、記憶部22と、制御部23と、送受信部24と、を有する。なお、周辺マップ作成部21及び制御部23は、コントローラ20における機能を仮想的なユニットとしたものであり、物理的な存在を意味するものではない。
As shown in FIG. 1, the
本実施形態では、二次元点群データ取得部5は、二次元LiDARによって構成され、自動走行体1に搭載される。なお、以下では、自動走行体1に搭載される二次元LiDARについては、二次元点群データ取得部5と同じ付番「5」を付して説明する。二次元LiDAR5は、自動走行体1の周囲を計測して二次元点群データD2を取得する。
In this embodiment, the two-dimensional point cloud
周辺マップ作成部21は、二次元LiDAR5によって取得された二次元点群データD2に基づいて、自動走行体1の周辺のマップ(以下では、「周辺マップM2」という。)を作成する。周辺マップM2の具体的な作成方法については、後で詳しく説明する。
The surrounding area
記憶部22は、読み書き可能なハードディスクやSSDなどの記憶媒体によって構成される。記憶部22には、二次元LiDAR5によって計測された二次元点群データD2及びマップ作成システム10によって作成された広域マップM1が記憶されるとともに、自動走行体1の走行動作を制御するための各種プログラムが記憶される。さらに、記憶部22には、自動走行体1の目的地、及び目的地までのルートなど各種データが記憶される。
The
なお、記憶部22をコントローラ20に対して着脱可能な記憶媒体(例えば、メモリーカード)によって構成してもよい。あるいは、記憶部22をコントローラ20とは異なる場所に設置された記憶媒体によって構成してもよい。さらには、これらを併用してもよい。
The
制御部23は、記憶部22に記憶された広域マップM1と周辺マップ作成部21によって作成された周辺マップM2とに基づいて、自動走行体1の走行動作を制御する。具体的には、自動走行体1に目的地が入力されると、制御部23は、障害物の回避など考慮しつつ目的地までのルートを算出する。その後、制御部23は、自動走行体1の走行中に随時作成される周辺マップM2と、記憶部22に記憶された広域マップM1と、に基づいて、自動走行体1の現在位置を推定しつつ、図示しないモータによって車輪3を駆動して、自動走行体1を目的地まで自動で走行させる。
The
送受信部24は、コントローラ20と外部のコンピューターとの間でデータ通信を行う。コントローラ20は、送受信部24を通じて、例えば、外部のコンピューターに、自動走行体1の現在位置情報や、走行ルートなどの情報を送信することができるとともに、外部のコンピューターから広域マップM1や目的地情報などを受信することができる。
The transmission/
このように、自動走行システム100では、マップ作成システム10によって作成した広域マップM1と、自動走行体1の二次元LiDAR5によって取得された二次元点群データD2に基づいて作成された周辺マップM2と、に基づいて、自動走行体1を目的地まで自動で走行させることができる。
In this way, the
ところで、自動走行体1の二次元LiDAR5によって取得された二次元点群データD2は、二次元(水平面上)の点群データとなる。これに対し、マップ作成システム10における三次元LiDAR11によって計測された三次元点群データD1は、三次元(立体)の点群データである。しかしながら、三次元点群データD1は、疎らな点のデータの集合体である。このため、例えば、二次元点群データD2と比較するために、三次元点群データD1の中から二次元点群データD2と同じ高さの平面のデータのみを抽出すると、図7(A)に示すように、疎らな点によって構成されたマップ、言い換えると、情報量が少ない(精度の低い)マップとなってしまう。このようなマップを用いて自動走行体1を自動走行させると、例えば、自動走行体1の自己位置を推定できなくなってしまうおそれがある。
The two-dimensional point cloud data D2 acquired by the two-
また、自動走行システム100を使用する際には、区画R内において複数の自動走行体1を走行させることがある。この場合に、自動走行体1に搭載された二次元LiDAR5の設置位置(図5の高さH)が自動走行体1によって異なっていると、それぞれの自動走行体1に搭載された二次元LiDARの設置位置(高さH)に合わせた広域マップM1が必要となる。このため、各自動走行体1を自動走行させる前に、それぞれの二次元LiDAR5の設置位置(高さH)に応じた広域マップM1を作成する必要が生じ、その分、労力と時間を要してしまう。
Furthermore, when using the
そこで、本実施形態のマップ作成システム10では、三次元LiDAR11によって計測された三次元点群データD1を用いて、簡単に二次元LiDAR5の設置位置(高さ)に対応でき、かつ精度の高い広域マップM1の作成方法を採用する。以下に、図6に示すフローチャートを参照しながら、広域マップM1の具体的な作成方法について説明する。
Therefore, the
ステップS11では、三次元点群データD1を取得する。具体的には、台車15を移動させている間、三次元LiDAR11によって台車15の周囲を計測して三次元点群データD1を取得する。
In step S11, three-dimensional point cloud data D1 is acquired. Specifically, while the
ステップS12では、傾き補正を行う。具体的には、三次元LiDAR11によって計測した三次元点群データD1の中から、水平方向の基準となるもの(例えば、床面や天井)の点群データを抽出し、この抽出した点群データの傾斜を算出して、三次元点群データD1の傾きを水平になるように補正する。なお、傾き補正が必要ない場合には、ステップS13の処理を省略してもよい。
In step S12, tilt correction is performed. Specifically, point cloud data of horizontal reference points (e.g., floor surface or ceiling) is extracted from the three-dimensional point cloud data D1 measured by the three-
ステップS13では、自動走行体1に搭載されている二次元LiDAR5の設置位置の高さ(高さH)を入力する。具体的には、自動走行体1に搭載されている二次元LiDAR5が計測する二次元点群データD2の床面からの高さHをコンピューターCに入力する。
In step S13, the height (height H) of the installation position of the two-
ステップS14では、所定の範囲Hrの三次元点群データD1aを抽出する。具体的には、コンピューターC(広域マップ作成部12)は、三次元LiDAR11によって取得された三次元点群データD1のうち、高さ方向における所定の範囲Hr内の三次元点群データD1aを抽出する。本実施形態では、範囲Hrは、自動走行体1に搭載される二次元LiDAR5によって計測する平面(二次元LiDAR5の設置位置)の高さHを中心として、例えば、±20cm程度までの範囲に設定される(図2参照)。
In step S14, three-dimensional point cloud data D1a within a predetermined range Hr is extracted. Specifically, computer C (wide area map creation unit 12) extracts three-dimensional point cloud data D1a within a predetermined range Hr in the height direction from the three-dimensional point cloud data D1 acquired by the three-
ステップS15では、三次元点群データD1aを圧縮する。具体的には、コンピューターC(広域マップ作成部12)は、範囲Hr内にある三次元点群データD1aを水平方向の平面に投影して広域マップM1を作成する、別の言い方をすると、範囲Hr内にある点群データを1つの平面上に重ね合わせて、二次元の広域マップM1を作成する。これにより、三次元点群データD1のある一平面のデータのみを抽出した場合(図7(A)参照)に比べ、データ間の隙間が小さくなる(図7(B)参照)。この結果、データの密度が高くなるので、精度の高い広域マップM1を作成することができる。 In step S15, the three-dimensional point cloud data D1a is compressed. Specifically, computer C (wide area map creation unit 12) projects the three-dimensional point cloud data D1a within range Hr onto a horizontal plane to create a wide area map M1; in other words, the point cloud data within range Hr is overlaid on a single plane to create a two-dimensional wide area map M1. This reduces the gaps between data (see FIG. 7B) compared to when only data from one plane of the three-dimensional point cloud data D1 is extracted (see FIG. 7A). As a result, the data density increases, making it possible to create a wide area map M1 with high accuracy.
また、二次元LiDAR5の設置位置の高さHの異なる自動走行体1を自動走行させる場合には、それぞれの自動走行体1の二次元LiDAR5の設置位置の高さに応じて、上記ステップS12における二次元LiDAR5の設置位置の高さHの入力を変更するだけで、自動走行体1に応じた広域マップM1を容易に作成することができる。
In addition, when
次に、自動走行システム100における自動走行体1の走行制御について、図8に示すフローチャートを参照しながら説明する。図8のフローチャートに示す処理は、コントローラ20の記憶部22に予め記憶されたプログラムに基づいて実行される。コントローラ20は、図8に示す処理を毎秒当たり数回繰り返し行う。
Next, the driving control of the
なお、図8に示す処理は、コントローラ20に自動走行体1の目的地までのルートが設定されて、自動走行体1が自動走行している間に行われる処理である。
The process shown in FIG. 8 is performed when the route to the destination of the
ステップS21では、二次元点群データD2を取得する。具体的には、自動走行体1に搭載された二次元LiDAR5によって自動走行体1の周囲の二次元点群データD2を取得する。
In step S21, two-dimensional point cloud data D2 is acquired. Specifically, two-dimensional point cloud data D2 of the surroundings of the
ステップS22では、自己位置を推定する。具体的には、コントローラ20(周辺マップ作成部21)は、二次元LiDAR5によって取得した二次元点群データD2から、自動走行体1の周囲の周辺マップM2を作成する。次いで、コントローラ20(制御部23)は、予め記憶部22に記憶された広域マップM1と作成した周辺マップM2とを比較して、自動走行体1の現在位置(自己位置)を推定する。
In step S22, the self-position is estimated. Specifically, the controller 20 (periphery map creation unit 21) creates a peripheral map M2 of the surroundings of the
ステップS23では、障害物の有無を判断する。具体的には、コントローラ20(制御部23)は、ステップS22において作成した周辺マップM2あるいは、二次元点群データD2に基づいて、設定された目的地までのルート上に障害物が出現していないか否かを判断する。例えば、建設現場では、広域マップM1を作成した段階では、存在しなかった資材や装置が、自動走行体1が走行する段階で設定されたルート上に置かれていることがある。コントローラ20(制御部23)は、このように自動走行体1が走行する段階で出現した障害物を検知する。設定された目的地までのルート上に障害物が検知されなければ、ステップS24に進み、設定された目的地までのルート上に障害物が検知された場合には、ステップS25に進む。なお、障害物の検知は、広域マップM1と周辺マップM2とを比較することによって行ってもよい。
In step S23, the presence or absence of an obstacle is determined. Specifically, the controller 20 (control unit 23) determines whether or not an obstacle has appeared on the route to the set destination based on the surrounding area map M2 created in step S22 or the two-dimensional point cloud data D2. For example, at a construction site, materials or equipment that did not exist when the wide-area map M1 was created may be placed on the route set when the
ステップS24では、目的地に到達したか否かを判断する。具体的には、コントローラ20(制御部23)は、ステップS22で推定した自動走行体1の現在位置が、目的地であるか否かを判断する。自動走行体1が目的地に到達していれば、制御(自動走行)を終了する。これに対し、自動走行体1が目的地に到達していなければ、ステップS21に戻る。
In step S24, it is determined whether the destination has been reached. Specifically, the controller 20 (control unit 23) determines whether the current position of the
続いて、ステップS25について説明する。上述のように、ステップS23において、設定された目的地までのルート上に障害物が存在していると判断された場合には、ステップS25に進む。ステップS25では、ルートを再設定する。具体的には、コントローラ20(制御部23)は、設定されたルート上に障害物を検知した場合には、自動走行体1の障害物を回避しつつ、目的地に到達するルートを検索し、ルートを再設定する。そして、ステップS21に戻って、再びステップS21以降の処理を実行する。
Next, step S25 will be described. As described above, if it is determined in step S23 that an obstacle exists on the route to the set destination, the process proceeds to step S25. In step S25, the route is reset. Specifically, if the controller 20 (control unit 23) detects an obstacle on the set route, the
上述のように、本実施形態のマップ作成システム10では、所定の高さの範囲Hr内にある三次元点群データD1aを水平方向の平面に投影して広域マップM1を作成しているので、精度の高い広域マップM1を作成することができる。そして、本実施形態の自動走行システム100では、自動走行体1を自動走行させる際に、精度の高い広域マップM1を用いているので、自動走行体1の自己位置の推定精度を向上させることができ、自動走行の精度も向上させることができる。
As described above, in the
さらに、マップ作成システム10では、二次元LiDAR5の設置位置の高さHの入力を変更するだけで、簡単に、自動走行体1の二次元LiDAR5の設置位置の高さHに応じた広域マップM1を作成することができる。つまり、マップ作成システム10を使用することにより、様々な高さの広域マップM1を容易に作成することができるので、二次元LiDAR5の設置位置の異なる自動走行体1を使用する際に、広域マップM1を作り直す労力や時間を大幅に低減することができる。
Furthermore, with the
次に、自動走行システム100の変形例について説明する。自動走行システム100では、自動走行体1に二次元LiDAR5が搭載されていたが、変形例に係る自動走行システム100では、自動走行体1に三次元LiDAR50(第2三次元点群データ取得部)が搭載される(図9参照)点で、相違する。また、自動走行システム100では、二次元LiDAR5の設置位置の高さHに合わせて広域マップM1を作成しているが、変形例に係る自動走行システム100では、任意の高さで広域マップM11を作成できる点で、相違する。なお、以下では、同じ構成や、同じ処理については、同一の付番を付して適宜説明を省略する。
Next, a modified example of the
まず、変形例における広域マップM11の作成方法について、図10に示すフローチャートを参照しながら説明する。なお、ここでは、図6に示すフローチャートと相違するステップS113、S114、及びS115についてのみ説明する。 First, the method for creating the wide-area map M11 in the modified example will be described with reference to the flowchart shown in FIG. 10. Note that only steps S113, S114, and S115, which differ from the flowchart shown in FIG. 6, will be described here.
この変形例においても、台車15に搭載された三次元LiDAR11によって計測された三次元点群データD1を用いる。ステップS113では、高さH1(図9参照)を入力する。具体的には、床面からの高さH1をコンピューターCに入力する。高さH1は、任意の高さであり、自動走行体1に搭載される三次元LiDAR50の設置位置に対応させる必要はない。本変形例では、例えば、高さH1を2m程度に設定する(図9参照)。
In this modified example, the three-dimensional point cloud data D1 measured by the three-
そして、ステップS114において、所定の範囲Hrの三次元点群データD1bを抽出する。具体的には、コンピューターC(広域マップ作成部12)は、三次元LiDAR11によって取得された三次元点群データD1のうち、高さ方向における所定の範囲Hr1内の三次元点群データD1bを抽出する。本変形例では、三次元点群データD1を抽出する所定の範囲Hr1を、例えば、高さH1±50cm程度の範囲とする(図9参照)。
Then, in step S114, three-dimensional point cloud data D1b of a predetermined range Hr is extracted. Specifically, computer C (wide area map creation unit 12) extracts three-dimensional point cloud data D1b within a predetermined range Hr1 in the height direction from the three-dimensional point cloud data D1 acquired by the three-
建設現場などでは、資材や装置を一時的に床面に仮置きしておくことがある(図9参照)。この状態で広域マップM11を作成すると、当然資材や装置が広域マップM11に反映されることになる。しかしながら、自動走行体1を自動走行させるときに、床面に置かれていた資材や装置が移動してしまっていることがある。この場合には、予め作成した広域マップM11と自動走行体1が自動走行中に取得した周辺マップM2との間に相違が出てしまい、コントローラ20(制御部23)が自動走行体1の現在位置を推定できなくなるおそれがある。
At construction sites, materials and equipment are sometimes temporarily placed on the floor (see Figure 9). If a wide-area map M11 is created in this state, the materials and equipment will naturally be reflected in the wide-area map M11. However, when the
このため、本変形例のように、三次元点群データD1の抽出範囲の高さH1を2m程度(範囲Hr1を高さ1.5mから2.5m程度)とすることで、床面に仮置きされた資材や装置が含まない範囲の点群データを使用して広域マップM11を作成することができる。つまり、資材や装置の影響を受けないで広域マップM11を作成することができる。 Therefore, by setting the height H1 of the extraction range of the three-dimensional point cloud data D1 to about 2 m (range Hr1 is about 1.5 m to 2.5 m in height) as in this modified example, the wide-area map M11 can be created using point cloud data in a range that does not include materials or equipment temporarily placed on the floor. In other words, the wide-area map M11 can be created without being affected by materials or equipment.
ステップS115では、三次元点群データD1bを圧縮する。具体的な方法は、ステップS15と同様であるので、説明を省略する。 In step S115, the three-dimensional point cloud data D1b is compressed. The specific method is the same as in step S15, so the explanation is omitted.
次に、本変形例における自動走行体1の走行制御について、図11に示すフローチャートを参照しながら説明する。なお、図11のフローチャートに示す処理は、コントローラ20の記憶部22に予め記憶されたプログラムに基づいて実行される。コントローラ20は、図11に示す処理を毎秒当たり数回繰り返し行う。
Next, the driving control of the
本変形例では、自動走行体1に搭載される三次元LiDAR50によって計測された三次元点群データD3に基づいて作成される周辺マップM12は、広域マップM11と同じ方法(図10のフローチャート)で作成する。図示はしないが、簡単に説明すると、三次元LiDAR50によって取得された三次元点群データD3のうち、高さ方向における所定の範囲内Hr1を、三次元点群データD1の抽出範囲(高さH1±50cm程度)と同じにする。なお、周辺マップM12を作成する際には、図10のステップS112における高さH1の入力を一度行えば、以降は高さH1の入力(ステップS112)を不要とする。
In this modified example, the surrounding map M12 is created based on the three-dimensional point cloud data D3 measured by the three-
このように、広域マップM11と周辺マップM12を作成する条件を同じとすることで、自己位置の推定精度を向上させることができる。このため、最適には、自動走行体1に搭載される三次元LiDAR50は、台車15に搭載される三次元LiDAR11と同じ機種であることが望ましい。
In this way, by creating the wide-area map M11 and the surrounding area map M12 under the same conditions, the accuracy of estimating the self-position can be improved. Therefore, optimally, it is desirable that the
また、本変形例の自動走行システム100においても、三次元点群データD1,D3のデータの抽出範囲、すなわち、作成する広域マップM11と周辺マップM12の高さを適宜変更することができる。例えば、床面に置かれる資材や装置の高さや工事の進捗に応じて、三次元点群データD1,D3のデータの抽出範囲(高さH、H1)を換えることで、適宜、これらの影響を受けない範囲の広域マップM11及び周辺マップM12を作成することができる。これにより、自動走行体1の自己位置の推定精度を向上させることができ、自動走行の精度も向上させることができる。
Also, in the
以上のマップ作成システム10及び自動走行システム100によれば、以下の効果を奏する。
The above
マップ作成システム10では、三次元LiDAR11によって取得された三次元点群データD1のうち、高さ方向における所定の範囲Hr内の三次元点群データD1aを抽出し、この三次元点群データD1aを圧縮して、二次元の広域マップM1を作成している。これにより、三次元点群データD1を用いた場合でも、精度の高い二次元の広域マップM1を作成することができる。
In the
また、マップ作成システム10では、範囲Hr(高さHの入力)を適宜変更するだけで、簡単に高さの異なる二次元の広域マップM1を作成することができる。つまり、マップ作成システム10を使用することにより、様々な高さの二次元の広域マップM1を容易に作成することができるので、例えば、二次元LiDAR5の設置位置の異なる自動走行体1を複数使用する際に、それぞれの自動走行体1に対応する広域マップM1を作るための労力や時間を大幅に低減することができる。
In addition, with the
さらに、本実施形態の自動走行システム100では、自動走行体1を自動走行させる際に、マップ作成システム10によって作成した精度の高い広域マップM1を用いることにより、自動走行体1の自己位置の推定精度を向上させることができ、自動走行の精度も向上させることができる。
Furthermore, in the
また、自動走行体1に三次元LiDAR50を搭載した場合には、床面に置かれる資材や装置の高さや工事の進捗に応じて、三次元点群データD1,D3のデータの抽出範囲(高さH、H1)を変えることで、適宜、これらの影響を受けない範囲の広域マップM11及び周辺マップM12を作成することができる。これにより、自動走行体1の自己位置の推定精度をより向上させることができ、自動走行の精度もより向上させることができる。
In addition, when a
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。 Although the embodiments of the present invention have been described above, the above embodiments merely show some of the application examples of the present invention, and are not intended to limit the technical scope of the present invention to the specific configurations of the above embodiments.
上記実施形態では、三次元点群データを取得する方法として、三次元LiDAR11、50を用いる場合を説明したが、三次元点群データを取得する方法は、これに限らない。例えば、カメラなど撮像装置を用いたVisualSLAM技術から三次元点群データを取得する、あるいは、二次元LiDARを三次元的に動かして三次元点群データを取得してもよい。
In the above embodiment, the method of acquiring three-dimensional point cloud data has been described using three-
また、上記実施形態では、二次元点群データD2から周辺マップM2を作成して処理を進めるものとしたが、二次元点群データD2をそのまま使用するものとしてもよい。 In addition, in the above embodiment, the surrounding map M2 is created from the two-dimensional point cloud data D2 and processing is then carried out, but the two-dimensional point cloud data D2 may be used as is.
上記実施形態では、作業員によって押される台車15に搭載された三次元LiDAR11によって三次元点群データD1を取得する場合を例に説明したが、これに限らない。例えば、三次元LiDAR11をリモートコントロール可能な台車に搭載し、この台車を遠隔操作して三次元点群データD1を取得してもよい。また、作業員が三次元LiDAR11を手に持って移動してもよく、あるいは、三次元LiDAR11をヘルメットに搭載したり、腕に付けたりして、区画R内を歩くことにより三次元点群データD1を取得してもよい。
In the above embodiment, an example was described in which three-dimensional point cloud data D1 is acquired by a three-
さらに、上記実施形態では、三次元LiDAR11を移動させながら三次元点群データD1を取得する場合を例に説明をしたが、三次元点群データD1は、必ずしも三次元LiDAR11を移動させながら取得する必要はない。例えば、複数の地点で取得した三次元点群データD1を重ね合わせて、この重ね合わせた三次元点群データD1に基づいて広域マップM1を作成してもよい。また、カメラなど撮像装置によって定点で撮像した画像を用いて三次元点群データを取得してもよい。 In addition, in the above embodiment, an example was described in which the three-dimensional point cloud data D1 is acquired while the three-dimensional LiDAR11 is moved, but the three-dimensional point cloud data D1 does not necessarily have to be acquired while the three-dimensional LiDAR11 is moved. For example, three-dimensional point cloud data D1 acquired at multiple points may be overlaid, and a wide-area map M1 may be created based on this overlaid three-dimensional point cloud data D1. Also, three-dimensional point cloud data may be acquired using images captured at fixed points by an imaging device such as a camera.
100 自動走行システム
10 マップ作成システム
1 自動走行体
5 二次元LiDAR(二次元点群データ取得部)
11 三次元LiDAR(第1三次元点群データ取得部)
12 広域マップ作成部
13 記憶部
14 傾斜補正部
15 台車(移動体)
20 コントローラ
21 周辺マップ作成部
22 記憶部
23 制御部
50 三次元LiDAR(第2三次元点群データ取得部)
C コンピューター
100
11 3D LiDAR (first 3D point cloud data acquisition unit)
12 Wide area
20
C Computer
Claims (3)
前記第1三次元点群データ取得部によって取得された三次元点群データのうち、水平方向の任意の一平面に高さ方向における所定の範囲内の三次元点群データを前記高さ方向に投影して二次元の広域マップを作成する広域マップ作成部と、を備えたマップ作成システム。 a first three-dimensional point cloud data acquisition unit that measures the surroundings and acquires three-dimensional point cloud data;
a wide-area map creation unit that projects three-dimensional point cloud data within a predetermined range in the height direction onto any horizontal plane , from the three-dimensional point cloud data acquired by the first three-dimensional point cloud data acquisition unit, in the height direction to create a two-dimensional wide-area map.
請求項1に記載されたマップ作成システムによって得られた前記広域マップを記憶する記憶部と、
前記自動走行体に搭載され、前記自動走行体の周囲を計測して所定の水平面上の二次元点群データを取得する二次元点群データ取得部と、
前記記憶部に記憶された前記広域マップと前記二次元点群データ取得部によって取得された二次元点群データとに基づいて、前記自動走行体の走行動作を制御する制御部と、を備え、
前記広域マップ作成部は、前記二次元点群データ取得部によって計測する前記水平面を含む所定の範囲内の三次元点群データから前記広域マップを作成する自動走行システム。 An autonomous vehicle that automatically drives to a destination;
A storage unit that stores the wide-area map obtained by the map creation system according to claim 1;
a two-dimensional point cloud data acquisition unit mounted on the automated driving body and configured to measure the surroundings of the automated driving body and acquire two-dimensional point cloud data on a predetermined horizontal plane;
a control unit that controls a traveling operation of the automated driving vehicle based on the wide-area map stored in the storage unit and the two-dimensional point cloud data acquired by the two-dimensional point cloud data acquisition unit,
The wide-area map creation unit is an automated driving system that creates the wide-area map from three-dimensional point cloud data within a predetermined range including the horizontal plane measured by the two-dimensional point cloud data acquisition unit.
請求項1に記載されたマップ作成システムによって得られた前記広域マップを記憶する記憶部と、
前記自動走行体に搭載され、前記自動走行体の周囲を計測して三次元点群データを取得する第2三次元点群データ取得部と、
前記第2三次元点群データ取得部によって取得された三次元点群データのうち、水平方向の任意の一平面に前記高さ方向における所定の範囲内の三次元点群データを前記高さ方向に投影して前記自動走行体の周辺の二次元の周辺マップを作成する周辺マップ作成部と、
前記記憶部に記憶された前記広域マップと前記周辺マップ作成部によって作成した前記周辺マップとに基づいて、前記自動走行体の走行動作を制御する制御部と、を備えた自動走行システム。 An autonomous vehicle that automatically travels to a destination;
A storage unit that stores the wide-area map obtained by the map creation system according to claim 1;
A second three-dimensional point cloud data acquisition unit that is mounted on the automated driving body and measures the surroundings of the automated driving body to acquire three-dimensional point cloud data;
a surroundings map creation unit that creates a two-dimensional surroundings map of the surroundings of the autonomous vehicle by projecting, in a height direction , three-dimensional point cloud data within a predetermined range in the height direction, among the three-dimensional point cloud data acquired by the second three-dimensional point cloud data acquisition unit, onto any one plane in the horizontal direction ;
An autonomous driving system comprising: a control unit that controls the driving operation of the autonomous driving body based on the wide-area map stored in the memory unit and the surrounding area map created by the surrounding area map creation unit.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024048728A JP7641551B1 (en) | 2024-03-25 | 2024-03-25 | Map creation system and automated driving system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024048728A JP7641551B1 (en) | 2024-03-25 | 2024-03-25 | Map creation system and automated driving system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP7641551B1 true JP7641551B1 (en) | 2025-03-07 |
| JP2025148120A JP2025148120A (en) | 2025-10-07 |
Family
ID=94825604
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024048728A Active JP7641551B1 (en) | 2024-03-25 | 2024-03-25 | Map creation system and automated driving system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7641551B1 (en) |
Citations (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007041657A (en) | 2005-07-29 | 2007-02-15 | Sony Corp | MOBILE BODY CONTROL METHOD AND MOBILE BODY |
| US20130325244A1 (en) | 2011-01-28 | 2013-12-05 | Intouch Health | Time-dependent navigation of telepresence robots |
| JP2016028311A (en) | 2014-07-10 | 2016-02-25 | 株式会社リコー | Robot, program, and recording medium |
| US20190370691A1 (en) | 2019-07-12 | 2019-12-05 | Lg Electronics Inc. | Artificial intelligence robot for determining cleaning route using sensor data and method for the same |
| US20200029488A1 (en) | 2018-07-26 | 2020-01-30 | Bear Flag Robotics, Inc. | Vehicle Controllers For Agricultural And Industrial Applications |
| US20200109954A1 (en) | 2017-06-30 | 2020-04-09 | SZ DJI Technology Co., Ltd. | Map generation systems and methods |
| US20200394410A1 (en) | 2016-08-29 | 2020-12-17 | Trifo, Inc. | Visual-Inertial Positional Awareness for Autonomous and Non-Autonomous Tracking |
| US20210000006A1 (en) | 2019-07-02 | 2021-01-07 | Bear Flag Robotics, Inc. | Agricultural Lane Following |
| JP2022098432A (en) | 2020-12-21 | 2022-07-01 | コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション | Vehicle navigation |
| WO2023276187A1 (en) | 2021-06-30 | 2023-01-05 | パナソニックIpマネジメント株式会社 | Travel map creation device, travel map creation method, and program |
| WO2023112515A1 (en) | 2021-12-17 | 2023-06-22 | 株式会社クボタ | Map generation system and map generation method |
| WO2023139793A1 (en) | 2022-01-24 | 2023-07-27 | 三菱電機株式会社 | Slam device, slam attack countermeasure program, and autonomous mobility |
| JP2023112670A (en) | 2022-02-01 | 2023-08-14 | キヤノン株式会社 | Control system, control method, and computer program |
| JP2023112659A (en) | 2022-02-01 | 2023-08-14 | キヤノン株式会社 | Information processing apparatus, control system, control method, and computer program |
| JP2024022888A (en) | 2022-08-08 | 2024-02-21 | 株式会社日立製作所 | Automatic map generation device and transportation vehicle system |
-
2024
- 2024-03-25 JP JP2024048728A patent/JP7641551B1/en active Active
Patent Citations (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007041657A (en) | 2005-07-29 | 2007-02-15 | Sony Corp | MOBILE BODY CONTROL METHOD AND MOBILE BODY |
| US20130325244A1 (en) | 2011-01-28 | 2013-12-05 | Intouch Health | Time-dependent navigation of telepresence robots |
| JP2016028311A (en) | 2014-07-10 | 2016-02-25 | 株式会社リコー | Robot, program, and recording medium |
| US20200394410A1 (en) | 2016-08-29 | 2020-12-17 | Trifo, Inc. | Visual-Inertial Positional Awareness for Autonomous and Non-Autonomous Tracking |
| US20200109954A1 (en) | 2017-06-30 | 2020-04-09 | SZ DJI Technology Co., Ltd. | Map generation systems and methods |
| US20200029488A1 (en) | 2018-07-26 | 2020-01-30 | Bear Flag Robotics, Inc. | Vehicle Controllers For Agricultural And Industrial Applications |
| US20210000006A1 (en) | 2019-07-02 | 2021-01-07 | Bear Flag Robotics, Inc. | Agricultural Lane Following |
| US20190370691A1 (en) | 2019-07-12 | 2019-12-05 | Lg Electronics Inc. | Artificial intelligence robot for determining cleaning route using sensor data and method for the same |
| JP2022098432A (en) | 2020-12-21 | 2022-07-01 | コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション | Vehicle navigation |
| WO2023276187A1 (en) | 2021-06-30 | 2023-01-05 | パナソニックIpマネジメント株式会社 | Travel map creation device, travel map creation method, and program |
| WO2023112515A1 (en) | 2021-12-17 | 2023-06-22 | 株式会社クボタ | Map generation system and map generation method |
| WO2023139793A1 (en) | 2022-01-24 | 2023-07-27 | 三菱電機株式会社 | Slam device, slam attack countermeasure program, and autonomous mobility |
| JP2023112670A (en) | 2022-02-01 | 2023-08-14 | キヤノン株式会社 | Control system, control method, and computer program |
| JP2023112659A (en) | 2022-02-01 | 2023-08-14 | キヤノン株式会社 | Information processing apparatus, control system, control method, and computer program |
| JP2024022888A (en) | 2022-08-08 | 2024-02-21 | 株式会社日立製作所 | Automatic map generation device and transportation vehicle system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2025148120A (en) | 2025-10-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN115516398B (en) | Method for controlling an automated guided vehicle and control system suitable for executing said method | |
| US10222808B2 (en) | Inspection system and method for performing inspections in a storage facility | |
| US10025317B2 (en) | Methods and systems for camera-based autonomous parking | |
| CN111837136B (en) | Autonomous navigation based on local sensing and associated systems and methods | |
| CN108290294B (en) | Mobile robot and its control method | |
| US11269347B2 (en) | Method for operating a partially autonomous or autonomous motor vehicle, and motor vehicle | |
| US5155684A (en) | Guiding an unmanned vehicle by reference to overhead features | |
| JP5278283B2 (en) | Autonomous mobile device and control method thereof | |
| EP1365300A2 (en) | Autonomous multi-platform robotic system | |
| JPWO2019026761A1 (en) | Mobile and computer programs | |
| US20100053593A1 (en) | Apparatus, systems, and methods for rotating a lidar device to map objects in an environment in three dimensions | |
| CN111033561A (en) | System and method for navigating robotic devices using semantic information | |
| JP7393185B2 (en) | Map information provision system to autonomous mobile devices and autonomous mobile devices | |
| CN104777835A (en) | Omni-directional automatic forklift and 3D stereoscopic vision navigating and positioning method | |
| CN105190461A (en) | Mobile body and position detection device | |
| JP2011209845A (en) | Autonomous mobile body, self-position estimation method and map information creation system | |
| US20190163201A1 (en) | Autonomous Vehicle Sensor Compensation Using Displacement Sensor | |
| CN114714357A (en) | Sorting and carrying method, sorting and carrying robot and storage medium | |
| CN106774318B (en) | Multi-agent interactive environment perception and path planning motion system | |
| EP0366350A2 (en) | Guiding an unmanned vehicle by reference to overhead features | |
| JP2014067223A (en) | Autonomous mobile body | |
| JP2025063042A (en) | MOBILE BODY, CONTROL METHOD, AND PROGRAM | |
| US12235093B2 (en) | Method for designing packaging plants | |
| EP4318165B1 (en) | Industrial truck autonomous or assisted driving using a plurality of cameras | |
| US20240011790A1 (en) | Information processing apparatus, information processing method, and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20240416 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241016 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20241016 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241126 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250106 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250121 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250213 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7641551 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |