JP7643678B1 - AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM - Google Patents
AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM Download PDFInfo
- Publication number
- JP7643678B1 JP7643678B1 JP2024085672A JP2024085672A JP7643678B1 JP 7643678 B1 JP7643678 B1 JP 7643678B1 JP 2024085672 A JP2024085672 A JP 2024085672A JP 2024085672 A JP2024085672 A JP 2024085672A JP 7643678 B1 JP7643678 B1 JP 7643678B1
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- data
- target moving
- driving
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 48
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 title 1
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012544 monitoring process Methods 0.000 claims abstract description 309
- 238000012806 monitoring device Methods 0.000 claims abstract description 125
- 238000001514 detection method Methods 0.000 claims description 96
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 38
- 238000004891 communication Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 28
- 230000001133 acceleration Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 239000011435 rock Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】より安全な自動運転を実現できるようにする。
【解決手段】対象移動体120は、自己位置データと地図データを参照して監視の要否を判定し、監視要求を送信すると共に走行状況データを送信する。周囲状況監視装置130は、前記監視要求を受信し、前記対象移動体の周囲状況を監視し、監視データを送信する。自動運転管制装置400は、前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、管制データを前記対象移動体へ送信する。
【選択図】図1
[Problem] To achieve safer automated driving.
[Solution] A target moving object (120) refers to its own position data and map data to determine whether monitoring is required, and transmits a monitoring request along with driving condition data. A surrounding condition monitoring device (130) receives the monitoring request, monitors the surrounding conditions of the target moving object, and transmits monitoring data. An automatic driving control device (400) receives the driving condition data and the monitoring data, determines a driving obstacle for the target moving object based on the driving condition data and the monitoring data, and transmits control data to the target moving object.
[Selected Figure] Figure 1
Description
本開示は、自動運転による安全な走行を実現するためのシステムに関するものである。 This disclosure relates to a system for achieving safe autonomous driving.
運送トラックおよびタクシーなどを運転するドライバーの不足が問題となっており、この問題は自動運転の実現によって解消される。
自動運転の実現のためには、自動運転車両の死角に存在する障害物を確認できるようにする必要がある。
There is a shortage of drivers for delivery trucks and taxis, etc., which is a problem that can be resolved with the realization of autonomous driving.
To realize autonomous driving, it is necessary to be able to check for obstacles in the blind spots of autonomous vehicles.
特許文献1は、自動運転車両の死角を補って対向車等の移動体との衝突を防ぐための情報提供システムを開示している。
この情報提供システムでは、道路の近辺に設置された路側装置が移動体を検知する。
Patent Document 1 discloses an information provision system for compensating for blind spots of an autonomous vehicle to prevent collision with a moving object such as an oncoming vehicle.
In this information providing system, roadside devices installed near roads detect moving objects.
特許文献1には路側装置が移動体の検知を開始する契機について言及されておらず、路側装置が常に移動体の検知を行っているものと考えれる。
そのため、移動体との衝突の危険性がない時間帯も移動体の検知が行われ、不要な検知情報を含んだ膨大な情報を通信および処理する必要が生じ、情報提供システムの負荷が高くなる。
Patent Document 1 does not mention the timing at which the roadside device starts detecting a moving object, and it is assumed that the roadside device is constantly detecting a moving object.
As a result, moving objects are detected even during times when there is no risk of collision with the moving object, which requires communication and processing of a huge amount of information, including unnecessary detection information, and increases the load on the information provision system.
本開示は、自動運転移動体からの死角が生じる地域を自動運転移動体が通行するときに、自動運転移動体から独立して設けられるセンサを用いて自動運転移動体の周囲を監視して、より安全な自動運転を実現できるようにすること、を目的とする。 The present disclosure aims to achieve safer autonomous driving by monitoring the surroundings of an autonomous vehicle using sensors installed independently of the autonomous vehicle when the autonomous vehicle passes through an area where there is a blind spot from the autonomous vehicle.
本開示の自動運転システムは、自動運転で走行する移動体である対象移動体と、周囲状況監視装置と、自動運転管制装置と、を備え、
前記対象移動体は、
移動体センサ群と、
前記移動体センサ群によって得られ前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定し、前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信する車載器と、
を備え、
前記周囲状況監視装置は、
監視センサ群と、
前記監視要求を受信し、前記監視センサ群に前記対象移動体の周囲状況を監視させ、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信する監視制御装置と、
を備え、
前記自動運転管制装置は、前記走行状況データと前記監視データを受信し、前記対象移動体の走行障害を前記走行状況データと前記監視データに基づいて判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記車載器は、前記管制データを受信し、前記管制データと、前記移動体センサ群によって得られ前記対象移動体の周囲状況を示す周囲状況データと、に基づいて前記対象移動体の走行を制御する。
The autonomous driving system of the present disclosure includes a target moving body that is an autonomous moving body, a surrounding situation monitoring device, and an autonomous driving control device.
The target moving body is
A group of mobile sensors;
an on-board device that determines whether or not monitoring by the surrounding situation monitoring device is necessary by referring to self-location data obtained by the mobile body sensor group and indicating the position of the target mobile body, and map data indicating a monitoring area set as an area in which the surrounding situation of the target mobile body should be monitored by the surrounding situation monitoring device when the target mobile body passes, and when it determines that monitoring by the surrounding situation monitoring device is necessary, transmits a monitoring request to the surrounding situation monitoring device and transmits driving situation data obtained by the mobile body sensor group and indicating the driving situation of the target mobile body to the automatic driving control device;
Equipped with
The surrounding situation monitoring device is
A monitoring sensor group;
a monitoring control device that receives the monitoring request, causes the monitoring sensor group to monitor the surrounding situation of the target moving object, and transmits monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
Equipped with
The autonomous driving control device receives the driving status data and the monitoring data, determines a driving obstacle of the target moving body based on the driving status data and the monitoring data, and transmits control data notifying the target moving body of the driving obstacle,
The vehicle-mounted device receives the control data and controls the travel of the target moving object based on the control data and surrounding condition data obtained by the group of moving object sensors and indicating the surrounding condition of the target moving object.
本開示によれば、自動運転移動体からの死角が生じる地域を自動運転移動体が通行するときに、自動運転移動体から独立して設けられるセンサを用いて自動運転移動体の周囲を監視して、より安全な自動運転を実現すること、が可能となる。 According to the present disclosure, when an autonomous vehicle passes through an area where there is a blind spot from the autonomous vehicle, the surroundings of the autonomous vehicle can be monitored using a sensor installed independently of the autonomous vehicle, thereby making it possible to achieve safer autonomous driving.
実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。 In the embodiments and drawings, the same or corresponding elements are given the same reference numerals. Explanations of elements given the same reference numerals as elements described above will be omitted or simplified as appropriate. Arrows in the drawings primarily indicate data flow or processing flow.
実施の形態1.
自動運転システム100について、図1から図7に基づいて説明する。
Embodiment 1.
The autonomous driving system 100 will be described with reference to FIGS. 1 to 7. FIG.
***構成の説明***
図1に基づいて、自動運転システム100の構成を説明する。
自動運転システム100は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と地図データベース110を備える。
***Configuration Description***
The configuration of an autonomous driving system 100 will be described with reference to FIG.
The autonomous driving system 100 includes a
対象移動体120は、自動運転で地上を走行する移動体である。
例えば、対象移動体120は、自動運転で走行する自動車、バスまたはタクシーである。
The
For example, the
対象移動体120は、車載器200と移動体センサ群290を備える。
移動体センサ群290は、対象移動体120に搭載される一種類以上のセンサである。
例えば、移動体センサ群290は、Depthカメラ291とLider292と測位センサ293を含む。
測位センサ293は、対象移動体120の位置を測定するセンサである。例えば、測位センサ293は、衛星測位システムを利用して測位を行う。衛星測位システムの例は、Global Positioning System(GPS)である。
移動体センサ群290は、対象移動体120の走行状況と対象移動体120の周囲状況を把握するために使用される。
走行状況は、位置、速度および加速度を含む。
周囲状況は、周囲に存在する物体の位置を含む。
The
The moving
For example, the
The
The mobile
The driving conditions include position, speed, and acceleration.
The surroundings include the positions of objects present in the surroundings.
図2に基づいて、車載器200の構成を説明する。
車載器200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204と入出力インタフェース205といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
The configuration of the vehicle-mounted
The vehicle-mounted
プロセッサ201は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ201はCPUである。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
The
IC is an abbreviation for Integrated Circuit.
CPU is an abbreviation for Central Processing Unit.
メモリ202は揮発性または不揮発性の記憶装置である。メモリ202は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ202はRAMである。メモリ202に記憶されたデータは必要に応じて補助記憶装置203に保存される。
RAMは、Random Access Memoryの略称である。
The
RAM is an abbreviation for Random Access Memory.
補助記憶装置203は不揮発性の記憶装置である。例えば、補助記憶装置203は、ROM、HDD、フラッシュメモリまたはこれらの組み合わせである。補助記憶装置203に記憶されたデータは必要に応じてメモリ202にロードされる。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
The
ROM is an abbreviation for Read Only Memory.
HDD is an abbreviation for Hard Disk Drive.
補助記憶装置203はレシーバ及びトランスミッタである。例えば、補助記憶装置203は通信チップまたはNICである。車載器200の通信は通信装置204を用いて行われる。
NICは、Network Interface Cardの略称である。
The
NIC is an abbreviation for Network Interface Card.
入出力インタフェース205は、入力装置および出力装置が接続されるポートである。例えば、移動体センサ群290が入出力インタフェース205に接続される。
The input/
車載器200は、監視要求部211と管制データ取得部212と運転制御部213といった要素を備える。これらの要素はソフトウェアで実現される。
The vehicle-mounted
補助記憶装置203には、監視要求部211と管制データ取得部212と運転制御部213としてコンピュータを機能させるための自動運転プログラムが記憶されている。自動運転プログラムは、メモリ202にロードされて、プロセッサ201によって実行される。
補助記憶装置203には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
プロセッサ201は、OSを実行しながら、自動運転プログラムを実行する。
OSは、Operating Systemの略称である。
The
The
The
OS is an abbreviation for Operating System.
自動運転プログラムのデータ(入力データ、出力データなど)は記憶部220に記憶される。
メモリ202は記憶部220として機能する。但し、補助記憶装置203、プロセッサ201内のレジスタおよびプロセッサ201内のキャッシュメモリなどの記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部220として機能してもよい。
Data for the automatic driving program (input data, output data, etc.) is stored in
The
自動運転プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The autonomous driving program can be recorded (stored) in a computer-readable manner on a non-volatile recording medium such as an optical disk or flash memory.
図1に戻り説明を続ける。
周囲状況監視装置130は、対象移動体120の周囲状況を監視する装置である。
例えば、周囲状況監視装置130は、ドローンまたは路側機である。ドローンは、自動運転で上空を飛行する飛行体である。路側機は、監視地域の道路に設けられる機器である。監視地域について後述する。
Returning to FIG.
The surrounding
For example, the surrounding
周囲状況監視装置130は、監視制御装置300と監視センサ群390を備える。
監視センサ群390は、周囲状況監視装置130に搭載される一種類以上のセンサである。
例えば、監視センサ群390は、Depthカメラ391とRGBカメラ392を含む。
監視センサ群390は、対象移動体120の周囲状況を監視するために使用される。
The surrounding
The
For example, the
The
図3に基づいて、監視制御装置300の構成を説明する。
監視制御装置300は、プロセッサ301とメモリ302と補助記憶装置303と通信装置304と入出力インタフェース305といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
The configuration of the monitoring and
The monitoring and
プロセッサ301は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ301はCPUである。
メモリ302は揮発性または不揮発性の記憶装置である。メモリ302は主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ302はRAMである。メモリ302に記憶されたデータは必要に応じて補助記憶装置303に保存される。
補助記憶装置303は不揮発性の記憶装置である。補助記憶装置303はストレージとも呼ばれる。例えば、補助記憶装置303は、ROM、HDD、フラッシュメモリまたはこれらの組み合わせである。補助記憶装置303に記憶されたデータは必要に応じてメモリ302にロードされる。
通信装置304はレシーバ及びトランスミッタである。例えば、通信装置304は通信チップまたはNICである。監視制御装置300の通信は通信装置304を用いて行われる。
入出力インタフェース305は、入力装置および出力装置が接続されるポートである。
The
The
The
The
The input/
監視制御装置300は、要求受付部311と監視制御部312と監視データ生成部313と監視データ提供部314といった要素を備える。これらの要素はソフトウェアで実現される。
The
補助記憶装置303には、要求受付部311と監視制御部312と監視データ生成部313と監視データ提供部314としてコンピュータを機能させるための監視プログラムが記憶されている。監視プログラムは、メモリ302にロードされて、プロセッサ301によって実行される。
補助記憶装置303には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ302にロードされて、プロセッサ301によって実行される。
プロセッサ301は、OSを実行しながら、監視プログラムを実行する。
The
The
The
監視プログラムの入出力データは記憶部320に記憶される。
メモリ302は記憶部320として機能する。但し、補助記憶装置303、プロセッサ301内のレジスタおよびプロセッサ301内のキャッシュメモリなどの記憶装置が、メモリ302の代わりに、又は、メモリ302と共に、記憶部320として機能してもよい。
Input and output data of the monitoring program is stored in the
The
監視プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The monitoring program can be recorded (stored) in a computer-readable manner on a non-volatile recording medium such as an optical disk or flash memory.
図1に戻り、説明を続ける。
自動運転管制装置400は、対象移動体120の自動運転を管理および制御する装置である。
Returning to FIG. 1, the explanation will be continued.
The autonomous
図4に基づいて、自動運転管制装置400の構成を説明する。
自動運転管制装置400は、プロセッサ401とメモリ402と補助記憶装置403と通信装置404と入出力インタフェース405といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
The configuration of the automatic
The autonomous
プロセッサ401は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ401はCPUである。
メモリ402は揮発性または不揮発性の記憶装置である。メモリ402は主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ402はRAMである。メモリ402に記憶されたデータは必要に応じて補助記憶装置403に保存される。
補助記憶装置403は不揮発性の記憶装置である。補助記憶装置403はストレージとも呼ばれる。例えば、補助記憶装置403は、ROM、HDD、フラッシュメモリまたはこれらの組み合わせである。補助記憶装置403に記憶されたデータは必要に応じてメモリ402にロードされる。
通信装置404はレシーバ及びトランスミッタである。例えば、通信装置404は通信チップまたはNICである。自動運転管制装置400の通信は通信装置404を用いて行われる。
入出力インタフェース405は、入力装置および出力装置が接続されるポートである。
The
The
The
The
The input/
自動運転管制装置400は、データ受付部411と走行障害判定部412と管制データ生成部413と管制データ提供部414といった要素を備える。これらの要素はソフトウェアで実現される。
The autonomous
補助記憶装置403には、データ受付部411と走行障害判定部412と管制データ生成部413としてコンピュータを機能させるための管制プログラムが記憶されている。管制プログラムは、メモリ402にロードされて、プロセッサ401によって実行される。
補助記憶装置403には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ402にロードされて、プロセッサ401によって実行される。
プロセッサ401は、OSを実行しながら、管制プログラムを実行する。
The
The
The
管制プログラムの入出力データは記憶部420に記憶される。
メモリ402は記憶部420として機能する。但し、補助記憶装置403、プロセッサ401内のレジスタおよびプロセッサ401内のキャッシュメモリなどの記憶装置が、メモリ402の代わりに、又は、メモリ402と共に、記憶部420として機能してもよい。
Input and output data for the control program are stored in
The
管制プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The control program can be recorded (stored) in a computer-readable manner on a non-volatile recording medium such as an optical disk or flash memory.
図1に戻り、説明を続ける。
地図データベース110は、地図データ111を管理する装置である。
地図データ111について後述する。
Returning to FIG. 1, the explanation will be continued.
The
The
***動作の説明***
自動運転システム100の動作の手順は自動運転方法に相当する。また、自動運転システム100の動作の手順は自動運転システムプログラムによる処理の手順に相当する。自動運転システムプログラムは、自動運転プログラムと監視プログラムと管制プログラムを含む。
*** Operation Description ***
The operation procedure of the automatic driving system 100 corresponds to an automatic driving method. The operation procedure of the automatic driving system 100 corresponds to a processing procedure by an automatic driving system program. The automatic driving system program includes an automatic driving program, a monitoring program, and a control program.
車載器200の動作を説明する。まず、車載器200の動作の前提を説明する。
移動体センサ群290は、周期的に、対象移動体120の走行状況と対象移動体120の周囲状況を観測する。例えば、Depthカメラ291は対象移動体120の周囲を計測し、Lider292は対象移動体120の周囲の各地点までの距離を測定し、測位センサ293は衛星測位を行う。
移動体センサ群290により、走行状況データと周囲状況データが得られる。
走行状況データは、対象移動体120の走行状況を示すデータである。走行状況データは、対象移動体120の位置、速度および加速度などを示す。対象移動体120の位置を、自己位置と称する。自己位置を示すデータを、自己位置データと称する。
周囲状況データは、対象移動体120の周囲状況を示すデータである。周囲状況データは、対象移動体120に搭載された移動体センサ群290で観測された各種物体などを示す。
運転制御部213は、走行計画データと周囲状況データに基づいて、対象移動体120の走行を制御する。
走行計画データは、対象移動体120の予定の走行経路を示す。
The following describes the operation of the vehicle-mounted
The mobile
The
The traveling condition data is data that indicates the traveling condition of the
The surrounding situation data is data that indicates the surrounding situation of the
The driving
The driving plan data indicates the planned driving route of the
図5に基づいて、車載器200の動作の手順を説明する。
ステップS121からステップS125は、繰り返し実行される。
The procedure of the operation of the vehicle-mounted
Steps S121 to S125 are repeatedly executed.
ステップS121において、監視要求部211は、自己位置データと地図データ111を参照し、周囲状況監視装置130による監視の要否を判定する。
地図データ111は、地図データベース110との通信によって取得される。
In step S121, the
The
地図データ111は、一か所以上の監視地域を示す。
監視地域は、対象移動体120が通行するときに対象移動体120の周囲状況を周囲状況監視装置130によって監視すべき地域として設定される。
具体的には、監視地域は、カーブの前後の領域のように対象移動体120からの死角が生じる場所である。
The
The monitoring area is set as an area in which the surrounding conditions of the
Specifically, the monitoring area is a place where there is a blind spot from the
周囲状況監視装置130による監視の要否は以下のように判定される。
監視要求部211は、対象移動体120が監視地域に入ったか判定する。
例えば、監視要求部211は、地図データ111に示される地図に対象移動体120の位置をマッピングする。そして、監視要求部211は、対象移動体120の位置が監視地域の中にマッピングされたか判定する。
対象移動体120が監視地域に入った場合、監視要求部211は、周囲状況監視装置130による監視が必要であると判定する。
Whether or not monitoring by the surrounding
The
For example, the
When the
周囲状況監視装置130による監視が必要であると判定された場合、処理はステップS122に進む。
If it is determined that monitoring by the surrounding
ステップS122において、監視要求部211は、監視要求を周囲状況監視装置130へ送信する。
監視要求は、対象移動体120の周囲状況の監視を周囲状況監視装置130に要求するためのデータである。
監視要求は、対象移動体120の識別子、対象移動体120の位置および監視地域の範囲などを示す。
In step S<b>122 , the
The monitoring request is data for requesting the surrounding
The monitoring request indicates the identifier of the target
ステップS123において、管制データ取得部212は、走行計画データと走行状況データを自動運転管制装置400へ送信する。
In step S123, the control
ステップS122とステップS123は、順番が逆でも構わない。 Steps S122 and S123 may be performed in reverse order.
ステップS124において、管制データ取得部212は、自動運転管制装置400から送信される管制データを受信する。
管制データは、対象移動体120の走行障害を通知するためのデータである。
例えば、管制データは、対象移動体120の走行の障害となる物体(障害物)の位置などを示す。
In step S124, the control
The control data is data for notifying a driving obstacle of the
For example, the control data indicates the positions of objects (obstacles) that impede the travel of the
ステップS125において、運転制御部213は、管制データと周囲状況データに基づいて、対象移動体120の走行を制御する。
In step S125, the driving
対象移動体120の走行は以下のように制御される。
まず、運転制御部213は、走行計画を変更する。例えば、運転制御部213は、予定の走行経路を管制データに示される障害物および周囲状況データに示される物体を避けることが可能な経路に変更する。
次に、運転制御部213は、対象移動体120が変更後の走行計画の通りに走行できるように、対象移動体120の駆動装置に対する制御(運転制御)を決定する。駆動装置の例は、操舵装置(ハンドル)およびモーター(エンジン)である。
そして、運転制御部213は、決定した運転制御にしたがって対象移動体120の駆動装置を制御する。
The travel of the
First, the driving
Next, the driving
Then, the driving
図6に基づいて、監視制御装置300の動作の手順を説明する。
ステップS131からステップS134は、対象移動体120から監視要求が送信されるごとに実行される。
The procedure of the operation of the monitoring and
Steps S131 to S134 are executed every time a monitoring request is transmitted from the
ステップS131において、要求受付部311は、対象移動体120から送信される監視要求を受信する。
In step S131, the
ステップS132において、監視制御部312は、監視センサ群390に対象移動体120の周囲状況を監視させる。
In step S132, the
対象移動体120の周囲状況は以下のように監視される。
監視制御部312は、監視センサ群390に対して動作命令を出力する。
監視センサ群390は、動作命令を受けて動作を開始する。例えば、Depthカメラ391とRGBカメラ392のそれぞれが対象移動体120の周囲を撮影する。
The surroundings of the
The
The
監視センサ群390が対象移動体120の周囲状況を監視することによってセンサデータが得られる。
Sensor data is obtained by the
ステップS133において、監視データ生成部313は、監視センサ群390から得られるセンサデータを用いて、監視データを生成する。
監視データは、対象移動体120の周囲状況を示すデータである。監視データは、監視センサ群390によって検知された各種物体の位置などを示す。
In step S<b>133 , the monitoring
The monitoring data is data that indicates the surrounding conditions of the
監視データは以下のように生成される。
まず、監視データ生成部313は、各時刻のセンサデータを用いて物体検知を実行して、対象移動体120の周囲に存在する各物体を検知する。
次に、監視データ生成部313は、各時刻における各物体の位置に基づいて、各物体の速度を算出すると共に、各物体の移動経路を予測する。
そして、監視データ生成部313は、検知された各物体の位置、速度および予測経路を示すデータを生成する。生成されるデータが監視データである。
The monitoring data is generated as follows:
First, the monitoring
Next, the monitoring
The
ステップS134において、監視データ提供部314は、監視データを自動運転管制装置400へ送信する。
In step S134, the monitoring
図7に基づいて、自動運転管制装置400の動作の手順を説明する。
ステップS141からステップS145は、対象移動体120から走行計画データと走行状況データが送信され周囲状況監視装置130から監視データが送信されるごとに実行される。
The procedure of the operation of the automatic
Steps S141 to S145 are executed each time the
ステップS141において、データ受付部411は、対象移動体120から送信される走行計画データと走行状況データを受信する。
In step S141, the
ステップS142において、データ受付部411は、周囲状況監視装置130から送信される監視データを受信する。
In step S142, the
ステップS141とステップS142は、順番が逆でも構わない。 Steps S141 and S142 may be performed in reverse order.
ステップS143において、走行障害判定部412は、走行状況データと監視データに基づいて、対象移動体120の走行障害の有無を判定する。
In step S143, the driving
対象移動体120の走行障害の有無は以下のように判定される。
走行障害判定部412は、対象移動体120の位置から近接範囲内に対象移動体120と対向する障害物が存在するか判定する。近接範囲は、対象移動体120の位置を基点とする範囲であり、近接範囲の大きさは予め決められる。
対象移動体120の位置と各物体の位置は、位置データベースを用いて管理される。位置データベースは自動運転管制装置400で管理される。走行障害判定部412は、位置データベースに示される地図に対象移動体120の位置と各物体の位置をマッピングする。そして、走行障害判定部412は、対象移動体120の位置と各物体の位置がマッピングされた地図を参照して判定を行う。
対象移動体120の位置から近接範囲内に対象移動体120と対向する障害物が存在する場合、走行障害判定部412は、対象移動体120の走行障害があると判定する。
The presence or absence of a travel obstacle for the
The traveling
The position of the
If there is an obstacle facing the
対象移動体120の走行障害が有ると判定された場合、処理はステップS144に進む。
対象移動体120の走行障害が無いと判定された場合、処理は終了する。
If it is determined that there is an obstacle to the running of the
If it is determined that there is no obstacle to the running of the
ステップS144において、管制データ生成部413は、対象移動体120の走行障害を通知するための管制データを生成する。
In step S144, the control
ステップS145において、管制データ提供部414は、管制データを対象移動体120へ送信する。
In step S145, the control
***実施の形態1の効果***
実施の形態1により、対象移動体120からの死角が生じる監視地域を対象移動体120が通行するときに、対象移動体120から独立して設けられる監視センサ群390を用いて対象移動体120の周囲を監視することができる。これにより、より安全な自動運転を実現することが可能となる。
***Advantages of First Embodiment***
According to the first embodiment, when the
***実施の形態1の補足***
自動運転システム100は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と地図データベース110を備える。
対象移動体120は、自動運転可能な移動体である。対象移動体120は、光学センサおよびLIDERなど周辺環境を把握するセンサと、通信機能と、を持つ。
周囲状況監視装置130は、対象移動体120から独立して存在するカメラなどのセンサと、通信機能と、を持つ。
自動運転管制装置400は、通信機能と計算機能を持ち、対象移動体120へ走行計画の立案に必要な管制データを通知する。
地図データベース110は、記憶機能と通信機能を持つ。地図データベース110は、周囲状況の確認の必要性を判定するために使用される地図データ111を記憶する。地図データベース110は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と通信可能である。
対象移動体120は、自己の位置、速度および加速度などの情報を自動運転管制装置400へ送信する。また、対象移動体120は、地図データ111に示される地図に自己位置をマッピングし、周囲状況の監視が必要であるか判定する。そして、周囲状況の監視が必要である場合、対象移動体120は、監視要求を周囲状況監視装置130へ送信する。
周囲状況監視装置130は、路側に固定されていてもよいし、対象移動体120から発進する飛行体でもよい。周囲状況監視装置130は、対象移動体120の走行計画に影響を及ぼす障害物の位置、速度および加速度などの情報を監視センサ群390から取得する。そして、周囲状況監視装置130は、障害物の位置、速度および加速度などの情報を自動運転管制装置400へ送信する。また、周囲状況監視装置130は、障害物の位置を地図データ111に示される地図にマッピングする。
自動運転管制装置400は、対象移動体120の位置などの情報(将来位置を含む)と障害物の位置などの情報(将来位置を含む)に基づいて、対象移動体120の走行障害を判定する。そして、自動運転管制装置400は、走行障害の判定結果に基づいて管制データを生成し、管制データを対象移動体120へ送信する。
***Additional Notes to the First Embodiment***
The autonomous driving system 100 includes a
The
The surrounding
The autonomous
The
The
The surrounding
The autonomous
実施の形態2.
周囲状況監視装置130がドローン131である形態について、主に実施の形態1と異なる点を図8から図10に基づいて説明する。
Embodiment 2.
Regarding an embodiment in which the surrounding
***構成の説明***
図8に基づいて、自動運転システム100の構成を説明する。
自動運転システム100は、周囲状況監視装置130としてドローン131を備える。
ドローン131は、自動運転で上空を飛行する飛行体である。
対象移動体120は、実施の形態1で説明した要素に加えて、ドローンポート121を備える。
ドローンポート121は、プロセッサ301が格納されプロセッサ301が離着陸する設備である。ドローンポート121は、ドローン131を充電するための充電ポートを有する。
***Configuration Description***
The configuration of the autonomous driving system 100 will be described with reference to FIG.
The autonomous driving system 100 is equipped with a drone 131 as a surrounding
Drone 131 is an autonomous flying object that flies in the sky.
In addition to the elements described in embodiment 1, the
The
***動作の説明***
図9に基づいて、車載器200の動作の手順を説明する。
ステップS221からステップS225は、実施の形態1のステップS121からステップS125に相当する。
*** Operation Description ***
The procedure of the operation of the vehicle-mounted
Steps S221 to S225 correspond to steps S121 to S125 in the first embodiment.
ステップS221において、監視要求部211は、自己位置データと地図データ111を参照し、ドローン131による監視の要否を判定する。
In step S221, the
ドローン131による監視が必要であると判定された場合、処理はステップS222に進む。 If it is determined that monitoring by drone 131 is necessary, processing proceeds to step S222.
ステップS222において、監視要求部211は、監視要求をドローン131へ送信する。
In step S222, the
監視要求は、自己位置データと監視地域データを含む。
監視地域データは、対象移動体120が通行する監視地域を示す。
The monitoring request includes self-location data and monitoring area data.
The monitoring area data indicates the monitoring area through which the target
ステップS223において、管制データ取得部212は、走行計画データと走行状況データを自動運転管制装置400へ送信する。
In step S223, the control
ステップS224において、管制データ取得部212は、自動運転管制装置400から送信される管制データを受信する。
In step S224, the control
ステップS225において、運転制御部213は、管制データと周囲状況データに基づいて、対象移動体120の走行を制御する。
In step S225, the driving
図10に基づいて、監視制御装置300の動作の手順を説明する。
ステップS231からステップS234は、実施の形態1のステップS131からステップS134に相当する。
The procedure of the operation of the monitoring and
Steps S231 to S234 correspond to steps S131 to S134 in the first embodiment.
ステップS231において、要求受付部311は、対象移動体120から送信される監視要求を受信する。
In step S231, the
監視要求は、自己位置データと監視地域データを含む。 The monitoring request includes self-location data and monitoring area data.
ステップS232において、監視制御部312は、監視センサ群390に対象移動体120の周囲状況を監視させる。
In step S232, the
監視制御部312は、監視センサ群390に対象移動体120の周囲状況を監視させるために、ドローン131に監視地域の上空を飛行させる。
The
ドローン131は以下のようにして監視地域の上空を飛行する。
まず、監視制御部312は、自己位置データと監視地域データに基づいて、ドローン131の飛行経路を立案する。
立案される飛行経路は、対象移動体120のドローンポート121を離陸してから監視地域の上空を飛行して対象移動体120のドローンポート121に着陸するまでの経路である。
そして、監視制御部312は、立案した飛行経路をドローン131に飛行させる。そのために、監視制御部312は、ドローン131の駆動装置を制御する。
Drone 131 flies over the surveillance area as follows.
First, the
The planned flight route is a route from taking off from the
Then, the
ステップS233において、監視データ生成部313は、監視センサ群390から得られるセンサデータを用いて、監視データを生成する。
In step S233, the monitoring
ステップS234において、監視データ提供部314は、監視データを自動運転管制装置400へ送信する。
In step S234, the monitoring
***実施の形態2の効果***
実施の形態2により、地上を走行する対象移動体120からの死角となる監視地域を上空から監視することが可能となる。
***Advantages of the Second Embodiment***
According to the second embodiment, it becomes possible to monitor from the sky a monitoring area that is a blind spot from the
***実施の形態2の補足***
周囲状況監視装置130は、自動運転飛行体である。
自動運転飛行体は、監視要求を受け、監視要求の契機となった監視地域の情報を元に飛行計画を計算によって立案し、飛行を開始する。自動運転飛行体は、搭載されるセンサから得られるデータから障害物の位置、速度および加速度を求め、障害物の位置、速度および加速度を自動運転管制装置400へ送信する。
対象移動体120には、自動運転飛行体の発着するポートが存在する。対象移動体120は、地図データ111から死角が発生する領域の位置情報を取得し、死角が発生する領域に入った場合に自動運転飛行体を発進させる。そして、自動運転飛行体は、死角領域の状況を監視して障害物の位置、速度および加速度を求め、障害物の位置、速度および加速度を自動運転管制装置400へ送信する。
***Additional Information about the Second Embodiment***
The ambient
The autonomous flying object receives a monitoring request, calculates a flight plan based on the information on the monitoring area that triggered the monitoring request, and starts flying. The autonomous flying object obtains the position, speed, and acceleration of an obstacle from data obtained from an on-board sensor, and transmits the position, speed, and acceleration of the obstacle to the autonomous
The
実施の形態3.
カラーセンサを利用して障害物の位置を検知する形態について、主に実施の形態1と異なる点を図11から図12に基づいて説明する。
Embodiment 3.
The embodiment in which the position of an obstacle is detected using a color sensor will be described below with reference to Figs. 11 and 12, focusing mainly on the differences from the first embodiment.
***構成の説明***
図11に基づいて、自動運転システム100の構成を説明する。
周囲状況監視装置130において、監視センサ群390はカラーセンサ393を含む。
カラーセンサ393は、RGBカメラまたはRGB-Dカメラである。
Rは赤を意味し、Gは緑を意味し、Bは青を意味する。Dは深度を意味する。
***Configuration Description***
The configuration of the autonomous driving system 100 will be described with reference to FIG.
In the surrounding
The
R stands for red, G stands for green, B stands for blue, and D stands for depth.
***動作の説明***
図12に基づいて、監視制御装置300の動作の手順を説明する。
ステップS331からステップS334は、実施の形態1のステップS131からステップS134に相当する。
*** Operation Description ***
The procedure of the operation of the monitoring and
Steps S331 to S334 correspond to steps S131 to S134 in the first embodiment.
ステップS331において、要求受付部311は、対象移動体120から送信される監視要求を受信する。
In step S331, the
ステップS332において、監視制御部312は、監視センサ群390に対象移動体120の周囲状況を監視させる。
In step S332, the
ステップS333において、監視データ生成部313は、監視センサ群390から得られるセンサデータを用いて、監視データを生成する。
In step S333, the monitoring
監視データは、対象移動体120の周囲に存在する各物体の位置などを示す。
The monitoring data indicates the positions of each object present around the
各物体の位置は以下のように推定される。カラーセンサ393によって得られるセンサデータを、カラーセンサデータと称する。
まず、監視データ生成部313は、カラーセンサデータを用いて物体検知を実行して、対象移動体120の周囲に存在する物体と、物体が位置する場所の平面と、を検知する。
そして、監視データ生成部313は、検知した平面における物体の位置を推定する。
The position of each object is estimated as follows: The sensor data obtained by the
First, the monitoring
The monitoring
ステップS334において、監視データ提供部314は、監視データを自動運転管制装置400へ送信する。
In step S334, the monitoring
***実施の形態3の効果***
実施の形態3により、障害物になり得る各物体の位置をより正確に検知することが可能となる。
***Advantages of Third Embodiment***
According to the third embodiment, it becomes possible to more accurately detect the position of each object that may become an obstacle.
***実施の形態3の補足***
接続されているセンサがRGBセンサである場合、周囲状況監視装置130は、水平面の検知を行い、検知された水平面に対する検知された障害物の座標を推定する。但し、推定は、自動運転管制装置400で行うこともあり得る。
対象移動体120から独立して存在するセンサがRGB情報を得るカメラである場合、周囲状況監視装置130は、物体検知を行い、RGB情報に基づいて平面を検知し、検知した平面に対して物体の位置を推定する。
対象移動体120から独立して存在するセンサがRGB-D情報を得るカメラである場合、周囲状況監視装置130は、物体検知を行い、RGB-D情報に基づいて平面を検知し、検知した平面に対して物体の位置を推定する。
***Additional Notes on the Third Embodiment***
If the connected sensor is an RGB sensor, the
When the sensor that exists independently of the
When the sensor that exists independently of the
実施の形態3は実施の形態2と組み合わせて実施されてもよい。つまり、周囲状況監視装置130がドローン131であり、対象移動体120がドローンポート121を備えてもよい。
The third embodiment may be implemented in combination with the second embodiment. That is, the surrounding
実施の形態4.
対象移動体120が走行障害の種類に応じて走行障害に対処する形態について、主に実施の形態1と異なる点を図13から図14に基づいて説明する。
Embodiment 4.
The manner in which the
***構成の説明**
自動運転システム100の構成は、実施の形態1における構成と同様である。
但し、地図データ111は、一か所以上のエスケープゾーンを示す。
***Configuration Description***
The configuration of the autonomous driving system 100 is similar to that in the first embodiment.
However, the
***動作の説明***
図13に基づいて、自動運転管制装置400の動作の手順を説明する。
ステップS441からステップS445は、実施の形態1のステップS141からステップS145に相当する。
*** Operation Description ***
The procedure of the operation of the automatic
Steps S441 to S445 correspond to steps S141 to S145 in the first embodiment.
ステップS441において、データ受付部411は、対象移動体120から送信される走行計画データと走行状況データを受信する。
In step S441, the
ステップS442において、データ受付部411は、周囲状況監視装置130から送信される監視データを受信する。
In step S442, the
ステップS443において、走行障害判定部412は、走行状況データと監視データに基づいて、対象移動体120の走行障害の有無を判定する。
In step S443, the driving
対象移動体120の走行障害が有ると判定した場合、走行障害判定部412は、監視データに基づいて、障害物の種類を判定する。具体的には、走行障害判定部412は、障害物が移動する物体と移動しない物体のいずれであるか判定する。移動する物体の例は車両および人である。移動しない物体の例は落石である。また、走行障害判定部412は、障害物が複数存在するか判定する。複数存在する障害物の例は複数の歩行者である。
また、走行障害判定部412は、位置データベースに基づいて、対象移動体120と障害物とが存在する道路(対象道路)の種類を判定する。具体的には、走行障害判定部412は、対象道路が一車線分の幅しかない狭い道路であるか判定する。
When it is determined that there is a traveling obstacle for the
In addition, the driving
対象移動体120の走行障害が有ると判定された場合、処理はステップS444に進む。
対象移動体120の走行障害が無いと判定された場合、処理は終了する。
If it is determined that there is an obstacle to the running of the
If it is determined that there is no obstacle to the running of the
ステップS444において、管制データ生成部413は、対象移動体120の走行障害を通知するための管制データを生成する。
In step S444, the control
管制データは、走行障害の種類などを示す。 The control data indicates the type of driving obstruction, etc.
走行障害の種類は以下のように判定される。
対象道路が狭い道路であり障害物が移動する物体である場合、管制データ生成部413は、「すれ違い不可」を走行障害の種類として判定する。「すれ違い不可」は、対象移動体120と障害物がすれ違って走行することができないことを意味する。
対象道路が狭い道路であり障害物が移動しない物体である場合、管制データ生成部413は、「通行不可」を走行障害の種類として判定する。「通行不可」は、対象移動体120が障害物を避けて通行することができないことを意味する。
障害物が複数存在する場合、管制データ生成部413は、「徐行必要」を管制情報として示す管制データを送信する。「徐行必要」は、障害物を避けるために徐行が必要であることを意味する。
The type of driving impairment is determined as follows:
If the target road is a narrow road and the obstacle is a moving object, the control
If the target road is a narrow road and the obstacle is a stationary object, the control
When multiple obstacles are present, the control
ステップS445において、管制データ提供部414は、管制データを対象移動体120へ送信する。
In step S445, the control
図14に基づいて、車載器200の動作の手順を説明する。
ステップS421からステップS425は、実施の形態1のステップS121からステップS125に相当する。
The procedure of the operation of the vehicle-mounted
Steps S421 to S425 correspond to steps S121 to S125 in the first embodiment.
ステップS421において、監視要求部211は、自己位置データと地図データ111を参照し、周囲状況監視装置130による監視の要否を判定する。
In step S421, the
周囲状況監視装置130による監視が必要であると判定された場合、処理はステップS422に進む。
If it is determined that monitoring by the surrounding
ステップS422において、監視要求部211は、監視要求を周囲状況監視装置130へ送信する。
In step S422, the
ステップS423において、管制データ取得部212は、走行計画データと走行状況データを自動運転管制装置400へ送信する。
In step S423, the control
ステップS424において、管制データ取得部212は、自動運転管制装置400から送信される管制データを受信する。
In step S424, the control
管制データは、対象移動体120の走行障害の種類などを示す。
The control data indicates the type of driving obstacle for the
ステップS425において、運転制御部213は、管制データと周囲状況データに基づいて、対象移動体120の走行を制御する。
In step S425, the driving
対象移動体120の走行は以下のように走行障害の種類に応じて制御される。
走行障害の種類が「すれ違い不可」である場合、運転制御部213は、地図データ111に示される最寄りのエスケープゾーンに対象移動体120を退避させる。
走行障害の種類が「通行不可」である場合、運転制御部213は、地図データ111に示される最寄りのエスケープゾーンを利用して対象移動体120をUターンさせる。
走行障害の種類が「徐行必要」である場合、運転制御部213は、対象移動体120を徐行させる。
The travel of the
If the type of driving obstacle is “no passing”, the driving
If the type of driving obstacle is “impassable”, the driving
If the type of driving obstacle is "requires slowing down," the driving
***実施の形態4の効果***
実施の形態4により、走行障害の種類に応じて安全な自動運転を実現することが可能となる。
***Advantages of the Fourth Embodiment***
According to the fourth embodiment, it becomes possible to realize safe automatic driving according to the type of driving obstacle.
***実施の形態4の補足***
自動運転管制装置400は、対象移動体120から位置、速度および加速度の情報を得て、周囲状況監視装置130から障害物の位置、速度および加速度の情報を得る。自動運転管制装置400は、対象移動体120と障害物のそれぞれの位置情報に基づいて算出される将来位置情報を予測時刻と共に、バージョン情報と空間・時間軸情報を持つデータベースに記録する。
対象移動体120と障害物のそれぞれの位置情報と将来予測位置が変更される度に、自動運転管制装置400は、バージョンを更新し、対象移動体120と障害物のそれぞれの位置情報を更新する。更新した際に対象移動体120の位置が障害物の位置と近接関係にあった場合、自動運転管制装置400は走行障害が有ると判定し、対象移動体120は走行計画の修正を行う。
走行障害の種類が「すれ違い不可」と判定された場合には、対象移動体120は、エスケープゾーンの位置情報を地図データ111から取得し、エスケープゾーンにへの退避を行うように走行計画を変更する。
走行障害の種類が「通行不可」と判定された場合には、対象移動体120は、エスケープゾーンの位置情報を地図データ111から取得し、エスケープゾーンを利用してUターンを行うように走行計画を変更する。
走行障害の種類が「徐行必要」と判定された場合には、対象移動体120は、徐行を行うように走行計画を変更する。
***Additional Notes on the Fourth Embodiment***
The autonomous
Each time the position information and future predicted positions of the
When the type of driving obstacle is determined to be "no passing", the
If the type of driving obstacle is determined to be "impassable", the
If the type of driving obstacle is determined to be "required to drive slowly," the
実施の形態4は実施の形態2と実施の形態3の少なくとも一方と組み合わせて実施されてもよい。つまり、周囲状況監視装置130がドローン131であり、対象移動体120がドローンポート121を備えてもよい。また、監視制御装置300はカラーセンサ393を利用して障害物の位置を検知してもよい。
The fourth embodiment may be implemented in combination with at least one of the second and third embodiments. That is, the surrounding
実施の形態5.
対象移動体120の走行障害を障害物に通知する形態について、主に実施の形態1と異なる点を図15から図17に基づいて説明する。
Embodiment 5.
The embodiment of notifying an obstacle of a travel obstacle of the
***構成の説明**
図15に基づいて、自動運転システム100の構成を説明する。
自動運転システム100は、一台以上の移動体101と一台以上の携帯端末102を備える。
移動体101は、対象移動体120と同様の移動体である。
携帯端末102は、歩行者に所持される。例えば、携帯端末102はスマートフォンである。スマートフォンでは、自動運転システム100用のアプリケーションプログラムが実行される。
それぞれの移動体101の情報とそれぞれの携帯端末102の情報が、自動運転管制装置400に予め登録される。
***Configuration Description***
The configuration of the autonomous driving system 100 will be described with reference to FIG. 15 .
The autonomous driving system 100 includes one or more
The moving
The
Information on each moving
図16に基づいて、自動運転管制装置400の構成を説明する。
自動運転管制装置400は、さらに、走行障害通知部415という要素を備える。
自動運転管制プログラムは、さらに、走行障害通知部415としてコンピュータを機能させる。
The configuration of the automatic
The autonomous
The autonomous driving control program further causes the computer to function as a driving
***動作の説明***
自動運転管制装置400の動作について説明する。まず、自動運転管制装置400の動作の前提を説明する。
それぞれの移動体101は、周期的に、自己位置データを自動運転管制装置400へ送信する。自己位置データは移動体101の位置を示す。
それぞれの携帯端末102は、周期的に、自己位置データを自動運転管制装置400へ送信する。自己位置データは歩行者および携帯端末102の位置を示す。
*** Operation Description ***
The following describes the operation of the autonomous
Each moving
Each
図17に基づいて、自動運転管制装置400の動作の手順を説明する。
ステップS542からステップS546は、実施の形態1のステップS141からステップS145に相当する。
The procedure of the operation of the autonomous
Steps S542 to S546 correspond to steps S141 to S145 in the first embodiment.
ステップS541において、データ受付部411は、それぞれの移動体101から自己位置データを受信する。
また、データ受付部411は、それぞれの携帯端末102から自己位置データを受信する。
In step S541, the
Furthermore, the
ステップS542において、データ受付部411は、対象移動体120から送信される走行計画データと走行状況データを受信する。
In step S542, the
ステップS543において、データ受付部411は、周囲状況監視装置130から送信される監視データを受信する。
In step S543, the
ステップS544において、走行障害判定部412は、走行状況データと監視データに基づいて、対象移動体120の走行障害の有無を判定する。
In step S544, the driving
ステップS545において、管制データ生成部413は、対象移動体120の走行障害を通知するための管制データを生成する。
In step S545, the control
ステップS546において、管制データ提供部414は、管制データを対象移動体120へ送信する。
In step S546, the control
ステップS547において、走行障害通知部415は、一台以上の移動体101のそれぞれの自己位置データに基づいて、障害物がいずれかの移動体101であるか判定する。
障害物がいずれかの移動体101であると判定した場合、走行障害通知部415は、障害物である移動体101へ通知データを送信する。
通知データは、対象移動体120の走行障害を通知するためのデータである。例えば、走行障害通知部415は、障害物である移動体101のための管制データを通知データとして生成する。
In step S547, the traveling
If it is determined that the obstacle is one of the moving
The notification data is data for notifying a traveling obstacle of the
また、走行障害通知部415は、一台以上の携帯端末102のそれぞれの自己位置データに基づいて、障害物がいずれかの携帯端末102を所持する歩行者であるか判定する。
障害物がいずれかの携帯端末102を所持する歩行者であると判定した場合、走行障害通知部415は、障害物である歩行者の携帯端末102へ通知データを送信する。
In addition, the driving
When it is determined that the obstacle is a pedestrian carrying one of the
***実施の形態5の効果***
実施の形態5により、対象移動体120にとっての障害物となる移動体および歩行者に対象移動体120の走行障害が通知される。これにより、より安全な自動運転の実現が可能となる。
***Advantages of Fifth Embodiment***
According to the fifth embodiment, moving objects and pedestrians that are obstacles to the
***実施の形態5の補足***
走行障害が有ると判定し、且つ、人間が運転する移動体または歩行者が障害物であると判定した場合、自動運転管制装置400は、その人間が持つスマートフォンに通知を送る。また、障害物が自動運転可能な移動体である場合、自動運転管制装置400は、走行計画の変更を指示するための情報を送信する。
障害物は、移動できることを期待できる物体または移動できることを期待できない物体に区別し得る。
例えば、次のようなものが障害物になり得る。人が運転している車両、自動運転車両(自動運転可能な移動体)、移動しない物体(停車している車両、落石など)、および、その他の物体(歩行者、自転車、交通弱者など)。
***Additional Notes on the Fifth Embodiment***
When it is determined that there is a driving obstacle and that the obstacle is a moving object driven by a human or a pedestrian, the autonomous
Obstacles may be differentiated into objects that are expected to be movable and objects that are not expected to be movable.
For example, potential obstacles include vehicles driven by humans, autonomous vehicles (moving objects capable of autonomous driving), non-moving objects (parked vehicles, falling rocks, etc.), and other objects (pedestrians, bicycles, vulnerable road users, etc.).
実施の形態5は実施の形態2から実施の形態4の少なくともいずれかと組み合わせて実施されてもよい。つまり、周囲状況監視装置130がドローン131であり、対象移動体120がドローンポート121を備えてもよい。また、監視制御装置300はカラーセンサ393を利用して障害物の位置を検知してもよい。また、対象移動体120は走行障害の種類に応じて走行障害に対処してもよい。
The fifth embodiment may be implemented in combination with at least one of the second to fourth embodiments. That is, the surrounding
実施の形態6.
動画ストリームAI処理パイプラインシステムを適用する形態について、主に実施の形態1と異なる点を図18から図21に基づいて説明する。AIは人工知能の略称である。
Embodiment 6.
The embodiment in which the moving image stream AI processing pipeline system is applied will be described with reference to Fig. 18 to Fig. 21, mainly focusing on the differences from the first embodiment. AI is an abbreviation for artificial intelligence.
***構成の説明***
図18に基づいて、自動運転システム100の構成を説明する。
自動運転システム100は、周囲状況監視装置130を複数備える。図18において、自動運転システム100は、1つのドローンと3つの路側機との4つの周囲状況監視装置130を備えている。周囲状況監視装置130の数は4つに限定されない。
それぞれの周囲状況監視装置130の監視センサ群390は、動画像センサを含む。
***Configuration Description***
The configuration of the autonomous driving system 100 will be described with reference to FIG. 18.
The autonomous driving system 100 includes a plurality of surrounding
The
自動運転管制装置400は、さらに、スイッチャー部431と物体検出部432と位置推定部433とアノテーション部434と学習部435といった要素を備える。これらの要素はソフトウェアで実現される。さらに、自動運転管制装置400はデータベース438を備える。データベース438は空間・時間軸情報を持つ。
自動運転管制装置400は、複数種類の物体検出モデルを有する。物体検出モデルは、画像に映った物体を検出するために機械学習などによって生成された学習済みモデルである。図18において、自動運転管制装置400は、汎用の物体検出モデルと汎用の道路検出モデルと汎用のヒト検出モデルを有している。道路検出モデルは道路を検出するための物体検出モデルである。ヒト検出モデルは人を検出するための物体検出モデルである。使用される物体検出モデルはこれらのモデルに限定されない。
The autonomous
The autonomous
***動作の説明***
図18に基づいて、複数の周囲状況監視装置130と自動運転管制装置400の動作について説明する。
*** Operation Description ***
The operation of the multiple surrounding
それぞれの周囲状況監視装置130の監視制御装置300は、動画像センサによって得られる動画ストリームを含めて監視データを自動運転管制装置400へ送信する(図6のS133、S134)。
The
ステップS142(図7を参照)において、自動運転管制装置400は、それぞれの周囲状況監視装置130から送信される監視データを受信する。監視データには動画ストリームが含まれる。
ステップS143(図7を参照)において、自動運転管制装置400は、物体検出モデルを用いて対象移動体120の走行に対する障害物の検出を行い、障害物の検出結果を利用して対象移動体120の走行障害を判断する。
In step S142 (see FIG. 7), the autonomous
In step S143 (see FIG. 7), the autonomous
障害物は以下のように検出される。
それぞれの周囲状況監視装置130からの動画ストリームの入力先は、送信元の周囲状況監視装置130に対応付けて予め決められている。
スイッチャー部431は、動画ストリームごとに、送信元の周囲状況監視装置130に対応付けられた入力先の物体検出モデルに動画ストリームを流す。例えば、スイッチャー部431は、路側機Aからの動画ストリームAを物体検出とアノテーションに流し、路側機Bからの動画ストリームBを物体検出と道路検出とアノテーションに流し、路側機Cからの動画ストリームCをヒト検出とアノテーションに流す。
送信元の周囲状況監視装置130に対応付けられた入力先で使用される物体検出モデルを、対応モデルと称する。
物体検出部432は、動画ストリームごとに、対応モデルを用いて動画ストリームを入力にして物体検出を行う。
位置推定部433は、物体検出の結果に基づいて、検出された物体の位置(座標値)を推定し、検出された物体の検出情報をデータベース438に記録する。検出情報は、検出された物体について種類と位置などを示す。
利用者は、データベース438に記録された各物体の検出情報を自動運転管制装置400を利用して参照し、更新したい物体検出モデルを選択し、選択した物体検出モデルを自動運転管制装置400に対して指定する。選択された物体検出モデルを、選択モデルと称する。
スイッチャー部431は、選択モデルに入力された動画ストリームをアノテーション部434に流す。
アノテーション部434は、選択モデルを用いて動画ストリームを入力にして検出された物体の検出情報をアノテーションによって修正する。検出情報は次のように修正される。アノテーション部434は動画ストリームをディスプレイに表示する。利用者は、動画ストリームを参照し、動画ストリームに映っている物体に対するアノテーションを行い、アノテーション情報を自動運転管制装置400に入力する。アノテーション情報は、物体の位置とラベルを示す。ラベルは物体の種類を識別する。アノテーション部434はアノテーション情報を受け取り、アノテーション情報に基づいて検出情報を修正する。
学習部435は、動画ストリームと修正された検出情報を学習データにして学習を行うことによって、選択モデルを更新する。例えば、選択モデルのパラメータが更新される。これにより、新たなバージョンの物体検出モデルが生成される。
いずれかの種類の物体検出モデルに動画ストリームが入力された場合、物体検出部432は、同じ種類の物体検出モデルのバージョンごとに、動画ストリームを入力にして物体検出モデルを用いて物体検出を行う。そして、物体検出モデルのバージョンごとに検出情報がデータベース438に記録される。
利用者は、データベース438に記録された各物体の各検出情報を自動運転管制装置400を利用して参照する。利用者は、複数種類のバージョン別の物体検出モデルから、走行障害の判断に用いる物体検出モデルを決定する。そして、利用者は、決定した物体検出モデルを自動運転管制装置400に対して指定する。決定された物体検出モデルを、決定モデルと称する。
その後、物体検出部432は、動画ストリームを入力にして決定モデルを用いて物体検出を行って、対象移動体120の走行に対する障害物を検出する。検出結果には、障害物の将来の行動の予測情報が含まれる。障害物の将来の行動は、障害物の位置の時系列に基づいて予測される。
決定モデルは随時に変更される。また、2つ以上の決定モデルが使用されてもよい。この場合、2つ以上の決定モデルに対応する2つ以上の検出結果に基づいて、障害物が特定される。このとき、加重平均などの手法が使用される。
Obstacles are detected as follows:
The input destination of the video stream from each surrounding
The
The object detection model used at the input destination associated with the surrounding
The
The
The user refers to the detection information of each object recorded in
The
The
The
When a video stream is input to any type of object detection model, the
The user refers to each piece of detection information for each object recorded in
Thereafter, the
The determination model is changed as needed. Two or more determination models may be used. In this case, an obstacle is identified based on two or more detection results corresponding to two or more determination models. In this case, a method such as a weighted average is used.
上記の動画ストリームの入力先は、動画ストリームAI処理パイプライン439の設定によって決められる。
動画ストリームAI処理パイプライン439は、周囲状況監視装置130別に設定され、動画ストリームの流れを示す。
図19から図21に、動画ストリームAI処理パイプライン439の例を示す。「Vx」の「x」はバージョン番号を示す。
図19において、路側機Aからの動画ストリームAは、汎用の物体検出モデル(V0)に流され、アノテーション部434に流され、アノテーション情報が付され、学習データの一部として学習部435に流される。そして、汎用の物体検出モデル(V0)が更新されることによって物体検出モデル(V1)が生成される。また、汎用の物体検出モデル(V0)と位置推定によって得られる検出情報がデータベース438に記録される。その後、動画ストリームAは、物体検出モデル(V1)にも流され、アノテーション部434に流され、アノテーション情報が付される。そして、動画ストリームAのアノテーション情報はデータベース438に記録される。
図20において、路側機Bからの動画ストリームBは、汎用の物体検出モデル(V0)を更新して生成された物体検出モデル(V2)に流され、アノテーション部434に流され、アノテーション情報が付される。そして、動画ストリームBのアノテーション情報に基づいて障害物の動作が推定され、推定された動作の情報を含めて障害物の検出情報がデータベース438に記録される。
図21において、ドローンDからの動画ストリームDは、汎用の道路検出モデル(V0)と汎用の道路検出モデル(V0)を更新して生成される道路検出モデル(V1)に流される。
The input destination of the above video stream is determined by the settings of the video stream AI processing pipeline 439.
The video stream AI processing pipeline 439 is set up for each surrounding
19 to 21 show an example of a video stream AI processing pipeline 439. The "x" in "Vx" indicates a version number.
In Fig. 19, a video stream A from a roadside unit A is sent to a general-purpose object detection model (V0), sent to an
20 , a video stream B from a roadside unit B is sent to an object detection model (V2) generated by updating a general-purpose object detection model (V0), and then sent to an
In FIG. 21, a video stream D from a drone D is sent to a general-purpose road detection model (V0) and a road detection model (V1) generated by updating the general-purpose road detection model (V0).
***実施の形態6の効果***
実施の形態6により、動画ストリームを使って走行障害の判断をより正確に行うことが可能となる。
***Effects of the Sixth Embodiment***
According to the sixth embodiment, it becomes possible to more accurately judge a driving obstacle using a video stream.
***実施の形態6の補足***
自動運転管制装置400は、複数の監視制御装置300の動画像センサの情報を処理する。そのために、自動運転管制装置400は、ビデオスイッチャーを持つ。ビデオスイッチャーは、物体検出、道路検出、車線検出などの画像処理機能と学習のためのアノテーション機能との間で、動画像センサの情報の流れをスイッチングする機能を持つ。
***Additional Information about the Sixth Embodiment***
The autonomous
ビデオスイッチャーは、複数の監視制御装置300より得られた動画像をリアルタイム通信ストリームによって取得し、各々のストリームを必要な処理機能に分配する。
自動運転管制装置400は、ビデオスイッチャーの設定とAI処理のパイプラインの設定を行う機能を持つ。
The video switcher acquires moving images obtained from a plurality of
The autonomous
ビデオスイッチャーの設定には、次のような機能がある。例えば、AIモデルを用いて各種検出と分類を行う機能、AIモデルによる検出結果を映像にする機能、学習を行うためのアノテーションを行う機能、ビデオ画像を保存する機能、ビデオ画像の画像を調整する機能などがある。これらの機能の処理順にパイプラインを記述してビデオスイッチャーの設定が定義される。 The video switcher settings include the following functions. For example, the function to perform various detections and classifications using an AI model, the function to convert the detection results by the AI model into video, the function to perform annotation for learning, the function to save video images, and the function to adjust the image of the video images. The video switcher settings are defined by describing a pipeline in the processing order of these functions.
ビデオスイッチャーによる動画ストリームAI処理パイプラインシステムは、自動運転のみならず、様々な用途に利用することが可能である。
例えば、動画ストリームAI処理パイプラインシステムは以下の用途に使用することが可能である。
(1)駐車場に対する入庫台数と出庫台数の検知
(2)駐車場に対する駐車台数の検知
(3)施設に対する入場者と退場者の検知
(4)道路に対する通行人数(上り、下り)の検知
(5)通行者に対する年齢と性別の検知
(6)通行者に対する速度の推定
(7)施設に対する立ち止り位置の検知
(8)施設に対する作業内容の検知と分類
(9)人物に対する行動の検知
The video stream AI processing pipeline system using a video switcher can be used for a variety of purposes in addition to autonomous driving.
For example, the video stream AI processing pipeline system can be used for the following purposes:
(1) Detecting the number of vehicles entering and leaving a parking lot. (2) Detecting the number of parked vehicles in a parking lot. (3) Detecting people entering and leaving a facility. (4) Detecting the number of pedestrians on a road (going up or down). (5) Detecting the age and gender of pedestrians. (6) Estimating the speed of pedestrians. (7) Detecting stopping locations at a facility. (8) Detecting and classifying work content at a facility. (9) Detecting human behavior.
実施の形態6は実施の形態2から実施の形態5の少なくともいずれかと組み合わせて実施されてもよい。 Embodiment 6 may be implemented in combination with at least one of embodiments 2 to 5.
***実施の形態の補足***
自動運転システム100は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と地図データベース110を備える。
対象移動体120は、自動運転可能な移動体である。対象移動体120は、光学センサおよびLIDERなど周辺環境を把握するセンサと、通信機能と、を持つ。
周囲状況監視装置130は、対象移動体120から独立して存在するカメラなどのセンサと、通信機能と、を持つ。
自動運転管制装置400は、対象移動体120と周囲状況監視装置130と通信可能な計算機を持つ。
地図データベース110は、監視地域とエスケープゾーンを示す地図データ111を記憶する。
対象移動体120は、計算機によって自己位置を推定し、センサによって障害物となり得る周辺のオブジェクトを検知し、障害物の位置情報を計算によって推定する。
周囲状況監視装置130は、センサによって対象移動体120と障害物となり得る周辺のオブジェクトを検知し、障害物の位置情報を計算によって推定する。
周囲状況監視装置130は、対象移動体120のセンサからは死角となる部分についての不足情報を補完する。自動運転管制装置400は、走行計画を変更するために必要な情報を生成する。対象移動体120は、オブジェクトの予測経路と対象移動体120の計画経路の交差を判定し、オブジェクトに当たらないように速度および経路などの走行計画を再計算して更新する。更新された走行計画は、制御情報に変換され対象移動体120の走行制御に利用される。
***Additional Information on the Implementation ***
The autonomous driving system 100 includes a
The
The surrounding
The autonomous
The
The
The surrounding
The
自動運転システム100は、対象移動体120とドローン131と自動運転管制装置400と地図データベース110を備える。
対象移動体120は、自動運転可能な移動体である。光学センサおよびLIDERなど周辺環境を把握するセンサと、通信機能と、を持つ。
ドローン131は、飛行機能を持つ飛行体である。対象移動体120から独立して存在するカメラなどのセンサと、通信機能と、を持つ。
自動運転管制装置400は、通信機能と計算機能を持つ。自動運転管制装置400は、走行計画の立案に必要な管制データを対象移動体120へ通知する。
地図データベース110は、記憶機能と通信機能を持つ。地図データベース110は、周囲状況の確認の必要性を判定するために使用される地図データ111を記憶する。地図データ111は、監視地域とエスケープゾーンを示す。地図データベース110は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と通信可能である。
ドローン131は、大きな死角がある領域への対象移動体120の接近が検知された場合に死角を視認できる位置への往復の飛行計画を立てる機能と、飛行計画を元にドローン131を制御する機能と、を持つ。
The autonomous driving system 100 includes a
The
The drone 131 is an aircraft having a flying function, and has sensors such as a camera that exist independently of the
The autonomous
The
The drone 131 has a function of creating a flight plan for a round trip to a position where the blind spot can be viewed when the approach of the
各実施の形態は、好ましい形態の例示であり、本開示の技術的範囲を制限することを意図するものではない。各実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。 Each embodiment is an example of a preferred embodiment and is not intended to limit the technical scope of the present disclosure. Each embodiment may be implemented partially or in combination with other embodiments. Procedures described using flow charts, etc. may be modified as appropriate.
車載器200と監視制御装置300と自動運転管制装置400の各要素は、ソフトウェア、ハードウェア、ファームウェアまたはこれらの組み合わせのいずれで実現されてもよい。
車載器200と監視制御装置300と自動運転管制装置400の各要素の「部」は、「処理」、「工程」、「回路」または「処理回路」と読み替えてもよい。
Each element of the in-
The "part" of each element of the in-
以下に、本開示の諸態様を付記として記載する。
(付記1)
自動運転で走行する移動体である対象移動体と、周囲状況監視装置と、自動運転管制装置と、を備える自動運転システムであり、
前記対象移動体は、
移動体センサ群と、
前記移動体センサ群によって得られ前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定し、前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信する車載器と、
を備え、
前記周囲状況監視装置は、
監視センサ群と、
前記監視要求を受信し、前記監視センサ群に前記対象移動体の周囲状況を監視させ、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信する監視制御装置と、
を備え、
前記自動運転管制装置は、前記走行状況データと前記監視データを受信し、前記対象移動体の走行障害を前記走行状況データと前記監視データに基づいて判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記車載器は、前記管制データを受信し、前記管制データと、前記移動体センサ群によって得られ前記対象移動体の周囲状況を示す周囲状況データと、に基づいて前記対象移動体の走行を制御する
自動運転システム。
Various aspects of the present disclosure are described below as appendices.
(Appendix 1)
An autonomous driving system including a target moving body that is an autonomous driving moving body, a surrounding situation monitoring device, and an autonomous driving control device,
The target moving body is
A group of mobile sensors;
an on-board device that determines whether or not monitoring by the surrounding situation monitoring device is necessary by referring to self-location data obtained by the mobile body sensor group and indicating the position of the target mobile body, and map data indicating a monitoring area set as an area in which the surrounding situation of the target mobile body should be monitored by the surrounding situation monitoring device when the target mobile body passes, and when it determines that monitoring by the surrounding situation monitoring device is necessary, transmits a monitoring request to the surrounding situation monitoring device and transmits driving situation data obtained by the mobile body sensor group and indicating the driving situation of the target mobile body to the automatic driving control device;
Equipped with
The surrounding situation monitoring device is
A monitoring sensor group;
a monitoring control device that receives the monitoring request, causes the monitoring sensor group to monitor the surrounding situation of the target moving object, and transmits monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
Equipped with
The autonomous driving control device receives the driving status data and the monitoring data, determines a driving obstacle of the target moving body based on the driving status data and the monitoring data, and transmits control data notifying the target moving body of the driving obstacle,
The vehicle-mounted device receives the control data and controls the driving of the target moving object based on the control data and surrounding condition data obtained by the group of mobile object sensors and indicating the surrounding conditions of the target moving object.
(付記2)
前記周囲状況監視装置は、自動運転で飛行する飛行体である
付記1に記載の自動運転システム。
(Appendix 2)
The surrounding situation monitoring device is an autonomous flying vehicle according to claim 1.
(付記3)
前記対象移動体は、前記飛行体が離着陸するドローンポートを備える
付記2に記載の自動運転システム。
(Appendix 3)
The autonomous driving system of claim 2, wherein the target moving body is provided with a drone port from which the aircraft takes off and lands.
(付記4)
前記車載器は、前記自己位置データと、前記監視地域を示す監視地域データと、を含めて前記監視要求を送信し、
前記監視制御装置は、前記監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行体に前記飛行経路を飛行させる付記3に記載の自動運転システム。
(Appendix 4)
the vehicle-mounted device transmits the monitoring request including the self-location data and monitoring area data indicating the monitoring area;
The monitoring control device receives the monitoring request, plans a flight path based on the self-location data and the monitored area data from taking off from the drone port to flying over the monitored area and landing at the drone port, and causes the aircraft to fly along the flight path.An autonomous driving system as described in Appendix 3.
(付記5)
前記周囲状況監視装置は、前記監視地域に設けられる路側機である
付記1に記載の自動運転システム。
(Appendix 5)
The autonomous driving system according to claim 1, wherein the surrounding situation monitoring device is a roadside unit installed in the monitoring area.
(付記6)
前記監視センサ群は、カラーセンサを含み、
前記監視制御装置は、
前記カラーセンサによって得られるカラーセンサデータに基づいて、前記対象移動体の周囲に存在する物体と、前記物体が位置する場所の平面と、を検知し、
検知した平面における前記物体の位置を推定する
付記1から付記5のいずれか1つに記載の自動運転システム。
(Appendix 6)
the monitoring sensor group includes a color sensor;
The monitoring and control device includes:
Detecting objects present around the target moving object and a plane on which the objects are located based on color sensor data obtained by the color sensor;
6. The autonomous driving system of claim 1, wherein the position of the object in a detected plane is estimated.
(付記7)
前記カラーセンサは、RGBカメラまたはRGB-Dカメラである
付記6に記載の自動運転システム。
(Appendix 7)
The autonomous driving system according to claim 6, wherein the color sensor is an RGB camera or an RGB-D camera.
(付記8)
前記自動運転管制装置は、前記対象移動体の位置から近接範囲内に前記対象移動体と対向する障害物が存在する場合に前記走行障害があると判定する
付記1から付記7のいずれか1つに記載の自動運転システム。
(Appendix 8)
The autonomous driving system of any one of appendix 1 to appendix 7, wherein the autonomous driving control device determines that a driving obstacle exists when an obstacle facing the target moving body is present within a proximity range from the position of the target moving body.
(付記9)
前記自動運転管制装置は、前記障害物が移動する物体である場合、すれ違い不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記すれ違い不可である場合、前記地図データに示されるエスケープゾーンに前記対象移動体を退避させる
付記8に記載の自動運転システム。
(Appendix 9)
When the obstacle is a moving object, the autonomous driving control device transmits the control data indicating that passing is impossible as the type of the driving obstacle to the target moving body,
The autonomous driving system according to claim 8, wherein the vehicle-mounted device causes the target moving object to retreat to an escape zone indicated in the map data when the type of the driving obstacle is such that passing is not possible.
(付記10)
前記自動運転管制装置は、前記障害物が移動しない物体である場合、通行不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記通行不可である場合、前記地図データに示されるエスケープゾーンを利用して前記対象移動体をUターンさせる
付記8または付記9に記載の自動運転システム。
(Appendix 10)
When the obstacle is a stationary object, the autonomous driving control device transmits the control data indicating impassability as the type of the driving obstacle to the target moving body,
The autonomous driving system according to claim 8 or 9, wherein the vehicle-mounted device makes the target moving body make a U-turn by utilizing an escape zone indicated in the map data when the type of the driving obstacle is the impassability.
(付記11)
前記自動運転管制装置は、前記障害物が複数存在する場合、徐行必要を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記徐行必要である場合、前記対象移動体を徐行させる
付記8から付記10のいずれか1つに記載の自動運転システム。
(Appendix 11)
When a plurality of obstacles are present, the autonomous driving control device transmits to the target moving body the control data indicating a need to slow down as a type of the driving obstacle;
The autonomous driving system according to any one of claims 8 to 10, wherein the vehicle-mounted device causes the target moving body to move slowly when the type of the driving obstacle requires the target moving body to move slowly.
(付記12)
前記自動運転管制装置は、一台以上の移動体のそれぞれから自己位置データを受信し、前記一台以上の移動体のそれぞれの自己位置データに基づいて前記障害物が前記一台以上の移動体のいずれかであるか判定し、前記障害物が前記一台以上の移動体のいずれかであると判定した場合に前記障害物である前記移動体へ前記走行障害を通知する
付記8から付記11のいずれか1つに記載の自動運転システム。
(Appendix 12)
An autonomous driving system as described in any one of Appendix 8 to Appendix 11, wherein the autonomous driving control device receives self-position data from each of one or more moving bodies, determines whether the obstacle is any of the one or more moving bodies based on the self-position data of each of the one or more moving bodies, and if it determines that the obstacle is any of the one or more moving bodies, notifies the moving body that is the obstacle of the driving disturbance.
(付記13)
前記自動運転管制装置は、一人以上の歩行者に所持される一台以上の携帯端末のそれぞれから自己位置データを受信し、前記一台以上の携帯端末のそれぞれの自己位置データに基づいて前記障害物が前記一人以上の歩行者のいずれかであるか判定し、前記障害物が前記一人以上の歩行者のいずれかであると判定した場合に前記障害物である前記歩行者の前記携帯端末へ前記走行障害を通知する
付記8から付記12のいずれか1つに記載の自動運転システム。
(Appendix 13)
The autonomous driving system according to any one of Appendix 8 to Appendix 12, wherein the autonomous driving control device receives self-location data from each of one or more mobile devices carried by one or more pedestrians, determines whether the obstacle is any of the one or more pedestrians based on the self-location data of each of the one or more mobile devices, and if it determines that the obstacle is any of the one or more pedestrians, notifies the mobile device of the pedestrian who is the obstacle of the driving obstruction.
(付記14)
前記自動運転システムは、前記周囲状況監視装置を複数備え、
それぞれの前記周囲状況監視装置の前記監視センサ群は、動画像センサを含み、
それぞれの前記周囲状況監視装置の前記監視制御装置は、前記動画像センサによって得られる動画ストリームを含めて前記監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記動画ストリームごとに、複数種類の物体検出モデルのうち送信元の前記周囲状況監視装置に対応付けられた物体検出モデルを用いて前記動画ストリームを入力にして物体検出を行い、検出された物体の検出情報をデータベースに記録し、
前記複数種類の物体検出モデルから選択された物体検出モデルである選択モデルを用いて前記動画ストリームを入力にして検出された物体の検出情報をアノテーションによって修正し、前記動画ストリームと修正された検出情報を学習して前記選択モデルを更新して新たなバージョンの物体検出モデルを生成し、
前記複数種類のバージョン別の物体検出モデルから決定された物体検出モデルである決定モデルを用いて前記動画ストリームを入力にして前記物体検出を行って、前記対象移動体の走行に対する障害物を検出する
付記1から付記13のいずれか1つに記載の自動運転システム。
(Appendix 14)
The autonomous driving system includes a plurality of the surrounding situation monitoring devices,
The group of monitoring sensors of each of the surrounding situation monitoring devices includes a video image sensor,
The monitoring control device of each of the surrounding situation monitoring devices transmits the monitoring data including the video stream obtained by the video sensor to the autonomous driving control device,
The automatic driving control device includes:
For each of the video streams, an object detection model corresponding to the surrounding situation monitoring device that is a transmission source among a plurality of types of object detection models is used to input the video stream and perform object detection, and detection information of the detected object is recorded in a database;
Using a selection model, which is an object detection model selected from the plurality of types of object detection models, the video stream is input and detection information of the detected object is corrected by annotation, and the selection model is updated by learning the video stream and the corrected detection information to generate a new version of the object detection model;
14. The autonomous driving system of claim 1, further comprising: an object detection model determined from the plurality of versions of the object detection models; an input of the video stream; and an object detection method for detecting an obstacle to the travel of the target moving body.
(付記15)
自動運転で走行する移動体である対象移動体と、周囲状況監視装置と、自動運転管制装置と、を備える自動運転システムによる自動運転方法であり、
前記対象移動体は、
前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定し、前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信し、
前記周囲状況監視装置は、
前記監視要求を受信し、前記対象移動体の周囲状況を監視し、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記対象移動体は、
前記管制データを受信し、前記管制データと、前記対象移動体の周囲状況を示す周囲状況データと、に基づいて自動運転で走行する
自動運転方法。
(Appendix 15)
An autonomous driving method using an autonomous driving system including a target moving body that is an autonomous driving moving body, a surrounding situation monitoring device, and an autonomous driving control device,
The target moving body is
determining whether or not monitoring by the surrounding situation monitoring device is necessary by referring to self-location data indicating the position of the target moving body and map data indicating a monitoring area set as an area in which the surrounding situation of the target moving body should be monitored by the surrounding situation monitoring device when the target moving body passes, and when determining that monitoring by the surrounding situation monitoring device is necessary, transmitting a monitoring request to the surrounding situation monitoring device and transmitting driving situation data indicating the driving situation of the target moving body to the automatic driving control device;
The surrounding situation monitoring device is
receiving the monitoring request, monitoring a surrounding situation of the target moving object, and transmitting monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
The automatic driving control device includes:
receiving the driving condition data and the monitoring data, determining a driving obstacle for the target moving object based on the driving condition data and the monitoring data, and transmitting control data notifying the target moving object of the driving obstacle;
The target moving body is
An autonomous driving method for receiving the control data and driving the target moving body autonomously based on the control data and surrounding condition data indicating the surrounding conditions of the target moving body.
(付記16)
自動運転で走行する移動体であり、
移動体センサ群と、
前記移動体センサ群によって得られ前記移動体の位置を示す自己位置データと、前記移動体が通行するときに前記移動体の周囲状況を周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定し、前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信し、前記走行状況データと、前記周囲状況監視装置によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信し、前記管制データと、前記移動体センサ群によって得られ前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する車載器と、
を備える移動体。
(Appendix 16)
It is a vehicle that runs autonomously,
A group of mobile sensors;
an on-board device that determines whether or not monitoring by the surrounding conditions monitoring device is necessary by referring to self-position data obtained by the mobile body sensor group and indicating the position of the mobile body, and map data indicating a monitoring area set as an area in which the surrounding conditions of the mobile body should be monitored by a surrounding conditions monitoring device when the mobile body passes, and when it determines that monitoring by the surrounding conditions monitoring device is necessary, transmits a monitoring request to the surrounding conditions monitoring device and transmits driving condition data obtained by the mobile body sensor group and indicating the driving condition of the mobile body to an automatic driving control device, receives control data from the automatic driving control device that notifies of a driving obstacle of the mobile body determined based on the driving condition data and the monitoring data obtained by the surrounding conditions monitoring device and indicating the surrounding conditions of the mobile body, and controls the driving of the mobile body based on the control data and the surrounding conditions data obtained by the mobile body sensor group and indicating the surrounding conditions of the mobile body;
A moving body comprising:
(付記17)
前記周囲状況監視装置は、自動運転で飛行する飛行体であり、
前記移動体は、前記飛行体が離着陸するドローンポートを備える
付記16に記載の移動体。
(Appendix 17)
The surrounding situation monitoring device is an autonomous flying object,
The moving body is the moving body described in Appendix 16, which is equipped with a drone port on which the air vehicle takes off and lands.
(付記18)
監視センサ群と、
自動運転で走行する対象移動体が監視地域を通行するときに前記対象移動体から監視要求を受信し、前記監視センサ群に前記対象移動体の周囲状況を監視させて前記対象移動体の周囲状況を示す監視データを得て、前記監視データを、前記監視データと、前記対象移動体の走行状況を示す走行状況データと、に基づいて判定される前記対象移動体の走行障害を前記対象移動体に通知する自動運転管制装置へ送信する監視制御装置と、
を備える周囲状況監視装置。
(Appendix 18)
A monitoring sensor group;
a monitoring control device that receives a monitoring request from a target moving body traveling autonomously when the target moving body passes through a monitoring area, causes the monitoring sensor group to monitor the surrounding conditions of the target moving body to obtain monitoring data indicating the surrounding conditions of the target moving body, and transmits the monitoring data to an autonomous driving control device that notifies the target moving body of a driving obstacle of the target moving body determined based on the monitoring data and driving condition data indicating the driving condition of the target moving body;
An ambient situation monitoring device comprising:
(付記19)
前記対象移動体は、ドローンポートを備え、
前記周囲状況監視装置は、自動運転で飛行する飛行体であり、前記ドローンポートを使って離着陸する
付記18に記載の周囲状況監視装置。
(Appendix 19)
The target moving object includes a drone port;
The surrounding situation monitoring device is an autonomous flying vehicle that takes off and lands using the drone port.
(付記20)
前記監視制御装置は、前記対象移動体の位置を示す自己位置データと、前記監視地域を示す監視地域データと、を含んだ前記監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行経路を前記飛行体に飛行させる
付記19に記載の周囲状況監視装置。
(Appendix 20)
The monitoring control device receives the monitoring request including self-location data indicating the position of the target moving body and monitoring area data indicating the monitoring area, plans a flight path from taking off from the drone port based on the self-location data and the monitoring area data, flying over the monitoring area and landing at the drone port, and flies the flying body along the flight path.The surrounding condition monitoring device described in Appendix 19.
(付記21)
前記監視地域に設けられる路側機である
付記18に記載の周囲状況監視装置。
(Appendix 21)
19. The surrounding conditions monitoring device according to claim 18, which is a roadside unit provided in the monitoring area.
(付記22)
前記監視センサ群は、カラーセンサを含み、
前記監視制御装置は、
前記カラーセンサによって得られるカラーセンサデータに基づいて、前記対象移動体の周囲に存在する物体と、前記物体が位置する場所の平面と、を検知し、
検知した平面における前記物体の位置を推定する
付記18から付記21のいずれか1つに記載の周囲状況監視装置。
(Appendix 22)
the monitoring sensor group includes a color sensor;
The monitoring and control device includes:
Detecting objects present around the target moving object and a plane on which the objects are located based on color sensor data obtained by the color sensor;
22. The surrounding situation monitoring device according to claim 18, wherein the position of the object in a detected plane is estimated.
(付記23)
前記カラーセンサは、RGBカメラまたはRGB-Dカメラである
付記22に記載の周囲状況監視装置。
(Appendix 23)
23. The surrounding situation monitoring device according to claim 22, wherein the color sensor is an RGB camera or an RGB-D camera.
(付記24)
自動運転で走行する対象移動体から、前記対象移動体の走行状況を示す走行状況データを受信し、
前記対象移動体が監視地域を通行するときに前記対象移動体から監視要求を受信して前記対象移動体の周囲状況を監視する記周囲状況監視装置から、前記対象移動体の周囲状況を示す監視データを受信し、
前記走行状況データと前記監視データに基づいて、前記対象移動体の走行障害を判定し、
前記走行障害を通知する管制データを前記対象移動体へ送信する
自動運転管制装置。
(Appendix 24)
Receiving driving status data indicating a driving status of a target moving object from the target moving object that is driving autonomously;
receiving monitoring data indicating a surrounding situation of the target moving object from a surrounding situation monitoring device which receives a monitoring request from the target moving object when the target moving object passes through a monitoring area and monitors a surrounding situation of the target moving object;
determining a traveling obstacle of the target moving object based on the traveling condition data and the monitoring data;
An automatic driving control device that transmits control data notifying the target moving body of the driving obstacle.
(付記25)
前記対象移動体の位置から近接範囲内に前記対象移動体と対向する障害物が存在する場合に前記走行障害があると判定する
付記24に記載の自動運転管制装置。
(Appendix 25)
The autonomous driving control device of claim 24, which determines that a driving obstacle exists when an obstacle facing the target moving body is present within a proximity range from the position of the target moving body.
(付記26)
前記障害物が移動する物体である場合、すれ違い不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信することによって、エスケープゾーンに前記対象移動体を退避させる
付記25に記載の自動運転管制装置。
(Appendix 26)
The autonomous driving control device of claim 25, wherein when the obstacle is a moving object, the control data indicating that passing is not possible as the type of driving obstacle is transmitted to the target moving body, thereby causing the target moving body to retreat to an escape zone.
(付記27)
前記障害物が移動しない物体である場合、通行不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信することによって、エスケープゾーンを利用して前記対象移動体をUターンさせる
付記25または付記26に記載の自動運転管制装置。
(Appendix 27)
An autonomous driving control device as described in Appendix 25 or Appendix 26, which, when the obstacle is a stationary object, causes the target moving body to make a U-turn using an escape zone by transmitting the control data to the target moving body indicating that passage is prohibited as the type of driving obstacle.
(付記28)
前記障害物が複数存在する場合、徐行必要を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信することによって、前記対象移動体を徐行させる
付記25から付記27のいずれか1つに記載の自動運転管制装置。
(Appendix 28)
An automatic driving control device as described in any one of Appendix 25 to Appendix 27, which, when multiple obstacles are present, causes the target moving body to slow down by transmitting the control data to the target moving body indicating the need to slow down as the type of driving obstacle.
(付記29)
一台以上の移動体のそれぞれから自己位置データを受信し、前記一台以上の移動体のそれぞれの自己位置データに基づいて前記障害物が前記一台以上の移動体のいずれかであるか判定し、前記障害物が前記一台以上の移動体のいずれかであると判定した場合に前記障害物である前記移動体へ前記走行障害を通知する
付記25から付記28のいずれか1つに記載の自動運転管制装置。
(Appendix 29)
An autonomous driving control device as described in any one of Appendix 25 to Appendix 28, which receives self-location data from each of one or more moving bodies, determines whether the obstacle is any of the one or more moving bodies based on the self-location data of each of the one or more moving bodies, and if it determines that the obstacle is any of the one or more moving bodies, notifies the moving body that is the obstacle of the driving disturbance.
(付記30)
一人以上の歩行者に所持される一台以上の携帯端末のそれぞれから自己位置データを受信し、前記一台以上の携帯端末のそれぞれの自己位置データに基づいて前記障害物が前記一人以上の歩行者のいずれかであるか判定し、前記障害物が前記一人以上の歩行者のいずれかであると判定した場合に前記障害物である前記歩行者の前記携帯端末へ前記走行障害を通知する
付記25から付記29のいずれか1つに記載の自動運転管制装置。
(Appendix 30)
An autonomous driving control device as described in any one of Appendix 25 to Appendix 29, which receives self-location data from each of one or more mobile devices carried by one or more pedestrians, determines whether the obstacle is any of the one or more pedestrians based on the self-location data of each of the one or more mobile devices, and if it determines that the obstacle is any of the one or more pedestrians, notifies the mobile device of the pedestrian who is the obstacle of the driving obstacle.
(付記31)
自動運転で走行する移動体の位置を示す自己位置データと、前記移動体が通行するときに前記移動体の周囲状況を周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定する処理と、
前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信する処理と、
前記走行状況データと、前記周囲状況監視装置によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信する処理と、
前記管制データと、前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する処理と、
をコンピュータに実行させるための自動運転プログラム。
(Appendix 31)
A process of determining whether or not monitoring by the surrounding situation monitoring device is required by referring to self-location data indicating the location of a moving body traveling by automatic driving and map data indicating a monitoring area set as an area in which the surrounding situation of the moving body should be monitored by the surrounding situation monitoring device when the moving body passes;
When it is determined that monitoring by the surrounding situation monitoring device is necessary, a process of transmitting a monitoring request to the surrounding situation monitoring device and transmitting driving situation data indicating a driving situation of the moving body to an automatic driving control device;
A process of receiving control data notifying a driving obstacle of the moving body from the automatic driving control device, the control data being determined based on the driving situation data and monitoring data indicating the surrounding situation of the moving body obtained by the surrounding situation monitoring device;
A process of controlling the travel of the moving object based on the control data and surrounding situation data indicating the surrounding situation of the moving object;
An autonomous driving program that causes a computer to execute the above.
(付記32)
自動運転で走行する対象移動体が監視地域を通行するときに前記対象移動体から監視要求を受信する処理と、
監視センサ群に前記対象移動体の周囲状況を監視させて前記対象移動体の周囲状況を示す監視データを得る処理と、
前記監視データを、前記監視データと、前記対象移動体の走行状況を示す走行状況データと、に基づいて判定される前記対象移動体の走行障害を前記対象移動体に通知する自動運転管制装置へ送信する処理と、
をコンピュータに実行させるための監視プログラム。
(Appendix 32)
A process of receiving a monitoring request from a target moving object when the target moving object travels through a monitoring area while the target moving object is autonomously driven;
A process of causing a group of monitoring sensors to monitor the surroundings of the target moving object and obtaining monitoring data indicating the surroundings of the target moving object;
A process of transmitting the monitoring data to an autonomous driving control device that notifies the target moving body of a driving obstacle of the target moving body determined based on the monitoring data and driving situation data indicating the driving situation of the target moving body;
A monitoring program that causes a computer to execute the following.
(付記33)
自動運転で走行する対象移動体から、前記対象移動体の走行状況を示す走行状況データを受信する処理と、
前記対象移動体が監視地域を通行するときに前記対象移動体から監視要求を受信して前記対象移動体の周囲状況を監視する記周囲状況監視装置から、前記対象移動体の周囲状況を示す監視データを受信する処理と、
前記走行状況データと前記監視データに基づいて、前記対象移動体の走行障害を判定する処理と、
前記走行障害を通知する管制データを前記対象移動体へ送信する処理と、
をコンピュータに実行させるための管制プログラム。
(Appendix 33)
A process of receiving driving status data indicating a driving status of a target moving object from the target moving object that is driving autonomously;
receiving monitoring data indicating a surrounding situation of the target moving object from a surrounding situation monitoring device that receives a monitoring request from the target moving object when the target moving object passes through a monitoring area and monitors the surrounding situation of the target moving object;
A process of determining a traveling obstacle of the target moving object based on the traveling condition data and the monitoring data;
A process of transmitting control data notifying the target moving object of the obstacle to the target moving object;
A control program that causes a computer to execute the above.
(付記34)
自動運転で地上を走行する移動体である対象移動体と、自動運転で上空を飛行する飛行体と、自動運転管制装置と、を備える自動運転システムであり、
前記対象移動体は、
移動体センサ群と、
前記移動体センサ群によって得られ前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信する車載器と、
を備え、
前記飛行体は、
監視センサ群と、
前記監視センサ群に前記対象移動体の周囲状況を上空から監視させ、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信する監視制御装置と、
を備え、
前記自動運転管制装置は、前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記車載器は、前記管制データを受信し、前記管制データと、前記移動体センサ群によって得られ前記対象移動体の周囲状況を示す周囲状況データと、に基づいて前記対象移動体の走行を制御する
自動運転システム。
(Appendix 34)
An autonomous driving system including a target moving object that is a moving object that runs on the ground autonomously, an aircraft that flies autonomously in the sky, and an autonomous driving control device,
The target moving body is
A group of mobile sensors;
an in-vehicle device that transmits driving status data obtained by the moving body sensor group and indicating a driving status of the target moving body to the automatic driving control device;
Equipped with
The flying object is
A monitoring sensor group;
a monitoring control device that causes the monitoring sensor group to monitor the surrounding situation of the target moving object from the sky and transmits monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
Equipped with
The autonomous driving control device receives the driving status data and the monitoring data, determines a driving obstacle of the target moving object based on the driving status data and the monitoring data, and transmits control data notifying the target moving object of the driving obstacle,
The vehicle-mounted device receives the control data and controls the driving of the target moving object based on the control data and surrounding condition data obtained by the group of mobile object sensors and indicating the surrounding conditions of the target moving object.
(付記35)
前記対象移動体は、前記飛行体が離着陸するドローンポートを備える
付記34に記載の自動運転システム。
(Appendix 35)
The autonomous driving system of claim 34, wherein the target moving body is provided with a drone port from which the aircraft takes off and lands.
(付記36)
前記車載器は、監視地域を示す監視地域データと、前記移動体センサ群によって得られ前記対象移動体の位置を示す自己位置データと、を含む監視要求を送信し、
前記監視制御装置は、前記監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行経路を前記飛行体に飛行させる付記35に記載の自動運転システム。
(Appendix 36)
the vehicle-mounted device transmits a monitoring request including monitoring area data indicating a monitoring area and self-location data obtained by the mobile sensor group and indicating a location of the target mobile object;
The monitoring control device receives the monitoring request, plans a flight path based on the self-location data and the monitored area data from taking off from the drone port to flying over the monitored area and landing at the drone port, and flies the aircraft along the flight path.An autonomous driving system as described in Appendix 35.
(付記37)
自動運転で地上を走行する移動体である対象移動体と、自動運転で上空を飛行する飛行体と、自動運転管制装置と、を備える自動運転システムによる自動運転方法であり、
前記対象移動体は、
前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信し、
前記飛行体は、
前記対象移動体の周囲状況を上空から監視し、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記対象移動体は、
前記管制データを受信し、前記管制データと、前記対象移動体の周囲状況を示す周囲状況データと、に基づいて自動運転で走行する
自動運転方法。
(Appendix 37)
An autonomous driving method using an autonomous driving system including a target moving body that is a moving body that runs on the ground autonomously, an aircraft that flies autonomously in the sky, and an autonomous driving control device,
The target moving object is
Transmitting driving status data indicating a driving status of the target moving object to the automatic driving control device;
The flying object is
Monitoring the surroundings of the target moving object from the sky, and transmitting monitoring data indicating the surroundings of the target moving object to the automatic driving control device;
The automatic driving control device includes:
receiving the driving condition data and the monitoring data, determining a driving obstacle for the target moving object based on the driving condition data and the monitoring data, and transmitting control data notifying the target moving object of the driving obstacle;
The target moving object is
An autonomous driving method for receiving the control data and driving the target moving body autonomously based on the control data and surrounding condition data indicating the surrounding conditions of the target moving body.
(付記38)
自動運転で地上を走行する移動体であり、
移動体センサ群と、
前記移動体センサ群によって得られ前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信し、前記走行状況データと、自動運転で上空を飛行する飛行体によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信し、前記管制データと、前記移動体センサ群によって得られ前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する車載器と、
を備える移動体。
(Appendix 38)
It is a vehicle that travels on the ground autonomously.
A group of mobile sensors;
an on-board device that transmits driving status data indicating the driving status of the moving body obtained by the group of moving body sensors to an autonomous driving control device, receives control data from the autonomous driving control device notifying the moving body of a driving obstacle determined based on the driving status data and monitoring data indicating the surrounding status of the moving body obtained by an aircraft flying overhead by autonomous driving, and controls the driving of the moving body based on the control data and surrounding status data indicating the surrounding status of the moving body obtained by the group of moving body sensors;
A moving body comprising:
(付記39)
前記飛行体が離着陸するドローンポートを備える
付記38に記載の移動体。
(Appendix 39)
A mobile body as described in Appendix 38, comprising a drone port for the air vehicle to take off and land.
(付記40)
自動運転で上空を飛行する飛行体であり、
監視センサ群と、
前記監視センサ群に自動運転で地上を走行する対象移動体の周囲状況を上空から監視させて前記対象移動体の周囲状況を示す監視データを得て、前記監視データを、前記監視データと、前記対象移動体の走行状況を示す走行状況データと、に基づいて判定される前記対象移動体の走行障害を前記対象移動体に通知する自動運転管制装置へ送信する監視制御装置と、
を備える飛行体。
(Appendix 40)
It is an autonomous flying vehicle that flies through the sky.
A monitoring sensor group;
a monitoring control device that causes the monitoring sensor group to monitor from the sky the surrounding conditions of a target moving object traveling on the ground in an autonomous driving manner, to obtain monitoring data indicating the surrounding conditions of the target moving object, and transmits the monitoring data to an autonomous driving control device that notifies the target moving object of a traveling obstacle of the target moving object determined based on the monitoring data and traveling condition data indicating the traveling condition of the target moving object;
An aircraft equipped with the above.
(付記41)
前記対象移動体は、ドローンポートを備え、
前記飛行体は、前記ドローンポートを使って離着陸する
付記40に記載の飛行体。
(Appendix 41)
The target moving object includes a drone port;
The air vehicle of claim 40, wherein the air vehicle takes off and lands using the drone port.
(付記42)
前記監視制御装置は、監視地域を示す監視地域データと、前記対象移動体の位置を示す自己位置データと、を含む監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行経路を前記飛行体に飛行させる
付記41に記載の飛行体。
(Appendix 42)
The monitoring control device receives a monitoring request including monitoring area data indicating a monitoring area and self-location data indicating the position of the target moving body, plans a flight path from taking off from the drone port based on the self-location data and the monitoring area data, flying over the monitoring area and landing at the drone port, and flies the aircraft along the flight path.
(付記43)
自動運転で地上を走行する対象移動体から、前記対象移動体の走行状況を示す走行状況データを受信し、
自動運転で上空を飛行して前記対象移動体の周囲状況を監視する記周囲状況監視装置から、前記対象移動体の周囲状況を示す監視データを受信し、
前記走行状況データと前記監視データに基づいて、前記対象移動体の走行障害を判定し、
前記走行障害を通知する管制データを前記対象移動体へ送信する
自動運転管制装置。
(Appendix 43)
Receiving driving status data indicating a driving status of a target moving object from the target moving object traveling on the ground by autonomous driving;
receiving monitoring data indicating a surrounding situation of the target moving object from a surrounding situation monitoring device that flies above the target moving object in an autonomous driving manner and monitors a surrounding situation of the target moving object;
determining a traveling obstacle of the target moving object based on the traveling condition data and the monitoring data;
An automatic driving control device that transmits control data notifying the target moving body of the driving obstacle.
(付記44)
自動運転で地上を走行する移動体の走行状況を示す走行状況データを自動運転管制装置へ送信する処理と、
前記走行状況データと、自動運転で上空を飛行する飛行体によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信する処理と、
前記管制データと、前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する処理と、
をコンピュータに実行させるための自動運転プログラム。
(Appendix 44)
A process of transmitting driving status data indicating a driving status of a moving object traveling on the ground by autonomous driving to an autonomous driving control device;
A process of receiving control data notifying a driving obstacle of the moving body from the automatic driving control device, the control data being determined based on the driving status data and monitoring data indicating the surrounding conditions of the moving body obtained by an aircraft flying in the sky by automatic driving;
A process of controlling the travel of the moving object based on the control data and surrounding situation data indicating the surrounding situation of the moving object;
An autonomous driving program that causes a computer to execute the above.
(付記45)
自動運転で上空を飛行する飛行体に搭載される監視センサ群に自動運転で地上を走行する対象移動体の周囲状況を監視させて前記対象移動体の周囲状況を示す監視データを得る処理と、
前記監視データを、前記監視データと、前記対象移動体の走行状況を示す走行状況データと、に基づいて判定される前記対象移動体の走行障害を前記対象移動体に通知する自動運転管制装置へ送信する処理と、
をコンピュータに実行させるための監視プログラム。
(Appendix 45)
A process of having a group of monitoring sensors mounted on an aircraft flying autonomously in the sky monitor the surroundings of a target moving object traveling autonomously on the ground, thereby obtaining monitoring data indicating the surroundings of the target moving object;
A process of transmitting the monitoring data to an autonomous driving control device that notifies the target moving body of a driving obstacle of the target moving body determined based on the monitoring data and driving situation data indicating the driving situation of the target moving body;
A monitoring program that causes a computer to execute the following.
(付記46)
自動運転で地上を走行する対象移動体から、前記対象移動体の走行状況を示す走行状況データを受信する処理と、
自動運転で上空を飛行して前記対象移動体の周囲状況を監視する記周囲状況監視装置から、前記対象移動体の周囲状況を示す監視データを受信する処理と、
前記走行状況データと前記監視データに基づいて、前記対象移動体の走行障害を判定する処理と、
前記走行障害を通知する管制データを前記対象移動体へ送信する処理と、
をコンピュータに実行させるための管制プログラム。
(Appendix 46)
A process of receiving driving status data indicating a driving status of a target moving object from the target moving object traveling on the ground by autonomous driving;
A process of receiving monitoring data indicating a surrounding situation of the target moving object from a surrounding situation monitoring device that flies above the target moving object in an autonomous driving manner and monitors the surrounding situation of the target moving object;
A process of determining a traveling obstacle of the target moving object based on the traveling condition data and the monitoring data;
A process of transmitting control data notifying the target moving object of the obstacle to the target moving object;
A control program that causes a computer to execute the above.
100 自動運転システム、101 移動体、102 携帯端末、110 地図データベース、111 地図データ、120 対象移動体、121 ドローンポート、130 周囲状況監視装置、131 ドローン、200 車載器、201 プロセッサ、202 メモリ、203 補助記憶装置、204 通信装置、205 入出力インタフェース、211 監視要求部、212 管制データ取得部、213 運転制御部、220 記憶部、290 移動体センサ群、291 Depthカメラ、292 Lider、293 測位センサ、300 監視制御装置、301 プロセッサ、302 メモリ、303 補助記憶装置、304 通信装置、305 入出力インタフェース、311 要求受付部、312 監視制御部、313 監視データ生成部、314 監視データ提供部、320 記憶部、390 監視センサ群、391 Depthカメラ、392 RGBカメラ、393 カラーセンサ、400 自動運転管制装置、401 プロセッサ、402 メモリ、403 補助記憶装置、404 通信装置、405 入出力インタフェース、411 データ受付部、412 走行障害判定部、413 管制データ生成部、414 管制データ提供部、415 走行障害通知部、420 記憶部、431 スイッチャー部、432 物体検出部、433 位置推定部、434 アノテーション部、435 学習部、438 データベース、439 動画ストリームAI処理パイプライン。 100 Autonomous driving system, 101 Mobile body, 102 Mobile terminal, 110 Map database, 111 Map data, 120 Target mobile body, 121 Drone port, 130 Surrounding situation monitoring device, 131 Drone, 200 Vehicle-mounted device, 201 Processor, 202 Memory, 203 Auxiliary storage device, 204 Communication device, 205 Input/output interface, 211 Monitoring request unit, 212 Control data acquisition unit, 213 Driving control unit, 220 Memory unit, 290 Mobile body sensor group, 291 Depth camera, 292 Lidar, 293 Positioning sensor, 300 Monitoring control device, 301 Processor, 302 Memory, 303 Auxiliary storage device, 304 Communication device, 305 Input/output interface, 311 Request reception unit, 312 Monitoring control unit, 313 Monitoring data generation unit, 314 Monitoring data providing unit, 320 memory unit, 390 monitoring sensor group, 391 depth camera, 392 RGB camera, 393 color sensor, 400 autonomous driving control device, 401 processor, 402 memory, 403 auxiliary storage device, 404 communication device, 405 input/output interface, 411 data reception unit, 412 driving obstacle determination unit, 413 control data generation unit, 414 control data providing unit, 415 driving obstacle notification unit, 420 memory unit, 431 switcher unit, 432 object detection unit, 433 position estimation unit, 434 annotation unit, 435 learning unit, 438 database, 439 video stream AI processing pipeline.
Claims (18)
前記対象移動体は、
移動体センサ群と、
前記移動体センサ群によって得られ前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記対象移動体が前記監視地域に入ったか判定し、前記対象移動体が前記監視地域に入ったと判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信する車載器と、
を備え、
前記周囲状況監視装置は、
監視センサ群と、
前記監視要求を受信し、前記監視センサ群に前記対象移動体の周囲状況を監視させ、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信する監視制御装置と、
を備え、
前記自動運転管制装置は、前記走行状況データと前記監視データを受信し、前記対象移動体の走行障害を前記走行状況データと前記監視データに基づいて判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記車載器は、前記管制データを受信し、前記管制データと、前記移動体センサ群によって得られ前記対象移動体の周囲状況を示す周囲状況データと、に基づいて前記対象移動体の走行を制御する
自動運転システム。 An autonomous driving system including a target moving body that is an autonomous driving moving body, a surrounding situation monitoring device, and an autonomous driving control device,
The target moving object is
A group of mobile sensors;
an on-board device that determines whether the target moving object has entered the monitoring area by referring to self-location data obtained by the group of moving object sensors and indicating the position of the target moving object, and map data indicating a monitoring area set as an area in which the surrounding conditions of the target moving object should be monitored by the surrounding conditions monitoring device when the target moving object passes through, and that transmits a monitoring request to the surrounding conditions monitoring device when it is determined that the target moving object has entered the monitoring area, and transmits driving condition data obtained by the group of moving object sensors and indicating the driving conditions of the target moving object to the automatic driving control device;
Equipped with
The surrounding situation monitoring device is
A monitoring sensor group;
a monitoring control device that receives the monitoring request, causes the monitoring sensor group to monitor the surrounding situation of the target moving object, and transmits monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
Equipped with
The autonomous driving control device receives the driving status data and the monitoring data, determines a driving obstacle of the target moving body based on the driving status data and the monitoring data, and transmits control data notifying the target moving body of the driving obstacle,
The vehicle-mounted device receives the control data and controls the driving of the target moving object based on the control data and surrounding condition data obtained by the group of mobile object sensors and indicating the surrounding conditions of the target moving object.
請求項1に記載の自動運転システム。 The autonomous driving system according to claim 1 , wherein the surrounding situation monitoring device is an autonomous flying vehicle.
請求項2に記載の自動運転システム。 The autonomous driving system of claim 2 , wherein the target moving body is provided with a drone port from which the aircraft takes off and lands.
前記監視制御装置は、前記監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行体に前記飛行経路を飛行させる請求項3に記載の自動運転システム。 the vehicle-mounted device transmits the monitoring request including the self-location data and monitoring area data indicating the monitoring area;
The autonomous driving system of claim 3, wherein the monitoring control device receives the monitoring request, plans a flight path based on the self-location data and the monitored area data from taking off from the drone port to flying over the monitored area and landing at the drone port, and causes the aircraft to fly along the flight path.
請求項1に記載の自動運転システム。 The autonomous driving system according to claim 1 , wherein the surrounding situation monitoring device is a roadside unit installed in the monitoring area.
前記監視制御装置は、
前記カラーセンサによって得られるカラーセンサデータに基づいて、前記対象移動体の周囲に存在する物体と、前記物体が位置する場所の平面と、を検知し、
検知した平面における前記物体の位置を推定し、前記対象移動体の周囲に存在する各物体の位置を示すデータを前記監視データとして生成する
請求項1から請求項5のいずれか1項に記載の自動運転システム。 the monitoring sensor group includes a color sensor;
The monitoring and control device includes:
Detecting objects present around the target moving object and a plane on which the objects are located based on color sensor data obtained by the color sensor;
The autonomous driving system according to any one of claims 1 to 5, wherein the position of the object on the detected plane is estimated, and data indicating the position of each object existing around the target moving body is generated as the monitoring data.
請求項6に記載の自動運転システム。 The autonomous driving system according to claim 6, wherein the color sensor is an RGB camera or an RGB-D camera.
請求項1に記載の自動運転システム。 The autonomous driving system according to claim 1 , wherein the autonomous driving control device determines that a driving obstacle exists when an obstacle facing the target moving body is present within a proximity range from the position of the target moving body.
前記車載器は、前記走行障害の種類が前記すれ違い不可である場合、前記地図データに示されるエスケープゾーンに前記対象移動体を退避させる
請求項8に記載の自動運転システム。 When the obstacle is a moving object, the autonomous driving control device transmits the control data indicating that passing is impossible as the type of the driving obstacle to the target moving body,
The autonomous driving system according to claim 8 , wherein the vehicle-mounted device causes the target moving object to retreat to an escape zone indicated in the map data when the type of the driving obstacle is the non-passing obstacle.
前記車載器は、前記走行障害の種類が前記通行不可である場合、前記地図データに示されるエスケープゾーンを利用して前記対象移動体をUターンさせる
請求項8または請求項9に記載の自動運転システム。 When the obstacle is a stationary object, the autonomous driving control device transmits the control data indicating impassability as the type of the driving obstacle to the target moving body,
The autonomous driving system according to claim 8 or 9, wherein the vehicle-mounted device makes the target moving object make a U-turn by utilizing an escape zone indicated in the map data when the type of the driving obstacle is the impassability.
前記車載器は、前記走行障害の種類が前記徐行必要である場合、前記対象移動体を徐行させる
請求項8または請求項9に記載の自動運転システム。 When a plurality of obstacles are present, the autonomous driving control device transmits to the target moving body the control data indicating a need to slow down as a type of the driving obstacle;
The autonomous driving system according to claim 8 or claim 9, wherein the vehicle-mounted device makes the target moving object move slowly when the type of the driving obstacle requires the target moving object to move slowly.
前記一台以上の移動体のそれぞれの自己位置データに基づいて前記障害物が前記一台以上の移動体のいずれかであるか判定し、前記障害物が前記一台以上の移動体のいずれかであると判定した場合に前記障害物である前記移動体へ前記走行障害を通知する
請求項8または請求項9に記載の自動運転システム。 The autonomous driving control device receives self-position data from each of one or more moving bodies,
An autonomous driving system as described in claim 8 or claim 9, which determines whether the obstacle is any of the one or more moving bodies based on the self-position data of each of the one or more moving bodies, and if it determines that the obstacle is any of the one or more moving bodies, notifies the moving body that is the obstacle of the driving obstruction.
請求項8または請求項9に記載の自動運転システム。 The autonomous driving system according to claim 8 or claim 9, wherein the autonomous driving control device receives self-location data from each of one or more mobile devices carried by one or more pedestrians, determines whether the obstacle is any of the one or more pedestrians based on the self-location data of each of the one or more mobile devices, and if it determines that the obstacle is any of the one or more pedestrians, notifies the mobile device of the pedestrian who is the obstacle of the driving obstruction.
それぞれの前記周囲状況監視装置の前記監視センサ群は、動画像センサを含み、
それぞれの前記周囲状況監視装置の前記監視制御装置は、前記動画像センサによって得られる動画ストリームを含めて前記監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記動画ストリームごとに、複数種類の物体検出モデルのうち送信元の前記周囲状況監視装置に対応付けられた物体検出モデルを用いて前記動画ストリームを入力にして物体検出を行い、検出された物体の検出情報をデータベースに記録し、
前記動画ストリームをディスプレイに表示し、前記自動運転管制装置に入力されるアノテーション情報を受け取り、前記複数種類の物体検出モデルから選択された物体検出モデルである選択モデルを用いて前記動画ストリームを入力にして検出された物体の検出情報を前記アノテーション情報に基づいて修正し、前記動画ストリームと修正された検出情報を学習して前記選択モデルを更新して新たなバージョンの物体検出モデルを生成し、
前記複数種類のバージョン別の物体検出モデルのうち前記自動運転管制装置に対して指定された物体検出モデルである決定モデルを用いて前記動画ストリームを入力にして前記物体検出を行って、前記対象移動体の走行に対する障害物を検出する
請求項1に記載の自動運転システム。 The autonomous driving system includes a plurality of the surrounding situation monitoring devices,
The group of monitoring sensors of each of the surrounding situation monitoring devices includes a video image sensor,
The monitoring control device of each of the surrounding situation monitoring devices transmits the monitoring data including the video stream obtained by the video sensor to the autonomous driving control device,
The automatic driving control device includes:
For each of the video streams, an object detection model corresponding to the surrounding situation monitoring device that is a transmission source among a plurality of types of object detection models is used to input the video stream and perform object detection, and detection information of the detected object is recorded in a database;
displaying the video stream on a display, receiving annotation information input to the autonomous driving control device, correcting detection information of an object detected by inputting the video stream using a selection model that is an object detection model selected from the plurality of types of object detection models based on the annotation information , learning the video stream and the corrected detection information to update the selection model and generate a new version of the object detection model;
The autonomous driving system according to claim 1, wherein the video stream is input and the object detection is performed using a decision model, which is an object detection model designated for the autonomous driving control device among the multiple types of version-based object detection models, to detect obstacles to the travel of the target moving body.
前記対象移動体は、
前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記対象移動体が前記監視地域に入ったか判定し、前記対象移動体が前記監視地域に入ったと判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信し、
前記周囲状況監視装置は、
前記監視要求を受信し、前記対象移動体の周囲状況を監視し、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記対象移動体は、
前記管制データを受信し、前記管制データと、前記対象移動体の周囲状況を示す周囲状況データと、に基づいて自動運転で走行する
自動運転方法。 An autonomous driving method using an autonomous driving system including a target moving body that is an autonomous driving moving body, a surrounding situation monitoring device, and an autonomous driving control device,
The target moving body is
a monitoring device that monitors the surrounding conditions of the target moving object when the target moving object passes through the target moving object and the surrounding conditions monitoring device; and a monitoring request is transmitted to the surrounding conditions monitoring device when the target moving object is determined to have entered the monitoring area, and driving condition data indicating the driving condition of the target moving object is transmitted to the automatic driving control device;
The surrounding situation monitoring device is
receiving the monitoring request, monitoring a surrounding situation of the target moving object, and transmitting monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
The automatic driving control device includes:
receiving the driving condition data and the monitoring data, determining a driving obstacle for the target moving object based on the driving condition data and the monitoring data, and transmitting control data notifying the target moving object of the driving obstacle;
The target moving body is
An autonomous driving method for receiving the control data and driving the target moving body autonomously based on the control data and surrounding condition data indicating the surrounding conditions of the target moving body.
移動体センサ群と、
前記移動体センサ群によって得られ前記移動体の位置を示す自己位置データと、前記移動体が通行するときに前記移動体の周囲状況を周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記移動体が前記監視地域に入ったか判定し、前記移動体が前記監視地域に入ったと判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信し、前記走行状況データと、前記周囲状況監視装置によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信し、前記管制データと、前記移動体センサ群によって得られ前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する車載器と、
を備える移動体。 It is a vehicle that runs autonomously,
A group of mobile sensors;
an on-board device that determines whether the moving body has entered the monitoring area by referring to self-location data obtained by the moving body sensor group and indicating the position of the moving body, and map data indicating a monitoring area set as an area in which the surrounding conditions of the moving body should be monitored by a surrounding conditions monitoring device when the moving body passes through, and when it is determined that the moving body has entered the monitoring area, transmits a monitoring request to the surrounding conditions monitoring device, and transmits driving condition data obtained by the moving body sensor group and indicating the driving conditions of the moving body to an automatic driving control device, receives control data from the automatic driving control device that notifies of a driving obstacle of the moving body determined based on the driving condition data and the monitoring data obtained by the surrounding conditions monitoring device and indicating the surrounding conditions of the moving body, and controls the driving of the moving body based on the control data and the surrounding conditions data obtained by the moving body sensor group and indicating the surrounding conditions of the moving body;
A moving body comprising:
前記移動体は、前記飛行体が離着陸するドローンポートを備える
請求項16に記載の移動体。 The surrounding situation monitoring device is an autonomous flying object,
The mobile body according to claim 16 , wherein the mobile body is provided with a drone port on which the air vehicle takes off and lands.
前記移動体が前記監視地域に入ったと判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信する処理と、
前記走行状況データと、前記周囲状況監視装置によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信する処理と、
前記管制データと、前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する処理と、
をコンピュータに実行させるための自動運転プログラム。 A process of determining whether the moving body has entered a monitoring area by referring to self-location data indicating the location of the moving body traveling by autonomous driving and map data indicating a monitoring area set as an area in which the surrounding situation of the moving body should be monitored by a surrounding situation monitoring device when the moving body passes through the monitoring area;
a process of transmitting a monitoring request to the surrounding situation monitoring device and transmitting driving situation data indicating a driving situation of the moving object to an automatic driving control device when it is determined that the moving object has entered the monitoring area;
A process of receiving control data notifying a driving obstacle of the moving body from the automatic driving control device, the control data being determined based on the driving situation data and monitoring data indicating the surrounding situation of the moving body obtained by the surrounding situation monitoring device;
A process of controlling the travel of the moving object based on the control data and surrounding situation data indicating the surrounding situation of the moving object;
An autonomous driving program that causes a computer to execute the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024085672A JP7643678B1 (en) | 2024-05-27 | 2024-05-27 | AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024085672A JP7643678B1 (en) | 2024-05-27 | 2024-05-27 | AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7643678B1 true JP7643678B1 (en) | 2025-03-11 |
Family
ID=94922003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024085672A Active JP7643678B1 (en) | 2024-05-27 | 2024-05-27 | AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7643678B1 (en) |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002104117A (en) | 2000-10-03 | 2002-04-10 | Denso Corp | Driving support system for vehicle |
WO2006121088A1 (en) | 2005-05-10 | 2006-11-16 | Olympus Corporation | Image processing device, image processing method, and image processing program |
JP2007263886A (en) | 2006-03-29 | 2007-10-11 | Aisin Aw Co Ltd | Navigation device |
WO2017068692A1 (en) | 2015-10-22 | 2017-04-27 | 日産自動車株式会社 | Display control method and display control device |
US20180188738A1 (en) | 2016-12-29 | 2018-07-05 | Igor Tatourian | Detection of traffic dynamics and road changes in autonomous driving |
WO2018146882A1 (en) | 2017-02-08 | 2018-08-16 | 住友電気工業株式会社 | Information providing system, server, mobile terminal, and computer program |
WO2019064490A1 (en) | 2017-09-29 | 2019-04-04 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
JP2019161613A (en) | 2018-03-16 | 2019-09-19 | 本田技研工業株式会社 | Drone system and control method of drone system |
JP2020027645A (en) | 2018-08-08 | 2020-02-20 | 住友電気工業株式会社 | Server, wireless communication method, computer program, and on-vehicle device |
WO2020071072A1 (en) | 2018-10-02 | 2020-04-09 | 住友電気工業株式会社 | Information provision system, mobile terminal, information provision method, and computer program |
JP2021086347A (en) | 2019-11-27 | 2021-06-03 | 京セラ株式会社 | Traffic communication system, roadside machine, and teacher data generation method |
JP2021135802A (en) | 2020-02-27 | 2021-09-13 | コイト電工株式会社 | Road-to-vehicle communication device, road-to-vehicle communication method and road-to-vehicle communication system |
JP2021182280A (en) | 2020-05-19 | 2021-11-25 | マツダ株式会社 | Surroundings monitoring system of vehicle |
JP2022110448A (en) | 2021-01-18 | 2022-07-29 | 京セラ株式会社 | Driving support system, vehicle, imaging device |
JP2022119106A (en) | 2021-02-03 | 2022-08-16 | パナソニックIpマネジメント株式会社 | Vehicle and drive support device |
JP2023028975A (en) | 2021-08-20 | 2023-03-03 | トヨタ自動車株式会社 | Automatic parking lot management system, automatic parking lot management method, and program |
WO2023170768A1 (en) | 2022-03-08 | 2023-09-14 | 日本電気株式会社 | Control device, monitoring system, control method, and non-transitory computer-readable medium |
JP2024105053A (en) | 2023-01-25 | 2024-08-06 | トヨタ自動車株式会社 | Remote support system and remote support method |
-
2024
- 2024-05-27 JP JP2024085672A patent/JP7643678B1/en active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002104117A (en) | 2000-10-03 | 2002-04-10 | Denso Corp | Driving support system for vehicle |
WO2006121088A1 (en) | 2005-05-10 | 2006-11-16 | Olympus Corporation | Image processing device, image processing method, and image processing program |
JP2007263886A (en) | 2006-03-29 | 2007-10-11 | Aisin Aw Co Ltd | Navigation device |
WO2017068692A1 (en) | 2015-10-22 | 2017-04-27 | 日産自動車株式会社 | Display control method and display control device |
US20180188738A1 (en) | 2016-12-29 | 2018-07-05 | Igor Tatourian | Detection of traffic dynamics and road changes in autonomous driving |
WO2018146882A1 (en) | 2017-02-08 | 2018-08-16 | 住友電気工業株式会社 | Information providing system, server, mobile terminal, and computer program |
WO2019064490A1 (en) | 2017-09-29 | 2019-04-04 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
JP2019161613A (en) | 2018-03-16 | 2019-09-19 | 本田技研工業株式会社 | Drone system and control method of drone system |
JP2020027645A (en) | 2018-08-08 | 2020-02-20 | 住友電気工業株式会社 | Server, wireless communication method, computer program, and on-vehicle device |
WO2020071072A1 (en) | 2018-10-02 | 2020-04-09 | 住友電気工業株式会社 | Information provision system, mobile terminal, information provision method, and computer program |
JP2021086347A (en) | 2019-11-27 | 2021-06-03 | 京セラ株式会社 | Traffic communication system, roadside machine, and teacher data generation method |
JP2021135802A (en) | 2020-02-27 | 2021-09-13 | コイト電工株式会社 | Road-to-vehicle communication device, road-to-vehicle communication method and road-to-vehicle communication system |
JP2021182280A (en) | 2020-05-19 | 2021-11-25 | マツダ株式会社 | Surroundings monitoring system of vehicle |
JP2022110448A (en) | 2021-01-18 | 2022-07-29 | 京セラ株式会社 | Driving support system, vehicle, imaging device |
JP2022119106A (en) | 2021-02-03 | 2022-08-16 | パナソニックIpマネジメント株式会社 | Vehicle and drive support device |
JP2023028975A (en) | 2021-08-20 | 2023-03-03 | トヨタ自動車株式会社 | Automatic parking lot management system, automatic parking lot management method, and program |
WO2023170768A1 (en) | 2022-03-08 | 2023-09-14 | 日本電気株式会社 | Control device, monitoring system, control method, and non-transitory computer-readable medium |
JP2024105053A (en) | 2023-01-25 | 2024-08-06 | トヨタ自動車株式会社 | Remote support system and remote support method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11462022B2 (en) | Traffic signal analysis system | |
CN109164809B (en) | Autonomous following control system and method for vehicle formation | |
EP3644294B1 (en) | Vehicle information storage method, vehicle travel control method, and vehicle information storage device | |
CN107339997B (en) | Autonomous vehicle path planning device and method | |
US20200241526A1 (en) | Method and device for remote-controlling autonomous vehicle capable of changing driving mode between autonomous driving mode and manual driving mode | |
US20230020040A1 (en) | Batch control for autonomous vehicles | |
US20180056998A1 (en) | System and Method for Multi-Vehicle Path Planning Technical Field | |
EP3333662B1 (en) | Tele-operated vehicle, and vehicle control device and control method thereof | |
US11679780B2 (en) | Methods and systems for monitoring vehicle motion with driver safety alerts | |
US11861915B2 (en) | Pipeline architecture for road sign detection and evaluation | |
US20190278286A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11260875B2 (en) | Systems and methods for road surface dependent motion planning | |
US20220242440A1 (en) | Methods and system for generating a lane-level map for an area of interest for navigation of an autonomous vehicle | |
CN115071749A (en) | Vehicle control device, vehicle control method, and storage medium | |
US11891093B2 (en) | Control device, control method, and storage medium for controlling a mobile device along a conditions-varying travel path | |
JP2023044333A (en) | Vehicle control device, vehicle control method and computer program for vehicle control | |
JP2023541322A (en) | Annotation and mapping for vehicle behavior in low confidence object detection conditions | |
JP7643678B1 (en) | AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM | |
US20240367650A1 (en) | Multi-vehicle adaptive cruise control as a constrained distance bound | |
US11755469B2 (en) | System for executing structured tests across a fleet of autonomous vehicles | |
US20250058780A1 (en) | Cost map fusion for lane selection | |
JP7621854B2 (en) | Mobility support device and mobility support method | |
US20240067222A1 (en) | Vehicle controller, vehicle control method, and vehicle control computer program for vehicle control | |
JP7643476B2 (en) | Vehicle control device, vehicle control method, and vehicle control computer program | |
US20240025446A1 (en) | Motion planning constraints for autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240527 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240527 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20240718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20240718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250217 |