[go: up one dir, main page]

JP7643678B1 - AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM - Google Patents

AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM Download PDF

Info

Publication number
JP7643678B1
JP7643678B1 JP2024085672A JP2024085672A JP7643678B1 JP 7643678 B1 JP7643678 B1 JP 7643678B1 JP 2024085672 A JP2024085672 A JP 2024085672A JP 2024085672 A JP2024085672 A JP 2024085672A JP 7643678 B1 JP7643678 B1 JP 7643678B1
Authority
JP
Japan
Prior art keywords
monitoring
data
target moving
driving
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024085672A
Other languages
Japanese (ja)
Inventor
則孝 安部
孝志 三宅
一郎 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IIGA CO., LTD.
Original Assignee
IIGA CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IIGA CO., LTD. filed Critical IIGA CO., LTD.
Priority to JP2024085672A priority Critical patent/JP7643678B1/en
Application granted granted Critical
Publication of JP7643678B1 publication Critical patent/JP7643678B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

Figure 0007643678000001

【課題】より安全な自動運転を実現できるようにする。
【解決手段】対象移動体120は、自己位置データと地図データを参照して監視の要否を判定し、監視要求を送信すると共に走行状況データを送信する。周囲状況監視装置130は、前記監視要求を受信し、前記対象移動体の周囲状況を監視し、監視データを送信する。自動運転管制装置400は、前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、管制データを前記対象移動体へ送信する。
【選択図】図1

Figure 0007643678000001

[Problem] To achieve safer automated driving.
[Solution] A target moving object (120) refers to its own position data and map data to determine whether monitoring is required, and transmits a monitoring request along with driving condition data. A surrounding condition monitoring device (130) receives the monitoring request, monitors the surrounding conditions of the target moving object, and transmits monitoring data. An automatic driving control device (400) receives the driving condition data and the monitoring data, determines a driving obstacle for the target moving object based on the driving condition data and the monitoring data, and transmits control data to the target moving object.
[Selected Figure] Figure 1

Description

本開示は、自動運転による安全な走行を実現するためのシステムに関するものである。 This disclosure relates to a system for achieving safe autonomous driving.

運送トラックおよびタクシーなどを運転するドライバーの不足が問題となっており、この問題は自動運転の実現によって解消される。
自動運転の実現のためには、自動運転車両の死角に存在する障害物を確認できるようにする必要がある。
There is a shortage of drivers for delivery trucks and taxis, etc., which is a problem that can be resolved with the realization of autonomous driving.
To realize autonomous driving, it is necessary to be able to check for obstacles in the blind spots of autonomous vehicles.

特許文献1は、自動運転車両の死角を補って対向車等の移動体との衝突を防ぐための情報提供システムを開示している。
この情報提供システムでは、道路の近辺に設置された路側装置が移動体を検知する。
Patent Document 1 discloses an information provision system for compensating for blind spots of an autonomous vehicle to prevent collision with a moving object such as an oncoming vehicle.
In this information providing system, roadside devices installed near roads detect moving objects.

特開2023-50627号公報JP 2023-50627 A

特許文献1には路側装置が移動体の検知を開始する契機について言及されておらず、路側装置が常に移動体の検知を行っているものと考えれる。
そのため、移動体との衝突の危険性がない時間帯も移動体の検知が行われ、不要な検知情報を含んだ膨大な情報を通信および処理する必要が生じ、情報提供システムの負荷が高くなる。
Patent Document 1 does not mention the timing at which the roadside device starts detecting a moving object, and it is assumed that the roadside device is constantly detecting a moving object.
As a result, moving objects are detected even during times when there is no risk of collision with the moving object, which requires communication and processing of a huge amount of information, including unnecessary detection information, and increases the load on the information provision system.

本開示は、自動運転移動体からの死角が生じる地域を自動運転移動体が通行するときに、自動運転移動体から独立して設けられるセンサを用いて自動運転移動体の周囲を監視して、より安全な自動運転を実現できるようにすること、を目的とする。 The present disclosure aims to achieve safer autonomous driving by monitoring the surroundings of an autonomous vehicle using sensors installed independently of the autonomous vehicle when the autonomous vehicle passes through an area where there is a blind spot from the autonomous vehicle.

本開示の自動運転システムは、自動運転で走行する移動体である対象移動体と、周囲状況監視装置と、自動運転管制装置と、を備え、
前記対象移動体は、
移動体センサ群と、
前記移動体センサ群によって得られ前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定し、前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信する車載器と、
を備え、
前記周囲状況監視装置は、
監視センサ群と、
前記監視要求を受信し、前記監視センサ群に前記対象移動体の周囲状況を監視させ、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信する監視制御装置と、
を備え、
前記自動運転管制装置は、前記走行状況データと前記監視データを受信し、前記対象移動体の走行障害を前記走行状況データと前記監視データに基づいて判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記車載器は、前記管制データを受信し、前記管制データと、前記移動体センサ群によって得られ前記対象移動体の周囲状況を示す周囲状況データと、に基づいて前記対象移動体の走行を制御する。
The autonomous driving system of the present disclosure includes a target moving body that is an autonomous moving body, a surrounding situation monitoring device, and an autonomous driving control device.
The target moving body is
A group of mobile sensors;
an on-board device that determines whether or not monitoring by the surrounding situation monitoring device is necessary by referring to self-location data obtained by the mobile body sensor group and indicating the position of the target mobile body, and map data indicating a monitoring area set as an area in which the surrounding situation of the target mobile body should be monitored by the surrounding situation monitoring device when the target mobile body passes, and when it determines that monitoring by the surrounding situation monitoring device is necessary, transmits a monitoring request to the surrounding situation monitoring device and transmits driving situation data obtained by the mobile body sensor group and indicating the driving situation of the target mobile body to the automatic driving control device;
Equipped with
The surrounding situation monitoring device is
A monitoring sensor group;
a monitoring control device that receives the monitoring request, causes the monitoring sensor group to monitor the surrounding situation of the target moving object, and transmits monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
Equipped with
The autonomous driving control device receives the driving status data and the monitoring data, determines a driving obstacle of the target moving body based on the driving status data and the monitoring data, and transmits control data notifying the target moving body of the driving obstacle,
The vehicle-mounted device receives the control data and controls the travel of the target moving object based on the control data and surrounding condition data obtained by the group of moving object sensors and indicating the surrounding condition of the target moving object.

本開示によれば、自動運転移動体からの死角が生じる地域を自動運転移動体が通行するときに、自動運転移動体から独立して設けられるセンサを用いて自動運転移動体の周囲を監視して、より安全な自動運転を実現すること、が可能となる。 According to the present disclosure, when an autonomous vehicle passes through an area where there is a blind spot from the autonomous vehicle, the surroundings of the autonomous vehicle can be monitored using a sensor installed independently of the autonomous vehicle, thereby making it possible to achieve safer autonomous driving.

実施の形態1における自動運転システム100の構成図。FIG. 1 is a configuration diagram of an autonomous driving system 100 according to a first embodiment. 実施の形態1における車載器200の構成図。FIG. 2 is a configuration diagram of an in-vehicle device 200 according to the first embodiment. 実施の形態1における監視制御装置300の構成図。FIG. 2 is a configuration diagram of a monitoring control device 300 according to the first embodiment. 実施の形態1における自動運転管制装置400の構成図。FIG. 2 is a configuration diagram of an automatic driving control device 400 according to the first embodiment. 実施の形態1における車載器200のフローチャート。4 is a flowchart of the vehicle-mounted device 200 according to the first embodiment. 実施の形態1における監視制御装置300のフローチャート。4 is a flowchart of the monitoring control device 300 in the first embodiment. 実施の形態1における自動運転管制装置400のフローチャート。4 is a flowchart of the autonomous driving control device 400 in the first embodiment. 実施の形態2における自動運転システム100の構成図。FIG. 11 is a configuration diagram of an autonomous driving system 100 according to a second embodiment. 実施の形態2における車載器200のフローチャート。13 is a flowchart of the vehicle-mounted device 200 according to the second embodiment. 実施の形態2における監視制御装置300のフローチャート。13 is a flowchart of the monitoring control device 300 in the second embodiment. 実施の形態3における自動運転システム100の構成図。FIG. 11 is a configuration diagram of an autonomous driving system 100 according to a third embodiment. 実施の形態3における監視制御装置300のフローチャート。13 is a flowchart of a monitoring control device 300 according to the third embodiment. 実施の形態4における自動運転管制装置400のフローチャート。13 is a flowchart of the autonomous driving control device 400 in embodiment 4. 実施の形態4における車載器200のフローチャート。13 is a flowchart of the vehicle-mounted device 200 according to the fourth embodiment. 実施の形態5における自動運転システム100の構成図。FIG. 13 is a configuration diagram of an autonomous driving system 100 according to a fifth embodiment. 実施の形態5における自動運転管制装置400の構成図。FIG. 13 is a configuration diagram of an automatic driving control device 400 in embodiment 5. 実施の形態5における自動運転管制装置400のフローチャート。13 is a flowchart of the autonomous driving control device 400 in embodiment 5. 実施の形態6における自動運転管制装置400の機能構成の一部を示す図。FIG. 23 is a diagram showing a part of the functional configuration of an autonomous driving control device 400 in a sixth embodiment. 実施の形態6における動画ストリームAI処理パイプライン439の例を示す図。A figure showing an example of a video stream AI processing pipeline 439 in embodiment 6. 実施の形態6における動画ストリームAI処理パイプライン439の例を示す図。A figure showing an example of a video stream AI processing pipeline 439 in embodiment 6. 実施の形態6における動画ストリームAI処理パイプライン439の例を示す図。A figure showing an example of a video stream AI processing pipeline 439 in embodiment 6.

実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。 In the embodiments and drawings, the same or corresponding elements are given the same reference numerals. Explanations of elements given the same reference numerals as elements described above will be omitted or simplified as appropriate. Arrows in the drawings primarily indicate data flow or processing flow.

実施の形態1.
自動運転システム100について、図1から図7に基づいて説明する。
Embodiment 1.
The autonomous driving system 100 will be described with reference to FIGS. 1 to 7. FIG.

***構成の説明***
図1に基づいて、自動運転システム100の構成を説明する。
自動運転システム100は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と地図データベース110を備える。
***Configuration Description***
The configuration of an autonomous driving system 100 will be described with reference to FIG.
The autonomous driving system 100 includes a target moving object 120, a surrounding situation monitoring device 130, an autonomous driving control device 400, and a map database 110.

対象移動体120は、自動運転で地上を走行する移動体である。
例えば、対象移動体120は、自動運転で走行する自動車、バスまたはタクシーである。
The target moving body 120 is a moving body that travels on the ground by autonomous driving.
For example, the target moving object 120 is a car, a bus, or a taxi that operates autonomously.

対象移動体120は、車載器200と移動体センサ群290を備える。
移動体センサ群290は、対象移動体120に搭載される一種類以上のセンサである。
例えば、移動体センサ群290は、Depthカメラ291とLider292と測位センサ293を含む。
測位センサ293は、対象移動体120の位置を測定するセンサである。例えば、測位センサ293は、衛星測位システムを利用して測位を行う。衛星測位システムの例は、Global Positioning System(GPS)である。
移動体センサ群290は、対象移動体120の走行状況と対象移動体120の周囲状況を把握するために使用される。
走行状況は、位置、速度および加速度を含む。
周囲状況は、周囲に存在する物体の位置を含む。
The target moving object 120 includes an in-vehicle device 200 and a moving object sensor group 290 .
The moving body sensor group 290 is one or more types of sensors mounted on the target moving body 120 .
For example, the mobile sensor group 290 includes a depth camera 291 , a Lidar 292 , and a positioning sensor 293 .
The positioning sensor 293 is a sensor that measures the position of the target moving object 120. For example, the positioning sensor 293 performs positioning using a satellite positioning system. An example of the satellite positioning system is the Global Positioning System (GPS).
The mobile object sensor group 290 is used to grasp the traveling conditions of the target mobile object 120 and the conditions around the target mobile object 120 .
The driving conditions include position, speed, and acceleration.
The surroundings include the positions of objects present in the surroundings.

図2に基づいて、車載器200の構成を説明する。
車載器200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204と入出力インタフェース205といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
The configuration of the vehicle-mounted device 200 will be described with reference to FIG.
The vehicle-mounted device 200 is a computer including hardware such as a processor 201, a memory 202, an auxiliary storage device 203, a communication device 204, and an input/output interface 205. These pieces of hardware are connected to each other via signal lines.

プロセッサ201は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ201はCPUである。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
The processor 201 is an IC that performs arithmetic processing and controls other hardware. For example, the processor 201 is a CPU.
IC is an abbreviation for Integrated Circuit.
CPU is an abbreviation for Central Processing Unit.

メモリ202は揮発性または不揮発性の記憶装置である。メモリ202は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ202はRAMである。メモリ202に記憶されたデータは必要に応じて補助記憶装置203に保存される。
RAMは、Random Access Memoryの略称である。
The memory 202 is a volatile or non-volatile storage device. The memory 202 is also called a primary storage device or a main memory. For example, the memory 202 is a RAM. Data stored in the memory 202 is saved in the secondary storage device 203 as necessary.
RAM is an abbreviation for Random Access Memory.

補助記憶装置203は不揮発性の記憶装置である。例えば、補助記憶装置203は、ROM、HDD、フラッシュメモリまたはこれらの組み合わせである。補助記憶装置203に記憶されたデータは必要に応じてメモリ202にロードされる。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
The auxiliary storage device 203 is a non-volatile storage device. For example, the auxiliary storage device 203 is a ROM, a HDD, a flash memory, or a combination of these. Data stored in the auxiliary storage device 203 is loaded into the memory 202 as needed.
ROM is an abbreviation for Read Only Memory.
HDD is an abbreviation for Hard Disk Drive.

補助記憶装置203はレシーバ及びトランスミッタである。例えば、補助記憶装置203は通信チップまたはNICである。車載器200の通信は通信装置204を用いて行われる。
NICは、Network Interface Cardの略称である。
The auxiliary storage device 203 is a receiver and a transmitter. For example, the auxiliary storage device 203 is a communication chip or a NIC. The communication of the vehicle-mounted device 200 is performed using a communication device 204.
NIC is an abbreviation for Network Interface Card.

入出力インタフェース205は、入力装置および出力装置が接続されるポートである。例えば、移動体センサ群290が入出力インタフェース205に接続される。 The input/output interface 205 is a port to which an input device and an output device are connected. For example, a mobile sensor group 290 is connected to the input/output interface 205.

車載器200は、監視要求部211と管制データ取得部212と運転制御部213といった要素を備える。これらの要素はソフトウェアで実現される。 The vehicle-mounted device 200 includes elements such as a monitoring request unit 211, a control data acquisition unit 212, and a driving control unit 213. These elements are realized by software.

補助記憶装置203には、監視要求部211と管制データ取得部212と運転制御部213としてコンピュータを機能させるための自動運転プログラムが記憶されている。自動運転プログラムは、メモリ202にロードされて、プロセッサ201によって実行される。
補助記憶装置203には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
プロセッサ201は、OSを実行しながら、自動運転プログラムを実行する。
OSは、Operating Systemの略称である。
The auxiliary storage device 203 stores an automatic driving program for causing the computer to function as a monitoring request unit 211, a control data acquisition unit 212, and a driving control unit 213. The automatic driving program is loaded into the memory 202 and executed by the processor 201.
The auxiliary storage device 203 further stores an OS. At least a part of the OS is loaded into the memory 202 and executed by the processor 201.
The processor 201 executes an automatic driving program while executing the OS.
OS is an abbreviation for Operating System.

自動運転プログラムのデータ(入力データ、出力データなど)は記憶部220に記憶される。
メモリ202は記憶部220として機能する。但し、補助記憶装置203、プロセッサ201内のレジスタおよびプロセッサ201内のキャッシュメモリなどの記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部220として機能してもよい。
Data for the automatic driving program (input data, output data, etc.) is stored in memory unit 220.
The memory 202 functions as the storage unit 220. However, a storage device such as the auxiliary storage device 203, a register in the processor 201, or a cache memory in the processor 201 may function as the storage unit 220 instead of the memory 202 or together with the memory 202.

自動運転プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The autonomous driving program can be recorded (stored) in a computer-readable manner on a non-volatile recording medium such as an optical disk or flash memory.

図1に戻り説明を続ける。
周囲状況監視装置130は、対象移動体120の周囲状況を監視する装置である。
例えば、周囲状況監視装置130は、ドローンまたは路側機である。ドローンは、自動運転で上空を飛行する飛行体である。路側機は、監視地域の道路に設けられる機器である。監視地域について後述する。
Returning to FIG.
The surrounding situation monitoring device 130 is a device that monitors the surrounding situation of the target moving object 120 .
For example, the surrounding situation monitoring device 130 is a drone or a roadside unit. A drone is an aircraft that flies autonomously in the sky. A roadside unit is a device that is installed on a road in a monitoring area. The monitoring area will be described later.

周囲状況監視装置130は、監視制御装置300と監視センサ群390を備える。
監視センサ群390は、周囲状況監視装置130に搭載される一種類以上のセンサである。
例えば、監視センサ群390は、Depthカメラ391とRGBカメラ392を含む。
監視センサ群390は、対象移動体120の周囲状況を監視するために使用される。
The surrounding situation monitoring device 130 includes a monitoring control device 300 and a group of monitoring sensors 390 .
The monitoring sensor group 390 is one or more types of sensors mounted on the surrounding situation monitoring device 130 .
For example, the monitoring sensor group 390 includes a depth camera 391 and an RGB camera 392 .
The monitoring sensors 390 are used to monitor the surroundings of the target moving object 120 .

図3に基づいて、監視制御装置300の構成を説明する。
監視制御装置300は、プロセッサ301とメモリ302と補助記憶装置303と通信装置304と入出力インタフェース305といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
The configuration of the monitoring and control device 300 will be described with reference to FIG.
The monitoring and control device 300 is a computer including hardware such as a processor 301, a memory 302, an auxiliary storage device 303, a communication device 304, and an input/output interface 305. These pieces of hardware are connected to each other via signal lines.

プロセッサ301は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ301はCPUである。
メモリ302は揮発性または不揮発性の記憶装置である。メモリ302は主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ302はRAMである。メモリ302に記憶されたデータは必要に応じて補助記憶装置303に保存される。
補助記憶装置303は不揮発性の記憶装置である。補助記憶装置303はストレージとも呼ばれる。例えば、補助記憶装置303は、ROM、HDD、フラッシュメモリまたはこれらの組み合わせである。補助記憶装置303に記憶されたデータは必要に応じてメモリ302にロードされる。
通信装置304はレシーバ及びトランスミッタである。例えば、通信装置304は通信チップまたはNICである。監視制御装置300の通信は通信装置304を用いて行われる。
入出力インタフェース305は、入力装置および出力装置が接続されるポートである。
The processor 301 is an IC that performs arithmetic processing and controls other hardware. For example, the processor 301 is a CPU.
The memory 302 is a volatile or non-volatile storage device. The memory 302 is also called a primary storage device or a main memory. For example, the memory 302 is a RAM. Data stored in the memory 302 is saved in the secondary storage device 303 as necessary.
The auxiliary storage device 303 is a non-volatile storage device. The auxiliary storage device 303 is also called storage. For example, the auxiliary storage device 303 is a ROM, a HDD, a flash memory, or a combination of these. Data stored in the auxiliary storage device 303 is loaded into the memory 302 as needed.
The communication device 304 is a receiver and a transmitter. For example, the communication device 304 is a communication chip or a NIC. The communication of the monitor and control device 300 is performed using the communication device 304.
The input/output interface 305 is a port to which an input device and an output device are connected.

監視制御装置300は、要求受付部311と監視制御部312と監視データ生成部313と監視データ提供部314といった要素を備える。これらの要素はソフトウェアで実現される。 The monitoring control device 300 includes elements such as a request receiving unit 311, a monitoring control unit 312, a monitoring data generating unit 313, and a monitoring data providing unit 314. These elements are realized by software.

補助記憶装置303には、要求受付部311と監視制御部312と監視データ生成部313と監視データ提供部314としてコンピュータを機能させるための監視プログラムが記憶されている。監視プログラムは、メモリ302にロードされて、プロセッサ301によって実行される。
補助記憶装置303には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ302にロードされて、プロセッサ301によって実行される。
プロセッサ301は、OSを実行しながら、監視プログラムを実行する。
The auxiliary storage device 303 stores a monitoring program for causing the computer to function as a request receiving unit 311, a monitoring control unit 312, a monitoring data generating unit 313, and a monitoring data providing unit 314. The monitoring program is loaded into the memory 302 and executed by the processor 301.
The auxiliary storage device 303 further stores an OS. At least a part of the OS is loaded into the memory 302 and executed by the processor 301.
The processor 301 executes a monitoring program while executing the OS.

監視プログラムの入出力データは記憶部320に記憶される。
メモリ302は記憶部320として機能する。但し、補助記憶装置303、プロセッサ301内のレジスタおよびプロセッサ301内のキャッシュメモリなどの記憶装置が、メモリ302の代わりに、又は、メモリ302と共に、記憶部320として機能してもよい。
Input and output data of the monitoring program is stored in the storage unit 320 .
The memory 302 functions as the storage unit 320. However, a storage device such as the auxiliary storage device 303, a register in the processor 301, or a cache memory in the processor 301 may function as the storage unit 320 instead of the memory 302 or together with the memory 302.

監視プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The monitoring program can be recorded (stored) in a computer-readable manner on a non-volatile recording medium such as an optical disk or flash memory.

図1に戻り、説明を続ける。
自動運転管制装置400は、対象移動体120の自動運転を管理および制御する装置である。
Returning to FIG. 1, the explanation will be continued.
The autonomous driving control device 400 is a device that manages and controls the autonomous driving of the target moving body 120.

図4に基づいて、自動運転管制装置400の構成を説明する。
自動運転管制装置400は、プロセッサ401とメモリ402と補助記憶装置403と通信装置404と入出力インタフェース405といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
The configuration of the automatic driving control device 400 will be described with reference to FIG.
The autonomous driving control device 400 is a computer including hardware such as a processor 401, a memory 402, an auxiliary storage device 403, a communication device 404, and an input/output interface 405. These pieces of hardware are connected to each other via signal lines.

プロセッサ401は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ401はCPUである。
メモリ402は揮発性または不揮発性の記憶装置である。メモリ402は主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ402はRAMである。メモリ402に記憶されたデータは必要に応じて補助記憶装置403に保存される。
補助記憶装置403は不揮発性の記憶装置である。補助記憶装置403はストレージとも呼ばれる。例えば、補助記憶装置403は、ROM、HDD、フラッシュメモリまたはこれらの組み合わせである。補助記憶装置403に記憶されたデータは必要に応じてメモリ402にロードされる。
通信装置404はレシーバ及びトランスミッタである。例えば、通信装置404は通信チップまたはNICである。自動運転管制装置400の通信は通信装置404を用いて行われる。
入出力インタフェース405は、入力装置および出力装置が接続されるポートである。
The processor 401 is an IC that performs arithmetic processing and controls other hardware. For example, the processor 401 is a CPU.
The memory 402 is a volatile or non-volatile storage device. The memory 402 is also called a primary storage device or a main memory. For example, the memory 402 is a RAM. Data stored in the memory 402 is saved in the secondary storage device 403 as necessary.
The auxiliary storage device 403 is a non-volatile storage device. The auxiliary storage device 403 is also called storage. For example, the auxiliary storage device 403 is a ROM, a HDD, a flash memory, or a combination of these. Data stored in the auxiliary storage device 403 is loaded into the memory 402 as needed.
The communication device 404 is a receiver and a transmitter. For example, the communication device 404 is a communication chip or a NIC. Communication of the autonomous driving control device 400 is performed using the communication device 404.
The input/output interface 405 is a port to which an input device and an output device are connected.

自動運転管制装置400は、データ受付部411と走行障害判定部412と管制データ生成部413と管制データ提供部414といった要素を備える。これらの要素はソフトウェアで実現される。 The autonomous driving control device 400 includes elements such as a data reception unit 411, a driving obstacle determination unit 412, a control data generation unit 413, and a control data provision unit 414. These elements are realized by software.

補助記憶装置403には、データ受付部411と走行障害判定部412と管制データ生成部413としてコンピュータを機能させるための管制プログラムが記憶されている。管制プログラムは、メモリ402にロードされて、プロセッサ401によって実行される。
補助記憶装置403には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ402にロードされて、プロセッサ401によって実行される。
プロセッサ401は、OSを実行しながら、管制プログラムを実行する。
The auxiliary storage device 403 stores a control program for causing the computer to function as a data receiving unit 411, a driving obstacle determining unit 412, and a control data generating unit 413. The control program is loaded into the memory 402 and executed by the processor 401.
The auxiliary storage device 403 further stores an OS. At least a part of the OS is loaded into the memory 402 and executed by the processor 401.
The processor 401 executes a control program while executing the OS.

管制プログラムの入出力データは記憶部420に記憶される。
メモリ402は記憶部420として機能する。但し、補助記憶装置403、プロセッサ401内のレジスタおよびプロセッサ401内のキャッシュメモリなどの記憶装置が、メモリ402の代わりに、又は、メモリ402と共に、記憶部420として機能してもよい。
Input and output data for the control program are stored in memory unit 420.
The memory 402 functions as the storage unit 420. However, a storage device such as the auxiliary storage device 403, a register in the processor 401, or a cache memory in the processor 401 may function as the storage unit 420 instead of the memory 402 or together with the memory 402.

管制プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The control program can be recorded (stored) in a computer-readable manner on a non-volatile recording medium such as an optical disk or flash memory.

図1に戻り、説明を続ける。
地図データベース110は、地図データ111を管理する装置である。
地図データ111について後述する。
Returning to FIG. 1, the explanation will be continued.
The map database 110 is a device that manages the map data 111 .
The map data 111 will be described later.

***動作の説明***
自動運転システム100の動作の手順は自動運転方法に相当する。また、自動運転システム100の動作の手順は自動運転システムプログラムによる処理の手順に相当する。自動運転システムプログラムは、自動運転プログラムと監視プログラムと管制プログラムを含む。
*** Operation Description ***
The operation procedure of the automatic driving system 100 corresponds to an automatic driving method. The operation procedure of the automatic driving system 100 corresponds to a processing procedure by an automatic driving system program. The automatic driving system program includes an automatic driving program, a monitoring program, and a control program.

車載器200の動作を説明する。まず、車載器200の動作の前提を説明する。
移動体センサ群290は、周期的に、対象移動体120の走行状況と対象移動体120の周囲状況を観測する。例えば、Depthカメラ291は対象移動体120の周囲を計測し、Lider292は対象移動体120の周囲の各地点までの距離を測定し、測位センサ293は衛星測位を行う。
移動体センサ群290により、走行状況データと周囲状況データが得られる。
走行状況データは、対象移動体120の走行状況を示すデータである。走行状況データは、対象移動体120の位置、速度および加速度などを示す。対象移動体120の位置を、自己位置と称する。自己位置を示すデータを、自己位置データと称する。
周囲状況データは、対象移動体120の周囲状況を示すデータである。周囲状況データは、対象移動体120に搭載された移動体センサ群290で観測された各種物体などを示す。
運転制御部213は、走行計画データと周囲状況データに基づいて、対象移動体120の走行を制御する。
走行計画データは、対象移動体120の予定の走行経路を示す。
The following describes the operation of the vehicle-mounted device 200. First, the premise of the operation of the vehicle-mounted device 200 will be described.
The mobile body sensor group 290 periodically observes the traveling conditions of the target mobile body 120 and the surrounding conditions of the target mobile body 120. For example, a depth camera 291 measures the surroundings of the target mobile body 120, a lidar 292 measures the distance to each point around the target mobile body 120, and a positioning sensor 293 performs satellite positioning.
The mobile sensor group 290 provides driving condition data and surrounding condition data.
The traveling condition data is data that indicates the traveling condition of the target moving object 120. The traveling condition data indicates the position, speed, acceleration, etc. of the target moving object 120. The position of the target moving object 120 is referred to as the self-position. Data that indicates the self-position is referred to as self-position data.
The surrounding situation data is data that indicates the surrounding situation of the target moving object 120. The surrounding situation data indicates various objects and the like observed by the moving object sensor group 290 mounted on the target moving object 120.
The driving control unit 213 controls the driving of the target moving object 120 based on the driving plan data and the surrounding condition data.
The driving plan data indicates the planned driving route of the target moving object 120 .

図5に基づいて、車載器200の動作の手順を説明する。
ステップS121からステップS125は、繰り返し実行される。
The procedure of the operation of the vehicle-mounted device 200 will be described with reference to FIG.
Steps S121 to S125 are repeatedly executed.

ステップS121において、監視要求部211は、自己位置データと地図データ111を参照し、周囲状況監視装置130による監視の要否を判定する。
地図データ111は、地図データベース110との通信によって取得される。
In step S121, the monitoring request unit 211 refers to the self-location data and the map data 111 and determines whether or not monitoring by the surrounding situation monitoring device 130 is required.
The map data 111 is obtained by communicating with the map database 110 .

地図データ111は、一か所以上の監視地域を示す。
監視地域は、対象移動体120が通行するときに対象移動体120の周囲状況を周囲状況監視装置130によって監視すべき地域として設定される。
具体的には、監視地域は、カーブの前後の領域のように対象移動体120からの死角が生じる場所である。
The map data 111 indicates one or more surveillance areas.
The monitoring area is set as an area in which the surrounding conditions of the target moving object 120 should be monitored by the surrounding conditions monitoring device 130 when the target moving object 120 passes through.
Specifically, the monitoring area is a place where there is a blind spot from the target moving object 120, such as the area before and after a curve.

周囲状況監視装置130による監視の要否は以下のように判定される。
監視要求部211は、対象移動体120が監視地域に入ったか判定する。
例えば、監視要求部211は、地図データ111に示される地図に対象移動体120の位置をマッピングする。そして、監視要求部211は、対象移動体120の位置が監視地域の中にマッピングされたか判定する。
対象移動体120が監視地域に入った場合、監視要求部211は、周囲状況監視装置130による監視が必要であると判定する。
Whether or not monitoring by the surrounding situation monitoring device 130 is required is determined as follows.
The monitoring request unit 211 determines whether the target moving object 120 has entered the monitoring area.
For example, the monitoring request unit 211 maps the position of the target moving object 120 on the map shown in the map data 111. Then, the monitoring request unit 211 determines whether the position of the target moving object 120 has been mapped within the monitoring area.
When the target moving object 120 enters a monitoring area, the monitoring request unit 211 determines that monitoring by the surrounding situation monitoring device 130 is necessary.

周囲状況監視装置130による監視が必要であると判定された場合、処理はステップS122に進む。 If it is determined that monitoring by the surrounding conditions monitoring device 130 is necessary, processing proceeds to step S122.

ステップS122において、監視要求部211は、監視要求を周囲状況監視装置130へ送信する。
監視要求は、対象移動体120の周囲状況の監視を周囲状況監視装置130に要求するためのデータである。
監視要求は、対象移動体120の識別子、対象移動体120の位置および監視地域の範囲などを示す。
In step S<b>122 , the monitoring request unit 211 transmits a monitoring request to the surrounding situation monitoring device 130 .
The monitoring request is data for requesting the surrounding situation monitoring device 130 to monitor the surrounding situation of the target moving object 120 .
The monitoring request indicates the identifier of the target mobile object 120, the position of the target mobile object 120, the range of the monitoring area, and the like.

ステップS123において、管制データ取得部212は、走行計画データと走行状況データを自動運転管制装置400へ送信する。 In step S123, the control data acquisition unit 212 transmits the driving plan data and driving condition data to the autonomous driving control device 400.

ステップS122とステップS123は、順番が逆でも構わない。 Steps S122 and S123 may be performed in reverse order.

ステップS124において、管制データ取得部212は、自動運転管制装置400から送信される管制データを受信する。
管制データは、対象移動体120の走行障害を通知するためのデータである。
例えば、管制データは、対象移動体120の走行の障害となる物体(障害物)の位置などを示す。
In step S124, the control data acquisition unit 212 receives the control data transmitted from the autonomous driving control device 400.
The control data is data for notifying a driving obstacle of the target moving body 120 .
For example, the control data indicates the positions of objects (obstacles) that impede the travel of the target moving body 120 .

ステップS125において、運転制御部213は、管制データと周囲状況データに基づいて、対象移動体120の走行を制御する。 In step S125, the driving control unit 213 controls the travel of the target moving body 120 based on the control data and the surrounding condition data.

対象移動体120の走行は以下のように制御される。
まず、運転制御部213は、走行計画を変更する。例えば、運転制御部213は、予定の走行経路を管制データに示される障害物および周囲状況データに示される物体を避けることが可能な経路に変更する。
次に、運転制御部213は、対象移動体120が変更後の走行計画の通りに走行できるように、対象移動体120の駆動装置に対する制御(運転制御)を決定する。駆動装置の例は、操舵装置(ハンドル)およびモーター(エンジン)である。
そして、運転制御部213は、決定した運転制御にしたがって対象移動体120の駆動装置を制御する。
The travel of the target moving object 120 is controlled as follows.
First, the driving control unit 213 changes the driving plan. For example, the driving control unit 213 changes the planned driving route to a route that can avoid the obstacles indicated in the control data and the objects indicated in the surrounding situation data.
Next, the driving control unit 213 determines control (driving control) for the driving device of the target moving body 120 so that the target moving body 120 can travel according to the changed travel plan. Examples of the driving device are a steering device (handle) and a motor (engine).
Then, the driving control unit 213 controls the driving device of the target moving object 120 according to the determined driving control.

図6に基づいて、監視制御装置300の動作の手順を説明する。
ステップS131からステップS134は、対象移動体120から監視要求が送信されるごとに実行される。
The procedure of the operation of the monitoring and control device 300 will be described with reference to FIG.
Steps S131 to S134 are executed every time a monitoring request is transmitted from the target moving object 120.

ステップS131において、要求受付部311は、対象移動体120から送信される監視要求を受信する。 In step S131, the request receiving unit 311 receives a monitoring request sent from the target mobile object 120.

ステップS132において、監視制御部312は、監視センサ群390に対象移動体120の周囲状況を監視させる。 In step S132, the monitoring control unit 312 causes the monitoring sensor group 390 to monitor the surrounding conditions of the target moving object 120.

対象移動体120の周囲状況は以下のように監視される。
監視制御部312は、監視センサ群390に対して動作命令を出力する。
監視センサ群390は、動作命令を受けて動作を開始する。例えば、Depthカメラ391とRGBカメラ392のそれぞれが対象移動体120の周囲を撮影する。
The surroundings of the target moving object 120 are monitored as follows.
The monitoring control unit 312 outputs an operation command to the monitoring sensor group 390 .
The monitoring sensor group 390 starts operating upon receiving an operation command. For example, the depth camera 391 and the RGB camera 392 each capture images of the surroundings of the target moving object 120.

監視センサ群390が対象移動体120の周囲状況を監視することによってセンサデータが得られる。 Sensor data is obtained by the monitoring sensor group 390 monitoring the surrounding conditions of the target moving object 120.

ステップS133において、監視データ生成部313は、監視センサ群390から得られるセンサデータを用いて、監視データを生成する。
監視データは、対象移動体120の周囲状況を示すデータである。監視データは、監視センサ群390によって検知された各種物体の位置などを示す。
In step S<b>133 , the monitoring data generation unit 313 generates monitoring data using the sensor data obtained from the monitoring sensor group 390 .
The monitoring data is data that indicates the surrounding conditions of the target moving object 120. The monitoring data indicates the positions of various objects detected by the monitoring sensor group 390, etc.

監視データは以下のように生成される。
まず、監視データ生成部313は、各時刻のセンサデータを用いて物体検知を実行して、対象移動体120の周囲に存在する各物体を検知する。
次に、監視データ生成部313は、各時刻における各物体の位置に基づいて、各物体の速度を算出すると共に、各物体の移動経路を予測する。
そして、監視データ生成部313は、検知された各物体の位置、速度および予測経路を示すデータを生成する。生成されるデータが監視データである。
The monitoring data is generated as follows:
First, the monitoring data generating unit 313 executes object detection using the sensor data at each time, and detects each object present around the target moving object 120 .
Next, the monitoring data generation unit 313 calculates the speed of each object based on the position of each object at each time, and predicts the movement path of each object.
The monitoring data generator 313 then generates data indicating the position, speed, and predicted path of each detected object. The generated data is monitoring data.

ステップS134において、監視データ提供部314は、監視データを自動運転管制装置400へ送信する。 In step S134, the monitoring data providing unit 314 transmits the monitoring data to the autonomous driving control device 400.

図7に基づいて、自動運転管制装置400の動作の手順を説明する。
ステップS141からステップS145は、対象移動体120から走行計画データと走行状況データが送信され周囲状況監視装置130から監視データが送信されるごとに実行される。
The procedure of the operation of the automatic driving control device 400 will be described with reference to FIG.
Steps S141 to S145 are executed each time the target moving object 120 transmits driving plan data and driving status data and the surrounding status monitoring device 130 transmits monitoring data.

ステップS141において、データ受付部411は、対象移動体120から送信される走行計画データと走行状況データを受信する。 In step S141, the data reception unit 411 receives driving plan data and driving status data transmitted from the target moving body 120.

ステップS142において、データ受付部411は、周囲状況監視装置130から送信される監視データを受信する。 In step S142, the data reception unit 411 receives the monitoring data transmitted from the surrounding situation monitoring device 130.

ステップS141とステップS142は、順番が逆でも構わない。 Steps S141 and S142 may be performed in reverse order.

ステップS143において、走行障害判定部412は、走行状況データと監視データに基づいて、対象移動体120の走行障害の有無を判定する。 In step S143, the driving obstacle determination unit 412 determines whether or not there is a driving obstacle for the target moving body 120 based on the driving condition data and the monitoring data.

対象移動体120の走行障害の有無は以下のように判定される。
走行障害判定部412は、対象移動体120の位置から近接範囲内に対象移動体120と対向する障害物が存在するか判定する。近接範囲は、対象移動体120の位置を基点とする範囲であり、近接範囲の大きさは予め決められる。
対象移動体120の位置と各物体の位置は、位置データベースを用いて管理される。位置データベースは自動運転管制装置400で管理される。走行障害判定部412は、位置データベースに示される地図に対象移動体120の位置と各物体の位置をマッピングする。そして、走行障害判定部412は、対象移動体120の位置と各物体の位置がマッピングされた地図を参照して判定を行う。
対象移動体120の位置から近接範囲内に対象移動体120と対向する障害物が存在する場合、走行障害判定部412は、対象移動体120の走行障害があると判定する。
The presence or absence of a travel obstacle for the target moving object 120 is determined as follows.
The traveling obstacle determination unit 412 determines whether an obstacle facing the target moving body 120 exists within a proximity range from the position of the target moving body 120. The proximity range is a range that has the position of the target moving body 120 as its base point, and the size of the proximity range is determined in advance.
The position of the target moving body 120 and the position of each object are managed using a position database. The position database is managed by the autonomous driving control device 400. The driving obstacle determination unit 412 maps the position of the target moving body 120 and the position of each object on a map shown in the position database. Then, the driving obstacle determination unit 412 makes a determination by referring to the map on which the position of the target moving body 120 and the position of each object are mapped.
If there is an obstacle facing the target moving body 120 within a proximity range from the position of the target moving body 120, the traveling obstacle determination unit 412 determines that there is an obstacle to the traveling of the target moving body 120.

対象移動体120の走行障害が有ると判定された場合、処理はステップS144に進む。
対象移動体120の走行障害が無いと判定された場合、処理は終了する。
If it is determined that there is an obstacle to the running of the target moving object 120, the process proceeds to step S144.
If it is determined that there is no obstacle to the running of the target moving body 120, the processing ends.

ステップS144において、管制データ生成部413は、対象移動体120の走行障害を通知するための管制データを生成する。 In step S144, the control data generation unit 413 generates control data to notify of a driving disorder of the target moving body 120.

ステップS145において、管制データ提供部414は、管制データを対象移動体120へ送信する。 In step S145, the control data providing unit 414 transmits the control data to the target moving body 120.

***実施の形態1の効果***
実施の形態1により、対象移動体120からの死角が生じる監視地域を対象移動体120が通行するときに、対象移動体120から独立して設けられる監視センサ群390を用いて対象移動体120の周囲を監視することができる。これにより、より安全な自動運転を実現することが可能となる。
***Advantages of First Embodiment***
According to the first embodiment, when the target moving object 120 passes through a monitoring area where a blind spot occurs from the target moving object 120, the surroundings of the target moving object 120 can be monitored using the monitoring sensor group 390 provided independently of the target moving object 120. This makes it possible to realize safer automated driving.

***実施の形態1の補足***
自動運転システム100は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と地図データベース110を備える。
対象移動体120は、自動運転可能な移動体である。対象移動体120は、光学センサおよびLIDERなど周辺環境を把握するセンサと、通信機能と、を持つ。
周囲状況監視装置130は、対象移動体120から独立して存在するカメラなどのセンサと、通信機能と、を持つ。
自動運転管制装置400は、通信機能と計算機能を持ち、対象移動体120へ走行計画の立案に必要な管制データを通知する。
地図データベース110は、記憶機能と通信機能を持つ。地図データベース110は、周囲状況の確認の必要性を判定するために使用される地図データ111を記憶する。地図データベース110は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と通信可能である。
対象移動体120は、自己の位置、速度および加速度などの情報を自動運転管制装置400へ送信する。また、対象移動体120は、地図データ111に示される地図に自己位置をマッピングし、周囲状況の監視が必要であるか判定する。そして、周囲状況の監視が必要である場合、対象移動体120は、監視要求を周囲状況監視装置130へ送信する。
周囲状況監視装置130は、路側に固定されていてもよいし、対象移動体120から発進する飛行体でもよい。周囲状況監視装置130は、対象移動体120の走行計画に影響を及ぼす障害物の位置、速度および加速度などの情報を監視センサ群390から取得する。そして、周囲状況監視装置130は、障害物の位置、速度および加速度などの情報を自動運転管制装置400へ送信する。また、周囲状況監視装置130は、障害物の位置を地図データ111に示される地図にマッピングする。
自動運転管制装置400は、対象移動体120の位置などの情報(将来位置を含む)と障害物の位置などの情報(将来位置を含む)に基づいて、対象移動体120の走行障害を判定する。そして、自動運転管制装置400は、走行障害の判定結果に基づいて管制データを生成し、管制データを対象移動体120へ送信する。
***Additional Notes to the First Embodiment***
The autonomous driving system 100 includes a target moving object 120, a surrounding situation monitoring device 130, an autonomous driving control device 400, and a map database 110.
The target moving object 120 is a moving object capable of autonomous driving. The target moving object 120 has sensors for detecting the surrounding environment, such as an optical sensor and a LIDAR, and a communication function.
The surrounding situation monitoring device 130 has sensors such as a camera that exists independently of the target moving object 120, and a communication function.
The autonomous driving control device 400 has communication and calculation functions, and notifies the target moving body 120 of the control data necessary for planning a driving plan.
The map database 110 has a storage function and a communication function. The map database 110 stores map data 111 used to determine the necessity of checking the surrounding situation. The map database 110 can communicate with the target moving object 120, the surrounding situation monitoring device 130, and the automatic driving control device 400.
The target moving object 120 transmits information such as its own position, speed, and acceleration to the autonomous driving control device 400. The target moving object 120 also maps its own position on the map shown in the map data 111 and determines whether or not it is necessary to monitor the surrounding conditions. If it is necessary to monitor the surrounding conditions, the target moving object 120 transmits a monitoring request to the surrounding conditions monitoring device 130.
The surrounding situation monitoring device 130 may be fixed to the roadside, or may be an aircraft launched from the target moving object 120. The surrounding situation monitoring device 130 acquires information such as the position, speed, and acceleration of an obstacle that affects the travel plan of the target moving object 120 from the monitoring sensor group 390. The surrounding situation monitoring device 130 then transmits the information such as the position, speed, and acceleration of the obstacle to the automatic driving control device 400. The surrounding situation monitoring device 130 also maps the position of the obstacle on the map shown in the map data 111.
The autonomous driving control device 400 determines a driving obstacle for the target moving body 120 based on information such as the position (including future position) of the target moving body 120 and information such as the position (including future position) of an obstacle. Then, the autonomous driving control device 400 generates control data based on the determination result of the driving obstacle and transmits the control data to the target moving body 120.

実施の形態2.
周囲状況監視装置130がドローン131である形態について、主に実施の形態1と異なる点を図8から図10に基づいて説明する。
Embodiment 2.
Regarding an embodiment in which the surrounding situation monitoring device 130 is a drone 131, the differences from the first embodiment will be mainly described with reference to Figs. 8 to 10 .

***構成の説明***
図8に基づいて、自動運転システム100の構成を説明する。
自動運転システム100は、周囲状況監視装置130としてドローン131を備える。
ドローン131は、自動運転で上空を飛行する飛行体である。
対象移動体120は、実施の形態1で説明した要素に加えて、ドローンポート121を備える。
ドローンポート121は、プロセッサ301が格納されプロセッサ301が離着陸する設備である。ドローンポート121は、ドローン131を充電するための充電ポートを有する。
***Configuration Description***
The configuration of the autonomous driving system 100 will be described with reference to FIG.
The autonomous driving system 100 is equipped with a drone 131 as a surrounding situation monitoring device 130.
Drone 131 is an autonomous flying object that flies in the sky.
In addition to the elements described in embodiment 1, the target moving body 120 is equipped with a drone port 121.
The drone port 121 is a facility where the processor 301 is stored and where the processor 301 takes off and lands. The drone port 121 has a charging port for charging the drone 131.

***動作の説明***
図9に基づいて、車載器200の動作の手順を説明する。
ステップS221からステップS225は、実施の形態1のステップS121からステップS125に相当する。
*** Operation Description ***
The procedure of the operation of the vehicle-mounted device 200 will be described with reference to FIG.
Steps S221 to S225 correspond to steps S121 to S125 in the first embodiment.

ステップS221において、監視要求部211は、自己位置データと地図データ111を参照し、ドローン131による監視の要否を判定する。 In step S221, the monitoring request unit 211 refers to the self-location data and the map data 111 and determines whether or not monitoring by the drone 131 is required.

ドローン131による監視が必要であると判定された場合、処理はステップS222に進む。 If it is determined that monitoring by drone 131 is necessary, processing proceeds to step S222.

ステップS222において、監視要求部211は、監視要求をドローン131へ送信する。 In step S222, the monitoring request unit 211 sends a monitoring request to the drone 131.

監視要求は、自己位置データと監視地域データを含む。
監視地域データは、対象移動体120が通行する監視地域を示す。
The monitoring request includes self-location data and monitoring area data.
The monitoring area data indicates the monitoring area through which the target mobile object 120 passes.

ステップS223において、管制データ取得部212は、走行計画データと走行状況データを自動運転管制装置400へ送信する。 In step S223, the control data acquisition unit 212 transmits the driving plan data and driving condition data to the autonomous driving control device 400.

ステップS224において、管制データ取得部212は、自動運転管制装置400から送信される管制データを受信する。 In step S224, the control data acquisition unit 212 receives the control data transmitted from the autonomous driving control device 400.

ステップS225において、運転制御部213は、管制データと周囲状況データに基づいて、対象移動体120の走行を制御する。 In step S225, the driving control unit 213 controls the travel of the target moving body 120 based on the control data and the surrounding condition data.

図10に基づいて、監視制御装置300の動作の手順を説明する。
ステップS231からステップS234は、実施の形態1のステップS131からステップS134に相当する。
The procedure of the operation of the monitoring and control device 300 will be described with reference to FIG.
Steps S231 to S234 correspond to steps S131 to S134 in the first embodiment.

ステップS231において、要求受付部311は、対象移動体120から送信される監視要求を受信する。 In step S231, the request receiving unit 311 receives a monitoring request sent from the target mobile object 120.

監視要求は、自己位置データと監視地域データを含む。 The monitoring request includes self-location data and monitoring area data.

ステップS232において、監視制御部312は、監視センサ群390に対象移動体120の周囲状況を監視させる。 In step S232, the monitoring control unit 312 causes the monitoring sensor group 390 to monitor the surrounding conditions of the target moving body 120.

監視制御部312は、監視センサ群390に対象移動体120の周囲状況を監視させるために、ドローン131に監視地域の上空を飛行させる。 The monitoring control unit 312 causes the drone 131 to fly above the monitoring area in order to have the monitoring sensor group 390 monitor the surrounding conditions of the target moving object 120.

ドローン131は以下のようにして監視地域の上空を飛行する。
まず、監視制御部312は、自己位置データと監視地域データに基づいて、ドローン131の飛行経路を立案する。
立案される飛行経路は、対象移動体120のドローンポート121を離陸してから監視地域の上空を飛行して対象移動体120のドローンポート121に着陸するまでの経路である。
そして、監視制御部312は、立案した飛行経路をドローン131に飛行させる。そのために、監視制御部312は、ドローン131の駆動装置を制御する。
Drone 131 flies over the surveillance area as follows.
First, the monitoring control unit 312 plans a flight route for the drone 131 based on the self-location data and the monitored area data.
The planned flight route is a route from taking off from the drone port 121 of the target moving body 120, flying over the monitored area, and landing at the drone port 121 of the target moving body 120.
Then, the monitoring control unit 312 causes the drone 131 to fly along the planned flight path. To this end, the monitoring control unit 312 controls the driving device of the drone 131.

ステップS233において、監視データ生成部313は、監視センサ群390から得られるセンサデータを用いて、監視データを生成する。 In step S233, the monitoring data generation unit 313 generates monitoring data using sensor data obtained from the monitoring sensor group 390.

ステップS234において、監視データ提供部314は、監視データを自動運転管制装置400へ送信する。 In step S234, the monitoring data providing unit 314 transmits the monitoring data to the autonomous driving control device 400.

***実施の形態2の効果***
実施の形態2により、地上を走行する対象移動体120からの死角となる監視地域を上空から監視することが可能となる。
***Advantages of the Second Embodiment***
According to the second embodiment, it becomes possible to monitor from the sky a monitoring area that is a blind spot from the target moving object 120 traveling on the ground.

***実施の形態2の補足***
周囲状況監視装置130は、自動運転飛行体である。
自動運転飛行体は、監視要求を受け、監視要求の契機となった監視地域の情報を元に飛行計画を計算によって立案し、飛行を開始する。自動運転飛行体は、搭載されるセンサから得られるデータから障害物の位置、速度および加速度を求め、障害物の位置、速度および加速度を自動運転管制装置400へ送信する。
対象移動体120には、自動運転飛行体の発着するポートが存在する。対象移動体120は、地図データ111から死角が発生する領域の位置情報を取得し、死角が発生する領域に入った場合に自動運転飛行体を発進させる。そして、自動運転飛行体は、死角領域の状況を監視して障害物の位置、速度および加速度を求め、障害物の位置、速度および加速度を自動運転管制装置400へ送信する。
***Additional Information about the Second Embodiment***
The ambient condition monitoring device 130 is an autonomous flying vehicle.
The autonomous flying object receives a monitoring request, calculates a flight plan based on the information on the monitoring area that triggered the monitoring request, and starts flying. The autonomous flying object obtains the position, speed, and acceleration of an obstacle from data obtained from an on-board sensor, and transmits the position, speed, and acceleration of the obstacle to the autonomous driving control device 400.
The target moving body 120 has a port for the autonomous flying object to take off and land. The target moving body 120 acquires position information of an area where a blind spot occurs from the map data 111, and launches the autonomous flying object when it enters the area where a blind spot occurs. The autonomous flying object then monitors the situation in the blind spot area to determine the position, speed, and acceleration of an obstacle, and transmits the position, speed, and acceleration of the obstacle to the autonomous driving control device 400.

実施の形態3.
カラーセンサを利用して障害物の位置を検知する形態について、主に実施の形態1と異なる点を図11から図12に基づいて説明する。
Embodiment 3.
The embodiment in which the position of an obstacle is detected using a color sensor will be described below with reference to Figs. 11 and 12, focusing mainly on the differences from the first embodiment.

***構成の説明***
図11に基づいて、自動運転システム100の構成を説明する。
周囲状況監視装置130において、監視センサ群390はカラーセンサ393を含む。
カラーセンサ393は、RGBカメラまたはRGB-Dカメラである。
Rは赤を意味し、Gは緑を意味し、Bは青を意味する。Dは深度を意味する。
***Configuration Description***
The configuration of the autonomous driving system 100 will be described with reference to FIG.
In the surrounding situation monitoring device 130 , the monitoring sensor group 390 includes a color sensor 393 .
The color sensor 393 is an RGB camera or an RGB-D camera.
R stands for red, G stands for green, B stands for blue, and D stands for depth.

***動作の説明***
図12に基づいて、監視制御装置300の動作の手順を説明する。
ステップS331からステップS334は、実施の形態1のステップS131からステップS134に相当する。
*** Operation Description ***
The procedure of the operation of the monitoring and control device 300 will be described with reference to FIG.
Steps S331 to S334 correspond to steps S131 to S134 in the first embodiment.

ステップS331において、要求受付部311は、対象移動体120から送信される監視要求を受信する。 In step S331, the request receiving unit 311 receives a monitoring request sent from the target mobile object 120.

ステップS332において、監視制御部312は、監視センサ群390に対象移動体120の周囲状況を監視させる。 In step S332, the monitoring control unit 312 causes the monitoring sensor group 390 to monitor the surrounding conditions of the target moving body 120.

ステップS333において、監視データ生成部313は、監視センサ群390から得られるセンサデータを用いて、監視データを生成する。 In step S333, the monitoring data generation unit 313 generates monitoring data using sensor data obtained from the monitoring sensor group 390.

監視データは、対象移動体120の周囲に存在する各物体の位置などを示す。 The monitoring data indicates the positions of each object present around the target moving body 120.

各物体の位置は以下のように推定される。カラーセンサ393によって得られるセンサデータを、カラーセンサデータと称する。
まず、監視データ生成部313は、カラーセンサデータを用いて物体検知を実行して、対象移動体120の周囲に存在する物体と、物体が位置する場所の平面と、を検知する。
そして、監視データ生成部313は、検知した平面における物体の位置を推定する。
The position of each object is estimated as follows: The sensor data obtained by the color sensor 393 is referred to as color sensor data.
First, the monitoring data generation unit 313 executes object detection using color sensor data to detect objects present around the target moving body 120 and the plane on which the objects are located.
The monitoring data generating unit 313 then estimates the position of the object on the detected plane.

ステップS334において、監視データ提供部314は、監視データを自動運転管制装置400へ送信する。 In step S334, the monitoring data providing unit 314 transmits the monitoring data to the autonomous driving control device 400.

***実施の形態3の効果***
実施の形態3により、障害物になり得る各物体の位置をより正確に検知することが可能となる。
***Advantages of Third Embodiment***
According to the third embodiment, it becomes possible to more accurately detect the position of each object that may become an obstacle.

***実施の形態3の補足***
接続されているセンサがRGBセンサである場合、周囲状況監視装置130は、水平面の検知を行い、検知された水平面に対する検知された障害物の座標を推定する。但し、推定は、自動運転管制装置400で行うこともあり得る。
対象移動体120から独立して存在するセンサがRGB情報を得るカメラである場合、周囲状況監視装置130は、物体検知を行い、RGB情報に基づいて平面を検知し、検知した平面に対して物体の位置を推定する。
対象移動体120から独立して存在するセンサがRGB-D情報を得るカメラである場合、周囲状況監視装置130は、物体検知を行い、RGB-D情報に基づいて平面を検知し、検知した平面に対して物体の位置を推定する。
***Additional Notes on the Third Embodiment***
If the connected sensor is an RGB sensor, the surroundings monitoring device 130 detects a horizontal plane and estimates the coordinates of the detected obstacle relative to the detected horizontal plane. However, the estimation may also be performed by the autonomous driving control device 400.
When the sensor that exists independently of the target moving object 120 is a camera that obtains RGB information, the surrounding situation monitoring device 130 performs object detection, detects a plane based on the RGB information, and estimates the position of the object relative to the detected plane.
When the sensor that exists independently of the target moving body 120 is a camera that obtains RGB-D information, the surrounding situation monitoring device 130 performs object detection, detects a plane based on the RGB-D information, and estimates the position of the object relative to the detected plane.

実施の形態3は実施の形態2と組み合わせて実施されてもよい。つまり、周囲状況監視装置130がドローン131であり、対象移動体120がドローンポート121を備えてもよい。 The third embodiment may be implemented in combination with the second embodiment. That is, the surrounding situation monitoring device 130 may be a drone 131, and the target moving object 120 may be equipped with a drone port 121.

実施の形態4.
対象移動体120が走行障害の種類に応じて走行障害に対処する形態について、主に実施の形態1と異なる点を図13から図14に基づいて説明する。
Embodiment 4.
The manner in which the target moving body 120 deals with a travel obstacle depending on the type of the obstacle will be described below with reference to Figs. 13 and 14, mainly with respect to the points that differ from the first embodiment.

***構成の説明**
自動運転システム100の構成は、実施の形態1における構成と同様である。
但し、地図データ111は、一か所以上のエスケープゾーンを示す。
***Configuration Description***
The configuration of the autonomous driving system 100 is similar to that in the first embodiment.
However, the map data 111 indicates one or more escape zones.

***動作の説明***
図13に基づいて、自動運転管制装置400の動作の手順を説明する。
ステップS441からステップS445は、実施の形態1のステップS141からステップS145に相当する。
*** Operation Description ***
The procedure of the operation of the automatic driving control device 400 will be described with reference to FIG.
Steps S441 to S445 correspond to steps S141 to S145 in the first embodiment.

ステップS441において、データ受付部411は、対象移動体120から送信される走行計画データと走行状況データを受信する。 In step S441, the data reception unit 411 receives the driving plan data and driving condition data transmitted from the target moving body 120.

ステップS442において、データ受付部411は、周囲状況監視装置130から送信される監視データを受信する。 In step S442, the data reception unit 411 receives monitoring data transmitted from the surrounding situation monitoring device 130.

ステップS443において、走行障害判定部412は、走行状況データと監視データに基づいて、対象移動体120の走行障害の有無を判定する。 In step S443, the driving obstacle determination unit 412 determines whether or not there is a driving obstacle for the target moving body 120 based on the driving condition data and the monitoring data.

対象移動体120の走行障害が有ると判定した場合、走行障害判定部412は、監視データに基づいて、障害物の種類を判定する。具体的には、走行障害判定部412は、障害物が移動する物体と移動しない物体のいずれであるか判定する。移動する物体の例は車両および人である。移動しない物体の例は落石である。また、走行障害判定部412は、障害物が複数存在するか判定する。複数存在する障害物の例は複数の歩行者である。
また、走行障害判定部412は、位置データベースに基づいて、対象移動体120と障害物とが存在する道路(対象道路)の種類を判定する。具体的には、走行障害判定部412は、対象道路が一車線分の幅しかない狭い道路であるか判定する。
When it is determined that there is a traveling obstacle for the target moving body 120, the traveling obstacle determination unit 412 determines the type of obstacle based on the monitoring data. Specifically, the traveling obstacle determination unit 412 determines whether the obstacle is a moving object or a non-moving object. Examples of moving objects are vehicles and people. An example of a non-moving object is falling rocks. The traveling obstacle determination unit 412 also determines whether there are multiple obstacles. An example of multiple obstacles is multiple pedestrians.
In addition, the driving obstacle determination unit 412 determines the type of road (target road) on which the target moving object 120 and the obstacle exist, based on the position database. Specifically, the driving obstacle determination unit 412 determines whether the target road is a narrow road having a width of only one lane.

対象移動体120の走行障害が有ると判定された場合、処理はステップS444に進む。
対象移動体120の走行障害が無いと判定された場合、処理は終了する。
If it is determined that there is an obstacle to the running of the target moving body 120, the process proceeds to step S444.
If it is determined that there is no obstacle to the running of the target moving body 120, the processing ends.

ステップS444において、管制データ生成部413は、対象移動体120の走行障害を通知するための管制データを生成する。 In step S444, the control data generation unit 413 generates control data to notify of a driving disorder of the target moving body 120.

管制データは、走行障害の種類などを示す。 The control data indicates the type of driving obstruction, etc.

走行障害の種類は以下のように判定される。
対象道路が狭い道路であり障害物が移動する物体である場合、管制データ生成部413は、「すれ違い不可」を走行障害の種類として判定する。「すれ違い不可」は、対象移動体120と障害物がすれ違って走行することができないことを意味する。
対象道路が狭い道路であり障害物が移動しない物体である場合、管制データ生成部413は、「通行不可」を走行障害の種類として判定する。「通行不可」は、対象移動体120が障害物を避けて通行することができないことを意味する。
障害物が複数存在する場合、管制データ生成部413は、「徐行必要」を管制情報として示す管制データを送信する。「徐行必要」は、障害物を避けるために徐行が必要であることを意味する。
The type of driving impairment is determined as follows:
If the target road is a narrow road and the obstacle is a moving object, the control data generating unit 413 determines that the type of driving obstacle is "impossible to pass each other.""Impossible to pass each other" means that the target moving body 120 and the obstacle cannot pass each other when traveling.
If the target road is a narrow road and the obstacle is a stationary object, the control data generating unit 413 determines that the type of driving obstacle is "impassable.""Impassable" means that the target moving body 120 cannot pass through the obstacle by avoiding it.
When multiple obstacles are present, the control data generating unit 413 transmits control data indicating "slow down required" as the control information. "Slow down required" means that slow down is required to avoid the obstacles.

ステップS445において、管制データ提供部414は、管制データを対象移動体120へ送信する。 In step S445, the control data providing unit 414 transmits the control data to the target moving body 120.

図14に基づいて、車載器200の動作の手順を説明する。
ステップS421からステップS425は、実施の形態1のステップS121からステップS125に相当する。
The procedure of the operation of the vehicle-mounted device 200 will be described with reference to FIG.
Steps S421 to S425 correspond to steps S121 to S125 in the first embodiment.

ステップS421において、監視要求部211は、自己位置データと地図データ111を参照し、周囲状況監視装置130による監視の要否を判定する。 In step S421, the monitoring request unit 211 refers to the self-location data and the map data 111 and determines whether monitoring by the surrounding situation monitoring device 130 is required.

周囲状況監視装置130による監視が必要であると判定された場合、処理はステップS422に進む。 If it is determined that monitoring by the surrounding conditions monitoring device 130 is necessary, processing proceeds to step S422.

ステップS422において、監視要求部211は、監視要求を周囲状況監視装置130へ送信する。 In step S422, the monitoring request unit 211 sends a monitoring request to the surrounding situation monitoring device 130.

ステップS423において、管制データ取得部212は、走行計画データと走行状況データを自動運転管制装置400へ送信する。 In step S423, the control data acquisition unit 212 transmits the driving plan data and driving condition data to the autonomous driving control device 400.

ステップS424において、管制データ取得部212は、自動運転管制装置400から送信される管制データを受信する。 In step S424, the control data acquisition unit 212 receives the control data transmitted from the autonomous driving control device 400.

管制データは、対象移動体120の走行障害の種類などを示す。 The control data indicates the type of driving obstacle for the target moving body 120, etc.

ステップS425において、運転制御部213は、管制データと周囲状況データに基づいて、対象移動体120の走行を制御する。 In step S425, the driving control unit 213 controls the travel of the target moving body 120 based on the control data and the surrounding condition data.

対象移動体120の走行は以下のように走行障害の種類に応じて制御される。
走行障害の種類が「すれ違い不可」である場合、運転制御部213は、地図データ111に示される最寄りのエスケープゾーンに対象移動体120を退避させる。
走行障害の種類が「通行不可」である場合、運転制御部213は、地図データ111に示される最寄りのエスケープゾーンを利用して対象移動体120をUターンさせる。
走行障害の種類が「徐行必要」である場合、運転制御部213は、対象移動体120を徐行させる。
The travel of the target moving object 120 is controlled according to the type of travel obstacle as follows.
If the type of driving obstacle is “no passing”, the driving control unit 213 causes the target moving body 120 to evacuate to the nearest escape zone shown in the map data 111.
If the type of driving obstacle is “impassable”, the driving control unit 213 makes the target moving body 120 make a U-turn using the nearest escape zone shown in the map data 111 .
If the type of driving obstacle is "requires slowing down," the driving control unit 213 causes the target moving body 120 to drive slowly.

***実施の形態4の効果***
実施の形態4により、走行障害の種類に応じて安全な自動運転を実現することが可能となる。
***Advantages of the Fourth Embodiment***
According to the fourth embodiment, it becomes possible to realize safe automatic driving according to the type of driving obstacle.

***実施の形態4の補足***
自動運転管制装置400は、対象移動体120から位置、速度および加速度の情報を得て、周囲状況監視装置130から障害物の位置、速度および加速度の情報を得る。自動運転管制装置400は、対象移動体120と障害物のそれぞれの位置情報に基づいて算出される将来位置情報を予測時刻と共に、バージョン情報と空間・時間軸情報を持つデータベースに記録する。
対象移動体120と障害物のそれぞれの位置情報と将来予測位置が変更される度に、自動運転管制装置400は、バージョンを更新し、対象移動体120と障害物のそれぞれの位置情報を更新する。更新した際に対象移動体120の位置が障害物の位置と近接関係にあった場合、自動運転管制装置400は走行障害が有ると判定し、対象移動体120は走行計画の修正を行う。
走行障害の種類が「すれ違い不可」と判定された場合には、対象移動体120は、エスケープゾーンの位置情報を地図データ111から取得し、エスケープゾーンにへの退避を行うように走行計画を変更する。
走行障害の種類が「通行不可」と判定された場合には、対象移動体120は、エスケープゾーンの位置情報を地図データ111から取得し、エスケープゾーンを利用してUターンを行うように走行計画を変更する。
走行障害の種類が「徐行必要」と判定された場合には、対象移動体120は、徐行を行うように走行計画を変更する。
***Additional Notes on the Fourth Embodiment***
The autonomous driving control device 400 obtains information on the position, speed, and acceleration from the target moving body 120, and obtains information on the position, speed, and acceleration of an obstacle from the surroundings monitoring device 130. The autonomous driving control device 400 records future position information calculated based on the respective position information of the target moving body 120 and the obstacle, together with the predicted time, in a database having version information and space/time axis information.
Each time the position information and future predicted positions of the target moving body 120 and the obstacle are changed, the autonomous driving control device 400 updates the version and updates the position information of the target moving body 120 and the obstacle. If the position of the target moving body 120 is in a close relationship with the position of the obstacle at the time of updating, the autonomous driving control device 400 determines that there is a driving obstacle, and the target moving body 120 modifies the driving plan.
When the type of driving obstacle is determined to be "no passing", the target moving body 120 acquires the position information of the escape zone from the map data 111 and changes the driving plan to retreat to the escape zone.
If the type of driving obstacle is determined to be "impassable", the target moving body 120 acquires the position information of the escape zone from the map data 111 and changes the driving plan to make a U-turn using the escape zone.
If the type of driving obstacle is determined to be "required to drive slowly," the target moving body 120 changes its driving plan to drive slowly.

実施の形態4は実施の形態2と実施の形態3の少なくとも一方と組み合わせて実施されてもよい。つまり、周囲状況監視装置130がドローン131であり、対象移動体120がドローンポート121を備えてもよい。また、監視制御装置300はカラーセンサ393を利用して障害物の位置を検知してもよい。 The fourth embodiment may be implemented in combination with at least one of the second and third embodiments. That is, the surrounding situation monitoring device 130 may be a drone 131, and the target moving object 120 may include a drone port 121. The monitoring control device 300 may also detect the position of an obstacle using a color sensor 393.

実施の形態5.
対象移動体120の走行障害を障害物に通知する形態について、主に実施の形態1と異なる点を図15から図17に基づいて説明する。
Embodiment 5.
The embodiment of notifying an obstacle of a travel obstacle of the target moving body 120 will be described with reference to Figs. 15 to 17, mainly focusing on the points different from the first embodiment.

***構成の説明**
図15に基づいて、自動運転システム100の構成を説明する。
自動運転システム100は、一台以上の移動体101と一台以上の携帯端末102を備える。
移動体101は、対象移動体120と同様の移動体である。
携帯端末102は、歩行者に所持される。例えば、携帯端末102はスマートフォンである。スマートフォンでは、自動運転システム100用のアプリケーションプログラムが実行される。
それぞれの移動体101の情報とそれぞれの携帯端末102の情報が、自動運転管制装置400に予め登録される。
***Configuration Description***
The configuration of the autonomous driving system 100 will be described with reference to FIG. 15 .
The autonomous driving system 100 includes one or more mobile objects 101 and one or more mobile terminals 102 .
The moving body 101 is a moving body similar to the target moving body 120 .
The mobile terminal 102 is carried by a pedestrian. For example, the mobile terminal 102 is a smartphone. An application program for the autonomous driving system 100 is executed on the smartphone.
Information on each moving body 101 and information on each mobile terminal 102 are registered in advance in the automatic driving control device 400.

図16に基づいて、自動運転管制装置400の構成を説明する。
自動運転管制装置400は、さらに、走行障害通知部415という要素を備える。
自動運転管制プログラムは、さらに、走行障害通知部415としてコンピュータを機能させる。
The configuration of the automatic driving control device 400 will be described with reference to FIG.
The autonomous driving control device 400 further includes an element called a driving obstacle notification unit 415.
The autonomous driving control program further causes the computer to function as a driving obstacle notification unit 415.

***動作の説明***
自動運転管制装置400の動作について説明する。まず、自動運転管制装置400の動作の前提を説明する。
それぞれの移動体101は、周期的に、自己位置データを自動運転管制装置400へ送信する。自己位置データは移動体101の位置を示す。
それぞれの携帯端末102は、周期的に、自己位置データを自動運転管制装置400へ送信する。自己位置データは歩行者および携帯端末102の位置を示す。
*** Operation Description ***
The following describes the operation of the autonomous driving control device 400. First, the premise of the operation of the autonomous driving control device 400 will be described.
Each moving object 101 periodically transmits its own position data to the autonomous driving control device 400. The own position data indicates the position of the moving object 101.
Each mobile terminal 102 periodically transmits its own position data to the autonomous driving control device 400. The own position data indicates the positions of the pedestrian and the mobile terminal 102.

図17に基づいて、自動運転管制装置400の動作の手順を説明する。
ステップS542からステップS546は、実施の形態1のステップS141からステップS145に相当する。
The procedure of the operation of the autonomous driving control device 400 will be described with reference to FIG.
Steps S542 to S546 correspond to steps S141 to S145 in the first embodiment.

ステップS541において、データ受付部411は、それぞれの移動体101から自己位置データを受信する。
また、データ受付部411は、それぞれの携帯端末102から自己位置データを受信する。
In step S541, the data receiving unit 411 receives self-location data from each moving object 101.
Furthermore, the data receiving unit 411 receives self-location data from each mobile terminal 102 .

ステップS542において、データ受付部411は、対象移動体120から送信される走行計画データと走行状況データを受信する。 In step S542, the data reception unit 411 receives the driving plan data and driving status data transmitted from the target moving body 120.

ステップS543において、データ受付部411は、周囲状況監視装置130から送信される監視データを受信する。 In step S543, the data reception unit 411 receives the monitoring data transmitted from the surrounding situation monitoring device 130.

ステップS544において、走行障害判定部412は、走行状況データと監視データに基づいて、対象移動体120の走行障害の有無を判定する。 In step S544, the driving obstacle determination unit 412 determines whether or not there is a driving obstacle for the target moving body 120 based on the driving condition data and the monitoring data.

ステップS545において、管制データ生成部413は、対象移動体120の走行障害を通知するための管制データを生成する。 In step S545, the control data generation unit 413 generates control data to notify of a driving disorder of the target moving body 120.

ステップS546において、管制データ提供部414は、管制データを対象移動体120へ送信する。 In step S546, the control data providing unit 414 transmits the control data to the target moving body 120.

ステップS547において、走行障害通知部415は、一台以上の移動体101のそれぞれの自己位置データに基づいて、障害物がいずれかの移動体101であるか判定する。
障害物がいずれかの移動体101であると判定した場合、走行障害通知部415は、障害物である移動体101へ通知データを送信する。
通知データは、対象移動体120の走行障害を通知するためのデータである。例えば、走行障害通知部415は、障害物である移動体101のための管制データを通知データとして生成する。
In step S547, the traveling obstacle notification unit 415 determines whether the obstacle is any one of the moving bodies 101 based on the self-position data of each of the one or more moving bodies 101.
If it is determined that the obstacle is one of the moving bodies 101, the driving obstacle notification unit 415 transmits notification data to the moving body 101 that is the obstacle.
The notification data is data for notifying a traveling obstacle of the target moving body 120. For example, the traveling obstacle notification unit 415 generates control data for the moving body 101, which is an obstacle, as the notification data.

また、走行障害通知部415は、一台以上の携帯端末102のそれぞれの自己位置データに基づいて、障害物がいずれかの携帯端末102を所持する歩行者であるか判定する。
障害物がいずれかの携帯端末102を所持する歩行者であると判定した場合、走行障害通知部415は、障害物である歩行者の携帯端末102へ通知データを送信する。
In addition, the driving obstacle notification unit 415 determines whether the obstacle is a pedestrian carrying one of the mobile terminals 102 based on the self-position data of each of the one or more mobile terminals 102 .
When it is determined that the obstacle is a pedestrian carrying one of the mobile terminals 102, the driving obstacle notification unit 415 transmits notification data to the mobile terminal 102 of the pedestrian who is the obstacle.

***実施の形態5の効果***
実施の形態5により、対象移動体120にとっての障害物となる移動体および歩行者に対象移動体120の走行障害が通知される。これにより、より安全な自動運転の実現が可能となる。
***Advantages of Fifth Embodiment***
According to the fifth embodiment, moving objects and pedestrians that are obstacles to the target moving object 120 are notified of a road obstacle of the target moving object 120. This makes it possible to realize safer automated driving.

***実施の形態5の補足***
走行障害が有ると判定し、且つ、人間が運転する移動体または歩行者が障害物であると判定した場合、自動運転管制装置400は、その人間が持つスマートフォンに通知を送る。また、障害物が自動運転可能な移動体である場合、自動運転管制装置400は、走行計画の変更を指示するための情報を送信する。
障害物は、移動できることを期待できる物体または移動できることを期待できない物体に区別し得る。
例えば、次のようなものが障害物になり得る。人が運転している車両、自動運転車両(自動運転可能な移動体)、移動しない物体(停車している車両、落石など)、および、その他の物体(歩行者、自転車、交通弱者など)。
***Additional Notes on the Fifth Embodiment***
When it is determined that there is a driving obstacle and that the obstacle is a moving object driven by a human or a pedestrian, the autonomous driving control device 400 sends a notification to the smartphone carried by the human. Also, when the obstacle is a moving object capable of being driven automatically, the autonomous driving control device 400 transmits information for instructing a change to the driving plan.
Obstacles may be differentiated into objects that are expected to be movable and objects that are not expected to be movable.
For example, potential obstacles include vehicles driven by humans, autonomous vehicles (moving objects capable of autonomous driving), non-moving objects (parked vehicles, falling rocks, etc.), and other objects (pedestrians, bicycles, vulnerable road users, etc.).

実施の形態5は実施の形態2から実施の形態4の少なくともいずれかと組み合わせて実施されてもよい。つまり、周囲状況監視装置130がドローン131であり、対象移動体120がドローンポート121を備えてもよい。また、監視制御装置300はカラーセンサ393を利用して障害物の位置を検知してもよい。また、対象移動体120は走行障害の種類に応じて走行障害に対処してもよい。 The fifth embodiment may be implemented in combination with at least one of the second to fourth embodiments. That is, the surrounding situation monitoring device 130 may be a drone 131, and the target moving body 120 may include a drone port 121. The monitoring control device 300 may also detect the position of an obstacle using a color sensor 393. The target moving body 120 may also deal with a driving obstacle depending on the type of the driving obstacle.

実施の形態6.
動画ストリームAI処理パイプラインシステムを適用する形態について、主に実施の形態1と異なる点を図18から図21に基づいて説明する。AIは人工知能の略称である。
Embodiment 6.
The embodiment in which the moving image stream AI processing pipeline system is applied will be described with reference to Fig. 18 to Fig. 21, mainly focusing on the differences from the first embodiment. AI is an abbreviation for artificial intelligence.

***構成の説明***
図18に基づいて、自動運転システム100の構成を説明する。
自動運転システム100は、周囲状況監視装置130を複数備える。図18において、自動運転システム100は、1つのドローンと3つの路側機との4つの周囲状況監視装置130を備えている。周囲状況監視装置130の数は4つに限定されない。
それぞれの周囲状況監視装置130の監視センサ群390は、動画像センサを含む。
***Configuration Description***
The configuration of the autonomous driving system 100 will be described with reference to FIG. 18.
The autonomous driving system 100 includes a plurality of surrounding situation monitoring devices 130. In Fig. 18, the autonomous driving system 100 includes four surrounding situation monitoring devices 130, namely, one drone and three roadside devices. The number of surrounding situation monitoring devices 130 is not limited to four.
The monitoring sensor group 390 of each surroundings monitoring device 130 includes a video image sensor.

自動運転管制装置400は、さらに、スイッチャー部431と物体検出部432と位置推定部433とアノテーション部434と学習部435といった要素を備える。これらの要素はソフトウェアで実現される。さらに、自動運転管制装置400はデータベース438を備える。データベース438は空間・時間軸情報を持つ。
自動運転管制装置400は、複数種類の物体検出モデルを有する。物体検出モデルは、画像に映った物体を検出するために機械学習などによって生成された学習済みモデルである。図18において、自動運転管制装置400は、汎用の物体検出モデルと汎用の道路検出モデルと汎用のヒト検出モデルを有している。道路検出モデルは道路を検出するための物体検出モデルである。ヒト検出モデルは人を検出するための物体検出モデルである。使用される物体検出モデルはこれらのモデルに限定されない。
The autonomous driving control device 400 further includes elements such as a switcher unit 431, an object detection unit 432, a position estimation unit 433, an annotation unit 434, and a learning unit 435. These elements are realized by software. The autonomous driving control device 400 further includes a database 438. The database 438 has space and time axis information.
The autonomous driving control device 400 has a plurality of types of object detection models. The object detection models are learned models generated by machine learning or the like in order to detect objects shown in an image. In FIG. 18, the autonomous driving control device 400 has a general-purpose object detection model, a general-purpose road detection model, and a general-purpose human detection model. The road detection model is an object detection model for detecting roads. The human detection model is an object detection model for detecting people. The object detection models used are not limited to these models.

***動作の説明***
図18に基づいて、複数の周囲状況監視装置130と自動運転管制装置400の動作について説明する。
*** Operation Description ***
The operation of the multiple surrounding condition monitoring devices 130 and the automatic driving control device 400 will be described with reference to FIG. 18 .

それぞれの周囲状況監視装置130の監視制御装置300は、動画像センサによって得られる動画ストリームを含めて監視データを自動運転管制装置400へ送信する(図6のS133、S134)。 The monitoring control device 300 of each surrounding condition monitoring device 130 transmits monitoring data, including a video stream obtained by a video image sensor, to the autonomous driving control device 400 (S133 and S134 in FIG. 6).

ステップS142(図7を参照)において、自動運転管制装置400は、それぞれの周囲状況監視装置130から送信される監視データを受信する。監視データには動画ストリームが含まれる。
ステップS143(図7を参照)において、自動運転管制装置400は、物体検出モデルを用いて対象移動体120の走行に対する障害物の検出を行い、障害物の検出結果を利用して対象移動体120の走行障害を判断する。
In step S142 (see FIG. 7), the autonomous driving control device 400 receives monitoring data transmitted from each surrounding situation monitoring device 130. The monitoring data includes a video stream.
In step S143 (see FIG. 7), the autonomous driving control device 400 uses an object detection model to detect obstacles to the travel of the target moving body 120, and determines whether there is a travel obstacle to the target moving body 120 using the obstacle detection result.

障害物は以下のように検出される。
それぞれの周囲状況監視装置130からの動画ストリームの入力先は、送信元の周囲状況監視装置130に対応付けて予め決められている。
スイッチャー部431は、動画ストリームごとに、送信元の周囲状況監視装置130に対応付けられた入力先の物体検出モデルに動画ストリームを流す。例えば、スイッチャー部431は、路側機Aからの動画ストリームAを物体検出とアノテーションに流し、路側機Bからの動画ストリームBを物体検出と道路検出とアノテーションに流し、路側機Cからの動画ストリームCをヒト検出とアノテーションに流す。
送信元の周囲状況監視装置130に対応付けられた入力先で使用される物体検出モデルを、対応モデルと称する。
物体検出部432は、動画ストリームごとに、対応モデルを用いて動画ストリームを入力にして物体検出を行う。
位置推定部433は、物体検出の結果に基づいて、検出された物体の位置(座標値)を推定し、検出された物体の検出情報をデータベース438に記録する。検出情報は、検出された物体について種類と位置などを示す。
利用者は、データベース438に記録された各物体の検出情報を自動運転管制装置400を利用して参照し、更新したい物体検出モデルを選択し、選択した物体検出モデルを自動運転管制装置400に対して指定する。選択された物体検出モデルを、選択モデルと称する。
スイッチャー部431は、選択モデルに入力された動画ストリームをアノテーション部434に流す。
アノテーション部434は、選択モデルを用いて動画ストリームを入力にして検出された物体の検出情報をアノテーションによって修正する。検出情報は次のように修正される。アノテーション部434は動画ストリームをディスプレイに表示する。利用者は、動画ストリームを参照し、動画ストリームに映っている物体に対するアノテーションを行い、アノテーション情報を自動運転管制装置400に入力する。アノテーション情報は、物体の位置とラベルを示す。ラベルは物体の種類を識別する。アノテーション部434はアノテーション情報を受け取り、アノテーション情報に基づいて検出情報を修正する。
学習部435は、動画ストリームと修正された検出情報を学習データにして学習を行うことによって、選択モデルを更新する。例えば、選択モデルのパラメータが更新される。これにより、新たなバージョンの物体検出モデルが生成される。
いずれかの種類の物体検出モデルに動画ストリームが入力された場合、物体検出部432は、同じ種類の物体検出モデルのバージョンごとに、動画ストリームを入力にして物体検出モデルを用いて物体検出を行う。そして、物体検出モデルのバージョンごとに検出情報がデータベース438に記録される。
利用者は、データベース438に記録された各物体の各検出情報を自動運転管制装置400を利用して参照する。利用者は、複数種類のバージョン別の物体検出モデルから、走行障害の判断に用いる物体検出モデルを決定する。そして、利用者は、決定した物体検出モデルを自動運転管制装置400に対して指定する。決定された物体検出モデルを、決定モデルと称する。
その後、物体検出部432は、動画ストリームを入力にして決定モデルを用いて物体検出を行って、対象移動体120の走行に対する障害物を検出する。検出結果には、障害物の将来の行動の予測情報が含まれる。障害物の将来の行動は、障害物の位置の時系列に基づいて予測される。
決定モデルは随時に変更される。また、2つ以上の決定モデルが使用されてもよい。この場合、2つ以上の決定モデルに対応する2つ以上の検出結果に基づいて、障害物が特定される。このとき、加重平均などの手法が使用される。
Obstacles are detected as follows:
The input destination of the video stream from each surrounding condition monitoring device 130 is determined in advance in association with the surrounding condition monitoring device 130 that is the transmission source.
The switcher unit 431 sends each video stream to an object detection model of an input destination associated with the surrounding condition monitoring device 130 of the transmission source. For example, the switcher unit 431 sends video stream A from roadside unit A to object detection and annotation, sends video stream B from roadside unit B to object detection, road detection, and annotation, and sends video stream C from roadside unit C to human detection and annotation.
The object detection model used at the input destination associated with the surrounding situation monitoring device 130 that is the transmission source is called a corresponding model.
The object detection unit 432 performs object detection for each video stream by using a corresponding model and inputting the video stream.
The position estimation unit 433 estimates the position (coordinate values) of the detected object based on the result of the object detection, and records the detection information of the detected object in the database 438. The detection information indicates the type, position, etc. of the detected object.
The user refers to the detection information of each object recorded in database 438 using autonomous driving control device 400, selects the object detection model to be updated, and specifies the selected object detection model to autonomous driving control device 400. The selected object detection model is referred to as a selected model.
The switcher unit 431 sends the video stream input to the selection model to the annotation unit 434 .
The annotation unit 434 uses a selection model to input a video stream and corrects the detection information of a detected object through annotations. The detection information is corrected as follows. The annotation unit 434 displays the video stream on a display. The user refers to the video stream, annotates the objects shown in the video stream, and inputs the annotation information to the autonomous driving control device 400. The annotation information indicates the position and label of the object. The label identifies the type of object. The annotation unit 434 receives the annotation information and corrects the detection information based on the annotation information.
The learning unit 435 updates the selection model by learning using the video stream and the corrected detection information as learning data. For example, the parameters of the selection model are updated. As a result, a new version of the object detection model is generated.
When a video stream is input to any type of object detection model, the object detection unit 432 performs object detection using the object detection model with the video stream input for each version of the same type of object detection model. Then, detection information for each version of the object detection model is recorded in the database 438.
The user refers to each piece of detection information for each object recorded in database 438 using autonomous driving control device 400. The user determines an object detection model to be used for determining a driving obstacle from a plurality of types of object detection models with different versions. Then, the user specifies the determined object detection model to autonomous driving control device 400. The determined object detection model is referred to as a determined model.
Thereafter, the object detection unit 432 performs object detection using the decision model with the video stream as input, and detects obstacles to the travel of the target moving object 120. The detection result includes prediction information of the obstacle's future behavior. The obstacle's future behavior is predicted based on the time series of the obstacle's position.
The determination model is changed as needed. Two or more determination models may be used. In this case, an obstacle is identified based on two or more detection results corresponding to two or more determination models. In this case, a method such as a weighted average is used.

上記の動画ストリームの入力先は、動画ストリームAI処理パイプライン439の設定によって決められる。
動画ストリームAI処理パイプライン439は、周囲状況監視装置130別に設定され、動画ストリームの流れを示す。
図19から図21に、動画ストリームAI処理パイプライン439の例を示す。「Vx」の「x」はバージョン番号を示す。
図19において、路側機Aからの動画ストリームAは、汎用の物体検出モデル(V0)に流され、アノテーション部434に流され、アノテーション情報が付され、学習データの一部として学習部435に流される。そして、汎用の物体検出モデル(V0)が更新されることによって物体検出モデル(V1)が生成される。また、汎用の物体検出モデル(V0)と位置推定によって得られる検出情報がデータベース438に記録される。その後、動画ストリームAは、物体検出モデル(V1)にも流され、アノテーション部434に流され、アノテーション情報が付される。そして、動画ストリームAのアノテーション情報はデータベース438に記録される。
図20において、路側機Bからの動画ストリームBは、汎用の物体検出モデル(V0)を更新して生成された物体検出モデル(V2)に流され、アノテーション部434に流され、アノテーション情報が付される。そして、動画ストリームBのアノテーション情報に基づいて障害物の動作が推定され、推定された動作の情報を含めて障害物の検出情報がデータベース438に記録される。
図21において、ドローンDからの動画ストリームDは、汎用の道路検出モデル(V0)と汎用の道路検出モデル(V0)を更新して生成される道路検出モデル(V1)に流される。
The input destination of the above video stream is determined by the settings of the video stream AI processing pipeline 439.
The video stream AI processing pipeline 439 is set up for each surrounding situation monitoring device 130 and indicates the flow of the video stream.
19 to 21 show an example of a video stream AI processing pipeline 439. The "x" in "Vx" indicates a version number.
In Fig. 19, a video stream A from a roadside unit A is sent to a general-purpose object detection model (V0), sent to an annotation unit 434, annotation information is added, and sent to a learning unit 435 as a part of learning data. Then, an object detection model (V1) is generated by updating the general-purpose object detection model (V0). In addition, the general-purpose object detection model (V0) and detection information obtained by position estimation are recorded in a database 438. Thereafter, the video stream A is also sent to the object detection model (V1), sent to the annotation unit 434, annotation information is added, and the annotation information of the video stream A is recorded in a database 438.
20 , a video stream B from a roadside unit B is sent to an object detection model (V2) generated by updating a general-purpose object detection model (V0), and then sent to an annotation unit 434 where annotation information is added. Then, the movement of an obstacle is estimated based on the annotation information of the video stream B, and the obstacle detection information including the estimated movement information is recorded in a database 438.
In FIG. 21, a video stream D from a drone D is sent to a general-purpose road detection model (V0) and a road detection model (V1) generated by updating the general-purpose road detection model (V0).

***実施の形態6の効果***
実施の形態6により、動画ストリームを使って走行障害の判断をより正確に行うことが可能となる。
***Effects of the Sixth Embodiment***
According to the sixth embodiment, it becomes possible to more accurately judge a driving obstacle using a video stream.

***実施の形態6の補足***
自動運転管制装置400は、複数の監視制御装置300の動画像センサの情報を処理する。そのために、自動運転管制装置400は、ビデオスイッチャーを持つ。ビデオスイッチャーは、物体検出、道路検出、車線検出などの画像処理機能と学習のためのアノテーション機能との間で、動画像センサの情報の流れをスイッチングする機能を持つ。
***Additional Information about the Sixth Embodiment***
The autonomous driving control device 400 processes information from the video image sensors of the multiple monitoring control devices 300. To this end, the autonomous driving control device 400 has a video switcher. The video switcher has a function of switching the flow of information from the video image sensors between image processing functions such as object detection, road detection, and lane detection, and annotation functions for learning.

ビデオスイッチャーは、複数の監視制御装置300より得られた動画像をリアルタイム通信ストリームによって取得し、各々のストリームを必要な処理機能に分配する。
自動運転管制装置400は、ビデオスイッチャーの設定とAI処理のパイプラインの設定を行う機能を持つ。
The video switcher acquires moving images obtained from a plurality of monitor control devices 300 through a real-time communication stream, and distributes each stream to a required processing function.
The autonomous driving control device 400 has the function of setting up a video switcher and an AI processing pipeline.

ビデオスイッチャーの設定には、次のような機能がある。例えば、AIモデルを用いて各種検出と分類を行う機能、AIモデルによる検出結果を映像にする機能、学習を行うためのアノテーションを行う機能、ビデオ画像を保存する機能、ビデオ画像の画像を調整する機能などがある。これらの機能の処理順にパイプラインを記述してビデオスイッチャーの設定が定義される。 The video switcher settings include the following functions. For example, the function to perform various detections and classifications using an AI model, the function to convert the detection results by the AI model into video, the function to perform annotation for learning, the function to save video images, and the function to adjust the image of the video images. The video switcher settings are defined by describing a pipeline in the processing order of these functions.

ビデオスイッチャーによる動画ストリームAI処理パイプラインシステムは、自動運転のみならず、様々な用途に利用することが可能である。
例えば、動画ストリームAI処理パイプラインシステムは以下の用途に使用することが可能である。
(1)駐車場に対する入庫台数と出庫台数の検知
(2)駐車場に対する駐車台数の検知
(3)施設に対する入場者と退場者の検知
(4)道路に対する通行人数(上り、下り)の検知
(5)通行者に対する年齢と性別の検知
(6)通行者に対する速度の推定
(7)施設に対する立ち止り位置の検知
(8)施設に対する作業内容の検知と分類
(9)人物に対する行動の検知
The video stream AI processing pipeline system using a video switcher can be used for a variety of purposes in addition to autonomous driving.
For example, the video stream AI processing pipeline system can be used for the following purposes:
(1) Detecting the number of vehicles entering and leaving a parking lot. (2) Detecting the number of parked vehicles in a parking lot. (3) Detecting people entering and leaving a facility. (4) Detecting the number of pedestrians on a road (going up or down). (5) Detecting the age and gender of pedestrians. (6) Estimating the speed of pedestrians. (7) Detecting stopping locations at a facility. (8) Detecting and classifying work content at a facility. (9) Detecting human behavior.

実施の形態6は実施の形態2から実施の形態5の少なくともいずれかと組み合わせて実施されてもよい。 Embodiment 6 may be implemented in combination with at least one of embodiments 2 to 5.

***実施の形態の補足***
自動運転システム100は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と地図データベース110を備える。
対象移動体120は、自動運転可能な移動体である。対象移動体120は、光学センサおよびLIDERなど周辺環境を把握するセンサと、通信機能と、を持つ。
周囲状況監視装置130は、対象移動体120から独立して存在するカメラなどのセンサと、通信機能と、を持つ。
自動運転管制装置400は、対象移動体120と周囲状況監視装置130と通信可能な計算機を持つ。
地図データベース110は、監視地域とエスケープゾーンを示す地図データ111を記憶する。
対象移動体120は、計算機によって自己位置を推定し、センサによって障害物となり得る周辺のオブジェクトを検知し、障害物の位置情報を計算によって推定する。
周囲状況監視装置130は、センサによって対象移動体120と障害物となり得る周辺のオブジェクトを検知し、障害物の位置情報を計算によって推定する。
周囲状況監視装置130は、対象移動体120のセンサからは死角となる部分についての不足情報を補完する。自動運転管制装置400は、走行計画を変更するために必要な情報を生成する。対象移動体120は、オブジェクトの予測経路と対象移動体120の計画経路の交差を判定し、オブジェクトに当たらないように速度および経路などの走行計画を再計算して更新する。更新された走行計画は、制御情報に変換され対象移動体120の走行制御に利用される。
***Additional Information on the Implementation ***
The autonomous driving system 100 includes a target moving object 120, a surrounding situation monitoring device 130, an autonomous driving control device 400, and a map database 110.
The target moving object 120 is a moving object capable of autonomous driving. The target moving object 120 has sensors for detecting the surrounding environment, such as an optical sensor and a LIDAR, and a communication function.
The surrounding situation monitoring device 130 has sensors such as a camera that exists independently of the target moving object 120, and a communication function.
The autonomous driving control device 400 has a computer capable of communicating with the target moving object 120 and the surrounding situation monitoring device 130 .
The map database 110 stores map data 111 indicating surveillance areas and escape zones.
The target moving body 120 estimates its own position using a computer, detects surrounding objects that may be obstacles using sensors, and estimates the position information of the obstacles through calculation.
The surrounding situation monitoring device 130 detects the target moving body 120 and surrounding objects that may be obstacles using sensors, and estimates the position information of the obstacles through calculation.
The surroundings monitoring device 130 complements the missing information about blind spots of the sensors of the target moving body 120. The automatic driving control device 400 generates information required to change the driving plan. The target moving body 120 determines the intersection of the predicted path of the object and the planned path of the target moving body 120, and recalculates and updates the driving plan, such as the speed and path, so as not to hit the object. The updated driving plan is converted into control information and used for driving control of the target moving body 120.

自動運転システム100は、対象移動体120とドローン131と自動運転管制装置400と地図データベース110を備える。
対象移動体120は、自動運転可能な移動体である。光学センサおよびLIDERなど周辺環境を把握するセンサと、通信機能と、を持つ。
ドローン131は、飛行機能を持つ飛行体である。対象移動体120から独立して存在するカメラなどのセンサと、通信機能と、を持つ。
自動運転管制装置400は、通信機能と計算機能を持つ。自動運転管制装置400は、走行計画の立案に必要な管制データを対象移動体120へ通知する。
地図データベース110は、記憶機能と通信機能を持つ。地図データベース110は、周囲状況の確認の必要性を判定するために使用される地図データ111を記憶する。地図データ111は、監視地域とエスケープゾーンを示す。地図データベース110は、対象移動体120と周囲状況監視装置130と自動運転管制装置400と通信可能である。
ドローン131は、大きな死角がある領域への対象移動体120の接近が検知された場合に死角を視認できる位置への往復の飛行計画を立てる機能と、飛行計画を元にドローン131を制御する機能と、を持つ。
The autonomous driving system 100 includes a target moving object 120, a drone 131, an autonomous driving control device 400, and a map database 110.
The target moving object 120 is a moving object capable of autonomous driving, and has sensors such as an optical sensor and LIDAR for detecting the surrounding environment, and a communication function.
The drone 131 is an aircraft having a flying function, and has sensors such as a camera that exist independently of the target moving object 120, and a communication function.
The autonomous driving control device 400 has a communication function and a calculation function. The autonomous driving control device 400 notifies the target moving object 120 of control data required for planning a driving plan.
The map database 110 has a storage function and a communication function. The map database 110 stores map data 111 used to determine the necessity of checking the surrounding situation. The map data 111 indicates a monitoring area and an escape zone. The map database 110 is capable of communicating with the target moving object 120, the surrounding situation monitoring device 130, and the automatic driving control device 400.
The drone 131 has a function of creating a flight plan for a round trip to a position where the blind spot can be viewed when the approach of the target moving body 120 to an area with a large blind spot is detected, and a function of controlling the drone 131 based on the flight plan.

各実施の形態は、好ましい形態の例示であり、本開示の技術的範囲を制限することを意図するものではない。各実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。 Each embodiment is an example of a preferred embodiment and is not intended to limit the technical scope of the present disclosure. Each embodiment may be implemented partially or in combination with other embodiments. Procedures described using flow charts, etc. may be modified as appropriate.

車載器200と監視制御装置300と自動運転管制装置400の各要素は、ソフトウェア、ハードウェア、ファームウェアまたはこれらの組み合わせのいずれで実現されてもよい。
車載器200と監視制御装置300と自動運転管制装置400の各要素の「部」は、「処理」、「工程」、「回路」または「処理回路」と読み替えてもよい。
Each element of the in-vehicle device 200, the monitoring control device 300, and the autonomous driving control device 400 may be realized by software, hardware, firmware, or a combination of these.
The "part" of each element of the in-vehicle device 200, the monitoring control device 300, and the autonomous driving control device 400 may be read as "processing,""step,""circuit," or "processing circuit."

以下に、本開示の諸態様を付記として記載する。
(付記1)
自動運転で走行する移動体である対象移動体と、周囲状況監視装置と、自動運転管制装置と、を備える自動運転システムであり、
前記対象移動体は、
移動体センサ群と、
前記移動体センサ群によって得られ前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定し、前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信する車載器と、
を備え、
前記周囲状況監視装置は、
監視センサ群と、
前記監視要求を受信し、前記監視センサ群に前記対象移動体の周囲状況を監視させ、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信する監視制御装置と、
を備え、
前記自動運転管制装置は、前記走行状況データと前記監視データを受信し、前記対象移動体の走行障害を前記走行状況データと前記監視データに基づいて判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記車載器は、前記管制データを受信し、前記管制データと、前記移動体センサ群によって得られ前記対象移動体の周囲状況を示す周囲状況データと、に基づいて前記対象移動体の走行を制御する
自動運転システム。
Various aspects of the present disclosure are described below as appendices.
(Appendix 1)
An autonomous driving system including a target moving body that is an autonomous driving moving body, a surrounding situation monitoring device, and an autonomous driving control device,
The target moving body is
A group of mobile sensors;
an on-board device that determines whether or not monitoring by the surrounding situation monitoring device is necessary by referring to self-location data obtained by the mobile body sensor group and indicating the position of the target mobile body, and map data indicating a monitoring area set as an area in which the surrounding situation of the target mobile body should be monitored by the surrounding situation monitoring device when the target mobile body passes, and when it determines that monitoring by the surrounding situation monitoring device is necessary, transmits a monitoring request to the surrounding situation monitoring device and transmits driving situation data obtained by the mobile body sensor group and indicating the driving situation of the target mobile body to the automatic driving control device;
Equipped with
The surrounding situation monitoring device is
A monitoring sensor group;
a monitoring control device that receives the monitoring request, causes the monitoring sensor group to monitor the surrounding situation of the target moving object, and transmits monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
Equipped with
The autonomous driving control device receives the driving status data and the monitoring data, determines a driving obstacle of the target moving body based on the driving status data and the monitoring data, and transmits control data notifying the target moving body of the driving obstacle,
The vehicle-mounted device receives the control data and controls the driving of the target moving object based on the control data and surrounding condition data obtained by the group of mobile object sensors and indicating the surrounding conditions of the target moving object.

(付記2)
前記周囲状況監視装置は、自動運転で飛行する飛行体である
付記1に記載の自動運転システム。
(Appendix 2)
The surrounding situation monitoring device is an autonomous flying vehicle according to claim 1.

(付記3)
前記対象移動体は、前記飛行体が離着陸するドローンポートを備える
付記2に記載の自動運転システム。
(Appendix 3)
The autonomous driving system of claim 2, wherein the target moving body is provided with a drone port from which the aircraft takes off and lands.

(付記4)
前記車載器は、前記自己位置データと、前記監視地域を示す監視地域データと、を含めて前記監視要求を送信し、
前記監視制御装置は、前記監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行体に前記飛行経路を飛行させる付記3に記載の自動運転システム。
(Appendix 4)
the vehicle-mounted device transmits the monitoring request including the self-location data and monitoring area data indicating the monitoring area;
The monitoring control device receives the monitoring request, plans a flight path based on the self-location data and the monitored area data from taking off from the drone port to flying over the monitored area and landing at the drone port, and causes the aircraft to fly along the flight path.An autonomous driving system as described in Appendix 3.

(付記5)
前記周囲状況監視装置は、前記監視地域に設けられる路側機である
付記1に記載の自動運転システム。
(Appendix 5)
The autonomous driving system according to claim 1, wherein the surrounding situation monitoring device is a roadside unit installed in the monitoring area.

(付記6)
前記監視センサ群は、カラーセンサを含み、
前記監視制御装置は、
前記カラーセンサによって得られるカラーセンサデータに基づいて、前記対象移動体の周囲に存在する物体と、前記物体が位置する場所の平面と、を検知し、
検知した平面における前記物体の位置を推定する
付記1から付記5のいずれか1つに記載の自動運転システム。
(Appendix 6)
the monitoring sensor group includes a color sensor;
The monitoring and control device includes:
Detecting objects present around the target moving object and a plane on which the objects are located based on color sensor data obtained by the color sensor;
6. The autonomous driving system of claim 1, wherein the position of the object in a detected plane is estimated.

(付記7)
前記カラーセンサは、RGBカメラまたはRGB-Dカメラである
付記6に記載の自動運転システム。
(Appendix 7)
The autonomous driving system according to claim 6, wherein the color sensor is an RGB camera or an RGB-D camera.

(付記8)
前記自動運転管制装置は、前記対象移動体の位置から近接範囲内に前記対象移動体と対向する障害物が存在する場合に前記走行障害があると判定する
付記1から付記7のいずれか1つに記載の自動運転システム。
(Appendix 8)
The autonomous driving system of any one of appendix 1 to appendix 7, wherein the autonomous driving control device determines that a driving obstacle exists when an obstacle facing the target moving body is present within a proximity range from the position of the target moving body.

(付記9)
前記自動運転管制装置は、前記障害物が移動する物体である場合、すれ違い不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記すれ違い不可である場合、前記地図データに示されるエスケープゾーンに前記対象移動体を退避させる
付記8に記載の自動運転システム。
(Appendix 9)
When the obstacle is a moving object, the autonomous driving control device transmits the control data indicating that passing is impossible as the type of the driving obstacle to the target moving body,
The autonomous driving system according to claim 8, wherein the vehicle-mounted device causes the target moving object to retreat to an escape zone indicated in the map data when the type of the driving obstacle is such that passing is not possible.

(付記10)
前記自動運転管制装置は、前記障害物が移動しない物体である場合、通行不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記通行不可である場合、前記地図データに示されるエスケープゾーンを利用して前記対象移動体をUターンさせる
付記8または付記9に記載の自動運転システム。
(Appendix 10)
When the obstacle is a stationary object, the autonomous driving control device transmits the control data indicating impassability as the type of the driving obstacle to the target moving body,
The autonomous driving system according to claim 8 or 9, wherein the vehicle-mounted device makes the target moving body make a U-turn by utilizing an escape zone indicated in the map data when the type of the driving obstacle is the impassability.

(付記11)
前記自動運転管制装置は、前記障害物が複数存在する場合、徐行必要を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記徐行必要である場合、前記対象移動体を徐行させる
付記8から付記10のいずれか1つに記載の自動運転システム。
(Appendix 11)
When a plurality of obstacles are present, the autonomous driving control device transmits to the target moving body the control data indicating a need to slow down as a type of the driving obstacle;
The autonomous driving system according to any one of claims 8 to 10, wherein the vehicle-mounted device causes the target moving body to move slowly when the type of the driving obstacle requires the target moving body to move slowly.

(付記12)
前記自動運転管制装置は、一台以上の移動体のそれぞれから自己位置データを受信し、前記一台以上の移動体のそれぞれの自己位置データに基づいて前記障害物が前記一台以上の移動体のいずれかであるか判定し、前記障害物が前記一台以上の移動体のいずれかであると判定した場合に前記障害物である前記移動体へ前記走行障害を通知する
付記8から付記11のいずれか1つに記載の自動運転システム。
(Appendix 12)
An autonomous driving system as described in any one of Appendix 8 to Appendix 11, wherein the autonomous driving control device receives self-position data from each of one or more moving bodies, determines whether the obstacle is any of the one or more moving bodies based on the self-position data of each of the one or more moving bodies, and if it determines that the obstacle is any of the one or more moving bodies, notifies the moving body that is the obstacle of the driving disturbance.

(付記13)
前記自動運転管制装置は、一人以上の歩行者に所持される一台以上の携帯端末のそれぞれから自己位置データを受信し、前記一台以上の携帯端末のそれぞれの自己位置データに基づいて前記障害物が前記一人以上の歩行者のいずれかであるか判定し、前記障害物が前記一人以上の歩行者のいずれかであると判定した場合に前記障害物である前記歩行者の前記携帯端末へ前記走行障害を通知する
付記8から付記12のいずれか1つに記載の自動運転システム。
(Appendix 13)
The autonomous driving system according to any one of Appendix 8 to Appendix 12, wherein the autonomous driving control device receives self-location data from each of one or more mobile devices carried by one or more pedestrians, determines whether the obstacle is any of the one or more pedestrians based on the self-location data of each of the one or more mobile devices, and if it determines that the obstacle is any of the one or more pedestrians, notifies the mobile device of the pedestrian who is the obstacle of the driving obstruction.

(付記14)
前記自動運転システムは、前記周囲状況監視装置を複数備え、
それぞれの前記周囲状況監視装置の前記監視センサ群は、動画像センサを含み、
それぞれの前記周囲状況監視装置の前記監視制御装置は、前記動画像センサによって得られる動画ストリームを含めて前記監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記動画ストリームごとに、複数種類の物体検出モデルのうち送信元の前記周囲状況監視装置に対応付けられた物体検出モデルを用いて前記動画ストリームを入力にして物体検出を行い、検出された物体の検出情報をデータベースに記録し、
前記複数種類の物体検出モデルから選択された物体検出モデルである選択モデルを用いて前記動画ストリームを入力にして検出された物体の検出情報をアノテーションによって修正し、前記動画ストリームと修正された検出情報を学習して前記選択モデルを更新して新たなバージョンの物体検出モデルを生成し、
前記複数種類のバージョン別の物体検出モデルから決定された物体検出モデルである決定モデルを用いて前記動画ストリームを入力にして前記物体検出を行って、前記対象移動体の走行に対する障害物を検出する
付記1から付記13のいずれか1つに記載の自動運転システム。
(Appendix 14)
The autonomous driving system includes a plurality of the surrounding situation monitoring devices,
The group of monitoring sensors of each of the surrounding situation monitoring devices includes a video image sensor,
The monitoring control device of each of the surrounding situation monitoring devices transmits the monitoring data including the video stream obtained by the video sensor to the autonomous driving control device,
The automatic driving control device includes:
For each of the video streams, an object detection model corresponding to the surrounding situation monitoring device that is a transmission source among a plurality of types of object detection models is used to input the video stream and perform object detection, and detection information of the detected object is recorded in a database;
Using a selection model, which is an object detection model selected from the plurality of types of object detection models, the video stream is input and detection information of the detected object is corrected by annotation, and the selection model is updated by learning the video stream and the corrected detection information to generate a new version of the object detection model;
14. The autonomous driving system of claim 1, further comprising: an object detection model determined from the plurality of versions of the object detection models; an input of the video stream; and an object detection method for detecting an obstacle to the travel of the target moving body.

(付記15)
自動運転で走行する移動体である対象移動体と、周囲状況監視装置と、自動運転管制装置と、を備える自動運転システムによる自動運転方法であり、
前記対象移動体は、
前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定し、前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信し、
前記周囲状況監視装置は、
前記監視要求を受信し、前記対象移動体の周囲状況を監視し、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記対象移動体は、
前記管制データを受信し、前記管制データと、前記対象移動体の周囲状況を示す周囲状況データと、に基づいて自動運転で走行する
自動運転方法。
(Appendix 15)
An autonomous driving method using an autonomous driving system including a target moving body that is an autonomous driving moving body, a surrounding situation monitoring device, and an autonomous driving control device,
The target moving body is
determining whether or not monitoring by the surrounding situation monitoring device is necessary by referring to self-location data indicating the position of the target moving body and map data indicating a monitoring area set as an area in which the surrounding situation of the target moving body should be monitored by the surrounding situation monitoring device when the target moving body passes, and when determining that monitoring by the surrounding situation monitoring device is necessary, transmitting a monitoring request to the surrounding situation monitoring device and transmitting driving situation data indicating the driving situation of the target moving body to the automatic driving control device;
The surrounding situation monitoring device is
receiving the monitoring request, monitoring a surrounding situation of the target moving object, and transmitting monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
The automatic driving control device includes:
receiving the driving condition data and the monitoring data, determining a driving obstacle for the target moving object based on the driving condition data and the monitoring data, and transmitting control data notifying the target moving object of the driving obstacle;
The target moving body is
An autonomous driving method for receiving the control data and driving the target moving body autonomously based on the control data and surrounding condition data indicating the surrounding conditions of the target moving body.

(付記16)
自動運転で走行する移動体であり、
移動体センサ群と、
前記移動体センサ群によって得られ前記移動体の位置を示す自己位置データと、前記移動体が通行するときに前記移動体の周囲状況を周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定し、前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信し、前記走行状況データと、前記周囲状況監視装置によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信し、前記管制データと、前記移動体センサ群によって得られ前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する車載器と、
を備える移動体。
(Appendix 16)
It is a vehicle that runs autonomously,
A group of mobile sensors;
an on-board device that determines whether or not monitoring by the surrounding conditions monitoring device is necessary by referring to self-position data obtained by the mobile body sensor group and indicating the position of the mobile body, and map data indicating a monitoring area set as an area in which the surrounding conditions of the mobile body should be monitored by a surrounding conditions monitoring device when the mobile body passes, and when it determines that monitoring by the surrounding conditions monitoring device is necessary, transmits a monitoring request to the surrounding conditions monitoring device and transmits driving condition data obtained by the mobile body sensor group and indicating the driving condition of the mobile body to an automatic driving control device, receives control data from the automatic driving control device that notifies of a driving obstacle of the mobile body determined based on the driving condition data and the monitoring data obtained by the surrounding conditions monitoring device and indicating the surrounding conditions of the mobile body, and controls the driving of the mobile body based on the control data and the surrounding conditions data obtained by the mobile body sensor group and indicating the surrounding conditions of the mobile body;
A moving body comprising:

(付記17)
前記周囲状況監視装置は、自動運転で飛行する飛行体であり、
前記移動体は、前記飛行体が離着陸するドローンポートを備える
付記16に記載の移動体。
(Appendix 17)
The surrounding situation monitoring device is an autonomous flying object,
The moving body is the moving body described in Appendix 16, which is equipped with a drone port on which the air vehicle takes off and lands.

(付記18)
監視センサ群と、
自動運転で走行する対象移動体が監視地域を通行するときに前記対象移動体から監視要求を受信し、前記監視センサ群に前記対象移動体の周囲状況を監視させて前記対象移動体の周囲状況を示す監視データを得て、前記監視データを、前記監視データと、前記対象移動体の走行状況を示す走行状況データと、に基づいて判定される前記対象移動体の走行障害を前記対象移動体に通知する自動運転管制装置へ送信する監視制御装置と、
を備える周囲状況監視装置。
(Appendix 18)
A monitoring sensor group;
a monitoring control device that receives a monitoring request from a target moving body traveling autonomously when the target moving body passes through a monitoring area, causes the monitoring sensor group to monitor the surrounding conditions of the target moving body to obtain monitoring data indicating the surrounding conditions of the target moving body, and transmits the monitoring data to an autonomous driving control device that notifies the target moving body of a driving obstacle of the target moving body determined based on the monitoring data and driving condition data indicating the driving condition of the target moving body;
An ambient situation monitoring device comprising:

(付記19)
前記対象移動体は、ドローンポートを備え、
前記周囲状況監視装置は、自動運転で飛行する飛行体であり、前記ドローンポートを使って離着陸する
付記18に記載の周囲状況監視装置。
(Appendix 19)
The target moving object includes a drone port;
The surrounding situation monitoring device is an autonomous flying vehicle that takes off and lands using the drone port.

(付記20)
前記監視制御装置は、前記対象移動体の位置を示す自己位置データと、前記監視地域を示す監視地域データと、を含んだ前記監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行経路を前記飛行体に飛行させる
付記19に記載の周囲状況監視装置。
(Appendix 20)
The monitoring control device receives the monitoring request including self-location data indicating the position of the target moving body and monitoring area data indicating the monitoring area, plans a flight path from taking off from the drone port based on the self-location data and the monitoring area data, flying over the monitoring area and landing at the drone port, and flies the flying body along the flight path.The surrounding condition monitoring device described in Appendix 19.

(付記21)
前記監視地域に設けられる路側機である
付記18に記載の周囲状況監視装置。
(Appendix 21)
19. The surrounding conditions monitoring device according to claim 18, which is a roadside unit provided in the monitoring area.

(付記22)
前記監視センサ群は、カラーセンサを含み、
前記監視制御装置は、
前記カラーセンサによって得られるカラーセンサデータに基づいて、前記対象移動体の周囲に存在する物体と、前記物体が位置する場所の平面と、を検知し、
検知した平面における前記物体の位置を推定する
付記18から付記21のいずれか1つに記載の周囲状況監視装置。
(Appendix 22)
the monitoring sensor group includes a color sensor;
The monitoring and control device includes:
Detecting objects present around the target moving object and a plane on which the objects are located based on color sensor data obtained by the color sensor;
22. The surrounding situation monitoring device according to claim 18, wherein the position of the object in a detected plane is estimated.

(付記23)
前記カラーセンサは、RGBカメラまたはRGB-Dカメラである
付記22に記載の周囲状況監視装置。
(Appendix 23)
23. The surrounding situation monitoring device according to claim 22, wherein the color sensor is an RGB camera or an RGB-D camera.

(付記24)
自動運転で走行する対象移動体から、前記対象移動体の走行状況を示す走行状況データを受信し、
前記対象移動体が監視地域を通行するときに前記対象移動体から監視要求を受信して前記対象移動体の周囲状況を監視する記周囲状況監視装置から、前記対象移動体の周囲状況を示す監視データを受信し、
前記走行状況データと前記監視データに基づいて、前記対象移動体の走行障害を判定し、
前記走行障害を通知する管制データを前記対象移動体へ送信する
自動運転管制装置。
(Appendix 24)
Receiving driving status data indicating a driving status of a target moving object from the target moving object that is driving autonomously;
receiving monitoring data indicating a surrounding situation of the target moving object from a surrounding situation monitoring device which receives a monitoring request from the target moving object when the target moving object passes through a monitoring area and monitors a surrounding situation of the target moving object;
determining a traveling obstacle of the target moving object based on the traveling condition data and the monitoring data;
An automatic driving control device that transmits control data notifying the target moving body of the driving obstacle.

(付記25)
前記対象移動体の位置から近接範囲内に前記対象移動体と対向する障害物が存在する場合に前記走行障害があると判定する
付記24に記載の自動運転管制装置。
(Appendix 25)
The autonomous driving control device of claim 24, which determines that a driving obstacle exists when an obstacle facing the target moving body is present within a proximity range from the position of the target moving body.

(付記26)
前記障害物が移動する物体である場合、すれ違い不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信することによって、エスケープゾーンに前記対象移動体を退避させる
付記25に記載の自動運転管制装置。
(Appendix 26)
The autonomous driving control device of claim 25, wherein when the obstacle is a moving object, the control data indicating that passing is not possible as the type of driving obstacle is transmitted to the target moving body, thereby causing the target moving body to retreat to an escape zone.

(付記27)
前記障害物が移動しない物体である場合、通行不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信することによって、エスケープゾーンを利用して前記対象移動体をUターンさせる
付記25または付記26に記載の自動運転管制装置。
(Appendix 27)
An autonomous driving control device as described in Appendix 25 or Appendix 26, which, when the obstacle is a stationary object, causes the target moving body to make a U-turn using an escape zone by transmitting the control data to the target moving body indicating that passage is prohibited as the type of driving obstacle.

(付記28)
前記障害物が複数存在する場合、徐行必要を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信することによって、前記対象移動体を徐行させる
付記25から付記27のいずれか1つに記載の自動運転管制装置。
(Appendix 28)
An automatic driving control device as described in any one of Appendix 25 to Appendix 27, which, when multiple obstacles are present, causes the target moving body to slow down by transmitting the control data to the target moving body indicating the need to slow down as the type of driving obstacle.

(付記29)
一台以上の移動体のそれぞれから自己位置データを受信し、前記一台以上の移動体のそれぞれの自己位置データに基づいて前記障害物が前記一台以上の移動体のいずれかであるか判定し、前記障害物が前記一台以上の移動体のいずれかであると判定した場合に前記障害物である前記移動体へ前記走行障害を通知する
付記25から付記28のいずれか1つに記載の自動運転管制装置。
(Appendix 29)
An autonomous driving control device as described in any one of Appendix 25 to Appendix 28, which receives self-location data from each of one or more moving bodies, determines whether the obstacle is any of the one or more moving bodies based on the self-location data of each of the one or more moving bodies, and if it determines that the obstacle is any of the one or more moving bodies, notifies the moving body that is the obstacle of the driving disturbance.

(付記30)
一人以上の歩行者に所持される一台以上の携帯端末のそれぞれから自己位置データを受信し、前記一台以上の携帯端末のそれぞれの自己位置データに基づいて前記障害物が前記一人以上の歩行者のいずれかであるか判定し、前記障害物が前記一人以上の歩行者のいずれかであると判定した場合に前記障害物である前記歩行者の前記携帯端末へ前記走行障害を通知する
付記25から付記29のいずれか1つに記載の自動運転管制装置。
(Appendix 30)
An autonomous driving control device as described in any one of Appendix 25 to Appendix 29, which receives self-location data from each of one or more mobile devices carried by one or more pedestrians, determines whether the obstacle is any of the one or more pedestrians based on the self-location data of each of the one or more mobile devices, and if it determines that the obstacle is any of the one or more pedestrians, notifies the mobile device of the pedestrian who is the obstacle of the driving obstacle.

(付記31)
自動運転で走行する移動体の位置を示す自己位置データと、前記移動体が通行するときに前記移動体の周囲状況を周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記周囲状況監視装置による監視の要否を判定する処理と、
前記周囲状況監視装置による監視が必要であると判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信する処理と、
前記走行状況データと、前記周囲状況監視装置によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信する処理と、
前記管制データと、前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する処理と、
をコンピュータに実行させるための自動運転プログラム。
(Appendix 31)
A process of determining whether or not monitoring by the surrounding situation monitoring device is required by referring to self-location data indicating the location of a moving body traveling by automatic driving and map data indicating a monitoring area set as an area in which the surrounding situation of the moving body should be monitored by the surrounding situation monitoring device when the moving body passes;
When it is determined that monitoring by the surrounding situation monitoring device is necessary, a process of transmitting a monitoring request to the surrounding situation monitoring device and transmitting driving situation data indicating a driving situation of the moving body to an automatic driving control device;
A process of receiving control data notifying a driving obstacle of the moving body from the automatic driving control device, the control data being determined based on the driving situation data and monitoring data indicating the surrounding situation of the moving body obtained by the surrounding situation monitoring device;
A process of controlling the travel of the moving object based on the control data and surrounding situation data indicating the surrounding situation of the moving object;
An autonomous driving program that causes a computer to execute the above.

(付記32)
自動運転で走行する対象移動体が監視地域を通行するときに前記対象移動体から監視要求を受信する処理と、
監視センサ群に前記対象移動体の周囲状況を監視させて前記対象移動体の周囲状況を示す監視データを得る処理と、
前記監視データを、前記監視データと、前記対象移動体の走行状況を示す走行状況データと、に基づいて判定される前記対象移動体の走行障害を前記対象移動体に通知する自動運転管制装置へ送信する処理と、
をコンピュータに実行させるための監視プログラム。
(Appendix 32)
A process of receiving a monitoring request from a target moving object when the target moving object travels through a monitoring area while the target moving object is autonomously driven;
A process of causing a group of monitoring sensors to monitor the surroundings of the target moving object and obtaining monitoring data indicating the surroundings of the target moving object;
A process of transmitting the monitoring data to an autonomous driving control device that notifies the target moving body of a driving obstacle of the target moving body determined based on the monitoring data and driving situation data indicating the driving situation of the target moving body;
A monitoring program that causes a computer to execute the following.

(付記33)
自動運転で走行する対象移動体から、前記対象移動体の走行状況を示す走行状況データを受信する処理と、
前記対象移動体が監視地域を通行するときに前記対象移動体から監視要求を受信して前記対象移動体の周囲状況を監視する記周囲状況監視装置から、前記対象移動体の周囲状況を示す監視データを受信する処理と、
前記走行状況データと前記監視データに基づいて、前記対象移動体の走行障害を判定する処理と、
前記走行障害を通知する管制データを前記対象移動体へ送信する処理と、
をコンピュータに実行させるための管制プログラム。
(Appendix 33)
A process of receiving driving status data indicating a driving status of a target moving object from the target moving object that is driving autonomously;
receiving monitoring data indicating a surrounding situation of the target moving object from a surrounding situation monitoring device that receives a monitoring request from the target moving object when the target moving object passes through a monitoring area and monitors the surrounding situation of the target moving object;
A process of determining a traveling obstacle of the target moving object based on the traveling condition data and the monitoring data;
A process of transmitting control data notifying the target moving object of the obstacle to the target moving object;
A control program that causes a computer to execute the above.

(付記34)
自動運転で地上を走行する移動体である対象移動体と、自動運転で上空を飛行する飛行体と、自動運転管制装置と、を備える自動運転システムであり、
前記対象移動体は、
移動体センサ群と、
前記移動体センサ群によって得られ前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信する車載器と、
を備え、
前記飛行体は、
監視センサ群と、
前記監視センサ群に前記対象移動体の周囲状況を上空から監視させ、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信する監視制御装置と、
を備え、
前記自動運転管制装置は、前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記車載器は、前記管制データを受信し、前記管制データと、前記移動体センサ群によって得られ前記対象移動体の周囲状況を示す周囲状況データと、に基づいて前記対象移動体の走行を制御する
自動運転システム。
(Appendix 34)
An autonomous driving system including a target moving object that is a moving object that runs on the ground autonomously, an aircraft that flies autonomously in the sky, and an autonomous driving control device,
The target moving body is
A group of mobile sensors;
an in-vehicle device that transmits driving status data obtained by the moving body sensor group and indicating a driving status of the target moving body to the automatic driving control device;
Equipped with
The flying object is
A monitoring sensor group;
a monitoring control device that causes the monitoring sensor group to monitor the surrounding situation of the target moving object from the sky and transmits monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
Equipped with
The autonomous driving control device receives the driving status data and the monitoring data, determines a driving obstacle of the target moving object based on the driving status data and the monitoring data, and transmits control data notifying the target moving object of the driving obstacle,
The vehicle-mounted device receives the control data and controls the driving of the target moving object based on the control data and surrounding condition data obtained by the group of mobile object sensors and indicating the surrounding conditions of the target moving object.

(付記35)
前記対象移動体は、前記飛行体が離着陸するドローンポートを備える
付記34に記載の自動運転システム。
(Appendix 35)
The autonomous driving system of claim 34, wherein the target moving body is provided with a drone port from which the aircraft takes off and lands.

(付記36)
前記車載器は、監視地域を示す監視地域データと、前記移動体センサ群によって得られ前記対象移動体の位置を示す自己位置データと、を含む監視要求を送信し、
前記監視制御装置は、前記監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行経路を前記飛行体に飛行させる付記35に記載の自動運転システム。
(Appendix 36)
the vehicle-mounted device transmits a monitoring request including monitoring area data indicating a monitoring area and self-location data obtained by the mobile sensor group and indicating a location of the target mobile object;
The monitoring control device receives the monitoring request, plans a flight path based on the self-location data and the monitored area data from taking off from the drone port to flying over the monitored area and landing at the drone port, and flies the aircraft along the flight path.An autonomous driving system as described in Appendix 35.

(付記37)
自動運転で地上を走行する移動体である対象移動体と、自動運転で上空を飛行する飛行体と、自動運転管制装置と、を備える自動運転システムによる自動運転方法であり、
前記対象移動体は、
前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信し、
前記飛行体は、
前記対象移動体の周囲状況を上空から監視し、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記対象移動体は、
前記管制データを受信し、前記管制データと、前記対象移動体の周囲状況を示す周囲状況データと、に基づいて自動運転で走行する
自動運転方法。
(Appendix 37)
An autonomous driving method using an autonomous driving system including a target moving body that is a moving body that runs on the ground autonomously, an aircraft that flies autonomously in the sky, and an autonomous driving control device,
The target moving object is
Transmitting driving status data indicating a driving status of the target moving object to the automatic driving control device;
The flying object is
Monitoring the surroundings of the target moving object from the sky, and transmitting monitoring data indicating the surroundings of the target moving object to the automatic driving control device;
The automatic driving control device includes:
receiving the driving condition data and the monitoring data, determining a driving obstacle for the target moving object based on the driving condition data and the monitoring data, and transmitting control data notifying the target moving object of the driving obstacle;
The target moving object is
An autonomous driving method for receiving the control data and driving the target moving body autonomously based on the control data and surrounding condition data indicating the surrounding conditions of the target moving body.

(付記38)
自動運転で地上を走行する移動体であり、
移動体センサ群と、
前記移動体センサ群によって得られ前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信し、前記走行状況データと、自動運転で上空を飛行する飛行体によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信し、前記管制データと、前記移動体センサ群によって得られ前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する車載器と、
を備える移動体。
(Appendix 38)
It is a vehicle that travels on the ground autonomously.
A group of mobile sensors;
an on-board device that transmits driving status data indicating the driving status of the moving body obtained by the group of moving body sensors to an autonomous driving control device, receives control data from the autonomous driving control device notifying the moving body of a driving obstacle determined based on the driving status data and monitoring data indicating the surrounding status of the moving body obtained by an aircraft flying overhead by autonomous driving, and controls the driving of the moving body based on the control data and surrounding status data indicating the surrounding status of the moving body obtained by the group of moving body sensors;
A moving body comprising:

(付記39)
前記飛行体が離着陸するドローンポートを備える
付記38に記載の移動体。
(Appendix 39)
A mobile body as described in Appendix 38, comprising a drone port for the air vehicle to take off and land.

(付記40)
自動運転で上空を飛行する飛行体であり、
監視センサ群と、
前記監視センサ群に自動運転で地上を走行する対象移動体の周囲状況を上空から監視させて前記対象移動体の周囲状況を示す監視データを得て、前記監視データを、前記監視データと、前記対象移動体の走行状況を示す走行状況データと、に基づいて判定される前記対象移動体の走行障害を前記対象移動体に通知する自動運転管制装置へ送信する監視制御装置と、
を備える飛行体。
(Appendix 40)
It is an autonomous flying vehicle that flies through the sky.
A monitoring sensor group;
a monitoring control device that causes the monitoring sensor group to monitor from the sky the surrounding conditions of a target moving object traveling on the ground in an autonomous driving manner, to obtain monitoring data indicating the surrounding conditions of the target moving object, and transmits the monitoring data to an autonomous driving control device that notifies the target moving object of a traveling obstacle of the target moving object determined based on the monitoring data and traveling condition data indicating the traveling condition of the target moving object;
An aircraft equipped with the above.

(付記41)
前記対象移動体は、ドローンポートを備え、
前記飛行体は、前記ドローンポートを使って離着陸する
付記40に記載の飛行体。
(Appendix 41)
The target moving object includes a drone port;
The air vehicle of claim 40, wherein the air vehicle takes off and lands using the drone port.

(付記42)
前記監視制御装置は、監視地域を示す監視地域データと、前記対象移動体の位置を示す自己位置データと、を含む監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行経路を前記飛行体に飛行させる
付記41に記載の飛行体。
(Appendix 42)
The monitoring control device receives a monitoring request including monitoring area data indicating a monitoring area and self-location data indicating the position of the target moving body, plans a flight path from taking off from the drone port based on the self-location data and the monitoring area data, flying over the monitoring area and landing at the drone port, and flies the aircraft along the flight path.

(付記43)
自動運転で地上を走行する対象移動体から、前記対象移動体の走行状況を示す走行状況データを受信し、
自動運転で上空を飛行して前記対象移動体の周囲状況を監視する記周囲状況監視装置から、前記対象移動体の周囲状況を示す監視データを受信し、
前記走行状況データと前記監視データに基づいて、前記対象移動体の走行障害を判定し、
前記走行障害を通知する管制データを前記対象移動体へ送信する
自動運転管制装置。
(Appendix 43)
Receiving driving status data indicating a driving status of a target moving object from the target moving object traveling on the ground by autonomous driving;
receiving monitoring data indicating a surrounding situation of the target moving object from a surrounding situation monitoring device that flies above the target moving object in an autonomous driving manner and monitors a surrounding situation of the target moving object;
determining a traveling obstacle of the target moving object based on the traveling condition data and the monitoring data;
An automatic driving control device that transmits control data notifying the target moving body of the driving obstacle.

(付記44)
自動運転で地上を走行する移動体の走行状況を示す走行状況データを自動運転管制装置へ送信する処理と、
前記走行状況データと、自動運転で上空を飛行する飛行体によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信する処理と、
前記管制データと、前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する処理と、
をコンピュータに実行させるための自動運転プログラム。
(Appendix 44)
A process of transmitting driving status data indicating a driving status of a moving object traveling on the ground by autonomous driving to an autonomous driving control device;
A process of receiving control data notifying a driving obstacle of the moving body from the automatic driving control device, the control data being determined based on the driving status data and monitoring data indicating the surrounding conditions of the moving body obtained by an aircraft flying in the sky by automatic driving;
A process of controlling the travel of the moving object based on the control data and surrounding situation data indicating the surrounding situation of the moving object;
An autonomous driving program that causes a computer to execute the above.

(付記45)
自動運転で上空を飛行する飛行体に搭載される監視センサ群に自動運転で地上を走行する対象移動体の周囲状況を監視させて前記対象移動体の周囲状況を示す監視データを得る処理と、
前記監視データを、前記監視データと、前記対象移動体の走行状況を示す走行状況データと、に基づいて判定される前記対象移動体の走行障害を前記対象移動体に通知する自動運転管制装置へ送信する処理と、
をコンピュータに実行させるための監視プログラム。
(Appendix 45)
A process of having a group of monitoring sensors mounted on an aircraft flying autonomously in the sky monitor the surroundings of a target moving object traveling autonomously on the ground, thereby obtaining monitoring data indicating the surroundings of the target moving object;
A process of transmitting the monitoring data to an autonomous driving control device that notifies the target moving body of a driving obstacle of the target moving body determined based on the monitoring data and driving situation data indicating the driving situation of the target moving body;
A monitoring program that causes a computer to execute the following.

(付記46)
自動運転で地上を走行する対象移動体から、前記対象移動体の走行状況を示す走行状況データを受信する処理と、
自動運転で上空を飛行して前記対象移動体の周囲状況を監視する記周囲状況監視装置から、前記対象移動体の周囲状況を示す監視データを受信する処理と、
前記走行状況データと前記監視データに基づいて、前記対象移動体の走行障害を判定する処理と、
前記走行障害を通知する管制データを前記対象移動体へ送信する処理と、
をコンピュータに実行させるための管制プログラム。
(Appendix 46)
A process of receiving driving status data indicating a driving status of a target moving object from the target moving object traveling on the ground by autonomous driving;
A process of receiving monitoring data indicating a surrounding situation of the target moving object from a surrounding situation monitoring device that flies above the target moving object in an autonomous driving manner and monitors the surrounding situation of the target moving object;
A process of determining a traveling obstacle of the target moving object based on the traveling condition data and the monitoring data;
A process of transmitting control data notifying the target moving object of the obstacle to the target moving object;
A control program that causes a computer to execute the above.

100 自動運転システム、101 移動体、102 携帯端末、110 地図データベース、111 地図データ、120 対象移動体、121 ドローンポート、130 周囲状況監視装置、131 ドローン、200 車載器、201 プロセッサ、202 メモリ、203 補助記憶装置、204 通信装置、205 入出力インタフェース、211 監視要求部、212 管制データ取得部、213 運転制御部、220 記憶部、290 移動体センサ群、291 Depthカメラ、292 Lider、293 測位センサ、300 監視制御装置、301 プロセッサ、302 メモリ、303 補助記憶装置、304 通信装置、305 入出力インタフェース、311 要求受付部、312 監視制御部、313 監視データ生成部、314 監視データ提供部、320 記憶部、390 監視センサ群、391 Depthカメラ、392 RGBカメラ、393 カラーセンサ、400 自動運転管制装置、401 プロセッサ、402 メモリ、403 補助記憶装置、404 通信装置、405 入出力インタフェース、411 データ受付部、412 走行障害判定部、413 管制データ生成部、414 管制データ提供部、415 走行障害通知部、420 記憶部、431 スイッチャー部、432 物体検出部、433 位置推定部、434 アノテーション部、435 学習部、438 データベース、439 動画ストリームAI処理パイプライン。 100 Autonomous driving system, 101 Mobile body, 102 Mobile terminal, 110 Map database, 111 Map data, 120 Target mobile body, 121 Drone port, 130 Surrounding situation monitoring device, 131 Drone, 200 Vehicle-mounted device, 201 Processor, 202 Memory, 203 Auxiliary storage device, 204 Communication device, 205 Input/output interface, 211 Monitoring request unit, 212 Control data acquisition unit, 213 Driving control unit, 220 Memory unit, 290 Mobile body sensor group, 291 Depth camera, 292 Lidar, 293 Positioning sensor, 300 Monitoring control device, 301 Processor, 302 Memory, 303 Auxiliary storage device, 304 Communication device, 305 Input/output interface, 311 Request reception unit, 312 Monitoring control unit, 313 Monitoring data generation unit, 314 Monitoring data providing unit, 320 memory unit, 390 monitoring sensor group, 391 depth camera, 392 RGB camera, 393 color sensor, 400 autonomous driving control device, 401 processor, 402 memory, 403 auxiliary storage device, 404 communication device, 405 input/output interface, 411 data reception unit, 412 driving obstacle determination unit, 413 control data generation unit, 414 control data providing unit, 415 driving obstacle notification unit, 420 memory unit, 431 switcher unit, 432 object detection unit, 433 position estimation unit, 434 annotation unit, 435 learning unit, 438 database, 439 video stream AI processing pipeline.

Claims (18)

自動運転で走行する移動体である対象移動体と、周囲状況監視装置と、自動運転管制装置と、を備える自動運転システムであり、
前記対象移動体は、
移動体センサ群と、
前記移動体センサ群によって得られ前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記対象移動体が前記監視地域に入ったか判定し、前記対象移動体が前記監視地域に入ったと判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信する車載器と、
を備え、
前記周囲状況監視装置は、
監視センサ群と、
前記監視要求を受信し、前記監視センサ群に前記対象移動体の周囲状況を監視させ、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信する監視制御装置と、
を備え、
前記自動運転管制装置は、前記走行状況データと前記監視データを受信し、前記対象移動体の走行障害を前記走行状況データと前記監視データに基づいて判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記車載器は、前記管制データを受信し、前記管制データと、前記移動体センサ群によって得られ前記対象移動体の周囲状況を示す周囲状況データと、に基づいて前記対象移動体の走行を制御する
自動運転システム。
An autonomous driving system including a target moving body that is an autonomous driving moving body, a surrounding situation monitoring device, and an autonomous driving control device,
The target moving object is
A group of mobile sensors;
an on-board device that determines whether the target moving object has entered the monitoring area by referring to self-location data obtained by the group of moving object sensors and indicating the position of the target moving object, and map data indicating a monitoring area set as an area in which the surrounding conditions of the target moving object should be monitored by the surrounding conditions monitoring device when the target moving object passes through, and that transmits a monitoring request to the surrounding conditions monitoring device when it is determined that the target moving object has entered the monitoring area, and transmits driving condition data obtained by the group of moving object sensors and indicating the driving conditions of the target moving object to the automatic driving control device;
Equipped with
The surrounding situation monitoring device is
A monitoring sensor group;
a monitoring control device that receives the monitoring request, causes the monitoring sensor group to monitor the surrounding situation of the target moving object, and transmits monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
Equipped with
The autonomous driving control device receives the driving status data and the monitoring data, determines a driving obstacle of the target moving body based on the driving status data and the monitoring data, and transmits control data notifying the target moving body of the driving obstacle,
The vehicle-mounted device receives the control data and controls the driving of the target moving object based on the control data and surrounding condition data obtained by the group of mobile object sensors and indicating the surrounding conditions of the target moving object.
前記周囲状況監視装置は、自動運転で飛行する飛行体である
請求項1に記載の自動運転システム。
The autonomous driving system according to claim 1 , wherein the surrounding situation monitoring device is an autonomous flying vehicle.
前記対象移動体は、前記飛行体が離着陸するドローンポートを備える
請求項2に記載の自動運転システム。
The autonomous driving system of claim 2 , wherein the target moving body is provided with a drone port from which the aircraft takes off and lands.
前記車載器は、前記自己位置データと、前記監視地域を示す監視地域データと、を含めて前記監視要求を送信し、
前記監視制御装置は、前記監視要求を受信し、前記自己位置データと前記監視地域データに基づいて前記ドローンポートを離陸してから前記監視地域の上空を飛行して前記ドローンポートに着陸するまでの飛行経路を立案し、前記飛行体に前記飛行経路を飛行させる請求項3に記載の自動運転システム。
the vehicle-mounted device transmits the monitoring request including the self-location data and monitoring area data indicating the monitoring area;
The autonomous driving system of claim 3, wherein the monitoring control device receives the monitoring request, plans a flight path based on the self-location data and the monitored area data from taking off from the drone port to flying over the monitored area and landing at the drone port, and causes the aircraft to fly along the flight path.
前記周囲状況監視装置は、前記監視地域に設けられる路側機である
請求項1に記載の自動運転システム。
The autonomous driving system according to claim 1 , wherein the surrounding situation monitoring device is a roadside unit installed in the monitoring area.
前記監視センサ群は、カラーセンサを含み、
前記監視制御装置は、
前記カラーセンサによって得られるカラーセンサデータに基づいて、前記対象移動体の周囲に存在する物体と、前記物体が位置する場所の平面と、を検知し、
検知した平面における前記物体の位置を推定し、前記対象移動体の周囲に存在する各物体の位置を示すデータを前記監視データとして生成する
請求項1から請求項5のいずれか1項に記載の自動運転システム。
the monitoring sensor group includes a color sensor;
The monitoring and control device includes:
Detecting objects present around the target moving object and a plane on which the objects are located based on color sensor data obtained by the color sensor;
The autonomous driving system according to any one of claims 1 to 5, wherein the position of the object on the detected plane is estimated, and data indicating the position of each object existing around the target moving body is generated as the monitoring data.
前記カラーセンサは、RGBカメラまたはRGB-Dカメラである
請求項6に記載の自動運転システム。
The autonomous driving system according to claim 6, wherein the color sensor is an RGB camera or an RGB-D camera.
前記自動運転管制装置は、前記対象移動体の位置から近接範囲内に前記対象移動体と対向する障害物が存在する場合に前記走行障害があると判定する
請求項1に記載の自動運転システム。
The autonomous driving system according to claim 1 , wherein the autonomous driving control device determines that a driving obstacle exists when an obstacle facing the target moving body is present within a proximity range from the position of the target moving body.
前記自動運転管制装置は、前記障害物が移動する物体である場合、すれ違い不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記すれ違い不可である場合、前記地図データに示されるエスケープゾーンに前記対象移動体を退避させる
請求項8に記載の自動運転システム。
When the obstacle is a moving object, the autonomous driving control device transmits the control data indicating that passing is impossible as the type of the driving obstacle to the target moving body,
The autonomous driving system according to claim 8 , wherein the vehicle-mounted device causes the target moving object to retreat to an escape zone indicated in the map data when the type of the driving obstacle is the non-passing obstacle.
前記自動運転管制装置は、前記障害物が移動しない物体である場合、通行不可を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記通行不可である場合、前記地図データに示されるエスケープゾーンを利用して前記対象移動体をUターンさせる
請求項8または請求項9に記載の自動運転システム。
When the obstacle is a stationary object, the autonomous driving control device transmits the control data indicating impassability as the type of the driving obstacle to the target moving body,
The autonomous driving system according to claim 8 or 9, wherein the vehicle-mounted device makes the target moving object make a U-turn by utilizing an escape zone indicated in the map data when the type of the driving obstacle is the impassability.
前記自動運転管制装置は、前記障害物が複数存在する場合、徐行必要を前記走行障害の種類として示す前記管制データを前記対象移動体へ送信し、
前記車載器は、前記走行障害の種類が前記徐行必要である場合、前記対象移動体を徐行させる
請求項8または請求項9に記載の自動運転システム。
When a plurality of obstacles are present, the autonomous driving control device transmits to the target moving body the control data indicating a need to slow down as a type of the driving obstacle;
The autonomous driving system according to claim 8 or claim 9, wherein the vehicle-mounted device makes the target moving object move slowly when the type of the driving obstacle requires the target moving object to move slowly.
前記自動運転管制装置は、一台以上の移動体のそれぞれから自己位置データを受信し、
前記一台以上の移動体のそれぞれの自己位置データに基づいて前記障害物が前記一台以上の移動体のいずれかであるか判定し、前記障害物が前記一台以上の移動体のいずれかであると判定した場合に前記障害物である前記移動体へ前記走行障害を通知する
請求項8または請求項9に記載の自動運転システム。
The autonomous driving control device receives self-position data from each of one or more moving bodies,
An autonomous driving system as described in claim 8 or claim 9, which determines whether the obstacle is any of the one or more moving bodies based on the self-position data of each of the one or more moving bodies, and if it determines that the obstacle is any of the one or more moving bodies, notifies the moving body that is the obstacle of the driving obstruction.
前記自動運転管制装置は、一人以上の歩行者に所持される一台以上の携帯端末のそれぞれから自己位置データを受信し、前記一台以上の携帯端末のそれぞれの自己位置データに基づいて前記障害物が前記一人以上の歩行者のいずれかであるか判定し、前記障害物が前記一人以上の歩行者のいずれかであると判定した場合に前記障害物である前記歩行者の前記携帯端末へ前記走行障害を通知する
請求項8または請求項9に記載の自動運転システム。
The autonomous driving system according to claim 8 or claim 9, wherein the autonomous driving control device receives self-location data from each of one or more mobile devices carried by one or more pedestrians, determines whether the obstacle is any of the one or more pedestrians based on the self-location data of each of the one or more mobile devices, and if it determines that the obstacle is any of the one or more pedestrians, notifies the mobile device of the pedestrian who is the obstacle of the driving obstruction.
前記自動運転システムは、前記周囲状況監視装置を複数備え、
それぞれの前記周囲状況監視装置の前記監視センサ群は、動画像センサを含み、
それぞれの前記周囲状況監視装置の前記監視制御装置は、前記動画像センサによって得られる動画ストリームを含めて前記監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記動画ストリームごとに、複数種類の物体検出モデルのうち送信元の前記周囲状況監視装置に対応付けられた物体検出モデルを用いて前記動画ストリームを入力にして物体検出を行い、検出された物体の検出情報をデータベースに記録し、
前記動画ストリームをディスプレイに表示し、前記自動運転管制装置に入力されるアノテーション情報を受け取り、前記複数種類の物体検出モデルから選択された物体検出モデルである選択モデルを用いて前記動画ストリームを入力にして検出された物体の検出情報を前記アノテーション情報に基づいて修正し、前記動画ストリームと修正された検出情報を学習して前記選択モデルを更新して新たなバージョンの物体検出モデルを生成し、
前記複数種類のバージョン別の物体検出モデルのうち前記自動運転管制装置に対して指定された物体検出モデルである決定モデルを用いて前記動画ストリームを入力にして前記物体検出を行って、前記対象移動体の走行に対する障害物を検出する
請求項1に記載の自動運転システム。
The autonomous driving system includes a plurality of the surrounding situation monitoring devices,
The group of monitoring sensors of each of the surrounding situation monitoring devices includes a video image sensor,
The monitoring control device of each of the surrounding situation monitoring devices transmits the monitoring data including the video stream obtained by the video sensor to the autonomous driving control device,
The automatic driving control device includes:
For each of the video streams, an object detection model corresponding to the surrounding situation monitoring device that is a transmission source among a plurality of types of object detection models is used to input the video stream and perform object detection, and detection information of the detected object is recorded in a database;
displaying the video stream on a display, receiving annotation information input to the autonomous driving control device, correcting detection information of an object detected by inputting the video stream using a selection model that is an object detection model selected from the plurality of types of object detection models based on the annotation information , learning the video stream and the corrected detection information to update the selection model and generate a new version of the object detection model;
The autonomous driving system according to claim 1, wherein the video stream is input and the object detection is performed using a decision model, which is an object detection model designated for the autonomous driving control device among the multiple types of version-based object detection models, to detect obstacles to the travel of the target moving body.
自動運転で走行する移動体である対象移動体と、周囲状況監視装置と、自動運転管制装置と、を備える自動運転システムによる自動運転方法であり、
前記対象移動体は、
前記対象移動体の位置を示す自己位置データと、前記対象移動体が通行するときに前記対象移動体の周囲状況を前記周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記対象移動体が前記監視地域に入ったか判定し、前記対象移動体が前記監視地域に入ったと判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記対象移動体の走行状況を示す走行状況データを前記自動運転管制装置へ送信し、
前記周囲状況監視装置は、
前記監視要求を受信し、前記対象移動体の周囲状況を監視し、前記対象移動体の周囲状況を示す監視データを前記自動運転管制装置へ送信し、
前記自動運転管制装置は、
前記走行状況データと前記監視データを受信し、前記走行状況データと前記監視データに基づいて前記対象移動体の走行障害を判定し、前記走行障害を通知する管制データを前記対象移動体へ送信し、
前記対象移動体は、
前記管制データを受信し、前記管制データと、前記対象移動体の周囲状況を示す周囲状況データと、に基づいて自動運転で走行する
自動運転方法。
An autonomous driving method using an autonomous driving system including a target moving body that is an autonomous driving moving body, a surrounding situation monitoring device, and an autonomous driving control device,
The target moving body is
a monitoring device that monitors the surrounding conditions of the target moving object when the target moving object passes through the target moving object and the surrounding conditions monitoring device; and a monitoring request is transmitted to the surrounding conditions monitoring device when the target moving object is determined to have entered the monitoring area, and driving condition data indicating the driving condition of the target moving object is transmitted to the automatic driving control device;
The surrounding situation monitoring device is
receiving the monitoring request, monitoring a surrounding situation of the target moving object, and transmitting monitoring data indicating the surrounding situation of the target moving object to the autonomous driving control device;
The automatic driving control device includes:
receiving the driving condition data and the monitoring data, determining a driving obstacle for the target moving object based on the driving condition data and the monitoring data, and transmitting control data notifying the target moving object of the driving obstacle;
The target moving body is
An autonomous driving method for receiving the control data and driving the target moving body autonomously based on the control data and surrounding condition data indicating the surrounding conditions of the target moving body.
自動運転で走行する移動体であり、
移動体センサ群と、
前記移動体センサ群によって得られ前記移動体の位置を示す自己位置データと、前記移動体が通行するときに前記移動体の周囲状況を周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記移動体が前記監視地域に入ったか判定し、前記移動体が前記監視地域に入ったと判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体センサ群によって得られ前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信し、前記走行状況データと、前記周囲状況監視装置によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信し、前記管制データと、前記移動体センサ群によって得られ前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する車載器と、
を備える移動体。
It is a vehicle that runs autonomously,
A group of mobile sensors;
an on-board device that determines whether the moving body has entered the monitoring area by referring to self-location data obtained by the moving body sensor group and indicating the position of the moving body, and map data indicating a monitoring area set as an area in which the surrounding conditions of the moving body should be monitored by a surrounding conditions monitoring device when the moving body passes through, and when it is determined that the moving body has entered the monitoring area, transmits a monitoring request to the surrounding conditions monitoring device, and transmits driving condition data obtained by the moving body sensor group and indicating the driving conditions of the moving body to an automatic driving control device, receives control data from the automatic driving control device that notifies of a driving obstacle of the moving body determined based on the driving condition data and the monitoring data obtained by the surrounding conditions monitoring device and indicating the surrounding conditions of the moving body, and controls the driving of the moving body based on the control data and the surrounding conditions data obtained by the moving body sensor group and indicating the surrounding conditions of the moving body;
A moving body comprising:
前記周囲状況監視装置は、自動運転で飛行する飛行体であり、
前記移動体は、前記飛行体が離着陸するドローンポートを備える
請求項16に記載の移動体。
The surrounding situation monitoring device is an autonomous flying object,
The mobile body according to claim 16 , wherein the mobile body is provided with a drone port on which the air vehicle takes off and lands.
自動運転で走行する移動体の位置を示す自己位置データと、前記移動体が通行するときに前記移動体の周囲状況を周囲状況監視装置によって監視すべき地域として設定された監視地域を示す地図データと、を参照して前記移動体が前記監視地域に入ったか判定する処理と、
前記移動体が前記監視地域に入ったと判定したときに、監視要求を前記周囲状況監視装置へ送信すると共に、前記移動体の走行状況を示す走行状況データを自動運転管制装置へ送信する処理と、
前記走行状況データと、前記周囲状況監視装置によって得られ前記移動体の周囲状況を示す監視データと、に基づいて判定される前記移動体の走行障害を通知する管制データを前記自動運転管制装置から受信する処理と、
前記管制データと、前記移動体の周囲状況を示す周囲状況データと、に基づいて前記移動体の走行を制御する処理と、
をコンピュータに実行させるための自動運転プログラム。
A process of determining whether the moving body has entered a monitoring area by referring to self-location data indicating the location of the moving body traveling by autonomous driving and map data indicating a monitoring area set as an area in which the surrounding situation of the moving body should be monitored by a surrounding situation monitoring device when the moving body passes through the monitoring area;
a process of transmitting a monitoring request to the surrounding situation monitoring device and transmitting driving situation data indicating a driving situation of the moving object to an automatic driving control device when it is determined that the moving object has entered the monitoring area;
A process of receiving control data notifying a driving obstacle of the moving body from the automatic driving control device, the control data being determined based on the driving situation data and monitoring data indicating the surrounding situation of the moving body obtained by the surrounding situation monitoring device;
A process of controlling the travel of the moving object based on the control data and surrounding situation data indicating the surrounding situation of the moving object;
An autonomous driving program that causes a computer to execute the above.
JP2024085672A 2024-05-27 2024-05-27 AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM Active JP7643678B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024085672A JP7643678B1 (en) 2024-05-27 2024-05-27 AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024085672A JP7643678B1 (en) 2024-05-27 2024-05-27 AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM

Publications (1)

Publication Number Publication Date
JP7643678B1 true JP7643678B1 (en) 2025-03-11

Family

ID=94922003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024085672A Active JP7643678B1 (en) 2024-05-27 2024-05-27 AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM

Country Status (1)

Country Link
JP (1) JP7643678B1 (en)

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104117A (en) 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
WO2006121088A1 (en) 2005-05-10 2006-11-16 Olympus Corporation Image processing device, image processing method, and image processing program
JP2007263886A (en) 2006-03-29 2007-10-11 Aisin Aw Co Ltd Navigation device
WO2017068692A1 (en) 2015-10-22 2017-04-27 日産自動車株式会社 Display control method and display control device
US20180188738A1 (en) 2016-12-29 2018-07-05 Igor Tatourian Detection of traffic dynamics and road changes in autonomous driving
WO2018146882A1 (en) 2017-02-08 2018-08-16 住友電気工業株式会社 Information providing system, server, mobile terminal, and computer program
WO2019064490A1 (en) 2017-09-29 2019-04-04 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JP2019161613A (en) 2018-03-16 2019-09-19 本田技研工業株式会社 Drone system and control method of drone system
JP2020027645A (en) 2018-08-08 2020-02-20 住友電気工業株式会社 Server, wireless communication method, computer program, and on-vehicle device
WO2020071072A1 (en) 2018-10-02 2020-04-09 住友電気工業株式会社 Information provision system, mobile terminal, information provision method, and computer program
JP2021086347A (en) 2019-11-27 2021-06-03 京セラ株式会社 Traffic communication system, roadside machine, and teacher data generation method
JP2021135802A (en) 2020-02-27 2021-09-13 コイト電工株式会社 Road-to-vehicle communication device, road-to-vehicle communication method and road-to-vehicle communication system
JP2021182280A (en) 2020-05-19 2021-11-25 マツダ株式会社 Surroundings monitoring system of vehicle
JP2022110448A (en) 2021-01-18 2022-07-29 京セラ株式会社 Driving support system, vehicle, imaging device
JP2022119106A (en) 2021-02-03 2022-08-16 パナソニックIpマネジメント株式会社 Vehicle and drive support device
JP2023028975A (en) 2021-08-20 2023-03-03 トヨタ自動車株式会社 Automatic parking lot management system, automatic parking lot management method, and program
WO2023170768A1 (en) 2022-03-08 2023-09-14 日本電気株式会社 Control device, monitoring system, control method, and non-transitory computer-readable medium
JP2024105053A (en) 2023-01-25 2024-08-06 トヨタ自動車株式会社 Remote support system and remote support method

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104117A (en) 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
WO2006121088A1 (en) 2005-05-10 2006-11-16 Olympus Corporation Image processing device, image processing method, and image processing program
JP2007263886A (en) 2006-03-29 2007-10-11 Aisin Aw Co Ltd Navigation device
WO2017068692A1 (en) 2015-10-22 2017-04-27 日産自動車株式会社 Display control method and display control device
US20180188738A1 (en) 2016-12-29 2018-07-05 Igor Tatourian Detection of traffic dynamics and road changes in autonomous driving
WO2018146882A1 (en) 2017-02-08 2018-08-16 住友電気工業株式会社 Information providing system, server, mobile terminal, and computer program
WO2019064490A1 (en) 2017-09-29 2019-04-04 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JP2019161613A (en) 2018-03-16 2019-09-19 本田技研工業株式会社 Drone system and control method of drone system
JP2020027645A (en) 2018-08-08 2020-02-20 住友電気工業株式会社 Server, wireless communication method, computer program, and on-vehicle device
WO2020071072A1 (en) 2018-10-02 2020-04-09 住友電気工業株式会社 Information provision system, mobile terminal, information provision method, and computer program
JP2021086347A (en) 2019-11-27 2021-06-03 京セラ株式会社 Traffic communication system, roadside machine, and teacher data generation method
JP2021135802A (en) 2020-02-27 2021-09-13 コイト電工株式会社 Road-to-vehicle communication device, road-to-vehicle communication method and road-to-vehicle communication system
JP2021182280A (en) 2020-05-19 2021-11-25 マツダ株式会社 Surroundings monitoring system of vehicle
JP2022110448A (en) 2021-01-18 2022-07-29 京セラ株式会社 Driving support system, vehicle, imaging device
JP2022119106A (en) 2021-02-03 2022-08-16 パナソニックIpマネジメント株式会社 Vehicle and drive support device
JP2023028975A (en) 2021-08-20 2023-03-03 トヨタ自動車株式会社 Automatic parking lot management system, automatic parking lot management method, and program
WO2023170768A1 (en) 2022-03-08 2023-09-14 日本電気株式会社 Control device, monitoring system, control method, and non-transitory computer-readable medium
JP2024105053A (en) 2023-01-25 2024-08-06 トヨタ自動車株式会社 Remote support system and remote support method

Similar Documents

Publication Publication Date Title
US11462022B2 (en) Traffic signal analysis system
CN109164809B (en) Autonomous following control system and method for vehicle formation
EP3644294B1 (en) Vehicle information storage method, vehicle travel control method, and vehicle information storage device
CN107339997B (en) Autonomous vehicle path planning device and method
US20200241526A1 (en) Method and device for remote-controlling autonomous vehicle capable of changing driving mode between autonomous driving mode and manual driving mode
US20230020040A1 (en) Batch control for autonomous vehicles
US20180056998A1 (en) System and Method for Multi-Vehicle Path Planning Technical Field
EP3333662B1 (en) Tele-operated vehicle, and vehicle control device and control method thereof
US11679780B2 (en) Methods and systems for monitoring vehicle motion with driver safety alerts
US11861915B2 (en) Pipeline architecture for road sign detection and evaluation
US20190278286A1 (en) Vehicle control device, vehicle control method, and storage medium
US11260875B2 (en) Systems and methods for road surface dependent motion planning
US20220242440A1 (en) Methods and system for generating a lane-level map for an area of interest for navigation of an autonomous vehicle
CN115071749A (en) Vehicle control device, vehicle control method, and storage medium
US11891093B2 (en) Control device, control method, and storage medium for controlling a mobile device along a conditions-varying travel path
JP2023044333A (en) Vehicle control device, vehicle control method and computer program for vehicle control
JP2023541322A (en) Annotation and mapping for vehicle behavior in low confidence object detection conditions
JP7643678B1 (en) AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, MOBILE BODY, AND AUTONOMOUS DRIVING PROGRAM
US20240367650A1 (en) Multi-vehicle adaptive cruise control as a constrained distance bound
US11755469B2 (en) System for executing structured tests across a fleet of autonomous vehicles
US20250058780A1 (en) Cost map fusion for lane selection
JP7621854B2 (en) Mobility support device and mobility support method
US20240067222A1 (en) Vehicle controller, vehicle control method, and vehicle control computer program for vehicle control
JP7643476B2 (en) Vehicle control device, vehicle control method, and vehicle control computer program
US20240025446A1 (en) Motion planning constraints for autonomous vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240527

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240527

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20240718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20240718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250217