JP2020204839A - 外部環境認識装置 - Google Patents
外部環境認識装置 Download PDFInfo
- Publication number
- JP2020204839A JP2020204839A JP2019111349A JP2019111349A JP2020204839A JP 2020204839 A JP2020204839 A JP 2020204839A JP 2019111349 A JP2019111349 A JP 2019111349A JP 2019111349 A JP2019111349 A JP 2019111349A JP 2020204839 A JP2020204839 A JP 2020204839A
- Authority
- JP
- Japan
- Prior art keywords
- thinning
- unit
- vehicle
- data
- external environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 74
- 238000012545 processing Methods 0.000 claims abstract description 61
- 230000007613 environmental effect Effects 0.000 claims abstract description 16
- 230000033001 locomotion Effects 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 28
- 238000003384 imaging method Methods 0.000 claims description 19
- 230000007423 decrease Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 39
- 230000006399 behavior Effects 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 11
- 238000013135 deep learning Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/932—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】運転者の快適さを損なわずに、運転者の意図を反映した制御を実現する。【解決手段】外部環境認識装置は、外部環境信号を受信する物理層111と、物理層111で受信された外部環境信号を基にデータ列を構築する論理層112と、データ列から自律移動体外部の環境データを生成する環境データ生成部121と、環境データを基に、自律移動体の移動シーンを判定する移動シーン判定部131と、移動シーン判定部131で判定された移動シーンに応じた間引き方法を決定し、データ列または環境データの少なくとも一方の間引き処理をする間引き処理部132とを備える。【選択図】図2
Description
ここに開示された技術は、自律移動体に用いられる外部環境認識装置に関する技術分野に属する。
近年、外部環境を認識して移動や走行、飛行等(以下、総称して単に「移動」ともいう)を行う自律移動体に関する研究開発等が進められている。これらの自律移動体では、カメラ等のセンサデバイスを用いて、外部の環境を認識し、その認識結果を基に移動方向、移動速度等が決定される。このような自律移動体では、センサデバイスで取得されたデータの量や精度が、その動作精度に影響を与える。例えば、センサデバイスとしてカメラについて例を挙げると、カメラの台数を増やしたり高精度のカメラを用いる等により、撮影可能範囲を拡大したり、撮影画質やフレームレートを高めることで、自律移動の動作精度を高めることができる。特に、自動運転機能を有する自動車のように、相対的に移動速度が速い状況でも十分な安全性を担保する観点から、高画質の画像データを相対的に短い時間で解析し、処理することが望まれる。一方で、高画質画像、高フレームレート画像では、扱うデータ量が多くなり、データを処理する演算処理装置への負荷が大きくなり放熱等の問題が発生するおそれがある。したがって、演算処理装置では、処理データ量が少ないことが望まれる。
そこで、例えば、撮影画像データのうちの一部のフレームを間引くことが考えられるが、むやみに画像データを間引くと、自律移動体の制御性能が低下する恐れがある。
特許文献1には、検出精度等を極力落とすことなく画像解析の処理負荷の軽減を図ることを目的として、各フレームの画像における監視範囲の全体領域を複数の小領域に区画化し、全体領域の中で特定の位置に存在する複数の区画の画像だけを解析対象として、現フレームの画像と前フレームの画像との比較により動きベクトルを検出する障害物検出装置が開示されている。
特許文献2には、撮像手段によって得た道路画像の全体について画像情報を間引きして処理する第1の画像処理手段と、撮像手段によって得た道路画像の一部領域について画像情報を間引きせずに処理する第2の画像処理手段とを、状況に応じて選択的に使用する車両用後側方監視装置が開示されている。
しかしながら、特許文献1,2のような方法を用いた場合には、自律移動体の移動に必要な情報を間引き処理によって失う恐れがある。
例えば、特許文献1の技術では、画像の解析処理の負荷を減らすためには、各フレームにおける解析対象のブロック数を減らす必要があるが、そうすると、各フレームの中で解析できないブロックが増加することになる。解析精度をある程度高めるために、各フレームにおける解析対象のブロック数を確保することもできるが、そうすると、処理負荷の低減量が少なくなる。
また、特許文献2の技術は、道路画像の全体については、間引き処理を実施していることから、例えば、第2の画像処理手段で画像処理を行っている以外の領域において、自律移動体の移動に必要な情報を間引き処理によって失う恐れがある。
ここに開示された技術は、斯かる点に鑑みてなされたものであり、その目的とするとこは、自律移動体の移動に必要な情報をなるべく失わずに、演算装置の処理の負荷を軽減することにある。
前記課題を解決するために、ここに開示された技術の一態様では、車両の走行を制御する外部環境認識装置を対象として、前記自律移動体外部の環境情報を取得する外部情報取得手段から当該環境情報が含まれる外部環境信号を受信する物理層と、前記物理層で受信された外部環境信号を基にデータ列を構築する論理層と、前記データ列から前記自律移動体外部の環境データを生成する環境データ生成部と、前記環境データを基に、前記自律移動体の移動シーンを判定する移動シーン判定部と、前記移動シーン判定部で判定された移動シーンに応じた間引き方法を決定し、前記データ列または前記環境データの少なくとも一方の間引き処理をする間引き処理部とを備える、という構成とした。
また、ここに開示された技術の他の態様では、外部環境認識装置を対象として、前記自律移動体外部を撮像する撮像デバイスの撮像信号を受信する物理層と、前記物理層で受信された撮像信号からデータ列を構築する論理層と、前記データ列から画像データを生成する画像データ生成部と、前記自律移動体外部の環境情報を取得する外部情報取得手段からの出力を基に、移動シーンを判定する移動シーン判定部と、前記移動シーン判定部で判定された移動シーンに応じた間引き方法を決定し、前記データ列及び前記画像データの少なくとも一方の間引き処理をする間引き処理部とを備える、という構成とした。
これらの構成によると、走行シーン判定部で走行シーンを判定し、その判定結果を基にして決定された間引き方法により間引き処理を行うようにしている。すなわち、どのような走行シーンのデータであるかということが分かった段階、換言すると、間引いても問題がない状況のデータなのか否かが分かった段階で、間引き処理をすることができる。これにより、必要な情報をなるべく失うことなく、演算装置で処理をするデータ量を削減することができ、演算装置の処理の負荷を軽減することができる。
前記移動シーン判定部は、前記自律移動体の移動シーンとして、前記自律移動体の移動速度を判定し、前記間引き処理部では、前記間引き方法として、前記移動速度が遅くなるのにしたがって前記間引き処理の間引き率が高くなるように構成されていてもよい。
これにより、自律移動体が低速で移動している場合における、過剰なデータ処理を回避することができる。
前記間引き処理部は、前記移動シーン判定部が、前記移動シーンとして前記自律移動体としての車両が駐停車動作をしていると判定した場合に、前記間引き方法として、前記車両の通常移動時と比較して前記間引き処理の間引き率を高くする、という構成でもよい。
これにより、車両の駐停車時における、過剰なデータ処理を回避することができる。
以上説明したように、ここに開示された技術によると、移動シーンに応じた間引き方法で間引き処理をするので、自律移動体の移動に必要な情報をなるべく失わずに、演算装置の処理の負荷を軽減することができる。
以下、例示的な実施形態について、図面を参照しながら詳細に説明する。なお、以下の実施形態では、自律移動体として自動運転機能を有する自動車を例に挙げて説明する。ただし、本開示に係る外部環境認識装置が適用できる自律移動体は、自動車に限定されるものではなく、例えば、自律移動型の走行ロボット、掃除機、ドローン等に適用することが可能である。
図1は、本実施形態に係る車両10の制御系の構成を概略的に示すブロック図である。車両10は、アシスト運転及び自動運転ができるように構成されている。
本実施形態において、車両10は、アシスト運転及び自動運転を可能にするために、センサデバイス20からの出力や、車外のネットワークから受けた情報に基づいて、車両10が走行すべき経路を算出するとともに、該経路を追従するための車両10の運動を決定する演算装置100を有する。演算装置100は、1つ又は複数のチップで構成されたマイクロプロセッサであって、CPUやメモリ等を有している。なお、図1においては、本実施形態に係る経路生成機能を発揮するための構成を中心に示しており、演算装置100が有する全ての機能を示しているわけではない。
演算装置100に情報を出力するセンサデバイス20は、例えば、(1)車両10のボディ等に設けられかつ車外環境を撮影する複数のカメラ21、(2)車両10のボディ等に設けられかつ車外の物標等を検知する複数のレーダ22、(3)全地球測位システム(Global Positioning System:GPS)を利用して、車両10の位置(車両位置情報)を検出する位置センサ23、(4)車速センサ、加速度センサ、ヨーレートセンサ等の車両の挙動を検出するセンサ類の出力から構成され車両10の状態を取得する車両状態センサ24、(5)車内カメラ等により構成され、車両10の乗員の状態を取得する乗員状態センサ25、(6)運転者の運転操作を検出するための運転操作情報取得部26、を含む。また、演算装置100には、車外のネットワークと接続された車外通信部30を介して自車両10の周囲に位置する他車両からの通信情報やナビゲーションシステムからの交通情報が入力される。
各カメラ21は、車両10の周囲を水平方向に360°撮影できるようにそれぞれ配置されている。各カメラ21は、生成した画像データを演算装置100に出力する。
具体的に、各カメラ21は、演算装置100と通信するカメラ側通信部210と、CCD(Charged Coupled devices)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を用いて車外環境を示す光学画像を撮像して画像データを生成する撮像部215とを備えている。
図2に示すように、カメラ側通信部210は、撮像部215で生成された画像データから、データ列(例えば、通信規格等に準拠したデータ列)を構築する論理層211と、論理層で構築されたデータ列を通信可能な信号形態(例えば、アナログ信号)に変換して演算装置100に出力する物理層212とを備えている。なお、カメラ側通信部210の論理層211及び物理層212の具体的な構成は、例えば、通信規格(送信側の規格)等に準拠して作成された回路構成のように、一般的に知られている構成を用いることができるので、ここではその詳細説明を省略する。カメラ21は、車両10の走行シーンの情報を取得するための外部情報取得手段の一例であり、車両10の外部を撮像する撮像デバイスの一例である。
各カメラ21が取得した画像データは、演算装置100以外にも、HMI(Human Machine Interface)ユニット70に入力される。HMIユニット70は、取得した画像データに基づく情報を車内のディスプレイ装置等に表示する。
各レーダ22は、カメラ21と同様に、検出範囲が車両10の周囲を水平方向に360°広がるようにそれぞれ配置されている。レーダ22の種類が特に限定されず、例えば、ミリ波レーダを採用することができる。レーダ22は、車両10の走行シーンの情報を取得するための外部情報取得手段の一例である。なお、具体的な図示は省略するが、各レーダ22が、撮像が可能に構成されたイメージングレーダーやレーザーレーダーであってもよい。そして、各レーダ22が、上記のカメラ21と同様に、画像データを生成し、論理層及び物理層を有するセンサ側通信部を介して、画像データを演算装置100のPU側通信部110に出力するように構成されていてもよい。その場合、レーダ22は、車両10の車外環境の撮像するための撮像デバイスに相当する。
演算装置100は、カメラ21やレーダ22等のセンサデバイス20からの出力や、車外のネットワークから受けた情報に基づいて、車両10の目標運動を決定し、決定された目標運動を実現するための駆動力、制動力、操舵量を算出し、算出結果をエンジンやブレーキ等を制御するコントロールユニット80に出力するように構成されている。
図1に示すように、演算装置100は、車両10の目標運動を設定するために、カメラ21等のセンサ側通信部の出力を受信するためのPU側通信部110と、PU側通信部110の出力を基にして車外環境を認識する車外環境認識部120と、車外環境認識部120で認識された車外環境に応じて、車両10が走行可能な1つ又は複数の候補経路を算出する候補経路生成部151と、車両状態センサ24からの出力を基にして車両10の挙動を推定する車両挙動推定部152と、乗員状態センサ25からの出力を基にして、車両10の乗員の挙動を推定する乗員挙動推定部153と、車両10が走行すべき経路を決定する経路決定部154と、経路決定部154が設定した経路を追従するための車両10の目標運動を決定する車両運動決定部155とを有する。
さらに、図2に示すように、演算装置100は、車両10の走行シーンを判定する走行シーン判定部131と、走行シーン判定部131で判定された走行シーンに応じた間引き方法を決定し、その間引き方法に基づく間引き処理を実行する間引き処理部132とを備える。
〈PU側通信部〉
PU側通信部110は、カメラ21やレーダ22等の撮像デバイスから、撮像デバイスで撮像された撮像情報が含まれる撮像信号を受け、画像データを形成するためのデータ列を構築して、車外環境認識部120に出力する。PU側通信部110は、例えば、カメラ21やレーダ22と1対1で接続するように、カメラ21やレーダ22と同じ数が設けられている。
PU側通信部110は、カメラ21やレーダ22等の撮像デバイスから、撮像デバイスで撮像された撮像情報が含まれる撮像信号を受け、画像データを形成するためのデータ列を構築して、車外環境認識部120に出力する。PU側通信部110は、例えば、カメラ21やレーダ22と1対1で接続するように、カメラ21やレーダ22と同じ数が設けられている。
図2に示すように、各PU側通信部110は、撮像デバイスから撮像信号を受信する物理層111と、物理層111で受信された撮像信号から画像データを形成するためのデータ列を構築する論理層112とを備えている。各PU側通信部110では、論理層112が、データ列を構築し、後述する間引き処理部から「データ間引き」の指示があった場合、構築されたデータ列から一部のデータを間引いて出力するように構成されている。なお、「データの間引き」の動作の具体的例については後ほど説明する。また、PU側通信部110の物理層111及びデータ間引き部以外の論理層112の具体的な構成は、例えば、通信規格(受信側の規格)等に準拠して作成された回路構成のように、一般的に知られている構成を用いることができるので、ここではその詳細説明を省略する。
PU側通信部110の物理層111、論理層112は、それぞれ、外部環境認識装置の物理層、論理層の一例である。
〈車外環境認識部〉
車外環境認識部120は、各PU側通信部110からの出力を基に車外環境を認識するものであり、画像データ生成部121と、物体認識部122と、マップ生成部123と、環境認識部124とを備える。
車外環境認識部120は、各PU側通信部110からの出力を基に車外環境を認識するものであり、画像データ生成部121と、物体認識部122と、マップ生成部123と、環境認識部124とを備える。
画像データ生成部121は、PU側通信部110から出力されたデータ列から画像データを生成する。換言すると、画像データ生成部121は、カメラ21やレーダ22(例えば、イメージレーダ)で撮像された画像データを復元したり、カメラ21やレーダ22での撮像結果を基に画像データを再生成する処理を行う。なお、画像データの生成は、一般的な方法を使用できるので、ここではその詳細説明を省略する。
物体認識部122は、画像データ生成部121で生成された画像データや、レーダ22から受けた反射波のピークリスト等を基に、車外の物体が何であるかを認識する。例えば、物体認識部122は、上記の画像データやピークリスト等によって車外の物体を検知し、演算装置100に格納されているデータベース等にある識別情報等を用いて、車外の物体が何であるかを識別し、「車外の物体情報」として認識する。さらに、物体認識部122は、レーダ71の出力を受けており、上記「車外の物体情報」として、車両1の周辺に存在する物標の位置や速度等を含む「物標の測位情報」を取得している。なお、ニューラルネットワークなどにより車外の物体が何であるかを識別するようにしてもよい。また、各センサからの出力情報によりその位置と速度などを把握するようにしてもよい。
マップ生成部123は、物体認識部122で認識された車外の物体情報を基にして、車両10の周囲の3次元情報と車外環境モデルとを対照することにより、道路および障害物を含む車外環境を認識し、それをマップにする処理を行う。車外環境モデルは、例えば深層学習によって生成された学習済みモデルであって、車両周囲の3次元情報に対して、道路や障害物等を認識することができる。なお、マップ生成部123は、周囲の3次元もしくは2次元マップ、またはその両方を生成するように構成されていてもよい。
具体的に、例えば、マップ生成部123は、物体認識部122で認識された車外の物体情報を基にして、フリースペースすなわち物体が存在しない領域を特定する。ここでの処理には、例えば深層学習によって生成された学習済みモデルが利用される。そして、マップ生成部123は、フリースペースを表す2次元のマップを生成する。また、マップ生成部123は、物標の測位情報を利用して、車両10の周囲を表す3次元マップを生成する。ここでは、カメラ21の設置位置および撮像方向の情報、レーダ22の設置位置および送信方向の情報が用いられる。
環境認識部124では、マップ生成部123で生成された3次元マップと、車外環境モデルとを対比することによって、道路及び障害物を含む車外環境を認識する。なお、深層学習では、多層ニューラルネットワーク(DNN:Deep Neural Network)が用いられる。多層ニューラルネットワークとして、例えば、CNN(Convolutional Neural Network)がある。
なお、マップ生成部123によるマップの生成は、深層学習を使用しない方法であってもよい。例えば、マップ生成部123が認識された物体を、深層学習を使わずに、3次元乃至2次元に配置するように構成されていてもよい。
車外環境認識部120で認識された車外環境の情報は、候補経路生成部151及び走行シーン判定部131に出力される。候補経路生成部151では、車外環境認識部120の出力、位置センサ23の出力、及び車外通信部30を介して外部ネットワーク等から受信された情報等を基にして、車両10が走行可能な候補経路を生成する。
車外環境認識部120の画像データ生成部121及びマップ生成部123は、外部環境認識装置の環境データ生成部の一例である。
〈走行シーン判定部〉
走行シーン判定部131は、車外環境認識部120で生成されたマップ情報、道路及び障害物を含む車外環境情報、位置センサ23の検出結果、車外通信部30を介して外部ネットワーク等から受信された情報のうちの少なくとも1つの情報を基にして、車両10の走行シーンを判定する。位置センサ23を含むセンサデバイス20及び車外通信部30は、外部情報取得手段の一例である。
走行シーン判定部131は、車外環境認識部120で生成されたマップ情報、道路及び障害物を含む車外環境情報、位置センサ23の検出結果、車外通信部30を介して外部ネットワーク等から受信された情報のうちの少なくとも1つの情報を基にして、車両10の走行シーンを判定する。位置センサ23を含むセンサデバイス20及び車外通信部30は、外部情報取得手段の一例である。
車両10の走行シーンの判定として、例えば、車両10が走行している走行場所や走行状況等の判定が含まれる。例えば、走行シーンの判定として、カメラ21等で撮像された情報に基づいて、周囲の車両や人の多さや混雑状況等を確認することで車両10が現在走行している走行シーンを判定してもよいし、位置センサ23やカーナビゲーションの情報、外部ネットワークからの情報等を基に、市街地、郊外、高速道路等のように走行場所で走行シーンを判定してもよい。
走行シーン判定部131は、外部環境認識装置の移動シーン判定部の一例である。
なお、上記の説明において、車外環境認識部120から環境認識部124を省いてもよい。この場合に、例えば、物体認識部122により、障害物や道路構成物を認識(分類)し、その認識結果を基に周辺の道路環境を把握し、走行シーン判定部131において、マップ生成部123で生成されたマップ情報と、物体認識部122での認識結果と、を基に、走行シーンを判定するようにしてもよい。
〈間引き処理部〉
間引き処理部132は、走行シーン判定部131で判定された走行シーンに応じた間引き方法を決定し、論理層112で構築されたデータ列及び画像データ生成部で生成された画像データの少なくとも一方の間引き処理をする。図2では、間引き処理部132が論理層112で構築されたデータ列の間引き処理をする例を示している。
間引き処理部132は、走行シーン判定部131で判定された走行シーンに応じた間引き方法を決定し、論理層112で構築されたデータ列及び画像データ生成部で生成された画像データの少なくとも一方の間引き処理をする。図2では、間引き処理部132が論理層112で構築されたデータ列の間引き処理をする例を示している。
図2の例では、間引き処理部132は、間引き方法の決定に関し、(1)テンプレートに基づいた決定手段と、(2)AIを用いた決定手段とを有しており、外部のモード制御信号に基づいて、いずれか一方の決定方法を選択するように構成されている。ただし、間引き方法の決定の仕方は、特に限定されず、(1),(2)いずれか一方の方法を用いる等、他の方法を用いるようにしてもよい。
「(1)テンプレートに基づいた決定手段」では、例えば、走行シーン判定部131で判定された走行シーンと、それぞれの走行シーンに対応する間引き方法とがリスト化されたテンプレートを有し、走行シーン判定部131からの出力に応じて間引き方法を決定する。間引き方法は、従来から知られている各種の間引き方法を採用することができ、特に限定されないが、例えば、間引く対象が画像の場合に、画像の間引く領域や各領域の間引き率、フレーム毎に間引くのか否か、フレーム毎に間引く場合の間引き率等が含まれる。
「(2)AIを用いた決定手段」では、例えば深層学習によって生成された学習済みモデルを利用することができる。
論理層112でデータを間引く方法は、特に限定されないが、例えば、データ列がパケット毎に分離されている場合に、例えば、各パケットに、重要度や間引いて良いか否かのフラグを立て、そのフラグに基づいて間引いたり、データ列再構築後に再構築されたデータを特定の周期で特定の期間、タイマーなどを用いて間引いてもよい。画像データを間引く方法については、従来から知られている種々の方法があり、それらを適宜採用することができるので、ここではその詳細説明を省略する。
また、間引き処理を行うフェーズについても特に限定されるものではない。例えば、図2に示すように、PU側通信部110の論理層112で間引くようにしてもよいし、それよりも上位のレイヤで間引くようにしてもよい。また、車外環境認識部120の画像データ生成の過程で間引き処理をしてもよいし、物体認識部122での物体認識過程や、マップ生成部123でのマップ生成過程で間引き処理をするようにしてもよい。また、マップ生成部123で、逐次マップの更新がされているような場合に、マップ情報に対して間引き処理をするようにしてもよい。
間引き処理部132は、外部環境認識装置の間引き処理部の一例である。なお、外部環境認識装置の間引き処理部の一部が、他のブロック内に設けられていてもよい。例えば、論理層112で構築されたデータ列から間引き処理をする場合に、間引き処理部の一部がPU側通信部110の論理層112に設けられていてもよい。
(外部環境認識装置の動作)
次に、図3,4のフローチャートを参照しつつ、外部環境認識装置の動作について説明する。なお。図3では、説明の便宜上、わかりやすいように、演算装置100のPU通信部の後段のブロックを、間引き処理系と経路生成系とに分けて図示しているが、本図面に発明の範囲を限定する意図はない。
次に、図3,4のフローチャートを参照しつつ、外部環境認識装置の動作について説明する。なお。図3では、説明の便宜上、わかりやすいように、演算装置100のPU通信部の後段のブロックを、間引き処理系と経路生成系とに分けて図示しているが、本図面に発明の範囲を限定する意図はない。
まず、センサデバイス20及び演算装置100が起動され(ステップS10)、カメラ21での撮像が開始され(ステップS11)、カメラ21からカメラ側通信部210に撮像データが送られる。
ステップS12において、カメラ側通信部210は、撮像データを受け、その撮像データを送信可能な形態の撮像信号に変換し、PU側通信部110に出力する。具体的には、カメラ側通信部210の論理層211で撮像データを送信可能な形式のデータ列に変換したり、符号化等の処理を行い、物理層212でデジタル−アナログ変換して、PU側通信部110に出力する。
PU側通信部110では、物理層111で撮像信号を受信し(ステップS21)、アナログ−デジタル変換して、論理層112で復号化やデータ列の構築を行い(ステップS22)、車外環境認識部120に出力する。
次のステップS23では、車外環境認識部120において、論理層112から受けたデータ列を基に、画像データの生成から車外環境の認識までの処理を行い、認識された車外環境の情報が、候補経路生成部151及び走行シーン判定部131に出力される。候補経路生成部151では、車外環境認識部120から受けた車外環境の情報を基に、車両10が走行可能な1つ又は複数の候補経路が算出される。
ステップS24において、走行シーン判定部131は、車外環境認識部120から受けた車外環境の情報を基に、走行シーンを判定する。次のステップS25では、間引き処理部132は、走行シーンに応じた間引き方法を決定する。
例えば、走行シーン判定部131は、カメラ21で撮像された画像データや、位置センサ23による自車両の位置情報、車外のネットワークから受けた情報等に基づいて、走行シーンとして、自車両10が走行している場所や状況を判定する。そして、間引き処理部132において、走行シーン判定部131が判定した場所や状況に応じた間引き方法を決定する。
より具体的に、例えば、郊外や高速道路を単独で走行している場合のように、周囲に障害物が少なく、また、人が飛び出しているような可能性が低いような場合に、間引き方法として、相対的に間引き率を高くする、としてもよい。一方で、市街地を走行する場合のように、周囲に注意すべき事象が多いことが想定されるような場合に、間引き方法として、相対的に間引き率を低くする、としてもよい。
また、例えば、走行シーン判定部131は、車両状態センサ24からの出力を基に、車両10の走行速度を判定し、間引き処理部132は、間引き方法として、移動速度が遅くなるのにしたがって間引き処理の間引き率が高くなるように設定する処理を行うようにしてもよい。例えば、車両が徐行運転をしているような場合には、間引き率を相対的に高く設定する一方で、市街地等を通常に走行している場合には、間引き率が相対的に低くなるように設定する、としてもよい。これにより、車両10の低速で走行している場合における過剰なデータ処理を回避することができる。一方で、車両10が高速で走行している場合には、間引き率を相対的に低く設定するので、安全走行に必要な情報をなるべく失わずに経路生成等の処理を行うことができる。
また、例えば、走行シーン判定部131が、車両10が駐停車動作をしていると判定した場合に、間引き処理部132は、間引き方法として、通常の走行時と比較して、間引き処理の間引き率を高くするようにしてもよい。駐停車時には、比較的走行速度が遅いことが多いので、間引き率を高くすることで、車両10の駐停車時における過剰なデータ処理を回避することができる。また、例えば、車両10の駐停車時に、バックをしている場合等は、前方を撮像しているカメラ21からの画像データの間引き率を他のカメラの画像と比較して高めることにより、過剰なデータ処理を回避するようにしてもよい。また、明らかに車両左側に車道/歩道/路側帯などがなく、物体が存在する確率が非常に低い場合は、車両左側における間引き率を上げてもよい。
次のステップS26では、間引き処理部132は、決定した間引き方法を示す間引き制御信号を間引き対象となるブロックに送信する。図2の例では、間引き処理部132は、PU側通信部110の論理層112に、間引き制御信号を送信する。PU側通信部110の論理層112では、間引き制御信号に基づいたデータ間引きを実施し、それ以降、間引きされたデータが、車外環境認識部120に出力される。
図4は、外部環境認識装置の動作に注目して作成したフローチャートである。図4において、図3と対応するフローには、共通の符号を付しており、以下の説明では、共通点についての説明を省略する場合がある。
図4では、間引き方法が適宜変更される場合について示しており、走行シーン判定部131による走行シーンの判定と、間引き処理部132による間引き方法の決定との間に、間引き方法の変更があったかどうかの確認を行う処理(ステップS28)が追加されている。
例えば、走行シーン判定部131による走行シーンの判定が前回の判定結果と異なっていた場合(ステップS28でYES)、フローは、前述のステップS25に進み、変更された走行シーンに応じた間引き方法が決定され、間引き処理が実行される。一方で、間引き処理方法に変更がない場合には、フローがステップS23に戻るようになっている。
図1に戻り、以下において、候補経路生成部151よりも後段のブロックについて、簡単に説明する。
車両挙動推定部152は、車速センサ、加速度センサ、ヨーレートセンサ等の車両の挙動を検出するセンサ類の出力から、車両の状態を推定する。車両挙動推定部152は、車両の挙動を示す車両6軸モデルを生成する。
乗員挙動推定部153は、乗員状態センサ25の検出結果から、特に、運転者の健康状態や感情を推定する。健康状態としては、例えば、健康、軽い疲労、体調不良、意識低下等がある。感情としては、例えば、楽しい、普通、退屈、イライラ、不快等がある。
経路決定部154は、乗員挙動推定部153の出力に基づいて、車両10が走行すべき経路を決定する。候補経路生成部151が生成した経路が1つである場合には、経路決定部154は当該経路を車両10が走行すべき経路とする。候補経路生成部151が生成した経路が複数ある場合には、乗員挙動推定部153の出力を考慮して、例えば、複数の候補経路のうち乗員(特に運転者)が最も快適と感じる経路、すなわち、障害物を回避するに当たって慎重過ぎるなどの冗長さを運転者に感じさせない経路を選択する。
車両運動決定部155は、経路決定部154が決定した走行経路について、目標運動を決定する。目標運動とは、走行経路を追従するような操舵および加減速のことをいう。また、車両運動決定部155は、車両6軸モデルを参照して、経路決定部154が選択した走行経路について、車体の動きを演算する。
物理量算出部は、目標運動を達成するための駆動力、制動力、操舵量を算出するものであり、駆動力算出部161、制動力算出部162、及び操舵量算出部163で構成されている。駆動力算出部161は、目標運動を達成するために、パワートレイン装置(エンジン及びトランスミッション)が生成すべき目標駆動力を算出する。制動力算出部162は、目標運動を達成するために、ブレーキ装置が生成すべき目標制動力を算出する。操舵量算出部163は、目標運動を達成するために、ステアリング装置が生成すべき目標操舵量を算出する。
周辺機器動作設定部170は、車両運動決定部155の出力に基づいて、ランプやドアなどの車両10のボディ関係のデバイスの動作を設定する。なお、デバイスには、自動車が走行する際や駐停車している際に制御されるアクチュエータやセンサ等の装置類が含まれる。
〈演算装置の出力先〉
演算装置100での演算結果は、コントロールユニット80及びボディ系マイコン60に出力される。コントロールユニット80は、パワートレインマイコン81、ブレーキマイコン82、ステアリングマイコン83で構成される。具体的に、パワートレインマイコン81には、駆動力算出部161が算出した目標駆動力に関する情報が入力され、ブレーキマイコン82には、制動力算出部162が算出した目標制動力に関する情報が入力され、ステアリングマイコン83には、操舵量算出部163が算出した目標操舵量に関する情報が入力され、ボディ系マイコン60には、周辺機器動作設定部140が設定したボディ関係の各デバイスの動作に関する情報が入力される。なお、ステアリングマイコン83は、電動パワーステアリング(EPAS)用のマイコンを含む。
演算装置100での演算結果は、コントロールユニット80及びボディ系マイコン60に出力される。コントロールユニット80は、パワートレインマイコン81、ブレーキマイコン82、ステアリングマイコン83で構成される。具体的に、パワートレインマイコン81には、駆動力算出部161が算出した目標駆動力に関する情報が入力され、ブレーキマイコン82には、制動力算出部162が算出した目標制動力に関する情報が入力され、ステアリングマイコン83には、操舵量算出部163が算出した目標操舵量に関する情報が入力され、ボディ系マイコン60には、周辺機器動作設定部140が設定したボディ関係の各デバイスの動作に関する情報が入力される。なお、ステアリングマイコン83は、電動パワーステアリング(EPAS)用のマイコンを含む。
以上をまとめると、本実施形態の外部環境認識装置は、カメラ21からの撮像信号を受信する物理層111と、物理層111で受信された撮像信号を基にデータ列を構築する論理層112とを有するPU側通信部110と、論理層112で構築されたデータ列から車両10外部の画像データを生成する画像データ生成部121と、画像データを基に、車両10の走行シーンを判定する走行シーン判定部131と、走行シーン判定部131で判定された走行シーンに応じた間引き方法を決定し、データ列または画像データの少なくとも一方の間引き処理をする間引き処理部132とを備える。
このように、外部環境認識装置において、走行シーン判定部131で走行シーンを判定し、その判定結果を基にして決定された間引き方法により間引き処理を行うようにしている。すなわち、どのような走行シーンのデータであるかということが分かった段階、換言すると、間引いても問題がない状況のデータなのか否かが分かった段階で、不要部分がある場合に、その部分を間引き処理をすることができるので、必要な情報を失うことなく、演算装置で処理をするデータ量を削減することができる。
なお、データ列の間引き処理は、データ列を構築した場所、例えば、上記実施形態では、論理層112に限定されず、それよりも後段のレイヤやブロック等で実行されてもよい。画像データについても同様である。
また、間引き処理に関し、車両周辺の特定の領域のデータを間引くようにしてもよい。例えば、車両の左側に物体が存在する可能性が極めて低い場合に、その領域の間引き率を上げるようにしてもよい。
また、上記の実施形態では、車両10の外部環境をカメラ21で撮像された画像を基に認識するものとしたが、これに限定されない。例えば、カメラ21で撮像された画像に加えて、または、代えて、車外通信部30を介した車外通信により外部ネットワークから交差点情報や特定の道路構造情報等を含む外部環境情報を受け取るようにしてもよい。
ここに開示された技術は、自律移動体の外部環境を認識する外部環境認識装置として有用である。
10 車両
21 カメラ(撮像デバイス、外部情報取得手段)
100 演算装置
111 物理層
112 論理層
121 画像データ生成部(環境データ生成部)
131 走行シーン判定部(移動シーン判定部)
132 間引き処理部
21 カメラ(撮像デバイス、外部情報取得手段)
100 演算装置
111 物理層
112 論理層
121 画像データ生成部(環境データ生成部)
131 走行シーン判定部(移動シーン判定部)
132 間引き処理部
Claims (4)
- 自律移動体の外部環境を認識する外部環境認識装置であって、
前記自律移動体外部の環境情報を取得する外部情報取得手段から当該環境情報が含まれる外部環境信号を受信する物理層と、
前記物理層で受信された外部環境信号を基にデータ列を構築する論理層と、
前記データ列から前記自律移動体外部の環境データを生成する環境データ生成部と、
前記環境データを基に、前記自律移動体の移動シーンを判定する移動シーン判定部と、
前記移動シーン判定部で判定された移動シーンに応じた間引き方法を決定し、前記データ列または前記環境データの少なくとも一方の間引き処理をする間引き処理部とを備える
ことを特徴とする外部環境認識装置。 - 自律移動体の外部環境を認識するための外部環境認識装置であって、
前記自律移動体外部を撮像する撮像デバイスの撮像信号を受信する物理層と、
前記物理層で受信された撮像信号からデータ列を構築する論理層と、
前記データ列から画像データを生成する画像データ生成部と、
前記自律移動体外部の環境情報を取得する外部情報取得手段からの出力を基に、移動シーンを判定する移動シーン判定部と、
前記移動シーン判定部で判定された移動シーンに応じた間引き方法を決定し、前記データ列及び前記画像データの少なくとも一方の間引き処理をする間引き処理部とを備える
ことを特徴とする外部環境認識装置。 - 請求項1または2に記載の外部環境認識装置において、
前記移動シーン判定部は、前記自律移動体の移動シーンとして、前記自律移動体の移動速度を判定し、
前記間引き処理部では、前記間引き方法として、前記移動速度が遅くなるのにしたがって前記間引き処理の間引き率が高くなるように構成されている
ことを特徴とする外部環境認識装置。 - 請求項1または2に記載の外部環境認識装置において、
前記間引き処理部は、前記移動シーン判定部が、前記移動シーンとして前記自律移動体としての車両が駐停車動作をしていると判定した場合に、前記間引き方法として、前記車両の通常移動時と比較して前記間引き処理の間引き率を高くする
ことを特徴とする外部環境認識装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019111349A JP2020204839A (ja) | 2019-06-14 | 2019-06-14 | 外部環境認識装置 |
CN202080037648.XA CN113853639A (zh) | 2019-06-14 | 2020-03-13 | 外部环境识别装置 |
EP20821717.4A EP3985642A4 (en) | 2019-06-14 | 2020-03-13 | OUTDOOR ENVIRONMENT RECOGNITION DEVICE |
PCT/JP2020/011260 WO2020250519A1 (ja) | 2019-06-14 | 2020-03-13 | 外部環境認識装置 |
US17/617,310 US20220222936A1 (en) | 2019-06-14 | 2020-03-13 | Outside environment recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019111349A JP2020204839A (ja) | 2019-06-14 | 2019-06-14 | 外部環境認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020204839A true JP2020204839A (ja) | 2020-12-24 |
Family
ID=73781763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019111349A Pending JP2020204839A (ja) | 2019-06-14 | 2019-06-14 | 外部環境認識装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220222936A1 (ja) |
EP (1) | EP3985642A4 (ja) |
JP (1) | JP2020204839A (ja) |
CN (1) | CN113853639A (ja) |
WO (1) | WO2020250519A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022133643A (ja) * | 2021-03-02 | 2022-09-14 | 立山科学株式会社 | 車両管理システム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210130330A (ko) * | 2020-04-21 | 2021-11-01 | 삼성전자주식회사 | 호스트 차량을 제어하는 전자 장치 및 이의 동작 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233478A (ja) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | 接近報知システム、並びにそれに用いる車載機及び携帯端末 |
JP2018142268A (ja) * | 2017-02-28 | 2018-09-13 | 株式会社東芝 | 車両画像処理装置、及び、車両画像処理システム |
JP2019087969A (ja) * | 2017-11-10 | 2019-06-06 | 株式会社トヨタマップマスター | 走行現調支援装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4287532B2 (ja) | 1999-03-01 | 2009-07-01 | 矢崎総業株式会社 | 車両用後側方監視装置 |
JP5235319B2 (ja) * | 2007-03-26 | 2013-07-10 | 株式会社タイトー | 移動体の速度に応じてゲーム内経過時間を調整するゲーム機 |
JP2010262357A (ja) | 2009-04-30 | 2010-11-18 | Alpine Electronics Inc | 障害物検出装置および障害物検出方法 |
DE102013210263A1 (de) * | 2013-06-03 | 2014-12-04 | Robert Bosch Gmbh | Belegungskarte für ein Fahrzeug |
JP6786920B2 (ja) * | 2016-07-12 | 2020-11-18 | 株式会社デンソー | 監視システム、車載器、センタ装置、および監視方法 |
DE102016213494A1 (de) * | 2016-07-22 | 2018-01-25 | Conti Temic Microelectronic Gmbh | Kameravorrichtung sowie Verfahren zur Erfassung eines Umgebungsbereichs eines eigenen Fahrzeugs |
JP2018066620A (ja) * | 2016-10-18 | 2018-04-26 | 古河電気工業株式会社 | レーダ装置およびレーダ装置の制御方法 |
DE102017108348B3 (de) * | 2017-04-20 | 2018-06-21 | Valeo Schalter Und Sensoren Gmbh | Konfiguration eines Sensorsystems mit einem neuronalen Netzwerk für ein Kraftfahrzeug |
JP6998554B2 (ja) * | 2017-09-12 | 2022-01-18 | パナソニックIpマネジメント株式会社 | 画像生成装置及び画像生成方法 |
-
2019
- 2019-06-14 JP JP2019111349A patent/JP2020204839A/ja active Pending
-
2020
- 2020-03-13 CN CN202080037648.XA patent/CN113853639A/zh active Pending
- 2020-03-13 US US17/617,310 patent/US20220222936A1/en not_active Abandoned
- 2020-03-13 EP EP20821717.4A patent/EP3985642A4/en not_active Withdrawn
- 2020-03-13 WO PCT/JP2020/011260 patent/WO2020250519A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233478A (ja) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | 接近報知システム、並びにそれに用いる車載機及び携帯端末 |
JP2018142268A (ja) * | 2017-02-28 | 2018-09-13 | 株式会社東芝 | 車両画像処理装置、及び、車両画像処理システム |
JP2019087969A (ja) * | 2017-11-10 | 2019-06-06 | 株式会社トヨタマップマスター | 走行現調支援装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022133643A (ja) * | 2021-03-02 | 2022-09-14 | 立山科学株式会社 | 車両管理システム |
JP7438547B2 (ja) | 2021-03-02 | 2024-02-27 | 立山科学株式会社 | 車両管理システム |
Also Published As
Publication number | Publication date |
---|---|
EP3985642A4 (en) | 2022-08-03 |
CN113853639A (zh) | 2021-12-28 |
WO2020250519A1 (ja) | 2020-12-17 |
EP3985642A1 (en) | 2022-04-20 |
US20220222936A1 (en) | 2022-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11789445B2 (en) | Remote control system for training deep neural networks in autonomous machine applications | |
US11755025B2 (en) | Guiding vehicles through vehicle maneuvers using machine learning models | |
US20230418299A1 (en) | Controlling autonomous vehicles using safe arrival times | |
JP7139717B2 (ja) | 車両用通信装置、車両用通信方法、及び制御プログラム | |
CN112989914B (zh) | 具有自适应加权输入的注视确定机器学习系统 | |
US11590929B2 (en) | Systems and methods for performing commands in a vehicle using speech and image recognition | |
CN113767389A (zh) | 从用于自主机器应用的经变换的真实世界传感器数据模拟逼真的测试数据 | |
CN113968215A (zh) | 用于人行横道风险评估和方向警告的系统和方法 | |
CN114450724A (zh) | 用于自主机器应用的多活动者环境中的未来轨迹预测 | |
WO2020188928A1 (ja) | データ通信に基づいて意思決定を行うシステム | |
WO2019077999A1 (ja) | 撮像装置、画像処理装置、及び、画像処理方法 | |
CN114270294A (zh) | 使用眩光作为输入的注视确定 | |
JP2023126642A (ja) | 情報処理装置、情報処理方法、及び、情報処理システム | |
JP2019137185A (ja) | 車両制御システム、車両制御方法、およびプログラム | |
US20240257508A1 (en) | Information processing device, information processing method, and program | |
JP7363890B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020250519A1 (ja) | 外部環境認識装置 | |
JP7409309B2 (ja) | 情報処理装置と情報処理方法とプログラム | |
JP7363118B2 (ja) | 外部環境認識装置 | |
JP2021018636A (ja) | 車両遠隔指示システム | |
JP7296899B2 (ja) | 車両用制御装置 | |
WO2022059489A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7559748B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2024201858A1 (ja) | 運転支援装置、運転支援方法、およびプログラム | |
JP2024044611A (ja) | 推定装置、推定方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230502 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230516 |