JP2022182094A - Mobile body control device, mobile body control method, and program - Google Patents
Mobile body control device, mobile body control method, and program Download PDFInfo
- Publication number
- JP2022182094A JP2022182094A JP2021089427A JP2021089427A JP2022182094A JP 2022182094 A JP2022182094 A JP 2022182094A JP 2021089427 A JP2021089427 A JP 2021089427A JP 2021089427 A JP2021089427 A JP 2021089427A JP 2022182094 A JP2022182094 A JP 2022182094A
- Authority
- JP
- Japan
- Prior art keywords
- marking
- lane
- lane marking
- information
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/25—Data precision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/40—High definition maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、移動体制御装置、移動体制御方法、およびプログラムに関する。 The present invention relates to a mobile body control device, a mobile body control method, and a program.
近年、車両の走行を自動的に制御する自動運転に関する研究が進められている。これに関連して、車両が走行している車線の区画線が検出されていた状態から区画線が検出されない状態になった場合、過去に検出された区画線の位置に基づいて仮想区画線を推定し、推定された仮想区画線に対して自車両が所定の位置となるように自車両の走行を制御する技術が知られている(例えば、特許文献1参照)。 In recent years, research on automatic driving that automatically controls the running of a vehicle has been progressing. In relation to this, when lane markings for the lane in which the vehicle is traveling go from being detected to being undetected, the virtual lane markings are changed based on the positions of previously detected lane markings. A technique is known for estimating and controlling the travel of the own vehicle so that the own vehicle is at a predetermined position with respect to the estimated virtual lane marking (see, for example, Patent Document 1).
しかしながら、過去に検出された区画線の位置が、そのまま継続しているとは限らないため、実際とは異なる区画線を認識してしまう場合があった。 However, since the positions of previously detected lane markings do not always continue as they are, there are cases where lane markings that are different from the actual lane markings are recognized.
本発明の態様は、このような事情を考慮してなされたものであり、移動体が通行する領域を区画する区画線の認識精度をより向上させることができる移動体制御装置、移動体制御方法、およびプログラムを提供することである。 Aspects of the present invention have been made in consideration of such circumstances, and provide a moving body control apparatus and a moving body control method capable of further improving the recognition accuracy of lane markings that demarcate an area through which a moving body passes. , and to provide programs.
この発明に係る移動体制御装置、移動体制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る移動体制御装置は、外界センサの出力に基づいて移動体の周辺状況を認識する認識部と、前記認識部により認識された周辺状況に基づいて前記移動体が通行する領域を区画する区画線を認識する区画線認識部と、を備え、前記区画線認識部は、前記区画線の認識精度が低下した状態であると判定された場合に、前記周辺状況から所定領域を抽出し、抽出した前記所定領域内におけるエッジを抽出し、抽出した結果に基づいて前記区画線を認識する、移動体制御装置である。
A moving body control device, a moving body control method, and a program according to the present invention employ the following configurations.
(1): A mobile body control device according to an aspect of the present invention includes a recognition unit that recognizes a surrounding situation of a mobile body based on an output of an external sensor, and a moving body based on the surrounding situation recognized by the recognition unit. a lane marking recognition unit that recognizes a lane marking that divides an area through which a body passes, wherein the lane marking recognition unit recognizes the surrounding area when it is determined that the recognition accuracy of the lane marking is degraded. The moving body control device extracts a predetermined area from a situation, extracts edges in the extracted predetermined area, and recognizes the marking line based on the extracted result.
(2):上記(1)の態様において、前記区画線認識部により前記区画線の認識精度が低下した状態であると判定される前の前記区画線に関する情報を記憶部に記憶させる記憶制御部を更に備え、前記区画線認識部は、前記所定領域から抽出されたエッジに基づいて区画線候補を抽出し、抽出した区画線候補に関する情報と、前記記憶部に記憶された前記区画線に関する情報との近似度に基づいて、前記移動体が通行する領域を区画する区画線を認識するものである。 (2): In the aspect (1) above, a storage control unit that stores, in a storage unit, information regarding the lane marking before the lane marking recognition unit determines that the recognition accuracy of the lane marking has decreased. wherein the marking line recognizing unit extracts a marking line candidate based on the edge extracted from the predetermined area, and stores information about the extracted marking line candidate and information about the marking line stored in the storage unit , the demarcation line that demarcates the area through which the moving object passes is recognized.
(3):上記(2)の態様において、前記区画線に関する情報は、前記区画線の位置、方向、および種類のうち、少なくとも一つを含むものである。 (3): In the aspect of (2) above, the information about the marking line includes at least one of the position, direction, and type of the marking line.
(4):上記(2)または(3)の態様において、前記記憶部は、更に地図情報を記憶し、前記区画線認識部は、前記区画線の認識精度が低下した状態であると判定された場合に、前記移動体の位置情報に基づいて前記地図情報から取得した区画線に関する情報、または前記記憶部に記憶された前記区画線の認識精度が低下した状態であると判定される前の前記区画線に関する情報に基づいて、前記所定領域を抽出するものである。 (4): In the aspect (2) or (3) above, the storage unit further stores map information, and the lane marking recognition unit determines that the recognition accuracy of the lane marking has decreased. before it is determined that the information relating to the lane markings acquired from the map information based on the position information of the moving body or the recognition accuracy of the lane markings stored in the storage unit is degraded. The predetermined area is extracted based on the information about the marking line.
(5):上記(1)~(4)のうち何れか一つの態様において、前記所定領域は、前記移動体の進行方向の左右に設定されるものである。 (5): In any one of the above (1) to (4), the predetermined areas are set on the left and right sides of the traveling direction of the moving body.
(6):上記(1)~(5)のうち何れか一つの態様において、前記区画線認識部は、前記周辺状況におけるエッジを抽出し、抽出したエッジの長さ、信頼度、および品質のうち少なくとも一つが閾値未満となった場合に、前記区画線の認識精度が低下した状態であると判定するものである。 (6): In any one of the above aspects (1) to (5), the lane marking recognition unit extracts edges in the surrounding situation, and determines the length, reliability, and quality of the extracted edges. When at least one of them is less than the threshold value, it is determined that the lane marking recognition accuracy is lowered.
(7):この発明の一態様に係る移動体制御方法は、コンピュータが、外界センサの出力に基づいて移動体の周辺状況を認識し、認識した前記周辺状況に基づいて前記移動体が通行する領域を区画する区画線を認識し、前記区画線の認識精度が低下した状態であると判定された場合に、前記周辺状況から所定領域を抽出し、抽出した前記所定領域内におけるエッジを抽出し、抽出した結果に基づいて前記区画線を認識する移動体制御方法である。 (7): A moving body control method according to an aspect of the present invention is such that a computer recognizes a surrounding situation of a moving body based on an output of an external sensor, and the moving body passes based on the recognized surrounding situation. When it is determined that the recognition accuracy of the marking line is degraded, the predetermined area is extracted from the peripheral situation, and the edges in the extracted predetermined area are extracted. and a moving body control method for recognizing the lane markings based on the extracted result.
(8):この発明の一態様に係るプログラムは、コンピュータに、外界センサの出力に基づいて移動体の周辺状況を認識させ、認識された前記周辺状況に基づいて前記移動体が通行する領域を区画する区画線を認識させ、前記区画線の認識精度が低下した状態であると判定された場合に、前記周辺状況から所定領域を抽出させ、抽出された前記所定領域内におけるエッジを抽出させ、抽出された結果に基づいて前記区画線を認識させるプログラムである。 (8): A program according to an aspect of the present invention causes a computer to recognize a surrounding situation of a moving body based on an output of an external sensor, and determines an area through which the moving body passes based on the recognized surrounding situation. Recognizing a demarcation line, extracting a predetermined area from the surrounding situation when it is determined that the recognition accuracy of the demarcation line is degraded, and extracting an edge in the extracted predetermined area; A program for recognizing the partition line based on the extracted result.
上記(1)~(8)の態様によれば、移動体が通行する領域を区画する区画線の認識精度をより向上させることができる。 According to the aspects (1) to (8) above, it is possible to further improve the recognition accuracy of the demarcation line that demarcates the area through which the moving object passes.
以下、図面を参照し、本発明の移動体制御装置、移動体制御方法、およびプログラムの実施形態について説明する。なお、以下では、移動体の一例として車両を用いる。車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。また、以下では、一例として、移動体制御装置が自動運転車両に適用された実施形態について説明する。自動運転とは、例えば、自動的に車両の操舵または加減速のうち、一方または双方を制御して運転制御を実行することである。車両の運転制御には、例えば、ACC(Adaptive Cruise Control)や、ALC(Auto Lane Changing)、LKAS(Lane Keeping Assistance System)、TJP(Traffic Jam Pilot)といった種々の運転支援が含まれてよい。自動運転車両は、乗員(運転者)の手動運転によって一部または全部の運転が制御されることがあってもよい。また、移動体とは、車両に加えて(または代えて)、例えば、船舶、飛翔体(例えば、ドローン、航空機等を含む)等が含まれてよい。 Hereinafter, embodiments of a mobile body control device, a mobile body control method, and a program according to the present invention will be described with reference to the drawings. In addition, below, a vehicle is used as an example of a mobile body. The vehicle is, for example, a two-wheeled, three-wheeled, or four-wheeled vehicle, and its driving source is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates using electric power generated by a generator connected to the internal combustion engine, or electric power discharged from a secondary battery or a fuel cell. Moreover, below, as an example, an embodiment in which the mobile body control device is applied to an automatically driving vehicle will be described. Automatic driving means, for example, automatically controlling one or both of steering and acceleration/deceleration of a vehicle to execute driving control. The vehicle driving control may include various driving assistance such as ACC (Adaptive Cruise Control), ALC (Auto Lane Changing), LKAS (Lane Keeping Assistance System), and TJP (Traffic Jam Pilot). The automatic driving vehicle may be partially or wholly controlled by the manual operation of the passenger (driver). Further, mobile objects may include, in addition to (or instead of) vehicles, ships, flying objects (including, for example, drones, aircraft, etc.), and the like.
[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。カメラ10と、レーダ装置12と、LIDAR14と、物体認識装置16とを組み合わせたものが「外界センサ」の一例である。なお、外界センサESには、例えば、ソナー(不図示)が含まれてもよい。HMI30は、「出力部」の一例である。自動運転制御装置100は、「移動体制御装置」の一例である。
[overall structure]
FIG. 1 is a configuration diagram of a
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
The
レーダ装置12は、車両Mの周辺にミリ波等の電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
The
LIDAR14は、車両Mの周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、車両Mの任意の箇所に取り付けられる。また、車両Mにソナーが設けられている場合、ソナーは、例えば車両Mの前端部および後端部に設けられバンパー等に設置される。ソナーは、設置位置から所定距離以内に存在する物体(例えば、障害物)を検知する。 The LIDAR 14 irradiates light (or electromagnetic waves with wavelengths close to light) around the vehicle M and measures scattered light. The LIDAR 14 detects the distance to the object based on the time from light emission to light reception. The irradiated light is, for example, pulsed laser light. The LIDAR 14 is attached to any location on the vehicle M. Further, when the vehicle M is provided with a sonar, the sonar is provided, for example, at the front end portion and the rear end portion of the vehicle M and installed on a bumper or the like. Sonar detects an object (for example, an obstacle) within a predetermined distance from its installation position.
物体認識装置16は、外界センサESの各構成(カメラ10、レーダ装置12、LIDAR14、およびソナー)のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度等を認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、外界センサESの検出結果をそのまま自動運転制御装置100に出力してよい。この場合、車両システム1から物体認識装置16が省略されてもよい。
The
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用して、車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
The
HMI30は、車両Mの乗員に対して各種情報を出力すると共に、乗員による入力操作を受け付ける。HMI30には、例えば、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キー、マイク等が含まれる。各種表示装置は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)表示装置等である。表示装置は、例えば、インストルメントパネルにおける運転席(ステアリングホイールに最も近い座席)の正面付近に設けられ、乗員がステアリングホイールの間隙から、或いはステアリングホイール越しに視認可能な位置に設置される。また、表示装置は、インストルメントパネルの中央に設置されてもよい。また、表示装置は、HUD(Head Up Display)であってもよい。HUDは、運転席前方のフロントウインドシールドの一部に画像を投影することで、運転席に着座した乗員の眼に虚像を視認させる。表示装置は、後述するHMI制御部170によって生成される画像を表示する。また、HMI30には、自動運転と乗員による手動運転とを相互に切り替える運転切替スイッチ等が含まれてもよい。
The
車両センサ40は、車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両Mの向きを検出する方位センサ等を含む。また、車両センサ40には、車両Mの位置を取得する位置センサが含まれてよい。位置センサは、例えば、GPS(Global Positioning System)装置から位置情報(経度・緯度情報)を取得するセンサである。また、位置センサは、ナビゲーション装置50のGNSS(Global Navigation Satellite System)受信機51を用いて位置情報を取得するセンサであってもよい。
The
ナビゲーション装置50は、例えば、GNSS受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、車両Mの位置を特定する。車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
The
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。例えば、推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
The
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、道路に含まれる一以上の車線を区画する道路区画線(以下、単に「区画線」と称する)の位置、方向、種類等の区画線情報や、区画線情報に基づく車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62は、道路の延伸方向等に沿って設けられるガードレールやフェンス等の防護柵や、チャッターバー(道路鋲)、縁石、中央分離帯、路肩、歩道等に関する情報が含まれてもよい。また、第2地図情報62には、道路情報(道路種別)、法定速度(制限速度、最高速度、最低速度)、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
The
運転操作子80は、例えば、ステアリングホイールの他、アクセルペダル、ブレーキペダル、シフトレバー、その他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。操作子は、必ずしも環状である必要は無く、異形ステアリングホイールやジョイスティック、ボタン等の形態であってもよい。
The driving
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、HMI制御部170と、記憶制御部180と、記憶部190とを備える。第1制御部120と、第2制御部160と、HMI制御部170とは、それぞれ、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。行動計画生成部140と第2制御部160とを合わせたものが「運転制御部」の一例である。HMI制御部170は、「出力制御部」の一例である。
The automatic
記憶部190は、上記の各種記憶装置、或いはSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現されてもよい。記憶部190には、例えば、認識区画線情報192、プログラム、その他の各種情報等が格納される。認識区画線情報192の詳細については、後述する。また、記憶部190には、上述した地図情報(第1地図情報54、第2地図情報62)が格納されてよい。
The
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示等がある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
FIG. 2 is a functional configuration diagram of the
認識部130は、例えば、外界センサESから入力された情報に基づいて、車両Mの周辺状況を示す空間情報を認識する。例えば、認識部130は、車両Mの周辺にある物体(例えば、他車両、その他の障害物)の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、車両Mの代表点(重心や駆動軸中心等)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、領域で表されてもよい。物体の「状態」とは、物体が他車両等の移動体である場合には、他車両の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
The
また、認識部130は、例えば、車両Mの周辺状況から車両Mが走行している車線(走行車線)を認識する。なお、車線の認識については、認識部130が備える区画線認識部132により実行される。区画線認識部132の機能の詳細については後述する。また、認識部130は、走行車線に隣接する隣接車線を認識する。隣接車線は、例えば、走行車線と同一方向に進行可能な車線である。また、認識部130は、一時停止線、障害物、赤信号、料金所、道路標識、その他の道路事象を認識する。
Further, the
また、認識部130は、走行車線を認識する際に、走行車線に対する車両Mの位置や姿勢を認識する。認識部130は、例えば、車両Mの基準点の車線中央からの乖離、および車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(区画線または道路境界)に対する車両Mの基準点の位置等を、走行車線に対する車両Mの相対位置として認識してもよい。ここで、車両Mの基準点とは、車両Mの中心でもよく、重心でもよい。また、基準点とは、車両Mの端部(前端部、後端部)でもよく、車両Mが備える複数の車輪うちの一つが存在する位置であってもよい。
Further, when recognizing the driving lane, the
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、車両Mの周辺状況に対応できるように、車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
In principle, the action
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベント(機能)を設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベント等がある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。
The
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
The
第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
The
HMI制御部170は、HMI30により、車両Mの運転者に所定の情報を通知する。所定の情報には、例えば、運転支援情報が含まれる。運転支援情報には、例えば、車両Mの速度、エンジン回転数、燃料残量、ラジエータ水温、走行距離、シフトレバーの状態、物体認識装置16や自動運転制御装置100等により認識された区画線や車線、他車両等、車両Mが走行すべき車線、将来の目標軌道等の情報が含まれる。また、運転支援情報には、後述する運転モードの切り替えや、運転支援等による走行状態(例えば、LKASやALC等の実行中の自動運転の種類)を示す情報等が含まれてよい。例えば、HMI制御部170は、上述した所定の情報を含む画像を生成し、生成した画像をHMI30の表示装置に表示させてもよく、所定の情報を示す音声を生成し、生成した音声をHMI30のスピーカから出力させてもよい。また、HMI制御部170は、HMI30により受け付けられた情報を通信装置20、ナビゲーション装置50、第1制御部120等に出力してもよい。
走行駆動力出力装置200は、車両Mが走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機等の組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
The running driving
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
The
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80のステアリングホイール82から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
The
[区画線認識について]
以下、実施形態における区画線認識について説明する。なお、以下では、自動運転によるLKAS制御が実行されている場面について説明するものとする。LKAS制御とは、例えば、車両Mが走行車線の区画線を認識しながら、走行車線の中央付近を走行するように、少なくとも車両Mの操舵を制御して、車両Mの車線維持を支援する制御である。
[Regarding lane marking recognition]
The lane marking recognition in the embodiment will be described below. In addition, below, the scene where LKAS control by automatic driving|operating shall be performed shall be demonstrated. The LKAS control is, for example, a control that assists the vehicle M in maintaining its lane by controlling at least the steering of the vehicle M so that the vehicle M runs near the center of the lane while recognizing the lane markings. is.
図3は、実施形態における区画線認識の一例を説明するための図である。図3の例では、同一方向(図中X軸方向)に進行可能な二つの車線L1、L2を含む道路RDと、車線L1を速度VMで道路RDの延伸方向(X軸方向)に沿って走行する車両Mを示している。車線L1は、区画線LLおよびCLによって区画される車両Mの通行領域であるものとする。また車線L2は、区画線CLおよびRLによって区画される領域であり、車線L1の隣接車線である。また、図3の例では、道路RDの両側端(道路RDの中央から見て区画線LLおよびRLよりも外側)にガードレール等の物体(道路構造物)OB1、OB2が設けられているものとする。物体OB1は、区画線LLの延伸方向に沿って設置され、物体OB2は、区画線RLの延伸方向に沿って設置されている。また、図3の例では、外界センサESにより物体を認識できる範囲(以下、認識可能範囲)RAを示している。図3に示す認識可能範囲RAは、説明の便宜上、車両Mの前方方向の領域を示しているが、車両Mの側方や後方の両方が含まれてもよい。また、認識可能範囲RAは、例えば、外界センサESの性能等により範囲が異なる。 FIG. 3 is a diagram for explaining an example of marking line recognition in the embodiment. In the example of FIG. 3, a road RD including two lanes L1 and L2 that can travel in the same direction (X-axis direction in the figure), and lane L1 along the extension direction (X-axis direction) of the road RD at a speed VM A moving vehicle M is shown. Lane L1 is assumed to be a traffic area for vehicles M defined by lane markings LL and CL. Lane L2 is an area defined by lane markings CL and RL, and is adjacent to lane L1. In the example of FIG. 3, it is assumed that objects (road structures) OB1 and OB2 such as guardrails are provided on both sides of the road RD (outside the division lines LL and RL when viewed from the center of the road RD). do. The object OB1 is installed along the extending direction of the lane marking LL, and the object OB2 is installed along the extending direction of the lane marking RL. Also, in the example of FIG. 3, a range (hereinafter referred to as a recognizable range) RA where an object can be recognized by the external sensor ES is shown. For convenience of explanation, the recognizable range RA shown in FIG. 3 indicates a region in the forward direction of the vehicle M, but may include both sides and rear of the vehicle M. As shown in FIG. Also, the recognizable range RA differs depending on the performance of the external sensor ES, for example.
区画線認識部132は、例えば、外界センサESによる認識可能範囲RA内の周辺状況を示す空間情報に基づいて、車両Mが走行する車線L1の区画線を認識する。なお、区画線の認識は、所定のタイミングで繰り返し実行される。所定のタイミングとは、例えば、所定周期でもよく、車両Mの速度や走行距離を基準にしたタイミングでもよい。
The lane marking
例えば、区画線認識部132は、カメラ10により撮影された認識可能範囲RAの撮像画像に対してエッジを抽出し、抽出結果に基づいて区画線の位置を認識する。エッジとは、例えば、自身の周辺の画素との画素値の差が基準よりも大きい画素(或いは画素群)、すなわち特徴的な画素である。区画線認識部132は、例えば、画像内の各画素の輝度値に対して所定の微分フィルタや、プリューウィットフィルタ(Prewitt filter)、ソーベルフィルタ(Sobel filter)等のエッジ抽出フィルタを用いて、エッジを抽出する。なお、上述したエッジ抽出フィルタは、単なる一例であり、区画線認識部132は、他のフィルタ或いはアルゴリズムに基づいてエッジを抽出してもよい。
For example, the lane marking recognizing
また、区画線認識部132は、エッジの抽出結果に基づいて、長さが第1閾値以上のエッジの線分(例えば、直線や曲線)が存在する場合に、その線分を区画線として認識する。また、区画線認識部132は、位置や方向が近似するエッジの線分を連結してもよい。「近似する」とは、エッジの位置や方向の差(差異)が所定範囲内であることである。また、「近似する」とは、類似度が所定値以上であることであってもよい。
なお、区画線認識部132は、第1閾値以上の線分であっても、線分が曲線であり、その曲率が所定値以上(曲率半径が所定値以下)である場合に、その線分が区画線ではないと認識してもよい。これにより、明らかに区画線でない線分を除外することができ、区画線の認識精度を向上させることができる。
Further, based on the edge extraction result, if there is an edge line segment (for example, a straight line or a curved line) whose length is equal to or greater than the first threshold, the lane marking
Note that even if the line segment is equal to or greater than the first threshold, if the line segment is curved and has a curvature equal to or greater than a predetermined value (curvature radius is equal to or less than a predetermined value), the line
また、区画線認識部132は、エッジの長さに加えて(または代えて)、エッジの信頼度または品質のうち一方または双方を導出してもよい。例えば、区画線認識部132は、抽出したエッジの連続度合や散らばり度合に応じてエッジの区画線としての信頼度を導出する。例えば、区画線認識部132は、エッジの線分に連続性があるほど、またはエッジの延伸方向の散らばりが少ないほど、信頼度を大きくする。また、区画線認識部132は、車両Mの位置を基準として左右それぞれから抽出されたエッジを比較し、エッジの連続性や散らばりの類似度が大きいほど、それぞれのエッジの区画線としての信頼度を大きくしてもよい。また、区画線認識部132は、抽出されたエッジの数が多いほど、エッジから得られる区画線の品質が高くする。なお、品質は、例えば、高品質であるほど値が大きくなるような指標値(品質値)に置き換えてもよい。
In addition to (or instead of) the length of the edge, the lane marking
また、区画線認識部132は、区画線の認識精度が低下した状態であるか否かを判定する。例えば、区画線の認識精度は、実際の区画線に擦れや汚れ等がある場合や、トンネルの出口付近の外光による路面反射、雨天時の外灯や対向車線のライトによる路面反射、豪雨等の天候による外界センサES等の性能劣化等によって低下する。区画線認識部132は、例えば、エッジ抽出により抽出されたエッジの線分の長さが第1閾値未満である場合に、区画線の認識精度が低下した状態であると判定する。
Further, the lane marking
また、区画線認識部132は、エッジの信頼度や品質値を導出している場合には、信頼度が第2閾値未満の場合や品質値が第3閾値未満である場合に、区画線の認識精度が低下した状態であると判定してもよい。つまり、区画線認識部132は、例えば、エッジの抽出処理の結果に基づいて、エッジの長さ、信頼度、および品質のうち少なくとも一つがそれぞれの閾値未満となった場合に、区画線の認識精度が低下した状態であると判定してもよい。これにより、複数の条件を用いて、区画線の認識精度が低下した状態であるか否かをより正確に判定することができる。なお、区画線認識部132は、区画線の認識精度が低下した状態であるか否かを判定することに代えて、上述した判定基準と同様または類似の基準を用いて、区画線を正常に認識しているか否かを判定してもよい。
Further, when the reliability and quality value of the edge are derived, the lane marking
区画線認識部132により区画線の認識精度が低下した状態ではないと判定された場合、記憶制御部180は、区画線認識部132による区画線の認識結果(区画線に関する情報)を、認識区画線情報192に格納する。区画線に関する情報には、例えば、区画線の状態に関する情報が含まれる。
When the marking
図4は、認識区画線情報192の内容について説明するための図である。認識区画線情報192は、例えば、車両位置に、認識された区画線状態情報が対応付けられた情報である。車両位置は、車両センサ40から取得された車両Mの位置情報である。区画線状態情報には、例えば、認識された区画線の位置、方向、および種類が含まれる。位置は、例えば、認識された車両Mの位置を基準とした区画線の位置である。方向は、例えば車両Mの位置を基準とした区画線の延伸方向である。区画線の種類等が含まれる。また、種類は、例えば、区画線の線種(実線、破線)や幅、色である。また、種類には、例えば、道路鋲の有無や中央分離帯の有無等が含まれてもよい。記憶制御部180は、車両Mの左右の区画線が認識された場合には、両方の区画線の位置、方向、種類が格納される。また、記憶制御部180は、上述したエッジの長さや、信頼度、品質に関する情報を認識区画線情報192に格納してもよい。なお、記憶制御部180は、例えば、区画線の認識精度が低下した状態であると判定される前の短い期間(例えば、数秒~数分程度)の区画線に関する情報を認識区画線情報192に格納する。これにより、長期間のデータを格納するよりもデータ量を削減することができる。
FIG. 4 is a diagram for explaining the content of the recognized
また、区画線認識部132は、区画線の認識精度が低下した状態であると判定した場合、認識部130により認識された周辺状況から所定領域を抽出し、抽出された所定領域に対してエッジを抽出し、抽出結果に基づいて車両Mが走行する車線L1の区画線を認識する。図3の場面では、認識可能範囲RA内に区画線LLの擦れW1や区画線CL上の汚れD1が存在する。したがって、区画線認識部132により車両Mが走行する車線L1の区画線LLおよびCLの認識精度が低下した状態であると判定される。この場合、区画線認識部132は、まず周辺状況から所定領域を抽出する。
Further, when the marking
図5は、所定領域を抽出することについて説明するための図である。図5の例では、説明の便宜上、図3に示す道路RDのうち、主に自車両Mが走行する車線L1の領域を概略的に示している。区画線認識部132は、車両Mの外界センサESによる認識可能範囲RAのうち、所定領域の一例として、区画線の存在尤度が高い(存在する確率が所定値以上)と推定される区画線存在領域を抽出する。例えば、区画線認識部132は、区画線の認識精度が低下した状態となる前の区画線の位置に基づいて、区画線存在領域を抽出する。例えば、区画線認識部132は、車両センサ40から取得された車両Mの位置情報に基づいて、記憶部190に記憶された認識区画線情報192の車両位置を参照し、車両Mの位置情報から所定距離範囲に含まれる車両位置に対応付けられた区画線状態情報の位置および方向を抽出し、抽出した位置および方向に基づいて区画線存在領域を抽出する。例えば、区画線認識部132は、抽出した位置および方向の散らばり度合に基づいて区画線存在領域を抽出する。また、区画線認識部132は、抽出した位置および方向の変位から将来の区画線の存在尤度が高いと予測される区画線存在領域を抽出してもよい。
FIG. 5 is a diagram for explaining extraction of a predetermined area. In the example of FIG. 5, for convenience of explanation, the area of the lane L1 on which the host vehicle M mainly travels is shown schematically on the road RD shown in FIG. The lane marking recognizing
また、区画線認識部132は、認識区画線情報192に代えて(または加えて)、例えば車両Mの位置情報に基づいて第2地図情報62を参照し、車両Mの位置情報から車両Mが走行する道路を抽出し、抽出された道路の区画線情報から走行車線を区画する区画線が存在する領域(区画線存在領域)を抽出してもよい。また、区画線認識部132は、認識区画線情報192から抽出した区画線存在領域と、第2地図情報62から抽出した区画線存在領域とに基づいて、最終的な区画線存在領域を抽出してもよい。
Further, the lane marking
また、区画線認識部132は、例えば、車両Mの進行方向(前方方向)に対して、車両Mの左右それぞれに区画線存在領域を設定する。また、区画線認識部132は、周辺に存在する他車両の位置やガードレール等の物体OBの有無や形状等によって、区画線存在領域の大きさや形状を設定してもよい。図5の例では、外界センサESの認識可能範囲RA内において、車両Mから見て左右に2つの区画線存在領域LLA、CLAが抽出されている。なお、区画線認識部132は、区画線存在領域LLAおよびCLAを同じ大きさや形状にしてもよく、異なる大きさや形状にしてもよい。例えば、区画線認識部132は、車両Mが直前までカーブ路を走行していた場合には、右側と左側の区画線の直前の曲率(または曲率半径)の違いに応じて形状や大きさを異ならせる。これにより、より最適な区画線存在領域を設定することができる。
Further, the lane marking
区画線認識部132は、例えば、カメラ10により撮像された画像に含まれる区画線存在領域LLA、CLAの領域に対してエッジを抽出する。この場合、区画線認識部132は、上述した各種のエッジ抽出フィルタや、他のフィルタ或いはアルゴリズムに基づいてエッジを抽出する。なお、区画線存在領域LLA、CLAは、認識可能範囲RAの他の領域よりも区画線の存在尤度が高い。そのため、区画線認識部132は、区画線認識部132によるエッジ抽出処理よりも、エッジを抽出しやすいフィルタ或いはアルゴリズムを用いてエッジを抽出する。これにより、区画線存在領域内においてより確実にエッジを抽出することができる。
The lane marking
また、区画線認識部132は、区画線存在領域LLA、CLAに含まれるエッジの長さが第4閾値以上のエッジの線分を区画線候補として抽出する。第4閾値は、第1閾値であってもよく第1閾値より小さくてもよい。第1閾値よりも小さくすることで、より多くの区画線候補を抽出することができる。なお、区画線認識部132は、位置や方向が近似するエッジの線分を連結してもよい。
The marking
図6は、区画線候補の抽出例について説明するための図である。図6の例では、区画線認識部132によるエッジ抽出により区画線存在領域LLAに3つの区画線候補C1~C3が抽出され、区画線存在領域CLAに1つの区画線候補C4が抽出されている。区画線認識部132は、抽出された区画線候補C1~C4のそれぞれの区画線候補情報を導出する。区画線候補情報には、区画線候補に関する情報として、区画線候補の状態に関する情報が含まれる。例えば、区画線候補情報には、車両Mの位置を基準とした区画線候補C1~C4のそれぞれの位置情報、および延伸方向が含まれる。また、区画線候補情報には、区画線の種類に関する情報が含まれてもよい。
FIG. 6 is a diagram for explaining an example of extraction of marking line candidates. In the example of FIG. 6, the edge extraction by the marking
次に、区画線認識部132は、車両Mの位置情報を用いて、認識区画線情報192の車両位置を参照し、位置情報に最も近い車両位置に対応付けられた区画線状態情報(言い換えると、区画線認識で認識精度が低下していない状態で最後に認識された区画線状態情報)を取得し、取得した区画線状態情報と区画線候補情報とを比較して、区画線候補から走行車線の区画線を認識する。
Next, the lane marking
図7は、区画線候補から走行車線の区画線を認識することについて説明するための図である。図7の例では、区画線存在領域LLA、CLAにおける区画線候補C1~C4と、認識区画線情報192から取得した認識精度が低下していない状態で最後に認識された区画線LLp、CLpを示している。なお、図7の例において、区画線LLp、CLpは、区画線存在領域内の区画線候補C1~C4と比較し易くするため、車両Mの位置を基準とした区画線存在領域内の位置に位置付けられている。
FIG. 7 is a diagram for explaining recognition of lane markings of a traveling lane from lane marking candidates. In the example of FIG. 7, the marking line candidates C1 to C4 in the marking line existing areas LLA and CLA, and the marking lines LLp and CLp that were finally recognized while the recognition accuracy obtained from the recognition marking
図7の例において、区画線認識部132は、区画線候補情報に含まれる区画線候補の位置、方向、および種類のうち少なくとも一つと、区画線状態情報に含まれる区画線の対応データ(位置、方向、および種類のうち少なくとも一つ)とを比較し、比較結果に基づいて走行車線を区画する区画線と認識する。具体的には、区画線認識部132は、区画線候補C1~C3と区画線LLpとにおいて、区画線の位置、方向、および種類のうち少なくとも一つを比較し、区画線候補C1~C3の区画線LLpに対する近似度を抽出する。例えば、区画線認識部132は、位置の差が小さいほど、方向の差が小さいほど、および、線種が近いほど、近似度を高くする。また、区画線認識部132は、区画線候補C4と区画線CLPとを比較し、同様に区画線候補C4の区画線LLpに対する近似度を抽出する。そして、区画線認識部132は、区画線候補C1~C4のうち近似度が最も高い区画線を、車線L1の区画線と抽出する。図7の例において、区画線候補C1およびC2は、区画線LLpの位置と異なり、区画線候補C4は、区画線CLpと延伸方向や線種が異なる。したがって、区画線認識部132は、区画線候補C1~C4のうち、区画線候補C3を走行車線(車線L1)の区画線として認識する。これらの認識処理によって、区画線が誤認識されることを抑制することができる。
In the example of FIG. 7, the marking
なお、区画線認識部132は、近似度が所定値未満の場合に区画線として認識しないようにしてもよい。また、区画線認識部132は、区画線存在領域LLA、CLAのそれぞれにおいて区画線を認識してもよい。
Note that the marking
運転制御部(行動計画生成部140、第2制御部160)は、区画線認識部132により認識された区画線に基づいてLKAS制御を実行する。
The operation control unit (action
このように、実施形態では、区画線を認識精度が低下した場合であっても、区画線の存在尤度が高い領域のエッジを抽出し、抽出したエッジに基づいて区画線を認識することで、区画線の認識精度や信頼度の向上させることができる。また、領域に限定して区画線を認識することで処理リソースを削減することができる。 As described above, in the embodiment, even if the recognition accuracy of the lane marking is lowered, the edge of the region where the likelihood of existence of the lane marking is high is extracted, and the lane marking is recognized based on the extracted edge. , the lane marking recognition accuracy and reliability can be improved. In addition, processing resources can be reduced by recognizing marking lines in a limited area.
なお、HMI制御部170は、例えば、運転支援等による車両Mの走行状態をHMI30に出力させる場合に、区画線認識部132により認識された区画線に関する画像を、HMI30の表示装置に表示させてもよい。この場合、HMI制御部170は、区画線を認識精度が低下した状態である場合と低下した状態でない場合とでそれぞれ認識した区画線を、それぞれ異なる表示態様(例えば、色を変えたり、点滅表示させたり、模様を変える等)で表示させてもよい。また、HMI制御部170は、区画線の認識精度が低下した状態であることを示す情報をHMI30から出力させてもよい。これにより、乗員に、車両Mの状態をより正確に通知することができる。
For example, when causing the
[処理フロー]
図8は、実施形態の自動運転制御装置100により実行される処理の流れの一例を示すフローチャートである。図8の例では、自動運転制御装置100により実行される処理のうち、主に区画線認識処理を中心として説明する。また、図8の処理は、例えば、LKAS等の自動運転制御が実行されている間、繰り返し実行されてよい。
[Processing flow]
Drawing 8 is a flow chart which shows an example of a flow of processing performed by automatic
図8の例において、認識部130は、外界センサESの検出結果に基づいて車両Mの周辺状況を認識する(ステップS100)。次に、区画線認識部132は、車両Mの周辺状況を示す空間情報から車両Mの走行車線の区画線を認識する(ステップS102)。
In the example of FIG. 8, the
次に、区画線認識部132は、区画線の認識精度が低下した状態であるか否かを判定する(ステップS104)。区画線の認識精度が低下した状態であると判定された場合、区画線認識部132は、外界センサESによる認識可能範囲RAのうち、所定領域の一例として、区画線が存在尤度の高い区画線存在領域を抽出する(ステップS106)。ステップS106の処理において、区画線認識部132は、例えば、区画線の認識精度が低下した状態となる前の区画線の位置に基づいて、区画線存在領域を抽出してもよく、高精度地図(第2地図情報62)を参照して区画線存在領域を抽出してもよい。また、それぞれから抽出された区画線存在領域に基づいて最終的な区画線存在領域を抽出してもよい。
Next, the lane marking
次に、区画線認識部132は、区画線存在領域を含む領域をカメラ10で撮像し、撮像された画像から、区画線存在領域内のエッジ抽出を行う(ステップS108)。次に、区画線認識部132は、エッジ抽出結果に基づいて区画線候補を抽出し(ステップS110)、抽出した区画線候補と、区画線の認識精度が低下した状態となる前に取得した区画線の認識結果との近似度合とに基づいて区画線を認識する(ステップS112)。
Next, the marking
ステップS112の処理後、またはステップS104の処理において区画線の認識精度が低下していないと判定された場合、運転制御部(行動計画生成部140、第2制御部160)は、認識された区画線に基づいて、LKAS等の運転制御を実行する(ステップS114)。これにより、本フローチャートの処理は、終了する。
After the process of step S112, or when it is determined in the process of step S104 that the lane marking recognition accuracy has not decreased, the operation control unit (action
[変形例]
上述した実施形態において、区画線認識部132は、LKAS以外の運転制御を実行している際にも、上述した区画線の認識を行ってもよい。例えば、ALC制御を行う場合には、区画線認識部132は、走行車線を区画する区画線だけでなく、車線変更先の隣接車線を区画する区画線も認識してもよい。また、区画線認識部132は、区画線存在領域を抽出する場合に、上述した手法に代えて(または加えて)、例えば、図3に示すように、車両Mの走行車線(車線L1)以外の車線(車線L2)の区画線の位置、方向等に基づいて、走行車線に対する区画線存在領域を抽出してもよい。更に、区画線認識部132は、走行車線L1を含む道路RDに設置されたガードレール等の物体OB1、OB2の位置および方向に基づいて、区画線存在領域を抽出してもよい。
[Modification]
In the above-described embodiment, the lane marking
また、上述の例では、主にカメラ10により撮像された画像に含まれるエッジを抽出し、抽出結果に基づいて区画線を認識したが、これに加えて(または代えて)、外界センサESに含まれるLIDAR14の検出結果(LIDARデータ)に基づいてエッジ抽出を行ってもよい。また、ガードレール等の防護柵や、チャッターバー(道路鋲)、縁石、中央分離帯等の凹凸がある物体が存在する場合には、レーダ装置12やソナーの検出結果に基づいて、区画線を認識したり、区画線存在領域を抽出してもよい。これにより、より高精度に区画線を認識することができる。
Further, in the above example, edges included in the image captured by the
また、区画線認識部132は、第2地図情報62から得られる区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される車両Mの周辺の区画線のパターンとを比較することで、走行車線を認識してもよい。また、区画線認識部132は、区画線に限らず、区画線や路肩、縁石、中央分離帯、ガードレール等を含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される車両Mの位置やINSによる処理結果が加味されてもよい。
In addition, the lane marking
また、HMI制御部170は、区画線の認識制御が低下した状態であって、且つ、区画線認識部132により区画線が認識できない場合、区画線が認識できないことを示す情報をHMI30に出力させたり、LKAS制御を終了して車両Mの乗員の手動運転を促す情報をHMI30に出力させてもよい。
Further, when the lane marking recognition control is lowered and the lane marking
以上説明した実施形態によれば、自動運転制御装置100(移動体制御装置の一例)において、外界センサESの出力に基づいて車両M(移動体の一例)の周辺状況を認識する認識部130と、認識部130により認識された周辺状況に基づいて車両Mが通行する領域を区画する区画線を認識する区画線認識部132と、を備え、区画線認識部132は、区画線の認識精度が低下した状態であると判定された場合に、周辺状況から所定領域を抽出し、抽出した所定領域内におけるエッジを抽出し、抽出した結果に基づいて前記区画線を認識することにより、車両Mが通行する領域を区画する区画線の認識精度をより向上させることができる。
According to the embodiment described above, in the automatic driving control device 100 (an example of a mobile body control device), the
具体的には、実施形態によれば、例えば、前回の区画線認識結果の近傍や、セグメンテーションの境界近傍、高精度地図情報による区画線の存在位置の近傍に基づいて、カメラの撮像画像から所定領域だけ抽出し、抽出した領域のみにエッジ抽出を行うことで、より効率的且つ高精度に区画線を認識することができる。また、実施形態によれば、認識精度が低下していない状態で認識された学習ベースの区画線の情報と、エッジ抽出により認識された区画線の情報とを照合することで、区画線の確からしさを向上させることができる。実施形態によれば、エッジ抽出より得られた区画線候補の状態情報に関して、前回の制御で用いた区画線と近似する区画線を選択することで、レーンの認識の精度や信頼度の向上を図ることができると共に、区画線の誤検出を抑制することができる。 Specifically, according to the embodiment, for example, based on the vicinity of the previous marking line recognition result, the vicinity of the segmentation boundary, and the vicinity of the existing position of the marking line based on the high-precision map information, a predetermined By extracting only the area and performing edge extraction only on the extracted area, the marking line can be recognized more efficiently and accurately. Further, according to the embodiment, by comparing learning-based lane marking information recognized in a state where the recognition accuracy is not degraded and lane marking information recognized by edge extraction, You can improve your likeness. According to the embodiment, lane recognition accuracy and reliability can be improved by selecting lane markings that are similar to lane markings used in the previous control, regarding the state information of lane marking candidates obtained by edge extraction. In addition, erroneous detection of marking lines can be suppressed.
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
外界センサの出力に基づいて移動体の周辺状況を認識し、
認識した前記周辺状況に基づいて前記移動体が通行する領域を区画する区画線を認識し、
前記区画線の認識精度が低下した状態であると判定された場合に、前記周辺状況から所定領域を抽出し、
抽出した前記所定領域内におけるエッジを抽出し、
抽出した結果に基づいて前記区画線を認識する、
ように構成されている、移動体制御装置。
The embodiment described above can be expressed as follows.
a storage device storing a program;
a hardware processor;
By the hardware processor executing the program stored in the storage device,
Recognizing the surrounding situation of the moving object based on the output of the external sensor,
Recognizing a demarcation line that demarcates an area through which the moving body passes based on the recognized surrounding situation;
extracting a predetermined area from the surrounding situation when it is determined that the lane marking recognition accuracy is lowered;
extracting edges within the extracted predetermined region;
recognizing the partition line based on the extracted result;
A mobile body control device configured to:
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.
1…車両システム、10…カメラ、12…レーダ装置、14…LIDAR、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、132…区画線認識部、140…行動計画生成部、160…第2制御部、162…取得部、164…速度制御部、166…操舵制御部、170…HMI制御部、180…記憶制御部、190…記憶部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置
1
Claims (8)
前記認識部により認識された周辺状況に基づいて前記移動体が通行する領域を区画する区画線を認識する区画線認識部と、を備え、
前記区画線認識部は、前記区画線の認識精度が低下した状態であると判定された場合に、前記周辺状況から所定領域を抽出し、抽出した前記所定領域内におけるエッジを抽出し、抽出した結果に基づいて前記区画線を認識する、
移動体制御装置。 a recognition unit that recognizes the surrounding situation of the moving object based on the output of the external sensor;
a lane marking recognition unit that recognizes lane markings that divide an area through which the moving object passes based on the surrounding situation recognized by the recognition unit;
When it is determined that the recognition accuracy of the marking line is degraded, the marking line recognition unit extracts a predetermined area from the surrounding situation, extracts edges in the extracted predetermined area, and extracts the edges. recognizing the parcel line based on the result;
Mobile controller.
前記区画線認識部は、前記所定領域から抽出されたエッジに基づいて区画線候補を抽出し、抽出した区画線候補に関する情報と、前記記憶部に記憶された前記区画線に関する情報との近似度に基づいて、前記移動体が通行する領域を区画する区画線を認識する、
請求項1に記載の移動体制御装置。 further comprising a storage control unit configured to store, in a storage unit, information related to the lane marking before the lane marking recognition unit determines that the recognition accuracy of the lane marking has decreased,
The marking line recognition unit extracts marking line candidates based on the edges extracted from the predetermined area, and the degree of similarity between information regarding the extracted marking line candidates and information regarding the marking lines stored in the storage unit. Recognizing the division lines that divide the area through which the moving body passes, based on
The moving body control device according to claim 1 .
請求項2に記載の移動体制御装置。 the information about the lane marking includes at least one of the position, direction, and type of the lane marking;
The moving body control device according to claim 2 .
前記区画線認識部は、前記区画線の認識精度が低下した状態であると判定された場合に、前記移動体の位置情報に基づいて前記地図情報から取得した区画線に関する情報、または前記記憶部に記憶された前記区画線の認識精度が低下した状態であると判定される前の前記区画線に関する情報に基づいて、前記所定領域を抽出する、
請求項2または3に記載の移動体制御装置。 The storage unit further stores map information,
When it is determined that the recognition accuracy of the lane marking is degraded, the lane marking recognizing unit receives information about the lane marking acquired from the map information based on the position information of the moving body, or the storage unit. extracting the predetermined area based on the information about the lane marking stored before it is determined that the recognition accuracy of the lane marking is lowered;
4. The moving body control device according to claim 2 or 3.
請求項1から4のうち何れか1項に記載の移動体制御装置。 The predetermined areas are set on the left and right sides of the traveling direction of the moving object,
The moving body control device according to any one of claims 1 to 4.
請求項1から5のうち何れか1項に記載の移動体制御装置。 The lane marking recognition unit extracts edges in the surrounding situation, and if at least one of the length, reliability, and quality of the extracted edges is less than a threshold, the recognition accuracy of the lane marking has decreased. determine that the state is
The moving body control device according to any one of claims 1 to 5.
外界センサの出力に基づいて移動体の周辺状況を認識し、
認識した前記周辺状況に基づいて前記移動体が通行する領域を区画する区画線を認識し、
前記区画線の認識精度が低下した状態であると判定された場合に、前記周辺状況から所定領域を抽出し、
抽出した前記所定領域内におけるエッジを抽出し、
抽出した結果に基づいて前記区画線を認識する、
移動体制御方法。 the computer
Recognizing the surrounding situation of the moving object based on the output of the external sensor,
Recognizing a demarcation line that demarcates an area through which the moving body passes based on the recognized surrounding situation;
extracting a predetermined area from the surrounding situation when it is determined that the lane marking recognition accuracy is lowered;
extracting edges within the extracted predetermined region;
recognizing the partition line based on the extracted result;
Mobile control method.
外界センサの出力に基づいて移動体の周辺状況を認識させ、
認識された前記周辺状況に基づいて前記移動体が通行する領域を区画する区画線を認識させ、
前記区画線の認識精度が低下した状態であると判定された場合に、前記周辺状況から所定領域を抽出させ、
抽出された前記所定領域内におけるエッジを抽出させ、
抽出された結果に基づいて前記区画線を認識させる、
プログラム。 to the computer,
Recognize the surrounding situation of the moving object based on the output of the external sensor,
Recognize a demarcation line that demarcates an area through which the moving body passes based on the recognized surrounding situation;
extracting a predetermined area from the surrounding situation when it is determined that the lane marking recognition accuracy is lowered;
extracting edges in the extracted predetermined region;
recognizing the partition line based on the extracted result;
program.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021089427A JP2022182094A (en) | 2021-05-27 | 2021-05-27 | Mobile body control device, mobile body control method, and program |
CN202210560350.8A CN115402308A (en) | 2021-05-27 | 2022-05-18 | Mobile body control device, mobile body control method, and storage medium |
US17/748,080 US20220383646A1 (en) | 2021-05-27 | 2022-05-19 | Mobile object control device, mobile object control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021089427A JP2022182094A (en) | 2021-05-27 | 2021-05-27 | Mobile body control device, mobile body control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022182094A true JP2022182094A (en) | 2022-12-08 |
Family
ID=84157480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021089427A Withdrawn JP2022182094A (en) | 2021-05-27 | 2021-05-27 | Mobile body control device, mobile body control method, and program |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220383646A1 (en) |
JP (1) | JP2022182094A (en) |
CN (1) | CN115402308A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240304001A1 (en) * | 2023-03-06 | 2024-09-12 | Kodiak Robotics, Inc. | Systems and methods for generating a heatmap corresponding to an environment of a vehicle |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11208188B2 (en) | 2019-06-10 | 2021-12-28 | Polaris Industries Inc. | Thruster arrangement for a boat |
WO2021062339A1 (en) | 2019-09-27 | 2021-04-01 | Polaris Industries Inc. | System and method for positioning an aquatic vessel |
US12179889B2 (en) | 2020-07-06 | 2024-12-31 | Polaris Industries Inc. | Boat maneuverability and stability control systems and methods |
FR3142730A1 (en) * | 2022-12-05 | 2024-06-07 | Renault S.A.S | Method for detecting a central line of a traffic lane and controlling a motor vehicle |
JP2025025317A (en) * | 2023-08-09 | 2025-02-21 | トヨタ自動車株式会社 | Marking line detection device |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5136373A (en) * | 1989-06-22 | 1992-08-04 | Hamamatsu Photonics K. K. | Image processing apparatus |
JP4886597B2 (en) * | 2007-05-25 | 2012-02-29 | アイシン・エィ・ダブリュ株式会社 | Lane determination device, lane determination method, and navigation device using the same |
TWI334517B (en) * | 2007-08-30 | 2010-12-11 | Ind Tech Res Inst | Method for predicting lane line and lane departure warning system using the same |
JP5253066B2 (en) * | 2008-09-24 | 2013-07-31 | キヤノン株式会社 | Position and orientation measurement apparatus and method |
JP5577608B2 (en) * | 2009-03-05 | 2014-08-27 | 日産自動車株式会社 | Lane recognition apparatus and method |
JP5066123B2 (en) * | 2009-03-24 | 2012-11-07 | 日立オートモティブシステムズ株式会社 | Vehicle driving support device |
US8340461B2 (en) * | 2010-02-01 | 2012-12-25 | Microsoft Corporation | Single image haze removal using dark channel priors |
JP6220327B2 (en) * | 2014-07-23 | 2017-10-25 | 株式会社Soken | Traveling lane marking recognition device, traveling lane marking recognition program |
IL236114A (en) * | 2014-12-07 | 2016-04-21 | Yoav Grauer | Improved object recognition in the reimbursement-based imaging unit |
JP6774297B2 (en) * | 2016-10-17 | 2020-10-21 | 株式会社デンソー | Vehicle recognition device and vehicle recognition method |
CN107025432B (en) * | 2017-02-28 | 2018-08-21 | 合肥工业大学 | A kind of efficient lane detection tracking and system |
EP3605498B1 (en) * | 2017-03-28 | 2025-05-07 | Pioneer Corporation | Output device, control method, program, and storage medium |
CN109583280A (en) * | 2017-09-29 | 2019-04-05 | 比亚迪股份有限公司 | Lane detection method, apparatus, equipment and storage medium |
JP6971177B2 (en) * | 2018-03-09 | 2021-11-24 | フォルシアクラリオン・エレクトロニクス株式会社 | Compartment line recognition device |
JP6754386B2 (en) * | 2018-03-14 | 2020-09-09 | 本田技研工業株式会社 | Vehicle control device |
CN108805074B (en) * | 2018-06-06 | 2020-10-09 | 安徽江淮汽车集团股份有限公司 | Lane line detection method and device |
CN109993712B (en) * | 2019-04-01 | 2023-04-25 | 腾讯科技(深圳)有限公司 | Training method of image processing model, image processing method and related equipment |
CN110689545B (en) * | 2019-09-09 | 2023-06-16 | 华南理工大学 | Automatic Segmentation Method of Fuzzy Boundary Image Based on Active Contour and Deep Learning |
JP7295012B2 (en) * | 2019-12-24 | 2023-06-20 | 日立Astemo株式会社 | Vehicle control system and vehicle control method |
US11816181B2 (en) * | 2021-03-02 | 2023-11-14 | Adobe, Inc. | Blur classification and blur map estimation |
JP7348942B2 (en) * | 2021-12-07 | 2023-09-21 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
-
2021
- 2021-05-27 JP JP2021089427A patent/JP2022182094A/en not_active Withdrawn
-
2022
- 2022-05-18 CN CN202210560350.8A patent/CN115402308A/en active Pending
- 2022-05-19 US US17/748,080 patent/US20220383646A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240304001A1 (en) * | 2023-03-06 | 2024-09-12 | Kodiak Robotics, Inc. | Systems and methods for generating a heatmap corresponding to an environment of a vehicle |
Also Published As
Publication number | Publication date |
---|---|
US20220383646A1 (en) | 2022-12-01 |
CN115402308A (en) | 2022-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6627153B2 (en) | Vehicle control device, vehicle control method, and program | |
CN110366513B (en) | Vehicle control system, vehicle control method, and storage medium | |
JP7030573B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
US20200001867A1 (en) | Vehicle control apparatus, vehicle control method, and program | |
JP2022182094A (en) | Mobile body control device, mobile body control method, and program | |
CN109835344B (en) | Vehicle control device, vehicle control method, and storage medium | |
US10854083B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7085371B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP6641583B2 (en) | Vehicle control device, vehicle control method, and program | |
US11100345B2 (en) | Vehicle control system, vehicle control method, and readable storage medium | |
US10640128B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190276029A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11077849B2 (en) | Vehicle control system, vehicle control method, and storage medium | |
US20200339156A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20200406892A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190161090A1 (en) | Vehicle control device, vehicle control method, and recording medium | |
US20200298843A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11273825B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP2023111162A (en) | MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL METHOD, AND PROGRAM | |
US20190095724A1 (en) | Surroundings monitoring device, surroundings monitoring method, and storage medium | |
US11654914B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11453398B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7121715B2 (en) | Estimation device, estimation method, and program | |
CN115147689B (en) | Identification device, vehicle system, identification method, and storage medium | |
US20220289025A1 (en) | Mobile object control device, mobile object control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220128 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20221215 |