[go: up one dir, main page]

JP7123840B2 - 車両制御装置、監視システム、車両制御方法、およびプログラム - Google Patents

車両制御装置、監視システム、車両制御方法、およびプログラム Download PDF

Info

Publication number
JP7123840B2
JP7123840B2 JP2019051582A JP2019051582A JP7123840B2 JP 7123840 B2 JP7123840 B2 JP 7123840B2 JP 2019051582 A JP2019051582 A JP 2019051582A JP 2019051582 A JP2019051582 A JP 2019051582A JP 7123840 B2 JP7123840 B2 JP 7123840B2
Authority
JP
Japan
Prior art keywords
vehicle
predetermined
user
users
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019051582A
Other languages
English (en)
Other versions
JP2020152196A (ja
Inventor
順平 野口
八州志 照田
悠記 原
龍馬 田口
雄太 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019051582A priority Critical patent/JP7123840B2/ja
Priority to US16/804,043 priority patent/US20200302199A1/en
Priority to CN202010173023.8A priority patent/CN111796591B/zh
Publication of JP2020152196A publication Critical patent/JP2020152196A/ja
Application granted granted Critical
Publication of JP7123840B2 publication Critical patent/JP7123840B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0285Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/12Lateral speed
    • B60W2520/125Lateral acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両制御装置、監視システム、車両制御方法、およびプログラムに関する。
近年、車両を自動的に制御することについて研究が進められている。自動運転車両は、当該車両の周辺の少なくとも一部を撮像する撮像部と、当該車両のユーザに関するユーザ画像情報と、所定の車両動作を示す一又は複数のジェスチャーに関するジェスチャー画像情報とを予め記憶する記憶部と、撮像部により撮像された画像とユーザ画像情報とを照合し、当該車両の周辺にユーザが存在することを条件に、撮像された画像とジェスチャー画像情報とから、ユーザのジェスチャーを特定し、該特定されたジェスチャーにより示される車両動作が実行されるように当該車両を自動制御する制御部とを備える(例えば特許文献1)。
特開2017-121865号公報
しかしながら、上記の自動運転車両は、ユーザに対する気遣いがされていない場合があった。
本発明は、このような事情を考慮してなされたものであり、ユーザを気遣うことができる車両制御装置、監視システム、車両制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係る車両制御装置、監視システム、車両制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る車両制御装置は、車両の周辺状況を認識する周辺状況認識部と、前記周辺状況認識部により認識された周辺状況に基づいて、前記車両の操舵および加減速を運転制御する運転制御部と、を備え、前記運転制御部は、前記車両の所定イベント後に前記運転制御における処理において、前記所定イベント後に前記車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、前記車両を第1挙動で走行させ、前記第1所定期間の経過後は、第1挙動よりも前記車両が単位時間当たりに進行する距離が長くなる第2挙動で前記車両を走行させる。
(2):上記(1)の態様において、前記所定イベントは、前記車両の一以上のユーザが降車するイベントであり、前記運転制御部は、前記所定イベント後に前記運転制御で前記車両を駐車場に入庫させる自動入庫処理において、前記第1所定期間、前記車両を第1挙動で走行させ、前記第1所定期間の経過後は、第2挙動で前記車両を走行させ、前記第1挙動は、前記車両が第1速度で走行する挙動であり、前記第2挙動は、前記車両が第1速度よりも速い第2速度で走行する挙動である。
(3):上記(2)の態様において、前記運転制御部は、前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記降車した時刻から第2所定期間経過した場合、前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記降車した位置から所定位置まで移動した場合、または前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記周辺状況認識部により認識されなくなった場合、前記所定の条件を満たしたと判定するものである。
(4):上記(3)の態様において、前記運転制御部は、前記第1所定期間において前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが所定状態である場合、前記所定状態でない場合とは異なる行動を前記車両に実行させるものである。
(5):上記(4)の態様において、前記所定状態は、前記一以上のユーザのうち、少なくとも一以上のユーザが所定のジェスチャーを行った状態(以下、第1状態)であること、前記一以上のユーザのうち、少なくとも一以上のユーザが地面に倒れて、第3所定期間以上伏した状態(以下、第2状態)であること、または前記一以上のユーザのうち、少なくとも一以上のユーザが前記一以上のユーザとは異なる人物または物体により被害を受けていると推定される状態(以下、第3状態)であることである。
(6):上記(5)の態様において、前記運転制御部は、前記第1状態である場合、前記車両に走行を継続させて、更に所定の経路を走行させて前記ユーザが存在する位置付近に前記車両を戻らせるものである。
(7):上記(5)または(6)の態様において、前記所定のジェスチャーは、前記車両内に忘れ物をしたことを示すジェスチャーまたは前記車両を呼び戻すジェスチャーであるものである。
(8):上記(5)から(7)のいずれかの態様において、所定の端末装置と通信する通信部を更に備え、前記運転制御部は、前記第2状態または前記第3状態のうち、いずれかの所定状態である場合、前記通信部を用いて前記所定の端末装置に前記所定状態に関する情報を送信するものである。
(9):上記(2)から(8)のいずれかの態様において、前記運転制御部は、前記第2状態または前記第3状態のうち、いずれかの所定状態である場合、情報を出力する出力部に前記所定状態に関する情報を出力させるものである。
(10):上記(2)から(9)のいずれかの態様において、前記周辺状況認識部は、前記自動入庫処理において、前記第1所定期間、前記一以上のユーザを監視する処理を継続するものである。
(11):上記(1)から(10)のいずれかの態様において、前記運転制御部は、前記車両に運転者のみが乗車し、前記運転者が降車後に前記運転制御で前記車両を駐車場に入庫させる自動入庫処理において、前記第1所定期間、前記車両を第1速度で走行させ、前記第1所定期間の経過後は、第1速度よりも速い第2速度で前記車両を走行させるものである。
(12):この発明の一態様に係る監視システムは、上記(1)から(11)のいずれかの態様の車両制御装置と、前記車両から降車したユーザを撮像する撮像部により撮像された画像に基づいてユーザの行動を監視する監視部と、を備え、前記運転制御部は、前記監視部により前記ユーザが所定状態であると認識された場合、前記所定状態でない場合とは異なる行動を前記車両に実行させる監視システムである。
(13):この発明の一態様に係る車両制御方法は、一以上の制御装置が、車両の周辺状況を認識し、前記認識された周辺状況に基づいて、前記車両の操舵および加減速を運転制御し、前車両の所定イベント後に前記運転制御における処理において、前記車両の所定イベント後に前記車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、前記車両を第1挙動で走行させ、前記第1所定期間の経過後は、第1挙動よりも単位時間当たりに進行する距離が長くなる第2挙動で前記車両を走行させる車両制御方法である。
(14):この発明の一態様に係るプログラムは、一以上の制御装置に、車両の周辺状況を認識させ、前記認識された周辺状況に基づいて、前記車両の操舵および加減速を運転制御させ、前記車両の所定イベント後に前記運転制御における処理において、前記所定イベント後に前記車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、前記車両を第1挙動で走行させ、前記第1所定期間の経過後は、第1挙動よりも単位時間当たりに進行する距離が長くなる第2挙動で前記車両を走行させるプログラムである。
(1)から(5)、(11)から(14)によれば、所定イベント後(例えば降車後)のユーザを気遣うことができる。
(6)または(7)によれば、車両制御装置は、更に、ユーザにとっての利便性を向上させることができる。
(8)または(9)によれば、車両制御装置は、更に、ユーザの救護を支援することができる。
(10)によれば、車両制御装置は、更に、前記第1所定期間、監視する処理を継続するため、処理負荷を考慮しつつ、ユーザを気遣って見守ることができる。
実施形態に係る車両制御装置を利用した車両システム2の構成図である。 第1制御部120および第2制御部160の機能構成図である。 自走駐車イベントが実行される場面を模式的に示す図である。 駐車場管理装置400の構成の一例を示す図である。 降車後の自車両Mの挙動の一例について説明するための図である。 降車後のユーザの行動と自車両Mの処理(特に認識処理)との関係を説明するための図である。 画像におけるユーザの状態および状態情報182の内容の一例を示す図である。 降車後のユーザの行動と自車両Mの処理(特に認識処理)との関係を説明するための図である。 第3行動の一例について説明するための図である。 所定状態に関する情報が送信される場面の一例について説明するための図である。 所定情報が出力される場面の一例について説明するための図である。 駐車場管理システム1の機能構成の一例を示す図である。 駐車場管理システム1により実行される処理の流れの一例を示すシーケンス図である。 端末装置の表示部に表示される画像IMの一例を示す図である。 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の車両制御装置、監視システム、車両制御方法、およびプログラムの実施形態について説明する。
<第1実施形態>
[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム2の構成図である。車両システム2が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム2は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ10は、例えば、第1カメラ10Aと、第2カメラ10Bとを備える。第1カメラ10Aは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。第1カメラ10Aおよび第2カメラ10Bは、車両システム2が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。カメラ10は、例えば、フロントウインドシールド上部やルームミラー裏面等に取り付けられ、車両の前方を撮像する。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。第2カメラ10Bは、第1カメラ10Aと同等の機能を有する。第2カメラ10Bは、カメラ10は、例えば、リアウインドシールド上部や、車両の後方外側のナンバープレート付近、車両の後方外側のトランクのドア付近に取り付けられ、車両の後方を撮像する。また、カメラ10は、第1カメラ10A、および第2カメラ10Bに加え、車両の側方側を撮像するカメラを備えてもよい。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。車両システム2から物体認識装置16が省略されてもよい。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両または駐車場管理装置(後述)、或いは各種サーバ装置と通信する。
HMI30は、自車両Mのユーザに対して各種情報を提示すると共に、ユーザによる入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いてユーザにより入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、ユーザの保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、記憶部180とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。
記憶部180は、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部180には、例えば、状態情報182が記憶されている。状態情報182の詳細については後述する。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140(「運転制御部」の一例)とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。上記のような認識処理を第1認識処理と称する場合がある。また、上記とは異なる認識処理を「第2認識処理」と称する場合がある。第2認識処理の詳細は後述する。
認識部130は、後述する自走駐車イベントにおいて起動する駐車スペース認識部132を備える。駐車スペース認識部132の機能の詳細については後述する。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベント、バレーパーキングなどにおいて無人走行または自動走行して駐車する自走駐車イベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。行動計画生成部140は、自走駐車イベントを実行する場合に起動する自走駐車制御部142を備える。自走駐車制御部142の機能の詳細については後述する。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[自走駐車イベント-入庫時]
自走駐車制御部142は、例えば、通信装置20によって駐車場管理装置400から取得された情報に基づいて、自車両Mを駐車スペース内に駐車させる。図3は、自走駐車イベントが実行される場面を模式的に示す図である。道路Rdから訪問先施設に至るまでの経路には、ゲート300-inおよび300-outが設けられている。自車両Mは、手動運転または自動運転によって、ゲート300-inを通過して停止エリア310まで進行する。停止エリア310は、訪問先施設に接続されている乗降エリア320に面している。乗降エリア320には、雨や雪を避けるための庇が設けられている。
自車両Mは、停止エリア310でユーザを下した後、無人で自動運転を行い、駐車場PA内の駐車スペースPSまで移動する自走駐車イベントを開始する。自走駐車イベントの開始トリガは、例えば、ユーザによる何らかの操作であってもよいし、駐車場管理装置400から無線により所定の信号を受信したことであってもよい。自走駐車制御部142は、自走駐車イベントを開始する場合、通信装置20を制御して駐車リクエストを駐車場管理装置400に向けて発信する。そして、自車両Mは、停止エリア310から駐車場PAまで、駐車場管理装置400の誘導に従って、或いは自力でセンシングしながら移動する。
自車両Mは、自車両Mから降車したユーザが所定のジェスチャーを行った場合に、駐車リクエストを行ったと認識し、移動を開始してもよい。この場合、認識部130は、カメラ10により撮像された画像の解析結果に基づいて、ユーザが予め設定された駐車リクエストに対応するジェスチャーを行ったと認識した場合、駐車リクエストが行われたと認識する。なお、駐車リクエストに対応するジェスチャーに加え、他の種別のジェスチャーを示す情報が自動運転制御装置100において記憶されていてもよい。ジェスチャーを示す情報とは、利用者がジェスチャーを行っている状態が撮像された画像が解析された解析結果に基づく情報である。解析結果に基づく情報とは、輝度値などの特徴量の分布を示す情報である。他の種別とは、例えば、迎車を指示するジェスチャーや、バックを指示するジェスチャー、ドアまたはトランクの開閉を指示するジェスチャー、乗降エリア320に戻ることを指示するジェスチャー、車室内の忘れ物を取り出す意志を示すジェスチャー等である。
図4は、駐車場管理装置400の構成の一例を示す図である。駐車場管理装置400は、例えば、通信部410と、制御部420と、記憶部430とを備える。記憶部430には、駐車場地図情報432、駐車スペース状態テーブル434などの情報が格納されている。
通信部410は、自車両Mその他の車両と無線により通信する。制御部420は、通信部410により取得された情報と、記憶部430に格納された情報とに基づいて、車両を駐車スペースPSに誘導する。駐車場地図情報432は、駐車場PAの構造を幾何的に表した情報である。また、駐車場地図情報432は、駐車スペースPSごとの座標を含む。駐車スペース状態テーブル434は、例えば、駐車スペースPSの識別情報である駐車スペースIDに対して、空き状態であるか、満(駐車中)状態であるかを示す状態と、満状態である場合の駐車中の車両の識別情報である車両IDとが対応付けられたものである。
制御部420は、通信部410が車両から駐車リクエストを受信すると、駐車スペース状態テーブル434を参照して状態が空き状態である駐車スペースPSを抽出し、抽出した駐車スペースPSの位置を駐車場地図情報432から取得し、取得した駐車スペースPSの位置までの好適な経路を、通信部410を用いて車両に送信する。また、制御部420は、複数の車両の位置関係に基づいて、同時に同じ位置に車両が進行しないように、必要に応じて特定の車両に停止・徐行などを指示する。
経路を受信した車両(以下、自車両Mであるものとする)では、自走駐車制御部142が、経路に基づく目標軌道を生成する。また、目標となる駐車スペースPSが近づくと、駐車スペース認識部132が、駐車スペースPSを区画する駐車枠線などを認識し、駐車スペースPSの詳細な位置を認識して自走駐車制御部142に提供する。自走駐車制御部142は、これを受けて目標軌道を補正し、自車両Mを駐車スペースPSに駐車させる。
[自走駐車イベント-出庫時]
自走駐車制御部142および通信装置20は、自車両Mが駐車中も動作状態を維持している。自走駐車制御部142は、例えば、通信装置20がユーザの端末装置から迎車リクエストを受信した場合、自車両Mのシステムを起動させ、自車両Mを停止エリア310まで移動させる。この際に、自走駐車制御部142は、通信装置20を制御して駐車場管理装置400に発進リクエストを送信する。駐車場管理装置400の制御部420は、入庫時と同様に、複数の車両の位置関係に基づいて、同時に同じ位置に車両が進行しないように、必要に応じて特定の車両に停止・徐行などを指示する。停止エリア310まで自車両Mを移動させてユーザを乗せると自走駐車制御部142は動作を停止し、以降は手動運転、或いは別の機能部による自動運転が開始される。
なお、上記の説明に限らず、自走駐車制御部142は、通信に依らず、カメラ10、レーダ装置12、ファインダ14、または物体認識装置16による検出結果に基づいて空き状態の駐車スペースを自ら発見し、発見した駐車スペース内に自車両Mを駐車させてもよい。
[降車後の自車両の挙動(その1)]
以下、ユーザが自車両Mから降車した後の自車両Mについて説明する。自動運転制御装置100は、認識部130により認識された周辺状況に基づいて、自車両Mの一以上のユーザが降車後に運転制御で自車両Mを駐車場PAに入庫させる自動入庫処理において、一以上のユーザが降車後に自車両Mが発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、自車両Mを第1挙動で走行させ、第1所定期間の経過後は、第1挙動よりも単位時間当たりに進行する距離が長くなる第2挙動で自車両Mを走行させる。第1挙動とは、車両が第1速度で走行する挙動であり、第2挙動とは、前記車両が第1速度よりも速い第2速度で走行する挙動である。「第1速度」は第2速度未満の速度である。「第2速度」は、駐車場PA内における制限速度である。第1速度は、第2速度未満であれば時間ごとに可変であってもよい。第2速度は、制限速度以下であれば時間ごとに可変であってもよい。「第1速度での走行」とは、自車両Mが停止状態から第2速度未満の速度まで加速し定速で走行を行うことであってもよいし、所定期間において自車両Mが停止状態から第1速度まで加速するものであってもいい。いずれの場合も所定期間経過後には、自車両Mは第2速度まで加速を行う。
「所定の条件」とは、下記の(1)から(3)のうち、いずれかの条件を満たすことである。
(1)一以上のユーザのうち、所定のユーザまたはすべてのユーザが自車両Mから降車した時刻から第2所定期間経過したこと。「第2所定期間」とは、例えば、自車両Mが第1速度で所定距離(10~50m)進む程度の時間(例えば3~30秒程度)である。「所定のユーザ」とは、最初に降車したユーザや、所定の座席に着座していたユーザなど任意のユーザである。
(2)一以上のユーザのうち、所定のユーザまたはすべてのユーザが乗降エリア320(降車位置の一例)から所定位置まで移動したこと。「所定位置」は、例えば、乗降エリア320から所定距離(例えば5~20m程度)移動した位置や、駐車場PAに関連する施設の入口またはその付近の位置である。「所定のユーザ」とは、例えば、最も後に入口に到達したユーザや、所定の座席に着座していたユーザなど任意のユーザである。
(3)一以上のユーザのうち、所定のユーザまたはすべてのユーザが認識部130により認識されなくなったこと。認識部130により認識されなくなったとは、ユーザが第2カメラ10Bの撮像領域外となったことや、ユーザが第2カメラ10Bにより撮像されたているが、認識部130が、上記の撮像された画像を認識しても、ユーザを認識できないことである。「所定のユーザ」とは、例えば、所定の座席に着座していたユーザなど任意のユーザである。
自動運転制御装置100は、自車両Mに所定のユーザ(例えば運転者)のみが乗車し、所定のユーザ(例えば運転者)が降車後に制御で車両を駐車場に入庫させる自動入庫処理において、第1所定期間、自車両Mを第1速度で走行させ、第1所定期間の経過後は、第1速度よりも速い第2速度で自車両Mを走行させたり、後述する各処理を自車両Mに実行させたりしてもよい。
図5は、降車後の自車両Mの挙動の一例について説明するための図である。図5は、図3の一部(駐車場PAや道路Rd)を省略した図である。図3と同様に説明は省略する。以下の説明では、上記(2)の駐車場PAに関連する施設の入口にユーザが到達した場合に、所定の条件が満たされるものとする。
時刻T+1で、ユーザが自車両Mから降車した後、ユーザUが駐車リクエストを自車両Mに送信すると、自車両Mは駐車場PAに向けて発進する。この発進したタイミングは、「第1タイミング」の一例である。
時刻T+2で、ユーザが施設の入口ENに向けて進むと共に、自車両Mが駐車場PAに向けて走行する。このとき、自車両Mは、第1行動を行って駐車場PAに向かう。第1行動とは、第1速度で走行して駐車場PAに向かう行動である。
時刻T+3で、ユーザが施設の入口ENに到達すると、自動運転制御装置100は、ユーザが施設の入口ENに到達したことを認識する。自動運転制御装置100は、上記の認識に応じて、第1行動を停止して第2行動を行う。第2行動とは、自車両Mが第1速度よりも速い第2速度で走行することである。自動運転制御装置100が、ユーザが施設の入口ENに到達したことを認識したタイミングは、「第2タイミング」の一例である。
図6は、降車後のユーザの行動と自車両Mの処理(特に認識処理)との関係を説明するための図である。図6の横軸は時間を示している。図5で説明した内容と異なる内容について説明する。時刻T+1から時刻T+3の間(第1所定期間)、認識部130は、第1認識処理および第2認識処理を行う。時刻T+3が経過後、認識部130は、第2認識処理を停止して第1認識処理を継続する。
第2認識処理は、画像において降車したユーザを認識し、認識したユーザをトラッキング(監視)する処理である。この処理により、認識部130は、第1所定期間、ユーザを認識し続けることができる。第1認識処理は、自動運転において自車両Mの周辺を認識する処理である。第1認識処理は、第2認識処理のように降車したユーザを他のユーザと区別したり、降車したユーザに着目したりせずに自車両Mの周辺を認識する処理である。
上述したように、自動運転制御装置100は、第1所定期間、第1行動を自車両Mに行わせ、第1所定期間が経過後に第2行動を自車両Mに行わせることにより、降車後の利用者を気遣うことができる。なぜなら、自車両Mは、第1所定期間、ユーザの行動を見守り、[降車後の自車両の挙動(その2)]で説明するようにユーザが所定状態になった場合に、所定状態に応じた行動を行うことができるためである。
[降車後の自車両の挙動(その2)]
自動運転制御装置100は、一以上のユーザが降車後に自車両Mが発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間において、一以上のユーザのうち、所定のユーザまたはすべてのユーザが所定状態である場合、所定状態でない場合とは異なる行動を自車両Mに実行させる。
所定状態は、以下の(第1状態)から(第3状態)の状態のうち、一以上の状態である。(第1状態)一以上のユーザのうち、少なくとも一以上のユーザが所定のジェスチャーを行った状態である。(第2状態)一以上のユーザのうち、少なくとも一以上のユーザが地面に倒れて、第3所定期間以上伏した状態である。(第3状態)一以上のユーザのうち、少なくとも一以上のユーザが前記一以上のユーザとは異なる人物または物体により被害を受けていると推定される状態である。以下、「所定状態」と、「異なる行動(第3行動から第5行動)」とについて、順次、具体的に説明する。
例えば、認識部130は、第2状態または第3状態について、以下のように認識する。認識部130は、状態情報182と、カメラ10により撮像された画像におけるユーザの状態とに基づいて、ユーザが第2状態または第3状態であることを認識する。図7は、画像におけるユーザの状態および状態情報182の内容の一例を示す図である。状態情報182は、例えば、人物の状態パターンに対して、状態の種別(第2状態または第3状態)が対応付けられた情報である。人物の状態パターンとは、例えば、種々の状態の人物が撮像された画像が解析された結果に基づく情報であり、輝度値などの特徴量の分布を示す情報である。種々の状態とは、人物が伏した状態や、人物が他の人物から危害が加えられている状態等を含む。
認識部130は、カメラ10により撮像された画像から得られたユーザの状態パターン(例えば特徴量の分布)IFが、状態情報182に含まれる人物の状態パターンと合致するか否かを判定する。合致とは、完全一致に限らず、所定程度以上一致していることを含む。上記判定において、合致していると判定した場合、認識部130は、合致していると判定した状態情報182の状態パターンに対応付けられた状態であると認識する。なお、上記の認識処理において、認識部130は、ユーザの表情を加味して、ユーザの状態を認識してもよい。この場合、状態情報182は、状態の種別ごとの人物の表情のパターンを含む。
また、認識部130は、上記の判定において、状態パターンが合致する回数が連続して閾値以上であると判定した場合、ユーザが合致すると判定した状態に対応する状態であると認識してもよい。
(第1状態が発生したときの挙動)
第1状態における所定のジェスチャーは、自車両M内に忘れ物をしたことを示すジェスチャーまたは自車両Mを呼び戻すジェスチャーである。自動運転制御装置100は、第1状態である場合、自車両Mに走行を継続させて、更に所定の経路を走行させてユーザが存在する位置付近に自車両Mを戻らせる。すなわち、自車両Mは、第3行動を行う。自車両Mが戻る位置は、ユーザが存在する位置付近に代えて、ユーザが自車両Mから降車した位置付近の位置であってもよいし、その他所定の位置であってもよい。
なお、第3行動は、所定の経路を走行させることに代えて、後進してユーザが存在する付近や停止エリア310に戻る行動であってもよい。例えば、自車両Mが停止エリアから所定距離(例えば数m)以内に存在する場合、後進する行動が行われてもよい。
図8は、降車後のユーザの行動と自車両Mの処理(特に認識処理)との関係を説明するための図である。時刻T+11は、ユーザが自車両Mから降車したタイミングである。時刻T+12で、ユーザが忘れ物をしたことを示すジェスチャーを行った場合、自車両Mは、第1行動を停止して、第3行動を開始する。時刻T+12は、ユーザが施設の入口に向かっている第1所定期間に含まれる時刻である。時刻T+13で、自車両Mはユーザと合流する。そして、ユーザは自車両Mの車室内から忘れ物を取り出すことができる。なお、認識部130は、例えば、時刻T+11から時刻T+13の間、第1認識処理および第2認識処理を行う。
図9は、第3行動の一例について説明するための図である。時刻T+12で、ユーザUが所定のジェスチャーを行うと、自車両Mは、駐車場PAの入口ENpを通過して、停止エリア310に戻る第3行動を行う。そして、自車両Mはユーザと合流する。
なお、第2認識処理は、時刻T+12から所定期間、停止され、所定期間が経過後に再開されてもよい。また、第2認識処理が停止されるタイミングは、ユーザが認識処理において認識されなくなった時点や、自車両Mが停止エリア310から所定距離進んだ地点(例えば図8のP1付近)に到達した時点等であってもよい。また、第2認識処理が再開されるタイミングは、乗降エリア320(または停止エリア310)が認識されたタイミングや、停止エリア310から所定距離の位置(例えば図8のP2付近)に到達したタイミングであってもよい。
上述したように、自動運転制御装置100は、第1所定期間において、ユーザが第1状態となった場合、第3行動を行うことにより、利用者の利便性が向上する。
(第2状態または第3状態が発生したときの挙動(その1))
自動運転制御装置100は、第2状態または第3状態のうち、いずれかの所定状態である場合、通信装置20を用いて所定の端末装置に所定状態に関する情報を送信する。すなわち、自車両Mは、第4行動を行う。「所定の端末装置」とは、予め設定された端末装置である。予め設定された端末装置は、ユーザを救護したり、ユーザを助けたりする施設に設置された端末装置や、ユーザと親しい人物が所有する端末装置、駐車場管理装置400等である。
図10は、所定状態に関する情報が送信される場面の一例について説明するための図である。図10の例では、第2状態が発生した例について説明する。時刻T+21は、ユーザが自車両Mから降車したタイミングである。時刻T+22で、ユーザが地面に倒れて、第3所定期間以上伏した状態である場合、自車両Mは、第1行動を停止して、第4行動を開始する。時刻T+22は、ユーザが施設の入口に向かっている第1所定期間に含まれる時刻である。時刻T+23で、第4行動に応じて、救護者Hがユーザを救護する。
なお、認識部130は、例えば、時刻T+21から時刻T+23の間、第1認識処理および第2認識処理を行ってもよいし、第4行動を行って所定の端末装置に所定状態に関する情報を送信した後に第2認識処理を停止してもよい。
また、自動運転制御装置100は、所定状態に関する情報と共に、ユーザの位置情報を所定の端末装置に送信してもよい。この場合、認識部130は、予め記憶装置に記憶された、カメラ10の撮像方向と画像における領域の大きさと自車両Mの位置に対する対象の位置とが対応付けられた情報を参照し、カメラ10の撮像方向と、カメラ10により撮像された画像におけるユーザに対応する領域の大きさと、画像における領域の位置とに基づいて、自車両Mに対する対象であるユーザの位置を認識する。そして、自動運転制御装置100は、自車両Mの位置と、上記のように認識した自車両Mに対するユーザの位置とに基づいて、地図上におけるユーザの位置を特定する。
上記のように、自動運転制御装置100は、第1所定期間において、ユーザが第2状態となった場合、第4行動を行うことにより、第2状態となったユーザの救護を支援することができる。
(第2状態または第3状態が発生したときの処理(その2))
自動運転制御装置100は、第2状態または第3状態のうち、いずれかの所定状態である場合、情報を出力する出力部に所定状態に関する情報(所定情報)を出力させる。すなわち、自車両Mは、第5行動を行う。
「情報を出力する出力部」は、例えば、自車両Mに設けられたスピーカや、表示部、ライト、ランプ、ワイパー、クラクションなど自車両Mまたはユーザの周辺に存在する人物に異変が起こったこと認識させることができる情報を出力可能なものである。また、「情報を出力する出力部」は、自車両Mが通信を行って制御可能な出力部であれば自車両Mに設けられていない出力部であってもよい。例えば、「情報を出力する出力部」は、駐車場PAを有する施設に設けられた出力部であってもよい。
「所定情報」は、例えば、ユーザの救護を求める情報や、ユーザに異変が生じている可能性を示す情報である。例えば、自動運転制御装置100は、所定状態である場合、スピーカに所定情報を出力させたり、ライト(例えばヘッドライト)を点滅させたり、クラクションを鳴らしたりする。また、例えば、自動運転制御装置100は、所定状態である場合、雨等が降っていなくてもワイパーを稼働させたり、車両に設けられた表示部の画面を点滅させたりする。また、自車両Mの外部に表示部が設けられている場合、自動運転制御装置100は、その表示部に所定情報を出力させてもよい。
図11は、所定情報が出力される場面の一例について説明するための図である。図11の例では、第3状態が発生した例について説明する。時刻T+31は、ユーザUが自車両Mから降車したタイミングである。時刻T+32で、ユーザUがユーザとは異なる人物Xにより被害を受けていると推定される状態である場合、自車両Mは、第1行動を停止して、第5行動を開始する。時刻T+32は、ユーザが施設の入口に向かっている第1所定期間に含まれる時刻である。時刻T+33で、第5行動に応じて、救護者がユーザを救護する。
なお、認識部130は、例えば、時刻T+31から時刻T+33の間、第1認識処理および第2認識処理を行ってもよいし、第5行動を行って第3状態が解除された後に第2認識処理を停止してもよい。
上記のように、自動運転制御装置100は、第1所定期間において、ユーザが第3状態となった場合、第5行動を行うことにより、第3状態となったユーザの救護を支援することができる。
以上説明した第1実施形態によれば、自動運転制御装置100は、第1所定期間、自車両Mを第1速度で走行させ、第1所定期間の経過後は、第1速度よりも速い第2速度で自車両Mを走行させることにより、降車後の利用者を気遣うことができる。また、自動運転制御装置100は、第1所定期間においてユーザが所定状態である場合、所定状態でない場合とは異なる行動(第3行動から第5行動のうちいずれかの行動)を自車両Mに実行させることにより、利用者の利便性を向上させたり、利用者の救護を支援したりすることができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では、駐車場管理装置400Aが、降車したユーザをトラッキングする。以下、第1実施形態との相違点を中心に説明する。以下、第2実施形態との相違点を中心に説明する。
図12は、駐車場管理システム(監視システム)1の機能構成の一例を示す図である。駐車場管理システム1は、例えば自車両Mを含む複数の車両と、駐車場管理装置400Aと、施設カメラ500とを含む。これらは、互いにネットワークNWを介して通信する。ネットワークNWは、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、プロバイダ装置、専用回線、無線基地局などを含む。
駐車場管理装置400Aは、制御部420に代えて制御部420Aを備え、記憶部430に代えて記憶部430Aを備える。制御部420Aは、例えば、情報処理部422と、認識部424とを備える。認識部424は、「監視部」の一例である。情報処理部422は、例えば、施設カメラ500により撮像された画像を記憶部430Aに記憶させたり、自車両Mから送信された情報を処理したりする。認識部424は、第1実施形態の認識部130と同等の機能を有する。例えば、認識部130は、車両から降車したユーザの状態を認識する機能を有する。認識部424は、自車両Mから降車したユーザを撮像する施設カメラ500により撮像された画像に基づいてユーザの行動を監視する。また、記憶部430Aには、状態情報436や、所定のジェスチャーに関する情報、撮像時刻が対応付けられた施設カメラ500により撮像された画像が記憶されている。
施設カメラ500は、所定の間隔で撮像領域を撮像し、撮像した画像を自装置の通信インタフェースを用いて、駐車場管理装置400Aに送信する。施設カメラ500の撮像領域は、例えば、乗降エリア320や、乗降エリア320から施設の入口までの経路等である。
図13は、駐車場管理システム1により実行される処理の流れの一例を示すシーケンス図である。まず、施設カメラ500が、撮像した画像を駐車場管理装置400に送信する(ステップS100)。次に、自車両Mの自動運転制御装置100が、ユーザが降車したタイミングで、ユーザが降車したことを示す降車情報を駐車場管理装置400Aに送信する(ステップS102)。例えば、自車両Mは、カメラ10により撮像された画像の解析結果や、車室内に設けられたカメラにより撮像された画像の解析結果、ドアの開閉状態を検知するドアセンサの検知結果等に基づいて、ユーザの降車を認識する。
次に、駐車場管理装置400の情報処理部422は、ステップS102で送信された降車情報を取得する(ステップS104)。次に、情報処理部422は、取得した降車時刻に基づいて、降車時刻に施設カメラ500により撮像された画像を抽出する(ステップS104)。次に、認識部424は、ステップS104で抽出された画像を解析して、車両から降車しているユーザを特定する(ステップS106)。
次に、情報処理部422は、施設カメラ500により撮像された画像を取得する(ステップS110)。次に、認識部424は、取得した画像においてユーザをトラッキングする(ステップS112)。このトラッキングは、例えば、ユーザが施設の入口ENに到達するまで継続される。
次に、情報処理部422は、施設カメラ500により撮像された画像を取得する(ステップS114)。次に、認識部424は、ステップS114で取得された画像を解析して、ユーザが施設に入ったことを認識する(ステップS116)。次に、情報処理部422は、ステップS116の認識結果を自車両Mに送信する(ステップS118)。自車両Mの自動運転制御装置100は、ステップS108で送信された認識結果を取得すると、第1行動とは異なる行動を行う(ステップS120)。例えば、自車両Mは、第1速度で走行していた状態から第2速度で走行する状態に移行する。
また、認識部424が、ユーザをトラッキングしている際にユーザが所定状態であると認識した場合、情報処理部422は、所定状態を示す情報を自車両Mに送信する。この場合、ユーザが第1状態から第3状態のうち、いずれの状態であるかを示す情報が送信されてもよい。自車両Mは、ユーザの状態に応じた行動を行う。
また、第2実施形態では、自動運転制御装置100は、自車両Mが駐車場PAに進入する前、駐車スペースに駐車する前に、ユーザが所定状態であることを示す情報を取得した場合、所定状態に応じた行動(第3行動から第5行動のうちいずれかの行動)を行ってもよい。
以上説明した第2実施形態によれば、第1実施形態と同様の効果を奏すると共に、自車両Mの処理負荷が軽減される。
上記の各実施形態において、所定期間または自車両Mが駐車場PAに駐車するまでの間、自車両Mは、降車したユーザが所持する端末装置に自車両Mのカメラ10が撮像した画像を送信してもよい。図14は、端末装置の表示部に表示される画像IMの一例を示す図である。例えば、カメラ10Bにより撮像された画像IM1が、表示部に表示される。例えば、ユーザは、自車両が自動走行して駐車場PAに向かった場合に自車両Mを見続けてしまう場合がある。上記のように画像が表示部に表示されれば、ユーザの安心度が向上する。
また、自動運転制御装置100は、車両の所定イベント後に無人運転または自動運転における処理において、所定イベント後に、上記実施形態で説明したように、車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、車両を第1挙動で走行させ、第1所定期間の経過後は、第1挙動よりも車両が単位時間当たりに進行する距離が長くなる第2挙動で車両を走行させもよい。所定イベントとは、上述した車両の一以上のユーザが降車するイベントであってもよいし、車両に関する他のイベントであってもよい。他のイベントとは、無人運転または自動運転によって荷物を運送する車両から荷物が取り出されるイベント、荷物が降ろされるイベント、荷物が積まれるイベント等である。上述した処理により、自動運転制御装置100は、ユーザを気遣うことができる。例えば、他のイベントが実行される場合、車両は、他のイベント後に、車両が所定の位置に向けて走行する際に、第1挙動で走行し、第1所定期間の経過後に第2挙動で走行する。
[ハードウェア構成]
図15は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100-1、CPU100-2、ワーキングメモリとして使用されるRAM(Random Access Memory)100-3、ブートプログラムなどを格納するROM(Read Only Memory)100-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100-5、ドライブ装置100-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100-1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100-5には、CPU100-2が実行するプログラム100-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100-3に展開されて、CPU100-2によって実行される。これによって、認識部130、行動計画生成部140、および第2制御部のうち一部または全部が実現される。また、駐車場管理装置400も、上記と同様に通信コントローラ、CPU、RAM、ROM、記憶装置、ドライブ装置などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。そして、記憶装置に記憶されたプログラムが、CPUに実行されることにより、制御部400が各種処理を行う。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
車両の周辺状況を認識し、
前記認識された周辺状況に基づいて、前記車両の操舵および加減速を制御し、
前記車両の所定イベント後に前記制御における処理において、
前記所定イベント後に前記車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、前記車両を第1挙動で走行させ、前記第1所定期間の経過後は、第1挙動よりも単位時間当たりに進行する距離が長くなる第2挙動で前記車両を走行させる、
ように構成されている、車両制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1‥駐車場管理システム、2‥車両システム、10‥カメラ、10A‥第1カメラ、10B‥第2カメラ、100‥自動運転制御装置、120‥第1制御部、130‥認識部、132‥駐車スペース認識部、140‥行動計画生成部、160‥第2制御部、182‥状態情報、400‥駐車場管理装置、420、420A‥制御部、422‥情報処理部、424‥認識部、500‥施設カメラ

Claims (11)

  1. 車両の周辺状況を認識する周辺状況認識部と、
    前記周辺状況認識部により認識された周辺状況に基づいて、前記車両の操舵および加減速を運転制御する運転制御部と、を備え、
    前記運転制御部は、前記車両の一以上のユーザが降車するイベントの後に前記運転制御で前記車両を駐車場に入庫させる自動入庫処理において、
    前記イベント後に前記車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、前記車両を第1速度で走行する第1挙動で走行させ、前記第1所定期間の経過後は、前記第1速度よりも速い第2速度で走行する第2挙動で前記車両を走行させ、
    前記第1所定期間において前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが所定状態である場合、前記所定状態でない場合とは異なる行動を前記車両に実行させ、
    前記所定の条件は、
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記降車した時刻から第2所定期間経過したこと、
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記降車した位置から所定位置まで移動したこと、または
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記周辺状況認識部により認識されなくなったことである、
    車両制御装置。
  2. 前記所定状態は、
    前記一以上のユーザのうち、少なくとも一以上のユーザが所定のジェスチャーを行った状態(以下、第1状態)であること、
    前記一以上のユーザのうち、少なくとも一以上のユーザが地面に倒れて、第3所定期間以上伏した状態(以下、第2状態)であること、または
    前記一以上のユーザのうち、少なくとも一以上のユーザが前記一以上のユーザとは異なる人物または物体により被害を受けていると推定される状態(以下、第3状態)であること、である、
    請求項1に記載の車両制御装置。
  3. 前記運転制御部は、前記第1状態である場合、前記車両に走行を継続させて、更に所定の経路を走行させて前記ユーザが存在する位置付近に前記車両を戻らせる、
    請求項2に記載の車両制御装置。
  4. 前記所定のジェスチャーは、前記車両内に忘れ物をしたことを示すジェスチャーまたは前記車両を呼び戻すジェスチャーである、
    請求項2または3に記載の車両制御装置。
  5. 所定の端末装置と通信する通信部を更に備え、
    前記運転制御部は、前記第2状態または前記第3状態のうち、いずれかの所定状態である場合、前記通信部を用いて前記所定の端末装置に前記所定状態に関する情報を送信する、
    請求項2から4のうちいずれか1項に記載の車両制御装置。
  6. 前記運転制御部は、前記第2状態または前記第3状態のうち、いずれかの所定状態である場合、情報を出力する出力部に前記所定状態に関する情報を出力させる、
    請求項2から5のうちいずれか1項に記載の車両制御装置。
  7. 車両の周辺状況を認識する周辺状況認識部と、
    前記周辺状況認識部により認識された周辺状況に基づいて、前記車両の操舵および加減速を運転制御する運転制御部と、を備え、
    前記運転制御部は、前記車両の一以上のユーザが降車するイベントの後に前記運転制御で前記車両を駐車場に入庫させる自動入庫処理において、
    前記イベント後に前記車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、前記車両を第1速度で走行する第1挙動で走行させ、前記第1所定期間の経過後は、前記第1速度よりも速い第2速度で走行する第2挙動で前記車両を走行させ、
    前記周辺状況認識部は、前記自動入庫処理において、前記第1所定期間、前記一以上のユーザを監視する処理を継続する、
    車両制御装置。
  8. 前記運転制御部は、前記車両に運転者のみが乗車し、前記運転者が降車後に前記運転制御で前記車両を駐車場に入庫させる自動入庫処理において、前記第1所定期間、前記車両を第1速度で走行させ、前記第1所定期間の経過後は、第1速度よりも速い第2速度で前記車両を走行させる、
    請求項1から7のうちいずれか1項に記載の車両制御装置。
  9. 請求項1から8のうちいずれか1項に記載の車両制御装置と、
    前記車両から降車したユーザを撮像する撮像部により撮像された画像に基づいてユーザの行動を監視する監視部と、を備え、
    前記運転制御部は、前記監視部により前記ユーザが所定状態であると認識された場合、前記所定状態でない場合とは異なる行動を前記車両に実行させる、
    監視システム。
  10. 一以上の制御装置が、
    車両の周辺状況を認識する処理と、
    前記認識された周辺状況に基づいて、前記車両の操舵および加減速を運転制御する処理と、
    前記車両の一以上のユーザが降車するイベントの後に前記運転制御で前記車両を駐車場に入庫させる自動入庫処理において、
    前記イベント後に前記車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、前記車両を第1速度で走行する第1挙動で走行させ、前記第1所定期間の経過後は、前記第1速度よりも速い第2速度で走行する第2挙動で前記車両を走行させ、
    前記第1所定期間において前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが所定状態である場合、前記所定状態でない場合とは異なる行動を前記車両に実行させる処理と、を実行し、
    前記所定の条件は、
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記降車した時刻から第2所定期間経過したこと、
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記降車した位置から所定位置まで移動したこと、または
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記認識する処理により認識されなくなったことである、
    車両制御方法。
  11. 一以上の制御装置に、
    車両の周辺状況を認識させる処理と、
    前記認識された周辺状況に基づいて、前記車両の操舵および加減速を運転制御させる処理と、
    前記車両の一以上のユーザが降車するイベントの後に前記運転制御で前記車両を駐車場に入庫させる自動入庫処理において、
    前記イベントの後に前記車両が発進した第1タイミングから所定の条件を満たした第2タイミングまでの第1所定期間、前記車両を第1速度で走行する第1挙動で走行させ、前記第1所定期間の経過後は、前記第1速度よりも速い第2速度で走行する第2挙動で前記車両を走行させ、
    前記第1所定期間において前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが所定状態である場合、前記所定状態でない場合とは異なる行動を前記車両に実行させる処理と、を実行させ、
    前記所定の条件は、
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記降車した時刻から第2所定期間経過したこと、
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記降車した位置から所定位置まで移動したこと、または
    前記一以上のユーザのうち、所定のユーザまたはすべてのユーザが前記認識する処理により認識されなくなったことである、
    プログラム。
JP2019051582A 2019-03-19 2019-03-19 車両制御装置、監視システム、車両制御方法、およびプログラム Active JP7123840B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019051582A JP7123840B2 (ja) 2019-03-19 2019-03-19 車両制御装置、監視システム、車両制御方法、およびプログラム
US16/804,043 US20200302199A1 (en) 2019-03-19 2020-02-28 Vehicle control device, monitoring system, vehicle control method, and storage medium
CN202010173023.8A CN111796591B (zh) 2019-03-19 2020-03-12 车辆控制装置、监视系统、车辆控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051582A JP7123840B2 (ja) 2019-03-19 2019-03-19 車両制御装置、監視システム、車両制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020152196A JP2020152196A (ja) 2020-09-24
JP7123840B2 true JP7123840B2 (ja) 2022-08-23

Family

ID=72515412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051582A Active JP7123840B2 (ja) 2019-03-19 2019-03-19 車両制御装置、監視システム、車両制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US20200302199A1 (ja)
JP (1) JP7123840B2 (ja)
CN (1) CN111796591B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11846514B1 (en) * 2018-05-03 2023-12-19 Zoox, Inc. User interface and augmented reality for representing vehicles and persons
CN113942496A (zh) * 2021-10-18 2022-01-18 长春一汽富晟集团有限公司 一种记忆泊车人机交互方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017121865A (ja) 2016-01-07 2017-07-13 トヨタ自動車株式会社 自動運転車両
JP2018156436A (ja) 2017-03-17 2018-10-04 株式会社デンソー 走行制御システム、走行制御プログラム及び自動走行車両
JP2019026067A (ja) 2017-07-31 2019-02-21 日立オートモティブシステムズ株式会社 自律運転制御装置、自律移動車及び自律移動車制御システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1737501A (zh) * 2004-08-20 2006-02-22 爱信精机株式会社 用于车辆的停车辅助装置与停车辅助方法
US9950708B1 (en) * 2012-11-02 2018-04-24 Waymo Llc Adaptation of autonomous driving behaviour based on occupant presence and position
DE202013005826U1 (de) * 2013-06-28 2014-09-29 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Anordnung zum Erkennen des Aussteigens eines Insassen eines Fahrzeugs aus dem Fahrzeug, Anordnung zum Aktivieren oder Deaktivieren einer Funktion in einem Fahrzeug, sowie Fahrzeug
US20170253237A1 (en) * 2016-03-02 2017-09-07 Magna Electronics Inc. Vehicle vision system with automatic parking function
JP6598127B2 (ja) * 2016-05-31 2019-10-30 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
KR101979268B1 (ko) * 2017-03-03 2019-05-16 엘지전자 주식회사 자율 주행 시스템
US20190066515A1 (en) * 2017-08-22 2019-02-28 Waymo Llc Estimating time to pick up and drop off passengers for improved stopping analysis in autonomous vehicles
US10627815B2 (en) * 2017-08-22 2020-04-21 Waymo Llc Context aware stopping for autonomous vehicles
CN107621823A (zh) * 2017-08-31 2018-01-23 金勇� 自动行驶汽车的站台精准停车系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017121865A (ja) 2016-01-07 2017-07-13 トヨタ自動車株式会社 自動運転車両
JP2018156436A (ja) 2017-03-17 2018-10-04 株式会社デンソー 走行制御システム、走行制御プログラム及び自動走行車両
JP2019026067A (ja) 2017-07-31 2019-02-21 日立オートモティブシステムズ株式会社 自律運転制御装置、自律移動車及び自律移動車制御システム

Also Published As

Publication number Publication date
CN111796591A (zh) 2020-10-20
CN111796591B (zh) 2024-05-17
US20200302199A1 (en) 2020-09-24
JP2020152196A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
JP7032295B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP7240218B2 (ja) 車両制御システム、車両制御方法、及びプログラム
JP7190393B2 (ja) 車両制御装置、車両管理装置、車両制御方法、およびプログラム
JP7210334B2 (ja) 車両制御装置、車両制御システム、車両制御方法、およびプログラム
CN111986505B (zh) 控制装置、上下车设施、控制方法及存储介质
JP7145112B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7236307B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7125910B2 (ja) 車両管理装置、車両管理方法、およびプログラム
JP7155047B2 (ja) 車両制御装置、車両制御方法、およびプログラム
CN113442947A (zh) 车辆控制装置、车辆控制方法及存储介质
US20200310457A1 (en) Vehicle control device, vehicle control method, and storage medium
US11183063B2 (en) Recognition and guidance to specialized stop spaces for different sized vehicles
US20200298874A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7237684B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7058234B2 (ja) 車両制御装置、情報提供装置、情報提供システム、車両制御方法、情報提供方法、およびプログラム
JP7111640B2 (ja) 車両制御システム、車両制御方法、及びプログラム
JP7123840B2 (ja) 車両制御装置、監視システム、車両制御方法、およびプログラム
JP2020147066A (ja) 車両制御システム、車両制御方法、及びプログラム
JP7110153B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7123836B2 (ja) 車両制御システム、車両制御方法、及びプログラム
JP7157686B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7101630B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7133506B2 (ja) 管理装置
JP2020186563A (ja) 制御装置、駐車場システム、制御方法、及びプログラム
CN111619571B (zh) 车辆控制系统、车辆控制方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220810

R150 Certificate of patent or registration of utility model

Ref document number: 7123840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150