JP7385502B2 - sensing system - Google Patents
sensing system Download PDFInfo
- Publication number
- JP7385502B2 JP7385502B2 JP2020038613A JP2020038613A JP7385502B2 JP 7385502 B2 JP7385502 B2 JP 7385502B2 JP 2020038613 A JP2020038613 A JP 2020038613A JP 2020038613 A JP2020038613 A JP 2020038613A JP 7385502 B2 JP7385502 B2 JP 7385502B2
- Authority
- JP
- Japan
- Prior art keywords
- route
- obstacle
- vehicle
- sensing system
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D6/00—Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、センシングシステムに関する。 The present invention relates to a sensing system.
本技術分野の背景技術として、特許文献1がある。この公報には、課題として「歩道と道路との段差や傾斜等、路面の勾配が変化している地点を通過する際、車両の底部と路面とが接触することがよくある。しかしながら、従来、このような車両の底部と障害物や路面との接触の可否を的確に判断できるシステムは提案されていなかった。」と記載され、解決手段として、「車両の周辺を監視する監視手段から得られる情報に基づいて、前記車両周辺の障害物の形状、路面形状、及び路面形状の変化地点のうちの少なくともいずれかを含む障害要因を解析する障害要因解析手段と、前記車両の現在の地上高を求める地上高算出手段と、前記障害要因解析手段により解析された前記障害要因に関する情報、及び前記地上高算出手段により算出された前記車両の現在の地上高に基づいて、前記車両の底部が前記障害物と接触せずに該障害物上を通過可能か否かを判断する接触判断手段と、該接触判断手段による判断結果に基づいて、所定の告知を行う告知手段とを備えていることを特徴としている。」と記載されている。
As background technology in this technical field, there is
前記特許文献1では、例えば車両が障害物に接近するなどして障害物が死角に入った際に、死角にある障害物に衝突することなく操舵するタイミングを、運転者が運転に集中したまま通知することに課題がある。
In
本発明は、上記課題に鑑みてなされたもので、その目的は、死角にある障害物に衝突することなく操舵するタイミングを、運転者が運転に集中したまま知ることができるセンシングシステムを提供することである。 The present invention has been made in view of the above-mentioned problems, and its purpose is to provide a sensing system that allows a driver to know when to steer without colliding with obstacles in a blind spot while remaining concentrated on driving. That's true.
上記目的を達成するために、本発明に係るセンシングシステムは、車両の周囲の障害物の高さと位置とを対応付けた位置情報を記憶する位置記憶部と、前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部と、を有し、前記運転支援は、前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む。 In order to achieve the above object, a sensing system according to the present invention includes a position storage unit that stores position information that associates heights and positions of obstacles around the vehicle; a driving support processing unit that performs driving support when the vehicle approaches a road along a curved route; This includes notifying passengers of the steering timing of the vehicle.
本発明によれば、死角にある障害物に衝突することなく操舵するタイミングを、運転者が煩わしい操作なく知ることができる。 According to the present invention, the driver can know the timing to steer the vehicle without colliding with an obstacle in the blind spot without any troublesome operation.
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.
以下、図面を用いて本発明の実施例を説明する。なお、以下の実施例の説明において同じ機能を有する部分には同じ符号を付して繰り返し説明は省略する場合がある。 Embodiments of the present invention will be described below with reference to the drawings. In addition, in the following description of the embodiments, parts having the same functions may be denoted by the same reference numerals, and repeated description thereof may be omitted.
[実施例1]
対象の三次元位置を推定する手段として、ステレオカメラシステムが良く知られている。ステレオカメラシステムは、カメラを複数の位置に配置して同一対象物体を異なる複数の視点から撮像し、得られた画像における見え方のずれ、すなわち視差から対象物体までの距離を算出する。2台のカメラを用いた一般的なステレオカメラシステムでは、この変換は以下の数式1で表される。
(数1)
ここで、Z[mm]は対象物体までの距離、f[mm]は焦点距離、w[mm/px]は画素ピッチ、B[mm]はカメラ間の距離(基線長)、D[px]は視差を表す。
[Example 1]
A stereo camera system is well known as a means for estimating the three-dimensional position of an object. A stereo camera system arranges cameras at a plurality of positions to image the same target object from a plurality of different viewpoints, and calculates the distance to the target object from the difference in appearance in the obtained images, that is, the parallax. In a typical stereo camera system using two cameras, this conversion is expressed by
(Number 1)
Here, Z[mm] is the distance to the target object, f[mm] is the focal length, w[mm/px] is the pixel pitch, B[mm] is the distance between cameras (baseline length), D[px] represents parallax.
視差を算出するにあたっては、複数の位置から撮像された画像を水平に並べ、左画像内の特定の点に対して右画像内で同一の点が撮像されている位置を探索する。この探索を効率よく実施するため、一般には平行化処理を事前に実施する。 To calculate parallax, images taken from a plurality of positions are arranged horizontally, and a position where the same point is imaged in the right image with respect to a specific point in the left image is searched for. In order to efficiently perform this search, parallelization processing is generally performed in advance.
平行化とは、画像の縦方向の位置合わせを意味する。すなわち、左右画像で同一の点は同一の高さに撮像されているように画像を校正する処理である。平行化された画像では、対応点を探索する際に、ある横一列のみを探索すればよく、処理効率が高い。 Parallelization means alignment of images in the vertical direction. That is, this is a process of calibrating the images so that the same points in the left and right images are captured at the same height. In a parallelized image, when searching for corresponding points, only one horizontal row needs to be searched, resulting in high processing efficiency.
以下では、対象物体(障害物)の三次元位置を推定する手段としてステレオカメラシステムによる障害物検知システムを例に説明する。ただし、対象物体(障害物)の三次元位置を推定する手段としては、対象物体(障害物)の距離(高さ)と位置とを対応付けて推定できればよく、例えば、赤外線センサ、ミリ波レーダ、Lidarなど、ステレオカメラシステム以外の任意の手段を適用することができる。 In the following, an obstacle detection system using a stereo camera system will be described as an example of means for estimating the three-dimensional position of a target object (an obstacle). However, as a means of estimating the three-dimensional position of the target object (obstacle), it is sufficient to be able to estimate the distance (height) and position of the target object (obstacle) by associating the position.For example, infrared sensor, millimeter wave radar , Lidar, etc., any means other than a stereo camera system can be applied.
図1は、実施例1における障害物検知システムの全体構成図であり、例えば車両200のフロントガラスに画像処理装置としてのステレオカメラシステムを含むセンシングシステム201が設置されている。センシングシステム201は、車両情報ECU202に接続され、操舵装置204およびブレーキ制御装置205は、車両情報ECU202の指示によって操舵および加減速を制御することができる。例えば障害物210、211を検出した場合、その障害物210、211の位置の検出をセンシングシステム201で行い、障害物210、211との距離を測定した結果を車両情報ECU202に送信する。障害物210、211と衝突しそうであれば、車両情報ECU202は、ブレーキ制御装置205へブレーキ指示したり、操舵装置204へ操舵指示することで、衝突の被害を軽減することが可能なシステムである。
FIG. 1 is an overall configuration diagram of an obstacle detection system according to a first embodiment. For example, a
図2および図3は、障害物301と車両200の位置関係の説明図である。図2および図3に示すように、車両200が障害物301に接近して障害物301が死角に入った状態で障害物301の近傍もしくは障害物301上を通過する場合、前記のようにセンシングシステム201で障害物301の位置や距離の検出を行うことはできない。ただし、図2に示すように、平らな路面302上に車両200と障害物301がある場合、車両200が障害物301に接近して障害物301が死角に入ったときでも、障害物301と車両200(の底面)の位置関係はセンシングシステム201で事前に検出した関係から変化しないため(換言すれば、センシングシステム201で事前に検出した関係をそのまま利用可能であるため)、路面302から車両200の底面までの高さが、障害物301の路面302からの高さより低ければ(詳しくは、低いことが事前に検出できていれば)、衝突はしない。しかし、実際の道路環境では、図3に示すように、路面303に凹凸が存在している。特に、駐車場の出入り口などは段差があることが多く、路面303のように凹凸があり、車両200が傾く。そのため、障害物301と車両200(の底面)の位置関係の検出結果から衝突しないと事前に判定されていた場合でも、車両200が障害物301に接近して障害物301が死角に入ったときに(例えば、右左折の操舵などによって障害物301が死角に入ったときに)、路面303の凹凸によって障害物301と車両200(の底面)の位置関係がセンシングシステム201で事前に検出した関係から変化した場合、車両200(の底面)が障害物301に衝突してしまう可能性がある。つまり、障害物301に衝突するかどうかの判定は、路面303の凹凸と車両200の姿勢から衝突可能性を判断する必要がある。
2 and 3 are explanatory diagrams of the positional relationship between the obstacle 301 and the
本実施例のセンシングシステム201は、主として、駐車場や脇道から車両200を操舵して左折または右折しながら(すなわち、曲線の経路を伴って)道路へ進入する際、或いは、交差点やT字路などの一方の道路から車両200を操舵して左折または右折しながら(すなわち、曲線の経路を伴って)他方の道路へ進入する際、前記のように死角に入る大きさ(高さ)の障害物301との衝突を回避可能とするための運転支援(操舵支援)を行うシステムである。
The
(構成説明)
図4は、実施例1におけるセンシングシステムの構成を示す図である。車両200に搭載されたセンシングシステム201は、CPU103と、メモリ102、画像入力部101、距離測定部100、物体検知部104、位置記憶部105、運転支援処理部106、経路推定部120、外部入出力部110で構成される。センシングシステム201を構成する各構成要素は、通信ラインを介して通信可能に接続されている。CPU103は、メモリ102に格納されているプログラムの指示に従って、以下で説明する演算処理を実行する。
(Configuration explanation)
FIG. 4 is a diagram showing the configuration of a sensing system in Example 1. The
画像入力部101は、外部の画像データ出力装置(図示せず)が出力したデータを入力するためのインターフェースである。ステレオカメラの場合、左右が同一の時刻で撮影されるように同期された画像が入力されると、距離をより正確に求めることができる。画像入力部101で入力されたデータは、メモリ102に格納される。
The
距離測定部100は、画像入力部101から入力された左右画像が平行になるように取付位置やレンズによる歪などを補正し、画素毎に2つのカメラの見え方の差である視差を算出し、画素毎に距離を算出する。あらかじめカメラの歪やレンズおよび撮像素子そしてカメラ間の位置関係を計測することで、視差から距離を算出することができる(数式1)。
The
物体検知部104は、距離測定部100から出力される距離データ(距離情報)から、物体の領域(画像上の位置に対応)を抽出する。物体の領域抽出方法は、距離の近い領域をグルーピングする方式や、画像入力部101から入力された画像データから人や車のパターンを検出する方法などがある。これらの計算はCPU103にて行われる。
The
なお、車両200の周囲の物体(障害物)の距離情報の取得方法や検知方法は、物体(障害物)の距離(高さ)と位置とを対応付けて取得・検知できれば、図示例に限られない。
Note that the method for acquiring and detecting the distance information of objects (obstacles) around the
位置記憶部105は、距離測定部100から得られる距離情報を記憶する。ここでは、位置記憶部105は、距離測定部100から得られる距離情報を、物体(障害物)の距離(高さ)と位置とを対応付けた位置情報として記憶する。位置記憶部105は、外部入出力部110から入力される車速情報、操舵角情報、ヨーレート情報、または絶対位置情報などの車両情報から、自車がどのように移動したかを推定し、自車周辺の距離情報を更新し、保持する。この距離情報から路面の凹凸(図3参照)を復元できるため、自車周辺の凹凸情報を常に把握することが可能となる。例えば車両前方に取り付けられたカメラは、近傍や真横などはレンズの画角の範囲外(死角)になる。したがって、画像入力部101の画角外においては、この位置記憶部105の情報を更新し続けることで、自車周辺の凹凸を判断することができる。
The
外部入出力部110は、センシングシステム201と他の機器との情報伝達に使用する。例えば自動車の場合、CAN(Car Area Network)を接続し、他の機器と通信することができる。運転者に対する表示装置やスピーカ装置などで構成されるユーザ通知部150を接続することで、運転者に対して注意を促すことができる(後で説明)。特に本実施例の場合、警告音を発するスピーカ装置で通知することで、運転者の左右安全確認を妨げることなく通知することができ、好適である。
The external input/
ここで、車両200の経路について説明する。図6に経路の説明図を示す。図6において、702から705は自車の時刻毎の位置を示し、702から時刻が経過する毎の位置を702,703,704,705の順に自車が移動する例を示している。720は低い段差からなる障害物であり、時刻T0の位置702ではカメラで撮影できていたが、時刻T1の位置703ではカメラの死角になり、障害物720は運転者からは見えない。701は自車の経路を示しており、本例において経路とは車両の幅を持った軌跡である。710は道路上の区画線(中央線や車線境界線など)であり、図6の例では破線の白線の例を図示している。711は経路701(つまり自車)が進入する道路上の区画である。図6の例では、自車が操舵して左折し、区画線710によって画定される区画711へ曲線の経路701を伴って位置702,703,704,705の順に移動して進入している。経路701の近くの障害物720は、時刻T0の位置702ではカメラで撮影できていたが、時刻T1の位置703ではカメラの死角になる。そのため、時刻T1の位置703でカメラの死角にある障害物720との衝突を回避しつつ自車を操舵して左折することによって、道路上の区画711へ進入することが望まれる。
Here, the route of
センシングシステム201の経路推定部120は、外部入出力部110から入力される、ハンドルの操舵角度、方向指示器の状態、車両の速度、ヨーレート、車両の絶対位置などから、自車がどの位置を通過するかを予測する。経路推定部120は、現在時刻から数秒先までの位置を求める。ここで、ハンドルの操舵角度を現在の操舵角度から変化させた場合を想定した複数の経路を求める。なお、車両の速度やヨーレートを現在の値から変化させた場合を想定した複数の経路を求めてもよい。この複数の経路をまとめて走行可能性経路として、位置記憶部105が保持する距離情報に経路として記憶させる。
The
運転支援処理部106は、前記位置記憶部105から出力される距離情報(位置情報)から、あらかじめメモリ102に保持している車両底面の高さ、前後の車輪の位置関係などの車両のパラメータを利用し、障害物と車両の高さの差を算出する。運転支援処理部106は、前記経路上(詳しくは、距離情報に記憶させた経路上)の障害物の位置と前記高さの差から、障害物との衝突可能性(すなわち、前記経路が障害物を回避する経路になったかどうか)を判断し、衝突可能性がある場合は、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で警告する。また、運転支援処理部106は、それと同時に操舵を開始しても障害物と衝突しないかどうか(すなわち、前記経路が障害物を回避する経路になったかどうか)を判断しており、前記経路上の障害物付近の経路を通過する時は、操舵を開始しても障害物と衝突しないと判定した時点で、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で報知(本例では、警告音や警告表示を消すことで報知)する。これにより、車両200を操舵して左折または右折しながら道路へ進入する際、操舵を開始しても障害物と衝突しなくなった際に、車両の操舵タイミングを運転者(搭乗者)に報知する。例えば、運転手が通過する経路は操舵角などから計算し(経路推定部120)、障害物に近づいたら警告音が鳴り、警告音が消えたら操舵開始してもよいという合図にすることで、運転手は左右の安全確認、適切なスピードコントロール、適切な操舵(操舵タイミング)に集中することができる。特に、死角領域で見えなくなってしまった障害物に対しても、前記位置記憶部105から出力される距離情報(位置情報)を利用することで、側面を監視するセンサや車両の姿勢や高さを測定するセンサを追加することなく、衝突を回避することができる。
The driving
(動作説明)
図5のフローチャートにて一連の動作を説明する。カメラおよびそれに続く図5に示す処理は所定の周期処理で実行され、その一連の動作について説明する。
(Operation explanation)
A series of operations will be explained using the flowchart in FIG. The camera and subsequent processing shown in FIG. 5 are executed in a predetermined periodic process, and a series of operations thereof will be described.
まず最初にステップS1001として、画像入力部101からカメラ画像を取得し、距離測定部100で各画素の距離を計算する。次に、ステップS1002では、距離測定部100で生成した距離情報から物体検知部104にて物体(障害物)を検知する。
First, in step S1001, a camera image is acquired from the
次に、ステップS1003では、位置記憶部105にて、物体検知部104の出力結果(距離情報(位置情報))を記憶する。ステップS1003では、障害物の位置と、路面の小さな凹凸を記憶する。凹凸の記憶は、例えば、10cm四方ごとにある起点からの三次元位置情報を記憶するものとする。起点は、カメラの電源が入ったときや外部入出力部110から得られる現在位置情報などで決定してもよい。これらの三次元位置情報の点群は、外部入出力部110から入力される自車速や操舵角、ヨーレート、絶対位置などの車両情報から前回のフレームからどれだけ移動したかを計算して保存する(ステップS1004(前回位置更新))。ステップS1005では、経路推定部120にて、外部入出力部110から入力される自車速や操舵角、ヨーレート、自車位置などの車両情報から、時刻T経過化後の自車位置を予測し、それらの自車位置で構成される経路(複数の経路からなる走行可能性経路)を生成する。
Next, in step S1003, the output result (distance information (position information)) of the
ステップS1006では、運転支援処理部106にて、ステップS1004(前回位置更新)で更新された情報とステップS1005(走行可能性経路生成)で求めた経路とを基に、自車が経路を通過した時の、車のタイヤと路面の凹凸から、障害物にぶつかる位置を計算し、障害物に衝突するかどうか(すなわち、前記経路が障害物を回避する経路になったかどうか)を判定する。衝突するかどうかの判定は、車両の外側の最低地上高よりも障害物の位置が高いかどうかで決まる。衝突可能性がある場合は(S1007:Yes)、ステップS1008で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。例えばユーザ通知部150としてのスピーカで警告音をならすことで、ユーザに通知する。また、操舵を開始しても衝突可能性がない場合は(S1007:No)、ステップS1009で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。例えばユーザ通知部150としてのスピーカの警告音を消す(鳴動を停止する)ことで、ユーザに通知する。
In step S1006, the driving
(作用効果説明)
以上で説明したように、本実施例のセンシングシステム201は、車両の周囲の障害物の高さと位置とを対応付けた位置情報を記憶する位置記憶部105と、前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部106と、を有し、前記運転支援は、前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む。
(Explanation of action and effect)
As described above, the
本実施例によれば、死角にある障害物に衝突することなく操舵するタイミングを、運転者が煩わしい操作なく知ることができる。また、障害物を検出するセンサは例えば前方を監視するセンサのみで障害物を回避できる。 According to this embodiment, the driver can know the timing to steer the vehicle without colliding with an obstacle in the blind spot without any troublesome operations. Further, obstacles can be avoided by using only sensors that monitor the front, for example, as sensors that detect obstacles.
[実施例2]
区画線を考慮して駐車場から道路に進入する場合の運転支援の例について図7および図8を参照して説明する。
[Example 2]
An example of driving assistance when entering a road from a parking lot while taking lane markings into consideration will be described with reference to FIGS. 7 and 8.
本実施例2では、実施例1に加えて、区画検知部107を追加する。区画検知部107は、図6に示す道路の区画線710である白線および区画線710で画定される区画711を検知する。カメラによる区画線の検知方式は、画像からエッジを抽出し、直線を検出する方法などがある。ただし、区画線および区画の検知方法は、これに限られない。区画検知ができた場合、運転支援処理部106は、前記障害物を回避しつつ経路が検知した区画内に収まるように、すなわち、図6に示すように経路が道路上の区画線より前を通過するように、運転手に外部入出力部110からユーザ通知部150を介して報知する。これにより、車両200を操舵して左折または右折しながら道路へ進入する際、操舵を開始しても障害物と衝突しなくなった際に、経路が道路上の区画線より前を通過する車両の操舵タイミングを運転者(搭乗者)に報知する。
In the second embodiment, in addition to the first embodiment, a
区画検知処理は、例えば、図8のステップS2001のタイミングで区画検知部107にて実施される。つまり、ステップS1007で衝突可能性がないと判断されて(S1007:No)、ステップS2001で区画検知部107にて区画を検知した後、ステップS2002で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。
The division detection process is performed by the
以上で説明したように、本実施例のセンシングシステム201は、前記運転支援処理部106の前記運転支援は、前記障害物が前記経路外にあり、前記経路が前記道路上の区画線より前を通過する前記車両の操舵タイミングを搭乗者に報知することを含む。前記経路は実際にはある幅を持った領域として表現できるので、前記経路外とは前記車両が通過する領域の外部と表現できる。
As explained above, in the
本実施例によれば、区画検知部107の検知結果を使用することにより、操舵が遅くなり区画外に自車(経路)がはみ出す危険を回避することができる。
According to this embodiment, by using the detection results of the
[実施例3]
駐車場から道路に進入するに当たって、ユーザ通知を2段階化して経路の選択肢を向上させる場合の運転支援の例について図9を参照して説明する。
[Example 3]
An example of driving assistance in a case where user notification is divided into two stages to improve route options when entering a road from a parking lot will be described with reference to FIG. 9.
本実施例3では、実施例2に加えて、経路支援部108を追加する。前記障害物を回避しつつ、区画をはみ出さずに進入する際、前記障害物付近に近づくまでの経路によっては、経路の解がなくなってしまう場合がある。例えば、図10の経路721のように障害物720に近づきすぎて道路へ進行すると、車両の内輪差から衝突を回避するための操舵開始タイミングが遅くなり、結果として、区画線710(区画711)をはみ出さないと曲がれないという事態がある。そこで、経路支援部(事前報知部ともいう)108は、前記障害物の位置と区画検知部107の出力結果から、自車の経路が、区画内に曲がりきれ、障害物にも衝突しない経路722より721側になりそうなときには、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で経路722になるように障害物の手前で一旦報知する。この報知により、障害物の手前で右左折に関する経路の選択肢が増加する位置を運転者(搭乗者)に報知したり、障害物の手前で右左折に関する経路の選択肢が増加する位置へ運転者(搭乗者)を誘導する。運転者が区画をはみ出さずに右折または左折することが判断できない場合は、障害物の手前で右左折に関する経路の選択肢が多くなる位置を運転者(搭乗者)に報知したり、障害物の手前で右左折に関する経路の選択肢が多くなる位置へ運転者(搭乗者)を誘導するように1回目の支援(つまり、運転者への報知)を行い、障害物を回避でき且つ運転者が区画をはみ出さずに右折または左折できるタイミングで2回目の支援(つまり、実施例1、2と同様の運転者への報知)を行い、これらの支援を組み合わせることで、確実に区画に経路を収めることができる。
In the third embodiment, in addition to the second embodiment, a
以上で説明したように、本実施例のセンシングシステム201は、前記障害物の手前で右左折に関する経路の選択肢が増加する位置を搭乗者に報知または誘導する経路支援部108を備える。
As described above, the
本実施例によれば、ユーザ通知を2段階化して経路の選択肢を向上(増加)させることにより、区画外に自車(経路)がはみ出す危険を回避することができる。 According to this embodiment, by dividing the user notification into two stages and improving (increasing) route options, it is possible to avoid the risk of the own vehicle (route) protruding outside the section.
[実施例4]
駐車場から道路に進入する際に別の障害物(移動体)がある場合の運転支援の例について図11および図12を参照して説明する。
[Example 4]
An example of driving support when there is another obstacle (moving object) when entering a road from a parking lot will be described with reference to FIGS. 11 and 12.
本実施例4では、実施例3に加えて、移動体進入予測部109を追加する。移動体進入予測部109は、区画線内の経路上に、自動車や自転車、歩行者などの移動体が進入してくるかどうかを予測・判定する。予測方法としては、カメラにより移動体(車両、歩行者など)を検出し、移動体の速度を予測する。この予測結果が経路上に交差し、自車と移動体が衝突する危険がある場合は、運転支援処理部106は、操舵の指示ではなく、停止の指示を出力する。自車と移動体が衝突する危険がない場合は、運転支援処理部106は、障害物を回避しつつ経路が検知した区画内に収まるように、運転手に対して外部入出力部110からユーザ通知部150を介して報知する。なお、移動体の予測方法は、これに限られない。
In the fourth embodiment, in addition to the third embodiment, a mobile object
移動体衝突判定処理は、例えば、図12のステップS4001のタイミングで移動体進入予測部109にて実施される。つまり、ステップS1007で衝突可能性がないと判断されて(S1007:No)、ステップS2001で区画検知部107にて区画を検知した後、ステップS4001で、移動体進入予測部109にて区画線内の経路上に移動体が進入してくるかどうかを予測・判定する。区画線内の経路上に移動体が進入し、移動体との衝突可能性がある場合は(S4001:Yes)、ステップS4002で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。また、ステップS4002で、外部入出力部110から停止指示を出力する。区画線内の経路上に移動体が進入せず、移動体との衝突可能性がない場合は(S4001:No)、ステップS4003で、外部入出力部110からユーザに通知(つまり、実施例1~3と同様の操舵タイミングの通知)する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。
The moving object collision determination process is executed by the moving object
これにより、万が一運転手が衝突の危険のある障害物(移動体)に気づかなくても衝突を回避することができる。また、運転手が衝突の危険を察知しているにもかかわらず、運転支援処理部106から操舵の指示があると、混乱する、または、システムに対しての不信感につながる。したがって、移動体進入予測部109と組み合わせて利用することで、より安心感のある運転支援を提供することが可能となる。
This makes it possible to avoid a collision even if the driver does not notice an obstacle (moving object) that poses a risk of collision. Furthermore, if the driver receives a steering instruction from the driving
以上で説明したように、本実施例のセンシングシステム201は、前記経路への移動体の進入の有無を予測する移動体進入予測部109を備える。
As described above, the
本実施例によれば、障害物(移動体)との衝突を回避できるとともに、より安心感のある運転支援を提供することが可能となる。 According to this embodiment, it is possible to avoid a collision with an obstacle (moving object) and to provide driving support with a more secure feeling.
[実施例5]
多目的のセンシングシステムにおいて運転手の操作を低減しながらも運転支援をする例について図13を参照して説明する。
[Example 5]
An example of providing driving support while reducing the number of operations performed by the driver in a multi-purpose sensing system will be described with reference to FIG. 13.
本実施例5では、実施例4に加えて、シーン判定部111を追加する。シーン判定部111は、位置記憶部105の位置情報とカメラの画像などから、障害物を回避した運転支援が必要かどうかを判定する。例えば、予測経路が死角部分の障害物に近接することを検出することで対応できる。シーン判定部111が運転支援が必要な状態と判定した場合、運転支援処理部106に対して運転支援を開始する信号を出力することで、実施例1~4のような運転支援を提供するとともに、その状態を外部に通知する。側面カメラモジュールやディスプレイモジュールが搭載されているシステムの場合、このシーン判定部111からの信号を自動で画像表示、死角の障害物の位置に注意喚起の運転支援結果を重畳することで、より明確に運転手に伝えることができる。また、システムが自動的に判断することで、運転手の操作が不要で、運転者は左右の安全確認やアクセル操作に集中することができる。
In the fifth embodiment, in addition to the fourth embodiment, a
以上で説明したように、本実施例のセンシングシステム201は、前記位置情報と前記経路に基づいて、前記運転支援の要否を判定し、前記運転支援が必要と判定した場合、前記運転支援を開始する信号を出力するシーン判定部111を備える。
As described above, the
本実施例によれば、条件にマッチした信号を出力し、自動運転支援に移行することが可能となる。 According to this embodiment, it is possible to output a signal that matches the conditions and shift to automatic driving support.
[実施例6]
メモリ量が小さいシステムで動作させる場合の運転支援の例について図14を参照して説明する。
[Example 6]
An example of driving support when operating in a system with a small amount of memory will be described with reference to FIG. 14.
本実施例6では、実施例5に加えて、位置情報領域選択部112を追加する。メモリが少ない場合は、位置記憶部105の記憶量を削減すると効果的である。位置情報領域選択部112は、位置記憶部105に記憶する情報を、物体検知部104で検知された物体(障害物)の位置の周辺の領域に限定(選択)する。さらに、位置情報領域選択部112は、経路推定部120で推定された経路と障害物の位置関係が近い順に障害物の位置の周辺の位置情報を選択してメモリに記憶し、メモリが不足する場合には、経路との位置関係が遠い障害物の位置の周辺の位置情報は記憶しないことする。これにより、位置情報を記憶する部分を限定・選択することで、位置記憶部105の記憶量を削減することができる。
In the sixth embodiment, in addition to the fifth embodiment, a position information
以上で説明したように、本実施例のセンシングシステム201は、前記経路に近い順に前記障害物の位置の周辺の位置情報を選択する位置情報領域選択部112を備える。
As described above, the
本実施例によれば、メモリとしての位置記憶部105の記憶量を削減することで、省メモリ化を図ることができる。
According to this embodiment, by reducing the storage capacity of the
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add, delete, or replace a part of the configuration of each embodiment with other configurations.
また、以上の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, each of the above configurations may be partially or entirely configured by hardware, or may be configured to be realized by executing a program on a processor. Further, the control lines and information lines are shown to be necessary for explanation purposes, and not all control lines and information lines are necessarily shown in the product. In reality, almost all components may be considered to be interconnected.
100 距離測定部、101 画像入力部、102 メモリ、103 CPU、104 物体検知部、105 位置記憶部、106 運転支援処理部、107 区画検知部(実施例2)、108 経路支援部(実施例3)、109 移動体進入予測部(実施例4)、110 外部入出力部、111 シーン判定部(実施例5)、112 位置情報領域選択部(実施例6)、120 経路推定部、150 ユーザ通知部、200 車両、201 センシングシステム
Claims (7)
前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部と、を有し、
前記運転支援は、前記障害物が死角に入ったときに、前記位置情報に記憶させた前記障害物の位置と前記位置情報から算出された前記障害物と前記車両の高さの差から前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む、センシングシステム。 a position storage unit that stores position information that associates heights and positions of obstacles around the vehicle;
a driving support processing unit that uses the position information to provide driving support when the vehicle approaches a road along a curved route;
The driving assistance is performed when the obstacle enters a blind spot, and the route is calculated based on the position of the obstacle stored in the position information and the height difference between the obstacle and the vehicle calculated from the position information. A sensing system comprising notifying a passenger of a steering timing of the vehicle when the vehicle is on a route that avoids the obstacle.
前記運転支援は、前記障害物が前記経路外にあり、前記経路が前記道路上の区画線より前を通過する前記車両の操舵タイミングを搭乗者に報知することを含み、前記経路外とは前記車両が通過する領域の外部である、センシングシステム。 The sensing system according to claim 1,
The driving assistance includes notifying the passenger of the steering timing of the vehicle when the obstacle is outside the route and the route passes in front of a marking line on the road, and the outside of the route is defined as the Sensing system, which is outside the area through which the vehicle passes.
前記障害物の手前で右左折に関する経路の選択肢が増加する位置を搭乗者に報知または誘導する経路支援部を備える、センシングシステム。 The sensing system according to claim 1,
A sensing system comprising: a route support unit that notifies or guides a passenger of a position where route options for turning right or left increase before the obstacle.
前記経路への移動体の進入の有無を予測する移動体進入予測部を備える、センシングシステム。 The sensing system according to claim 1,
A sensing system comprising a mobile object entry prediction unit that predicts whether or not a mobile object will enter the route.
前記位置情報と前記経路に基づいて、前記運転支援の要否を判定し、前記運転支援が必要と判定した場合、前記運転支援を開始する信号を出力するシーン判定部を備える、センシングシステム。 The sensing system according to claim 1,
A sensing system comprising: a scene determining unit that determines whether or not the driving assistance is necessary based on the position information and the route, and outputs a signal to start the driving assistance when it is determined that the driving assistance is necessary.
前記経路に近い順に前記障害物の位置の周辺の位置情報を選択する位置情報領域選択部を備える、センシングシステム。 The sensing system according to claim 1,
A sensing system including a position information area selection unit that selects position information around the position of the obstacle in order of proximity to the route.
前記運転支援は、前記経路が前記障害物を回避できない経路である際は警告音を鳴らし、前記経路が前記障害物を回避する経路になった際に前記警告音を消すことで、前記車両の操舵タイミングを搭乗者に報知する、センシングシステム。 The sensing system according to claim 1,
The driving assistance is to sound a warning sound when the route cannot avoid the obstacle, and to turn off the warning sound when the route is a route that avoids the obstacle. A sensing system that notifies passengers of steering timing.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038613A JP7385502B2 (en) | 2020-03-06 | 2020-03-06 | sensing system |
PCT/JP2020/049082 WO2021176825A1 (en) | 2020-03-06 | 2020-12-28 | Sensing system |
CN202080090887.1A CN114930423A (en) | 2020-03-06 | 2020-12-28 | Sensing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038613A JP7385502B2 (en) | 2020-03-06 | 2020-03-06 | sensing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021140537A JP2021140537A (en) | 2021-09-16 |
JP7385502B2 true JP7385502B2 (en) | 2023-11-22 |
Family
ID=77613274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020038613A Active JP7385502B2 (en) | 2020-03-06 | 2020-03-06 | sensing system |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7385502B2 (en) |
CN (1) | CN114930423A (en) |
WO (1) | WO2021176825A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115009272B (en) * | 2022-07-08 | 2023-01-31 | 北京捷升通达信息技术有限公司 | Vehicle full-autonomous obstacle crossing method based on laser radar obstacle classification and identification |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006099409A (en) | 2004-09-29 | 2006-04-13 | Denso Corp | Navigation system for avoiding deviation due to contact |
JP2009078733A (en) | 2007-09-27 | 2009-04-16 | Hitachi Ltd | Driving support device |
US20160339959A1 (en) | 2015-05-21 | 2016-11-24 | Lg Electronics Inc. | Driver Assistance Apparatus And Control Method For The Same |
JP2018055321A (en) | 2016-09-28 | 2018-04-05 | 日産自動車株式会社 | Driving support method and driving support device |
JP2018090108A (en) | 2016-12-05 | 2018-06-14 | 株式会社デンソーテン | Parking support device and parking support method |
JP2019021197A (en) | 2017-07-20 | 2019-02-07 | 株式会社Ihiエアロスペース | Route determination device and route determination method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049998A (en) * | 2000-04-24 | 2002-02-15 | Matsushita Electric Ind Co Ltd | Drive support device |
JP2017182498A (en) * | 2016-03-30 | 2017-10-05 | トヨタ自動車株式会社 | Driving assistance device |
DE102016221276B4 (en) * | 2016-10-28 | 2025-01-23 | Ford Global Technologies, Llc | maneuvering procedure for a motor vehicle, motor vehicle |
CN115158354A (en) * | 2017-03-02 | 2022-10-11 | 松下知识产权经营株式会社 | Driving assistance method, driving assistance device, and driving assistance system |
-
2020
- 2020-03-06 JP JP2020038613A patent/JP7385502B2/en active Active
- 2020-12-28 WO PCT/JP2020/049082 patent/WO2021176825A1/en active Application Filing
- 2020-12-28 CN CN202080090887.1A patent/CN114930423A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006099409A (en) | 2004-09-29 | 2006-04-13 | Denso Corp | Navigation system for avoiding deviation due to contact |
JP2009078733A (en) | 2007-09-27 | 2009-04-16 | Hitachi Ltd | Driving support device |
US20160339959A1 (en) | 2015-05-21 | 2016-11-24 | Lg Electronics Inc. | Driver Assistance Apparatus And Control Method For The Same |
JP2018055321A (en) | 2016-09-28 | 2018-04-05 | 日産自動車株式会社 | Driving support method and driving support device |
JP2018090108A (en) | 2016-12-05 | 2018-06-14 | 株式会社デンソーテン | Parking support device and parking support method |
JP2019021197A (en) | 2017-07-20 | 2019-02-07 | 株式会社Ihiエアロスペース | Route determination device and route determination method |
Also Published As
Publication number | Publication date |
---|---|
WO2021176825A1 (en) | 2021-09-10 |
CN114930423A (en) | 2022-08-19 |
JP2021140537A (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12005904B2 (en) | Autonomous driving system | |
EP3285485B1 (en) | Stereo camera-based autonomous driving method and apparatus | |
KR102042371B1 (en) | Parking space detection method and apparatus | |
CN109841088B (en) | Vehicle driving assistance system and method | |
CN202686359U (en) | Narrow road detection device | |
US10453344B2 (en) | Information processing apparatus and non-transitory recording medium | |
CN105774806B (en) | Controlling device for vehicle running | |
JP4420011B2 (en) | Object detection device | |
JP5938569B2 (en) | Advanced driver support system considering azimuth information and operation method thereof | |
JP4615038B2 (en) | Image processing device | |
JP4043416B2 (en) | Safe movement support device | |
US20180059679A1 (en) | Depth map estimation with stereo images | |
TW201704067A (en) | Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system | |
JP2018197048A (en) | Collision avoidance control device | |
JP2020166539A (en) | Intersection start determination device | |
US9616886B2 (en) | Size adjustment of forward objects for autonomous vehicles | |
CN202574099U (en) | Vehicle anti-collision device | |
JPH1069598A (en) | Collision preventing device for vehicle | |
CN118366335A (en) | Risk estimation system and vehicle control system | |
JP2008003880A (en) | Vehicle periphery monitoring system, vehicle periphery monitoring program and method for constructing vehicle periphery monitoring system and server | |
JP6115429B2 (en) | Own vehicle position recognition device | |
JP7385502B2 (en) | sensing system | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
JP6232883B2 (en) | Own vehicle position recognition device | |
JP4864450B2 (en) | Vehicle driving support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7385502 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |