[go: up one dir, main page]

JP7385502B2 - sensing system - Google Patents

sensing system Download PDF

Info

Publication number
JP7385502B2
JP7385502B2 JP2020038613A JP2020038613A JP7385502B2 JP 7385502 B2 JP7385502 B2 JP 7385502B2 JP 2020038613 A JP2020038613 A JP 2020038613A JP 2020038613 A JP2020038613 A JP 2020038613A JP 7385502 B2 JP7385502 B2 JP 7385502B2
Authority
JP
Japan
Prior art keywords
route
obstacle
vehicle
sensing system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020038613A
Other languages
Japanese (ja)
Other versions
JP2021140537A (en
Inventor
春樹 的野
寛人 三苫
優貴 造田
裕史 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020038613A priority Critical patent/JP7385502B2/en
Priority to PCT/JP2020/049082 priority patent/WO2021176825A1/en
Priority to CN202080090887.1A priority patent/CN114930423A/en
Publication of JP2021140537A publication Critical patent/JP2021140537A/en
Application granted granted Critical
Publication of JP7385502B2 publication Critical patent/JP7385502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、センシングシステムに関する。 The present invention relates to a sensing system.

本技術分野の背景技術として、特許文献1がある。この公報には、課題として「歩道と道路との段差や傾斜等、路面の勾配が変化している地点を通過する際、車両の底部と路面とが接触することがよくある。しかしながら、従来、このような車両の底部と障害物や路面との接触の可否を的確に判断できるシステムは提案されていなかった。」と記載され、解決手段として、「車両の周辺を監視する監視手段から得られる情報に基づいて、前記車両周辺の障害物の形状、路面形状、及び路面形状の変化地点のうちの少なくともいずれかを含む障害要因を解析する障害要因解析手段と、前記車両の現在の地上高を求める地上高算出手段と、前記障害要因解析手段により解析された前記障害要因に関する情報、及び前記地上高算出手段により算出された前記車両の現在の地上高に基づいて、前記車両の底部が前記障害物と接触せずに該障害物上を通過可能か否かを判断する接触判断手段と、該接触判断手段による判断結果に基づいて、所定の告知を行う告知手段とを備えていることを特徴としている。」と記載されている。 As background technology in this technical field, there is Patent Document 1. This bulletin states that the problem is that ``When passing through points where the slope of the road surface changes, such as a step or slope between the sidewalk and the road, the bottom of the vehicle often comes into contact with the road surface. No system has been proposed that can accurately determine whether or not the bottom of the vehicle is in contact with an obstacle or the road surface." Obstacle factor analysis means for analyzing an obstacle factor including at least one of the shape of an obstacle around the vehicle, the shape of a road surface, and a change point of the road surface shape based on the information; Based on the desired ground clearance calculation means, the information regarding the failure factor analyzed by the failure factor analysis means, and the current ground clearance of the vehicle calculated by the ground clearance calculation means, the bottom of the vehicle is It is characterized by comprising a contact determining means for determining whether or not it is possible to pass over the obstacle without contacting the object, and a notification means for issuing a predetermined notification based on the determination result by the contact determining means. ”.

特開2007-112317号公報Japanese Patent Application Publication No. 2007-112317

前記特許文献1では、例えば車両が障害物に接近するなどして障害物が死角に入った際に、死角にある障害物に衝突することなく操舵するタイミングを、運転者が運転に集中したまま通知することに課題がある。 In Patent Document 1, for example, when the vehicle approaches an obstacle and the obstacle enters the blind spot, the driver determines the timing to steer the vehicle without colliding with the obstacle in the blind spot while the driver is concentrating on driving. There are issues with notification.

本発明は、上記課題に鑑みてなされたもので、その目的は、死角にある障害物に衝突することなく操舵するタイミングを、運転者が運転に集中したまま知ることができるセンシングシステムを提供することである。 The present invention has been made in view of the above-mentioned problems, and its purpose is to provide a sensing system that allows a driver to know when to steer without colliding with obstacles in a blind spot while remaining concentrated on driving. That's true.

上記目的を達成するために、本発明に係るセンシングシステムは、車両の周囲の障害物の高さと位置とを対応付けた位置情報を記憶する位置記憶部と、前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部と、を有し、前記運転支援は、前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む。 In order to achieve the above object, a sensing system according to the present invention includes a position storage unit that stores position information that associates heights and positions of obstacles around the vehicle; a driving support processing unit that performs driving support when the vehicle approaches a road along a curved route; This includes notifying passengers of the steering timing of the vehicle.

本発明によれば、死角にある障害物に衝突することなく操舵するタイミングを、運転者が煩わしい操作なく知ることができる。 According to the present invention, the driver can know the timing to steer the vehicle without colliding with an obstacle in the blind spot without any troublesome operation.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.

実施例1における障害物検知システムの全体構成を示す説明図。1 is an explanatory diagram showing the overall configuration of an obstacle detection system in Example 1. FIG. 障害物と車両の位置関係の説明図。An explanatory diagram of the positional relationship between an obstacle and a vehicle. 障害物と車両の位置関係の説明図。An explanatory diagram of the positional relationship between an obstacle and a vehicle. 実施例1におけるセンシングシステムの構成を示す説明図。1 is an explanatory diagram showing the configuration of a sensing system in Example 1. FIG. 実施例1におけるセンシングシステムの動作例を示すフローチャート。5 is a flowchart showing an example of the operation of the sensing system in the first embodiment. 経路の説明図。Explanatory diagram of the route. 実施例2におけるセンシングシステムの構成を示す説明図。FIG. 2 is an explanatory diagram showing the configuration of a sensing system in Example 2. 実施例2におけるセンシングシステムの動作例を示すフローチャート。7 is a flowchart showing an example of the operation of the sensing system in Example 2. 実施例3におけるセンシングシステムの構成を示す説明図。FIG. 7 is an explanatory diagram showing the configuration of a sensing system in Example 3. 経路の説明図。Explanatory diagram of the route. 実施例4におけるセンシングシステムの構成を示す説明図。FIG. 7 is an explanatory diagram showing the configuration of a sensing system in Example 4. 実施例4におけるセンシングシステムの動作例を示すフローチャート。10 is a flowchart showing an example of the operation of the sensing system in Example 4. 実施例5におけるセンシングシステムの構成を示す説明図。FIG. 7 is an explanatory diagram showing the configuration of a sensing system in Example 5. 実施例6におけるセンシングシステムの構成を示す説明図。FIG. 7 is an explanatory diagram showing the configuration of a sensing system in Example 6.

以下、図面を用いて本発明の実施例を説明する。なお、以下の実施例の説明において同じ機能を有する部分には同じ符号を付して繰り返し説明は省略する場合がある。 Embodiments of the present invention will be described below with reference to the drawings. In addition, in the following description of the embodiments, parts having the same functions may be denoted by the same reference numerals, and repeated description thereof may be omitted.

[実施例1]
対象の三次元位置を推定する手段として、ステレオカメラシステムが良く知られている。ステレオカメラシステムは、カメラを複数の位置に配置して同一対象物体を異なる複数の視点から撮像し、得られた画像における見え方のずれ、すなわち視差から対象物体までの距離を算出する。2台のカメラを用いた一般的なステレオカメラシステムでは、この変換は以下の数式1で表される。
(数1)

Figure 0007385502000001
ここで、Z[mm]は対象物体までの距離、f[mm]は焦点距離、w[mm/px]は画素ピッチ、B[mm]はカメラ間の距離(基線長)、D[px]は視差を表す。 [Example 1]
A stereo camera system is well known as a means for estimating the three-dimensional position of an object. A stereo camera system arranges cameras at a plurality of positions to image the same target object from a plurality of different viewpoints, and calculates the distance to the target object from the difference in appearance in the obtained images, that is, the parallax. In a typical stereo camera system using two cameras, this conversion is expressed by Equation 1 below.
(Number 1)
Figure 0007385502000001
Here, Z[mm] is the distance to the target object, f[mm] is the focal length, w[mm/px] is the pixel pitch, B[mm] is the distance between cameras (baseline length), D[px] represents parallax.

視差を算出するにあたっては、複数の位置から撮像された画像を水平に並べ、左画像内の特定の点に対して右画像内で同一の点が撮像されている位置を探索する。この探索を効率よく実施するため、一般には平行化処理を事前に実施する。 To calculate parallax, images taken from a plurality of positions are arranged horizontally, and a position where the same point is imaged in the right image with respect to a specific point in the left image is searched for. In order to efficiently perform this search, parallelization processing is generally performed in advance.

平行化とは、画像の縦方向の位置合わせを意味する。すなわち、左右画像で同一の点は同一の高さに撮像されているように画像を校正する処理である。平行化された画像では、対応点を探索する際に、ある横一列のみを探索すればよく、処理効率が高い。 Parallelization means alignment of images in the vertical direction. That is, this is a process of calibrating the images so that the same points in the left and right images are captured at the same height. In a parallelized image, when searching for corresponding points, only one horizontal row needs to be searched, resulting in high processing efficiency.

以下では、対象物体(障害物)の三次元位置を推定する手段としてステレオカメラシステムによる障害物検知システムを例に説明する。ただし、対象物体(障害物)の三次元位置を推定する手段としては、対象物体(障害物)の距離(高さ)と位置とを対応付けて推定できればよく、例えば、赤外線センサ、ミリ波レーダ、Lidarなど、ステレオカメラシステム以外の任意の手段を適用することができる。 In the following, an obstacle detection system using a stereo camera system will be described as an example of means for estimating the three-dimensional position of a target object (an obstacle). However, as a means of estimating the three-dimensional position of the target object (obstacle), it is sufficient to be able to estimate the distance (height) and position of the target object (obstacle) by associating the position.For example, infrared sensor, millimeter wave radar , Lidar, etc., any means other than a stereo camera system can be applied.

図1は、実施例1における障害物検知システムの全体構成図であり、例えば車両200のフロントガラスに画像処理装置としてのステレオカメラシステムを含むセンシングシステム201が設置されている。センシングシステム201は、車両情報ECU202に接続され、操舵装置204およびブレーキ制御装置205は、車両情報ECU202の指示によって操舵および加減速を制御することができる。例えば障害物210、211を検出した場合、その障害物210、211の位置の検出をセンシングシステム201で行い、障害物210、211との距離を測定した結果を車両情報ECU202に送信する。障害物210、211と衝突しそうであれば、車両情報ECU202は、ブレーキ制御装置205へブレーキ指示したり、操舵装置204へ操舵指示することで、衝突の被害を軽減することが可能なシステムである。 FIG. 1 is an overall configuration diagram of an obstacle detection system according to a first embodiment. For example, a sensing system 201 including a stereo camera system as an image processing device is installed on the windshield of a vehicle 200. Sensing system 201 is connected to vehicle information ECU 202, and steering device 204 and brake control device 205 can control steering and acceleration/deceleration according to instructions from vehicle information ECU 202. For example, when obstacles 210 and 211 are detected, the sensing system 201 detects the position of the obstacles 210 and 211, and transmits the result of measuring the distance to the obstacles 210 and 211 to the vehicle information ECU 202. If the vehicle is likely to collide with obstacles 210 and 211, the vehicle information ECU 202 is a system that can reduce the damage caused by the collision by instructing the brake control device 205 to brake or instructing the steering device 204 to steer. .

図2および図3は、障害物301と車両200の位置関係の説明図である。図2および図3に示すように、車両200が障害物301に接近して障害物301が死角に入った状態で障害物301の近傍もしくは障害物301上を通過する場合、前記のようにセンシングシステム201で障害物301の位置や距離の検出を行うことはできない。ただし、図2に示すように、平らな路面302上に車両200と障害物301がある場合、車両200が障害物301に接近して障害物301が死角に入ったときでも、障害物301と車両200(の底面)の位置関係はセンシングシステム201で事前に検出した関係から変化しないため(換言すれば、センシングシステム201で事前に検出した関係をそのまま利用可能であるため)、路面302から車両200の底面までの高さが、障害物301の路面302からの高さより低ければ(詳しくは、低いことが事前に検出できていれば)、衝突はしない。しかし、実際の道路環境では、図3に示すように、路面303に凹凸が存在している。特に、駐車場の出入り口などは段差があることが多く、路面303のように凹凸があり、車両200が傾く。そのため、障害物301と車両200(の底面)の位置関係の検出結果から衝突しないと事前に判定されていた場合でも、車両200が障害物301に接近して障害物301が死角に入ったときに(例えば、右左折の操舵などによって障害物301が死角に入ったときに)、路面303の凹凸によって障害物301と車両200(の底面)の位置関係がセンシングシステム201で事前に検出した関係から変化した場合、車両200(の底面)が障害物301に衝突してしまう可能性がある。つまり、障害物301に衝突するかどうかの判定は、路面303の凹凸と車両200の姿勢から衝突可能性を判断する必要がある。 2 and 3 are explanatory diagrams of the positional relationship between the obstacle 301 and the vehicle 200. As shown in FIGS. 2 and 3, when the vehicle 200 approaches the obstacle 301 and passes near or over the obstacle 301 with the obstacle 301 entering the blind spot, sensing is performed as described above. The system 201 cannot detect the position or distance of the obstacle 301. However, as shown in FIG. 2, when the vehicle 200 and the obstacle 301 are on a flat road surface 302, even when the vehicle 200 approaches the obstacle 301 and the obstacle 301 enters the blind spot, the obstacle 301 Since the positional relationship of (the bottom surface of) the vehicle 200 does not change from the relationship detected in advance by the sensing system 201 (in other words, the relationship detected in advance by the sensing system 201 can be used as is), If the height of the obstacle 200 to the bottom is lower than the height of the obstacle 301 from the road surface 302 (more specifically, if the height of the obstacle 301 is detected in advance), there will be no collision. However, in an actual road environment, there are irregularities on the road surface 303, as shown in FIG. In particular, entrances and exits of parking lots often have steps and are uneven like the road surface 303, causing the vehicle 200 to lean. Therefore, even if it is determined in advance that there will be no collision based on the detection results of the positional relationship between the obstacle 301 and the vehicle 200 (the bottom of the vehicle 200), when the vehicle 200 approaches the obstacle 301 and the obstacle 301 enters the blind spot. (For example, when the obstacle 301 enters the blind spot due to steering to turn left or right), the positional relationship between the obstacle 301 and (the bottom surface of) the vehicle 200 is detected in advance by the sensing system 201 due to the unevenness of the road surface 303. If the vehicle 200 (the bottom surface thereof) changes from the above, there is a possibility that the vehicle 200 (the bottom surface of the vehicle 200) will collide with the obstacle 301. That is, to determine whether or not the vehicle will collide with the obstacle 301, it is necessary to determine the possibility of collision based on the unevenness of the road surface 303 and the attitude of the vehicle 200.

本実施例のセンシングシステム201は、主として、駐車場や脇道から車両200を操舵して左折または右折しながら(すなわち、曲線の経路を伴って)道路へ進入する際、或いは、交差点やT字路などの一方の道路から車両200を操舵して左折または右折しながら(すなわち、曲線の経路を伴って)他方の道路へ進入する際、前記のように死角に入る大きさ(高さ)の障害物301との衝突を回避可能とするための運転支援(操舵支援)を行うシステムである。 The sensing system 201 of this embodiment is mainly used when steering the vehicle 200 from a parking lot or side street and entering a road while turning left or right (that is, along a curved route), or when entering a road at an intersection or T-junction. When the vehicle 200 is steered from one road to enter the other road while turning left or right (i.e., along a curved path), an obstacle of a size (height) that falls into the blind spot as described above occurs. This is a system that provides driving support (steering support) to avoid collision with an object 301.

(構成説明)
図4は、実施例1におけるセンシングシステムの構成を示す図である。車両200に搭載されたセンシングシステム201は、CPU103と、メモリ102、画像入力部101、距離測定部100、物体検知部104、位置記憶部105、運転支援処理部106、経路推定部120、外部入出力部110で構成される。センシングシステム201を構成する各構成要素は、通信ラインを介して通信可能に接続されている。CPU103は、メモリ102に格納されているプログラムの指示に従って、以下で説明する演算処理を実行する。
(Configuration explanation)
FIG. 4 is a diagram showing the configuration of a sensing system in Example 1. The sensing system 201 mounted on the vehicle 200 includes a CPU 103, a memory 102, an image input section 101, a distance measurement section 100, an object detection section 104, a position storage section 105, a driving support processing section 106, a route estimation section 120, and an external input section. It is composed of an output section 110. Each component constituting the sensing system 201 is communicably connected via a communication line. The CPU 103 executes arithmetic processing described below in accordance with instructions from a program stored in the memory 102.

画像入力部101は、外部の画像データ出力装置(図示せず)が出力したデータを入力するためのインターフェースである。ステレオカメラの場合、左右が同一の時刻で撮影されるように同期された画像が入力されると、距離をより正確に求めることができる。画像入力部101で入力されたデータは、メモリ102に格納される。 The image input unit 101 is an interface for inputting data output from an external image data output device (not shown). In the case of a stereo camera, if synchronized images are input so that the left and right images are taken at the same time, the distance can be determined more accurately. Data input by the image input unit 101 is stored in the memory 102.

距離測定部100は、画像入力部101から入力された左右画像が平行になるように取付位置やレンズによる歪などを補正し、画素毎に2つのカメラの見え方の差である視差を算出し、画素毎に距離を算出する。あらかじめカメラの歪やレンズおよび撮像素子そしてカメラ間の位置関係を計測することで、視差から距離を算出することができる(数式1)。 The distance measurement unit 100 corrects the mounting position and lens distortion so that the left and right images input from the image input unit 101 are parallel, and calculates parallax, which is the difference in appearance between the two cameras, for each pixel. , calculate the distance for each pixel. By measuring the distortion of the camera and the positional relationship between the lens, the image sensor, and the camera in advance, the distance can be calculated from the parallax (Equation 1).

物体検知部104は、距離測定部100から出力される距離データ(距離情報)から、物体の領域(画像上の位置に対応)を抽出する。物体の領域抽出方法は、距離の近い領域をグルーピングする方式や、画像入力部101から入力された画像データから人や車のパターンを検出する方法などがある。これらの計算はCPU103にて行われる。 The object detection unit 104 extracts the area of the object (corresponding to the position on the image) from the distance data (distance information) output from the distance measurement unit 100. Methods for extracting object regions include a method of grouping regions that are close to each other, a method of detecting patterns of people and cars from image data input from the image input unit 101, and the like. These calculations are performed by the CPU 103.

なお、車両200の周囲の物体(障害物)の距離情報の取得方法や検知方法は、物体(障害物)の距離(高さ)と位置とを対応付けて取得・検知できれば、図示例に限られない。 Note that the method for acquiring and detecting the distance information of objects (obstacles) around the vehicle 200 is limited to the illustrated example as long as the distance (height) and position of the object (obstacle) can be acquired and detected in association with each other. I can't do it.

位置記憶部105は、距離測定部100から得られる距離情報を記憶する。ここでは、位置記憶部105は、距離測定部100から得られる距離情報を、物体(障害物)の距離(高さ)と位置とを対応付けた位置情報として記憶する。位置記憶部105は、外部入出力部110から入力される車速情報、操舵角情報、ヨーレート情報、または絶対位置情報などの車両情報から、自車がどのように移動したかを推定し、自車周辺の距離情報を更新し、保持する。この距離情報から路面の凹凸(図3参照)を復元できるため、自車周辺の凹凸情報を常に把握することが可能となる。例えば車両前方に取り付けられたカメラは、近傍や真横などはレンズの画角の範囲外(死角)になる。したがって、画像入力部101の画角外においては、この位置記憶部105の情報を更新し続けることで、自車周辺の凹凸を判断することができる。 The position storage unit 105 stores distance information obtained from the distance measurement unit 100. Here, the position storage unit 105 stores the distance information obtained from the distance measurement unit 100 as position information that associates the distance (height) and position of the object (obstacle). The position storage unit 105 estimates how the own vehicle has moved from vehicle information such as vehicle speed information, steering angle information, yaw rate information, or absolute position information input from the external input/output unit 110, and Update and maintain surrounding distance information. Since the unevenness of the road surface (see FIG. 3) can be reconstructed from this distance information, it is possible to constantly grasp the unevenness information around the own vehicle. For example, when a camera is mounted at the front of a vehicle, nearby areas or directly to the side are outside the field of view of the lens (blind spot). Therefore, by continuing to update the information in the position storage section 105 outside the field of view of the image input section 101, it is possible to determine the unevenness around the vehicle.

外部入出力部110は、センシングシステム201と他の機器との情報伝達に使用する。例えば自動車の場合、CAN(Car Area Network)を接続し、他の機器と通信することができる。運転者に対する表示装置やスピーカ装置などで構成されるユーザ通知部150を接続することで、運転者に対して注意を促すことができる(後で説明)。特に本実施例の場合、警告音を発するスピーカ装置で通知することで、運転者の左右安全確認を妨げることなく通知することができ、好適である。 The external input/output unit 110 is used for information transmission between the sensing system 201 and other devices. For example, in the case of a car, a CAN (Car Area Network) can be connected to communicate with other devices. By connecting a user notification unit 150 that includes a display device, a speaker device, etc. for the driver, it is possible to urge the driver's attention (described later). Particularly in the case of this embodiment, it is preferable to notify the driver by using a speaker device that emits a warning sound, since the notification can be made without interfering with the driver's confirmation of left and right safety.

ここで、車両200の経路について説明する。図6に経路の説明図を示す。図6において、702から705は自車の時刻毎の位置を示し、702から時刻が経過する毎の位置を702,703,704,705の順に自車が移動する例を示している。720は低い段差からなる障害物であり、時刻Tの位置702ではカメラで撮影できていたが、時刻Tの位置703ではカメラの死角になり、障害物720は運転者からは見えない。701は自車の経路を示しており、本例において経路とは車両の幅を持った軌跡である。710は道路上の区画線(中央線や車線境界線など)であり、図6の例では破線の白線の例を図示している。711は経路701(つまり自車)が進入する道路上の区画である。図6の例では、自車が操舵して左折し、区画線710によって画定される区画711へ曲線の経路701を伴って位置702,703,704,705の順に移動して進入している。経路701の近くの障害物720は、時刻Tの位置702ではカメラで撮影できていたが、時刻Tの位置703ではカメラの死角になる。そのため、時刻Tの位置703でカメラの死角にある障害物720との衝突を回避しつつ自車を操舵して左折することによって、道路上の区画711へ進入することが望まれる。 Here, the route of vehicle 200 will be explained. FIG. 6 shows an explanatory diagram of the route. In FIG. 6, 702 to 705 indicate the positions of the vehicle at each time, and an example is shown in which the vehicle moves from 702 to positions 702, 703, 704, and 705 as time passes. Reference numeral 720 is an obstacle consisting of a low step, and although it could be photographed by the camera at position 702 at time T0 , it becomes a blind spot for the camera at position 703 at time T1 , and the obstacle 720 is not visible to the driver. Reference numeral 701 indicates the route of the own vehicle, and in this example, the route is a trajectory having the width of the vehicle. Reference numeral 710 indicates a dividing line (center line, lane boundary line, etc.) on the road, and the example of FIG. 6 shows an example of a broken white line. 711 is a section on the road into which the route 701 (that is, the own vehicle) enters. In the example of FIG. 6, the own vehicle is steered, turns left, and enters a section 711 defined by a section line 710, moving along a curved path 701 to positions 702, 703, 704, and 705 in this order. An obstacle 720 near the route 701 could be photographed by the camera at position 702 at time T0 , but becomes a blind spot for the camera at position 703 at time T1 . Therefore, it is desirable to enter the section 711 on the road by steering the own vehicle to turn left while avoiding a collision with the obstacle 720 in the camera's blind spot at the position 703 at time T1 .

センシングシステム201の経路推定部120は、外部入出力部110から入力される、ハンドルの操舵角度、方向指示器の状態、車両の速度、ヨーレート、車両の絶対位置などから、自車がどの位置を通過するかを予測する。経路推定部120は、現在時刻から数秒先までの位置を求める。ここで、ハンドルの操舵角度を現在の操舵角度から変化させた場合を想定した複数の経路を求める。なお、車両の速度やヨーレートを現在の値から変化させた場合を想定した複数の経路を求めてもよい。この複数の経路をまとめて走行可能性経路として、位置記憶部105が保持する距離情報に経路として記憶させる。 The route estimation unit 120 of the sensing system 201 determines the position of the own vehicle based on the steering angle of the steering wheel, the state of the direction indicator, the speed of the vehicle, the yaw rate, the absolute position of the vehicle, etc., which are input from the external input/output unit 110. Predict whether it will pass. The route estimating unit 120 determines the position from the current time up to several seconds ahead. Here, a plurality of routes are determined based on the assumption that the steering angle of the steering wheel is changed from the current steering angle. Note that a plurality of routes may be calculated based on the assumption that the speed and yaw rate of the vehicle are changed from the current values. The plurality of routes are collectively stored as possible travel routes in the distance information held by the position storage unit 105.

運転支援処理部106は、前記位置記憶部105から出力される距離情報(位置情報)から、あらかじめメモリ102に保持している車両底面の高さ、前後の車輪の位置関係などの車両のパラメータを利用し、障害物と車両の高さの差を算出する。運転支援処理部106は、前記経路上(詳しくは、距離情報に記憶させた経路上)の障害物の位置と前記高さの差から、障害物との衝突可能性(すなわち、前記経路が障害物を回避する経路になったかどうか)を判断し、衝突可能性がある場合は、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で警告する。また、運転支援処理部106は、それと同時に操舵を開始しても障害物と衝突しないかどうか(すなわち、前記経路が障害物を回避する経路になったかどうか)を判断しており、前記経路上の障害物付近の経路を通過する時は、操舵を開始しても障害物と衝突しないと判定した時点で、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で報知(本例では、警告音や警告表示を消すことで報知)する。これにより、車両200を操舵して左折または右折しながら道路へ進入する際、操舵を開始しても障害物と衝突しなくなった際に、車両の操舵タイミングを運転者(搭乗者)に報知する。例えば、運転手が通過する経路は操舵角などから計算し(経路推定部120)、障害物に近づいたら警告音が鳴り、警告音が消えたら操舵開始してもよいという合図にすることで、運転手は左右の安全確認、適切なスピードコントロール、適切な操舵(操舵タイミング)に集中することができる。特に、死角領域で見えなくなってしまった障害物に対しても、前記位置記憶部105から出力される距離情報(位置情報)を利用することで、側面を監視するセンサや車両の姿勢や高さを測定するセンサを追加することなく、衝突を回避することができる。 The driving support processing unit 106 calculates vehicle parameters such as the height of the bottom of the vehicle and the positional relationship between the front and rear wheels, which are stored in the memory 102 in advance, from the distance information (position information) output from the position storage unit 105. Use this to calculate the difference in height between the obstacle and the vehicle. Based on the difference between the position of the obstacle on the route (specifically, on the route stored in the distance information) and the height, the driving support processing unit 106 determines whether there is a possibility of collision with the obstacle (that is, whether the route is obstructed) or not. If there is a possibility of a collision, the external input/output unit 110 issues a warning to the driver via the user notification unit 150 with a warning sound or warning display. The driving support processing unit 106 also determines whether or not there will be no collision with an obstacle even if the steering is started at the same time (that is, whether the route is a route that avoids obstacles). When passing a route near an obstacle, the external input/output unit 110 sends a warning sound or a warning sound to the driver via the user notification unit 150 when it is determined that there will be no collision with the obstacle even if the steering is started. Notification is made with a warning display (in this example, notification is made by turning off the warning sound and warning display). As a result, when the vehicle 200 is steered to enter a road while turning left or right, the driver (passenger) is notified of the steering timing of the vehicle when the vehicle 200 does not collide with an obstacle even after starting the steering. . For example, the route the driver will take is calculated based on the steering angle, etc. (route estimation unit 120), and when the driver approaches an obstacle, a warning sound will sound, and when the warning sound disappears, it will be a signal that it is OK to start steering. The driver can concentrate on checking left and right safety, appropriate speed control, and appropriate steering (steering timing). In particular, by using the distance information (position information) output from the position storage unit 105, even for obstacles that are no longer visible in blind spots, sensors that monitor the sides and the attitude and height of the vehicle can be detected. Collisions can be avoided without the need for additional sensors to measure

(動作説明)
図5のフローチャートにて一連の動作を説明する。カメラおよびそれに続く図5に示す処理は所定の周期処理で実行され、その一連の動作について説明する。
(Operation explanation)
A series of operations will be explained using the flowchart in FIG. The camera and subsequent processing shown in FIG. 5 are executed in a predetermined periodic process, and a series of operations thereof will be described.

まず最初にステップS1001として、画像入力部101からカメラ画像を取得し、距離測定部100で各画素の距離を計算する。次に、ステップS1002では、距離測定部100で生成した距離情報から物体検知部104にて物体(障害物)を検知する。 First, in step S1001, a camera image is acquired from the image input unit 101, and the distance measurement unit 100 calculates the distance of each pixel. Next, in step S1002, the object detection unit 104 detects an object (obstacle) from the distance information generated by the distance measurement unit 100.

次に、ステップS1003では、位置記憶部105にて、物体検知部104の出力結果(距離情報(位置情報))を記憶する。ステップS1003では、障害物の位置と、路面の小さな凹凸を記憶する。凹凸の記憶は、例えば、10cm四方ごとにある起点からの三次元位置情報を記憶するものとする。起点は、カメラの電源が入ったときや外部入出力部110から得られる現在位置情報などで決定してもよい。これらの三次元位置情報の点群は、外部入出力部110から入力される自車速や操舵角、ヨーレート、絶対位置などの車両情報から前回のフレームからどれだけ移動したかを計算して保存する(ステップS1004(前回位置更新))。ステップS1005では、経路推定部120にて、外部入出力部110から入力される自車速や操舵角、ヨーレート、自車位置などの車両情報から、時刻T経過化後の自車位置を予測し、それらの自車位置で構成される経路(複数の経路からなる走行可能性経路)を生成する。 Next, in step S1003, the output result (distance information (position information)) of the object detection unit 104 is stored in the position storage unit 105. In step S1003, the position of the obstacle and small irregularities on the road surface are memorized. The unevenness is stored, for example, as three-dimensional position information from a certain starting point every 10 cm square. The starting point may be determined based on current position information obtained from the external input/output unit 110 or when the camera is powered on. These three-dimensional position information point clouds are stored by calculating how far the vehicle has moved from the previous frame based on vehicle information such as vehicle speed, steering angle, yaw rate, and absolute position input from the external input/output unit 110. (Step S1004 (previous position update)). In step S1005, the route estimating unit 120 predicts the vehicle position after time T elapses from vehicle information such as the vehicle speed, steering angle, yaw rate, and vehicle position input from the external input/output unit 110, A route (possible travel route consisting of a plurality of routes) is generated based on these vehicle positions.

ステップS1006では、運転支援処理部106にて、ステップS1004(前回位置更新)で更新された情報とステップS1005(走行可能性経路生成)で求めた経路とを基に、自車が経路を通過した時の、車のタイヤと路面の凹凸から、障害物にぶつかる位置を計算し、障害物に衝突するかどうか(すなわち、前記経路が障害物を回避する経路になったかどうか)を判定する。衝突するかどうかの判定は、車両の外側の最低地上高よりも障害物の位置が高いかどうかで決まる。衝突可能性がある場合は(S1007:Yes)、ステップS1008で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。例えばユーザ通知部150としてのスピーカで警告音をならすことで、ユーザに通知する。また、操舵を開始しても衝突可能性がない場合は(S1007:No)、ステップS1009で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。例えばユーザ通知部150としてのスピーカの警告音を消す(鳴動を停止する)ことで、ユーザに通知する。 In step S1006, the driving support processing unit 106 determines whether the own vehicle has passed the route based on the information updated in step S1004 (updating the previous location) and the route obtained in step S1005 (generating possible routes). The position at which the vehicle will collide with the obstacle is calculated based on the unevenness of the car's tires and the road surface at the time of the collision, and it is determined whether the vehicle will collide with the obstacle (that is, whether the route is a route that avoids the obstacle). The determination of whether a collision will occur is determined by whether the obstacle is higher than the minimum ground clearance on the outside of the vehicle. If there is a possibility of a collision (S1007: Yes), the external input/output unit 110 notifies the user in step S1008. User notification is performed by a user notification unit 150 connected to the external input/output unit 110. For example, the user is notified by emitting a warning sound through a speaker serving as the user notification unit 150. If there is no possibility of a collision even after starting the steering (S1007: No), the external input/output unit 110 notifies the user in step S1009. User notification is performed by a user notification unit 150 connected to the external input/output unit 110. For example, the user is notified by muting the warning sound of the speaker as the user notification unit 150 (stopping the sound).

(作用効果説明)
以上で説明したように、本実施例のセンシングシステム201は、車両の周囲の障害物の高さと位置とを対応付けた位置情報を記憶する位置記憶部105と、前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部106と、を有し、前記運転支援は、前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む。
(Explanation of action and effect)
As described above, the sensing system 201 of this embodiment uses the position storage unit 105 that stores position information that associates the height and position of obstacles around the vehicle, and the position information to and a driving support processing unit 106 that performs driving support when the vehicle approaches a road along a curved route, and the driving support is provided when the route becomes a route that avoids the obstacles. , including notifying a passenger of the steering timing of the vehicle.

本実施例によれば、死角にある障害物に衝突することなく操舵するタイミングを、運転者が煩わしい操作なく知ることができる。また、障害物を検出するセンサは例えば前方を監視するセンサのみで障害物を回避できる。 According to this embodiment, the driver can know the timing to steer the vehicle without colliding with an obstacle in the blind spot without any troublesome operations. Further, obstacles can be avoided by using only sensors that monitor the front, for example, as sensors that detect obstacles.

[実施例2]
区画線を考慮して駐車場から道路に進入する場合の運転支援の例について図7および図8を参照して説明する。
[Example 2]
An example of driving assistance when entering a road from a parking lot while taking lane markings into consideration will be described with reference to FIGS. 7 and 8.

本実施例2では、実施例1に加えて、区画検知部107を追加する。区画検知部107は、図6に示す道路の区画線710である白線および区画線710で画定される区画711を検知する。カメラによる区画線の検知方式は、画像からエッジを抽出し、直線を検出する方法などがある。ただし、区画線および区画の検知方法は、これに限られない。区画検知ができた場合、運転支援処理部106は、前記障害物を回避しつつ経路が検知した区画内に収まるように、すなわち、図6に示すように経路が道路上の区画線より前を通過するように、運転手に外部入出力部110からユーザ通知部150を介して報知する。これにより、車両200を操舵して左折または右折しながら道路へ進入する際、操舵を開始しても障害物と衝突しなくなった際に、経路が道路上の区画線より前を通過する車両の操舵タイミングを運転者(搭乗者)に報知する。 In the second embodiment, in addition to the first embodiment, a partition detection section 107 is added. The section detection unit 107 detects a section 711 defined by a white line that is a section line 710 of the road shown in FIG. 6 and a section line 710 . Methods for detecting lane markings using cameras include methods that extract edges from images and detect straight lines. However, the method of detecting partition lines and partitions is not limited to this. If the division is detected, the driving support processing unit 106 adjusts the route so that it falls within the detected division while avoiding the obstacles, that is, the route moves ahead of the division line on the road as shown in FIG. The external input/output unit 110 notifies the driver via the user notification unit 150 to pass. As a result, when the vehicle 200 is steered to enter a road while turning left or right, when the vehicle 200 does not collide with an obstacle even after starting the steering, the route of the vehicle passing in front of the marking line on the road can be changed. Notifies the driver (passenger) of the steering timing.

区画検知処理は、例えば、図8のステップS2001のタイミングで区画検知部107にて実施される。つまり、ステップS1007で衝突可能性がないと判断されて(S1007:No)、ステップS2001で区画検知部107にて区画を検知した後、ステップS2002で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。 The division detection process is performed by the division detection unit 107 at the timing of step S2001 in FIG. 8, for example. That is, in step S1007, it is determined that there is no possibility of a collision (S1007: No), and after the partition detection unit 107 detects a partition in step S2001, the external input/output unit 110 notifies the user in step S2002. User notification is performed by a user notification unit 150 connected to the external input/output unit 110.

以上で説明したように、本実施例のセンシングシステム201は、前記運転支援処理部106の前記運転支援は、前記障害物が前記経路外にあり、前記経路が前記道路上の区画線より前を通過する前記車両の操舵タイミングを搭乗者に報知することを含む。前記経路は実際にはある幅を持った領域として表現できるので、前記経路外とは前記車両が通過する領域の外部と表現できる。 As explained above, in the sensing system 201 of the present embodiment, the driving assistance of the driving assistance processing unit 106 is performed when the obstacle is outside the route and the route is ahead of the marking line on the road. This includes notifying passengers of the steering timing of the passing vehicle. Since the route can actually be expressed as an area with a certain width, the area outside the route can be expressed as the area outside the area through which the vehicle passes.

本実施例によれば、区画検知部107の検知結果を使用することにより、操舵が遅くなり区画外に自車(経路)がはみ出す危険を回避することができる。 According to this embodiment, by using the detection results of the section detection unit 107, it is possible to avoid the risk of the own vehicle (route) protruding outside the section due to slow steering.

[実施例3]
駐車場から道路に進入するに当たって、ユーザ通知を2段階化して経路の選択肢を向上させる場合の運転支援の例について図9を参照して説明する。
[Example 3]
An example of driving assistance in a case where user notification is divided into two stages to improve route options when entering a road from a parking lot will be described with reference to FIG. 9.

本実施例3では、実施例2に加えて、経路支援部108を追加する。前記障害物を回避しつつ、区画をはみ出さずに進入する際、前記障害物付近に近づくまでの経路によっては、経路の解がなくなってしまう場合がある。例えば、図10の経路721のように障害物720に近づきすぎて道路へ進行すると、車両の内輪差から衝突を回避するための操舵開始タイミングが遅くなり、結果として、区画線710(区画711)をはみ出さないと曲がれないという事態がある。そこで、経路支援部(事前報知部ともいう)108は、前記障害物の位置と区画検知部107の出力結果から、自車の経路が、区画内に曲がりきれ、障害物にも衝突しない経路722より721側になりそうなときには、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で経路722になるように障害物の手前で一旦報知する。この報知により、障害物の手前で右左折に関する経路の選択肢が増加する位置を運転者(搭乗者)に報知したり、障害物の手前で右左折に関する経路の選択肢が増加する位置へ運転者(搭乗者)を誘導する。運転者が区画をはみ出さずに右折または左折することが判断できない場合は、障害物の手前で右左折に関する経路の選択肢が多くなる位置を運転者(搭乗者)に報知したり、障害物の手前で右左折に関する経路の選択肢が多くなる位置へ運転者(搭乗者)を誘導するように1回目の支援(つまり、運転者への報知)を行い、障害物を回避でき且つ運転者が区画をはみ出さずに右折または左折できるタイミングで2回目の支援(つまり、実施例1、2と同様の運転者への報知)を行い、これらの支援を組み合わせることで、確実に区画に経路を収めることができる。 In the third embodiment, in addition to the second embodiment, a route support unit 108 is added. When the vehicle avoids the obstacles and enters the compartment without going outside, depending on the route taken to get close to the obstacles, there may be no solution for the route. For example, as shown in the route 721 in FIG. 10, if the driver approaches the obstacle 720 too close to the road, the timing to start steering to avoid a collision will be delayed due to the difference between the inner wheels of the vehicle, and as a result, the timing of starting steering to avoid a collision will be delayed. There are situations where you can't make a turn without sticking out. Therefore, the route support unit (also referred to as advance notification unit) 108 determines, based on the position of the obstacle and the output result of the division detection unit 107, that the route of the own vehicle can be set as a route 722 in which the vehicle can completely turn into the division and not collide with any obstacles. When the route is more likely to be on the 721 side, the external input/output unit 110 notifies the driver via the user notification unit 150 with a warning sound or a warning display to direct the driver to the route 722 before the obstacle. This notification notifies the driver (passenger) of a position where there are more route options for turning right or left before an obstacle, or it informs the driver (passenger) of a position where there are more route options for turning right or left before an obstacle. passengers). If the driver cannot decide whether to turn right or left without going out of the lane, the driver (passenger) should be informed of the location where there are more options for turning right or left before the obstacle, or if the driver (passenger) The first assistance (i.e., notification to the driver) is performed to guide the driver (passenger) to a position where there are many route options for turning left and right in front of the vehicle, and the driver is able to avoid obstacles and keep the driver in the lane. The second assistance (that is, the same notification to the driver as in Examples 1 and 2) is provided at the timing when the driver can make a right or left turn without going outside the lane, and by combining these assistance, the route is reliably kept within the section. be able to.

以上で説明したように、本実施例のセンシングシステム201は、前記障害物の手前で右左折に関する経路の選択肢が増加する位置を搭乗者に報知または誘導する経路支援部108を備える。 As described above, the sensing system 201 of the present embodiment includes the route support unit 108 that notifies or guides the passenger to a position where route options regarding right or left turns increase before the obstacle.

本実施例によれば、ユーザ通知を2段階化して経路の選択肢を向上(増加)させることにより、区画外に自車(経路)がはみ出す危険を回避することができる。 According to this embodiment, by dividing the user notification into two stages and improving (increasing) route options, it is possible to avoid the risk of the own vehicle (route) protruding outside the section.

[実施例4]
駐車場から道路に進入する際に別の障害物(移動体)がある場合の運転支援の例について図11および図12を参照して説明する。
[Example 4]
An example of driving support when there is another obstacle (moving object) when entering a road from a parking lot will be described with reference to FIGS. 11 and 12.

本実施例4では、実施例3に加えて、移動体進入予測部109を追加する。移動体進入予測部109は、区画線内の経路上に、自動車や自転車、歩行者などの移動体が進入してくるかどうかを予測・判定する。予測方法としては、カメラにより移動体(車両、歩行者など)を検出し、移動体の速度を予測する。この予測結果が経路上に交差し、自車と移動体が衝突する危険がある場合は、運転支援処理部106は、操舵の指示ではなく、停止の指示を出力する。自車と移動体が衝突する危険がない場合は、運転支援処理部106は、障害物を回避しつつ経路が検知した区画内に収まるように、運転手に対して外部入出力部110からユーザ通知部150を介して報知する。なお、移動体の予測方法は、これに限られない。 In the fourth embodiment, in addition to the third embodiment, a mobile object approach prediction unit 109 is added. The moving object entry prediction unit 109 predicts and determines whether a moving object such as a car, a bicycle, or a pedestrian will enter the route within the lane marking. As a prediction method, a moving object (vehicle, pedestrian, etc.) is detected using a camera, and the speed of the moving object is predicted. If this prediction result intersects the route and there is a risk of collision between the vehicle and the moving object, the driving support processing unit 106 outputs a stop instruction instead of a steering instruction. If there is no risk of collision between the own vehicle and the moving object, the driving support processing unit 106 sends a user message from the external input/output unit 110 to the driver so that the route stays within the detected area while avoiding obstacles. Notification is made via the notification unit 150. Note that the method of predicting a moving object is not limited to this.

移動体衝突判定処理は、例えば、図12のステップS4001のタイミングで移動体進入予測部109にて実施される。つまり、ステップS1007で衝突可能性がないと判断されて(S1007:No)、ステップS2001で区画検知部107にて区画を検知した後、ステップS4001で、移動体進入予測部109にて区画線内の経路上に移動体が進入してくるかどうかを予測・判定する。区画線内の経路上に移動体が進入し、移動体との衝突可能性がある場合は(S4001:Yes)、ステップS4002で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。また、ステップS4002で、外部入出力部110から停止指示を出力する。区画線内の経路上に移動体が進入せず、移動体との衝突可能性がない場合は(S4001:No)、ステップS4003で、外部入出力部110からユーザに通知(つまり、実施例1~3と同様の操舵タイミングの通知)する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。 The moving object collision determination process is executed by the moving object approach prediction unit 109 at the timing of step S4001 in FIG. 12, for example. That is, in step S1007, it is determined that there is no possibility of collision (S1007: No), and after the division detection unit 107 detects the division in step S2001, in step S4001, the mobile object approach prediction unit 109 detects a collision within the division line. Predict and determine whether a moving object will enter the route. If a moving object enters the route within the marking line and there is a possibility of collision with the moving object (S4001: Yes), the external input/output unit 110 notifies the user in step S4002. User notification is performed by a user notification unit 150 connected to the external input/output unit 110. Further, in step S4002, a stop instruction is output from the external input/output unit 110. If the moving object does not enter the route within the marking line and there is no possibility of collision with the moving object (S4001: No), in step S4003, the external input/output unit 110 notifies the user (that is, the first embodiment Notification of steering timing similar to ~3). User notification is performed by a user notification unit 150 connected to the external input/output unit 110.

これにより、万が一運転手が衝突の危険のある障害物(移動体)に気づかなくても衝突を回避することができる。また、運転手が衝突の危険を察知しているにもかかわらず、運転支援処理部106から操舵の指示があると、混乱する、または、システムに対しての不信感につながる。したがって、移動体進入予測部109と組み合わせて利用することで、より安心感のある運転支援を提供することが可能となる。 This makes it possible to avoid a collision even if the driver does not notice an obstacle (moving object) that poses a risk of collision. Furthermore, if the driver receives a steering instruction from the driving support processing unit 106 even though he/she is aware of the danger of a collision, this may lead to confusion or distrust of the system. Therefore, by using it in combination with the mobile object approach prediction unit 109, it becomes possible to provide driving assistance with a more secure feeling.

以上で説明したように、本実施例のセンシングシステム201は、前記経路への移動体の進入の有無を予測する移動体進入予測部109を備える。 As described above, the sensing system 201 of this embodiment includes the mobile object entry prediction unit 109 that predicts whether or not a mobile object will enter the route.

本実施例によれば、障害物(移動体)との衝突を回避できるとともに、より安心感のある運転支援を提供することが可能となる。 According to this embodiment, it is possible to avoid a collision with an obstacle (moving object) and to provide driving support with a more secure feeling.

[実施例5]
多目的のセンシングシステムにおいて運転手の操作を低減しながらも運転支援をする例について図13を参照して説明する。
[Example 5]
An example of providing driving support while reducing the number of operations performed by the driver in a multi-purpose sensing system will be described with reference to FIG. 13.

本実施例5では、実施例4に加えて、シーン判定部111を追加する。シーン判定部111は、位置記憶部105の位置情報とカメラの画像などから、障害物を回避した運転支援が必要かどうかを判定する。例えば、予測経路が死角部分の障害物に近接することを検出することで対応できる。シーン判定部111が運転支援が必要な状態と判定した場合、運転支援処理部106に対して運転支援を開始する信号を出力することで、実施例1~4のような運転支援を提供するとともに、その状態を外部に通知する。側面カメラモジュールやディスプレイモジュールが搭載されているシステムの場合、このシーン判定部111からの信号を自動で画像表示、死角の障害物の位置に注意喚起の運転支援結果を重畳することで、より明確に運転手に伝えることができる。また、システムが自動的に判断することで、運転手の操作が不要で、運転者は左右の安全確認やアクセル操作に集中することができる。 In the fifth embodiment, in addition to the fourth embodiment, a scene determination section 111 is added. The scene determination unit 111 determines whether driving assistance that avoids obstacles is required based on the position information in the position storage unit 105 and the camera image. For example, this can be done by detecting that the predicted route is close to an obstacle in a blind spot. When the scene determination unit 111 determines that driving assistance is required, it outputs a signal to start driving assistance to the driving assistance processing unit 106, thereby providing driving assistance as in Examples 1 to 4. , and notify the outside of its status. In the case of a system equipped with a side camera module or a display module, the signal from the scene determination unit 111 is automatically displayed as an image, and the driver assistance result for alerting is superimposed on the position of the obstacle in the blind spot, making it clearer. You can tell the driver. In addition, the system automatically makes decisions, eliminating the need for driver intervention, allowing the driver to concentrate on checking left and right safety and operating the accelerator.

以上で説明したように、本実施例のセンシングシステム201は、前記位置情報と前記経路に基づいて、前記運転支援の要否を判定し、前記運転支援が必要と判定した場合、前記運転支援を開始する信号を出力するシーン判定部111を備える。 As described above, the sensing system 201 of the present embodiment determines whether or not the driving assistance is necessary based on the position information and the route, and if it is determined that the driving assistance is necessary, the sensing system 201 performs the driving assistance. It includes a scene determination unit 111 that outputs a start signal.

本実施例によれば、条件にマッチした信号を出力し、自動運転支援に移行することが可能となる。 According to this embodiment, it is possible to output a signal that matches the conditions and shift to automatic driving support.

[実施例6]
メモリ量が小さいシステムで動作させる場合の運転支援の例について図14を参照して説明する。
[Example 6]
An example of driving support when operating in a system with a small amount of memory will be described with reference to FIG. 14.

本実施例6では、実施例5に加えて、位置情報領域選択部112を追加する。メモリが少ない場合は、位置記憶部105の記憶量を削減すると効果的である。位置情報領域選択部112は、位置記憶部105に記憶する情報を、物体検知部104で検知された物体(障害物)の位置の周辺の領域に限定(選択)する。さらに、位置情報領域選択部112は、経路推定部120で推定された経路と障害物の位置関係が近い順に障害物の位置の周辺の位置情報を選択してメモリに記憶し、メモリが不足する場合には、経路との位置関係が遠い障害物の位置の周辺の位置情報は記憶しないことする。これにより、位置情報を記憶する部分を限定・選択することで、位置記憶部105の記憶量を削減することができる。 In the sixth embodiment, in addition to the fifth embodiment, a position information area selection section 112 is added. If the memory is small, it is effective to reduce the amount of storage in the position storage unit 105. The position information area selection unit 112 limits (selects) information to be stored in the position storage unit 105 to the area around the position of the object (obstacle) detected by the object detection unit 104. Furthermore, the position information area selection unit 112 selects position information around the obstacle position in order of the closest positional relationship between the obstacles and the route estimated by the route estimation unit 120, and stores the selected position information in the memory. In this case, position information around the position of an obstacle that is far away from the route is not stored. Thereby, by limiting and selecting the portion in which position information is stored, it is possible to reduce the amount of storage in the position storage unit 105.

以上で説明したように、本実施例のセンシングシステム201は、前記経路に近い順に前記障害物の位置の周辺の位置情報を選択する位置情報領域選択部112を備える。 As described above, the sensing system 201 of this embodiment includes the position information area selection unit 112 that selects position information around the position of the obstacle in order of proximity to the route.

本実施例によれば、メモリとしての位置記憶部105の記憶量を削減することで、省メモリ化を図ることができる。 According to this embodiment, by reducing the storage capacity of the position storage unit 105 as a memory, it is possible to save memory.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add, delete, or replace a part of the configuration of each embodiment with other configurations.

また、以上の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, each of the above configurations may be partially or entirely configured by hardware, or may be configured to be realized by executing a program on a processor. Further, the control lines and information lines are shown to be necessary for explanation purposes, and not all control lines and information lines are necessarily shown in the product. In reality, almost all components may be considered to be interconnected.

100 距離測定部、101 画像入力部、102 メモリ、103 CPU、104 物体検知部、105 位置記憶部、106 運転支援処理部、107 区画検知部(実施例2)、108 経路支援部(実施例3)、109 移動体進入予測部(実施例4)、110 外部入出力部、111 シーン判定部(実施例5)、112 位置情報領域選択部(実施例6)、120 経路推定部、150 ユーザ通知部、200 車両、201 センシングシステム Reference Signs List 100 Distance Measurement Unit, 101 Image Input Unit, 102 Memory, 103 CPU, 104 Object Detection Unit, 105 Position Storage Unit, 106 Driving Support Processing Unit, 107 Section Detection Unit (Example 2), 108 Route Support Unit (Example 3) ), 109 Mobile object approach prediction unit (Example 4), 110 External input/output unit, 111 Scene determination unit (Example 5), 112 Location information area selection unit (Example 6), 120 Route estimation unit, 150 User notification Department, 200 Vehicle, 201 Sensing system

Claims (7)

車両の周囲の障害物の高さと位置とを対応付けた位置情報を記憶する位置記憶部と、
前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部と、を有し、
前記運転支援は、前記障害物が死角に入ったときに、前記位置情報に記憶させた前記障害物の位置と前記位置情報から算出された前記障害物と前記車両の高さの差から前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む、センシングシステム。
a position storage unit that stores position information that associates heights and positions of obstacles around the vehicle;
a driving support processing unit that uses the position information to provide driving support when the vehicle approaches a road along a curved route;
The driving assistance is performed when the obstacle enters a blind spot, and the route is calculated based on the position of the obstacle stored in the position information and the height difference between the obstacle and the vehicle calculated from the position information. A sensing system comprising notifying a passenger of a steering timing of the vehicle when the vehicle is on a route that avoids the obstacle.
請求項1に記載のセンシングシステムであって、
前記運転支援は、前記障害物が前記経路外にあり、前記経路が前記道路上の区画線より前を通過する前記車両の操舵タイミングを搭乗者に報知することを含み、前記経路外とは前記車両が通過する領域の外部である、センシングシステム。
The sensing system according to claim 1,
The driving assistance includes notifying the passenger of the steering timing of the vehicle when the obstacle is outside the route and the route passes in front of a marking line on the road, and the outside of the route is defined as the Sensing system, which is outside the area through which the vehicle passes.
請求項1に記載のセンシングシステムであって、
前記障害物の手前で右左折に関する経路の選択肢が増加する位置を搭乗者に報知または誘導する経路支援部を備える、センシングシステム。
The sensing system according to claim 1,
A sensing system comprising: a route support unit that notifies or guides a passenger of a position where route options for turning right or left increase before the obstacle.
請求項1に記載のセンシングシステムであって、
前記経路への移動体の進入の有無を予測する移動体進入予測部を備える、センシングシステム。
The sensing system according to claim 1,
A sensing system comprising a mobile object entry prediction unit that predicts whether or not a mobile object will enter the route.
請求項1に記載のセンシングシステムであって、
前記位置情報と前記経路に基づいて、前記運転支援の要否を判定し、前記運転支援が必要と判定した場合、前記運転支援を開始する信号を出力するシーン判定部を備える、センシングシステム。
The sensing system according to claim 1,
A sensing system comprising: a scene determining unit that determines whether or not the driving assistance is necessary based on the position information and the route, and outputs a signal to start the driving assistance when it is determined that the driving assistance is necessary.
請求項1に記載のセンシングシステムであって、
前記経路に近い順に前記障害物の位置の周辺の位置情報を選択する位置情報領域選択部を備える、センシングシステム。
The sensing system according to claim 1,
A sensing system including a position information area selection unit that selects position information around the position of the obstacle in order of proximity to the route.
請求項1に記載のセンシングシステムであって、
前記運転支援は、前記経路が前記障害物を回避できない経路である際は警告音を鳴らし、前記経路が前記障害物を回避する経路になった際に前記警告音を消すことで、前記車両の操舵タイミングを搭乗者に報知する、センシングシステム。
The sensing system according to claim 1,
The driving assistance is to sound a warning sound when the route cannot avoid the obstacle, and to turn off the warning sound when the route is a route that avoids the obstacle. A sensing system that notifies passengers of steering timing.
JP2020038613A 2020-03-06 2020-03-06 sensing system Active JP7385502B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020038613A JP7385502B2 (en) 2020-03-06 2020-03-06 sensing system
PCT/JP2020/049082 WO2021176825A1 (en) 2020-03-06 2020-12-28 Sensing system
CN202080090887.1A CN114930423A (en) 2020-03-06 2020-12-28 Sensing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020038613A JP7385502B2 (en) 2020-03-06 2020-03-06 sensing system

Publications (2)

Publication Number Publication Date
JP2021140537A JP2021140537A (en) 2021-09-16
JP7385502B2 true JP7385502B2 (en) 2023-11-22

Family

ID=77613274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020038613A Active JP7385502B2 (en) 2020-03-06 2020-03-06 sensing system

Country Status (3)

Country Link
JP (1) JP7385502B2 (en)
CN (1) CN114930423A (en)
WO (1) WO2021176825A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115009272B (en) * 2022-07-08 2023-01-31 北京捷升通达信息技术有限公司 Vehicle full-autonomous obstacle crossing method based on laser radar obstacle classification and identification

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099409A (en) 2004-09-29 2006-04-13 Denso Corp Navigation system for avoiding deviation due to contact
JP2009078733A (en) 2007-09-27 2009-04-16 Hitachi Ltd Driving support device
US20160339959A1 (en) 2015-05-21 2016-11-24 Lg Electronics Inc. Driver Assistance Apparatus And Control Method For The Same
JP2018055321A (en) 2016-09-28 2018-04-05 日産自動車株式会社 Driving support method and driving support device
JP2018090108A (en) 2016-12-05 2018-06-14 株式会社デンソーテン Parking support device and parking support method
JP2019021197A (en) 2017-07-20 2019-02-07 株式会社Ihiエアロスペース Route determination device and route determination method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049998A (en) * 2000-04-24 2002-02-15 Matsushita Electric Ind Co Ltd Drive support device
JP2017182498A (en) * 2016-03-30 2017-10-05 トヨタ自動車株式会社 Driving assistance device
DE102016221276B4 (en) * 2016-10-28 2025-01-23 Ford Global Technologies, Llc maneuvering procedure for a motor vehicle, motor vehicle
CN115158354A (en) * 2017-03-02 2022-10-11 松下知识产权经营株式会社 Driving assistance method, driving assistance device, and driving assistance system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099409A (en) 2004-09-29 2006-04-13 Denso Corp Navigation system for avoiding deviation due to contact
JP2009078733A (en) 2007-09-27 2009-04-16 Hitachi Ltd Driving support device
US20160339959A1 (en) 2015-05-21 2016-11-24 Lg Electronics Inc. Driver Assistance Apparatus And Control Method For The Same
JP2018055321A (en) 2016-09-28 2018-04-05 日産自動車株式会社 Driving support method and driving support device
JP2018090108A (en) 2016-12-05 2018-06-14 株式会社デンソーテン Parking support device and parking support method
JP2019021197A (en) 2017-07-20 2019-02-07 株式会社Ihiエアロスペース Route determination device and route determination method

Also Published As

Publication number Publication date
WO2021176825A1 (en) 2021-09-10
CN114930423A (en) 2022-08-19
JP2021140537A (en) 2021-09-16

Similar Documents

Publication Publication Date Title
US12005904B2 (en) Autonomous driving system
EP3285485B1 (en) Stereo camera-based autonomous driving method and apparatus
KR102042371B1 (en) Parking space detection method and apparatus
CN109841088B (en) Vehicle driving assistance system and method
CN202686359U (en) Narrow road detection device
US10453344B2 (en) Information processing apparatus and non-transitory recording medium
CN105774806B (en) Controlling device for vehicle running
JP4420011B2 (en) Object detection device
JP5938569B2 (en) Advanced driver support system considering azimuth information and operation method thereof
JP4615038B2 (en) Image processing device
JP4043416B2 (en) Safe movement support device
US20180059679A1 (en) Depth map estimation with stereo images
TW201704067A (en) Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system
JP2018197048A (en) Collision avoidance control device
JP2020166539A (en) Intersection start determination device
US9616886B2 (en) Size adjustment of forward objects for autonomous vehicles
CN202574099U (en) Vehicle anti-collision device
JPH1069598A (en) Collision preventing device for vehicle
CN118366335A (en) Risk estimation system and vehicle control system
JP2008003880A (en) Vehicle periphery monitoring system, vehicle periphery monitoring program and method for constructing vehicle periphery monitoring system and server
JP6115429B2 (en) Own vehicle position recognition device
JP7385502B2 (en) sensing system
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
JP6232883B2 (en) Own vehicle position recognition device
JP4864450B2 (en) Vehicle driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231110

R150 Certificate of patent or registration of utility model

Ref document number: 7385502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150