[go: up one dir, main page]

JPH08313632A - Alarm generator, alarm generating method and vehicle mounting alarm generator - Google Patents

Alarm generator, alarm generating method and vehicle mounting alarm generator

Info

Publication number
JPH08313632A
JPH08313632A JP7144234A JP14423495A JPH08313632A JP H08313632 A JPH08313632 A JP H08313632A JP 7144234 A JP7144234 A JP 7144234A JP 14423495 A JP14423495 A JP 14423495A JP H08313632 A JPH08313632 A JP H08313632A
Authority
JP
Japan
Prior art keywords
alarm
detected object
image data
detected
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7144234A
Other languages
Japanese (ja)
Inventor
Satoru Arita
悟 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP7144234A priority Critical patent/JPH08313632A/en
Publication of JPH08313632A publication Critical patent/JPH08313632A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PURPOSE: To alarm an operator in early stage by discriminating an object detected by means of a laser radar and delivering an alarm in early stage when the detected object is a pedestrian. CONSTITUTION: A two-dimensional scanner 14 scans a pulse laser light projected from an LD 13 in response to a signal received from a control circuit 11 and delivers the distance, horizontal angle and vertical angle of an object to a signal processor 20 every time when the object is detected. The signal processor 20 decides whether the detected object is a pedestrian or an obstacle and a different alarm must be delivered. When it is decided that the detected object is a person, the risk of collision is compared with a predetermined threshold value and when the threshold value is not exceeded, an alarm for person is delivered from an alarm 19 otherwise no alarm is delivered.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【技術分野】この発明は,車両の前方に存在する人(歩
行者)を検出し,その人の存在をその車両の運転手に知
らせる警報発生装置および方法,ならびにこの警報発生
装置を搭載した車両に関する。
TECHNICAL FIELD The present invention detects a person (pedestrian) existing in front of a vehicle and informs a driver of the person of the presence of the person, and a vehicle equipped with the alarm generating apparatus. Regarding

【0002】[0002]

【背景技術】車両の前方に存在する車両等の障害物を検
出する装置としてレーザ・レーダを用いた車間距離検出
装置がある。この車間距離検出装置は,レーザ光を投射
し車両等の後部に設けられたリフレクタからのレーザ光
の反射光を検出することによって,それらの障害物を検
出している。このため,運転者が注意すべき歩行者,自
転車に乗っている人等については,次のような問題があ
る。
BACKGROUND ART There is an inter-vehicle distance detecting device using a laser radar as a device for detecting an obstacle such as a vehicle existing in front of a vehicle. The inter-vehicle distance detecting device detects obstacles by projecting laser light and detecting reflected light of the laser light from a reflector provided at a rear portion of a vehicle or the like. Therefore, there are the following problems with regard to pedestrians, people riding bicycles, etc., to which the driver should be careful.

【0003】自転車にはその後部にリフレクタが設けら
れているので,車間距離検出装置がそのリフレクタから
の反射光を検出することによって自転車(自転車に乗っ
ている人)を検出することが可能となる。
Since a reflector is provided at the rear of the bicycle, the inter-vehicle distance detecting device can detect a bicycle (a person riding a bicycle) by detecting the reflected light from the reflector. .

【0004】また,歩行者については,通常,車間距離
検出装置が検出できず,歩行者の着衣によってはレーザ
光が反射されることがあるため,その反射光を車間距離
検出装置が検出することによって歩行者を検出できるこ
とがある。しかしながら,車間距離検出装置の分解能が
±1m程度であり,作動周期が 0.1秒程度である場合に
は,人の移動速度(歩行速度)は充分小さいため静止物
体として検出される。このため,歩行者をその他の静止
物体,たとえば路側リフレクタ,看板等と区別すること
ができない。
Further, for a pedestrian, the inter-vehicle distance detecting device cannot usually detect, and the laser light may be reflected depending on the clothing of the pedestrian. Therefore, the reflected light should be detected by the inter-vehicle distance detecting device. May be able to detect pedestrians. However, when the resolution of the inter-vehicle distance detection device is about ± 1 m and the operation cycle is about 0.1 seconds, the moving speed (walking speed) of the person is sufficiently small and it is detected as a stationary object. Therefore, the pedestrian cannot be distinguished from other stationary objects such as roadside reflectors and signboards.

【0005】[0005]

【発明の開示】この発明は,車両の前方に存在する歩行
者(人)を検出できるようにするとともに,歩行者の存
在をその車両の運転手に知らせるようにするとことを目
的としている。
DISCLOSURE OF THE INVENTION It is an object of the present invention to detect a pedestrian (person) existing in front of a vehicle and to notify the driver of the vehicle of the presence of the pedestrian.

【0006】第1の発明は,車両,二輪車等の障害物お
よび歩行者までの相対位置に基づいて,警報を発生する
警報発生装置および方法を提供している。第2の発明
は,撮像により得られる画像に基づいて歩行者を検出
し,歩行者が検出されると警報を発生する警報発生装置
および方法を提供している。第1の発明による警報発生
装置および第2の発明による警報発生装置は車両に搭載
される。
The first aspect of the present invention provides an alarm generating device and method for generating an alarm based on an obstacle such as a vehicle or a two-wheeled vehicle and a relative position to a pedestrian. A second aspect of the present invention provides an alarm generation device and method for detecting a pedestrian based on an image obtained by imaging and issuing an alarm when the pedestrian is detected. The alarm generating device according to the first invention and the alarm generating device according to the second invention are mounted on a vehicle.

【0007】第1の発明による警報発生装置は,警報発
生装置が搭載された車両の前方に存在する被検出物体を
検出し,検出した被検出物体の相対位置を計測する物体
位置検出手段,上記物体位置検出手段によって検出され
た被検出物体の相対位置に基づいてその被検出物体が人
に関するものであるかまたは障害物に関するものである
かを判断する人判断手段,上記物体位置検出手段によっ
て検出された被検出物体の相対位置に基づいて警報を発
生するかどうかを判定するとともに,上記人判断手段が
被検出物体を人に関するものであると判定したときに
は,被検出物体を障害物に関するものであると判定した
ときよりも遠い位置から警報を発生させるように判定す
る警報発生判断手段,および上記警報発生判断手段が警
報を発生すべきと判定したことに応答して警報を発生す
る警報装置を備えている。
The alarm generation device according to the first aspect of the present invention is an object position detecting means for detecting a detected object existing in front of a vehicle equipped with the alarm generation device and measuring a relative position of the detected detected object. Person judging means for judging whether the detected object is related to a person or an obstacle based on the relative position of the detected object detected by the object position detecting means, and detected by the object position detecting means It is determined whether or not an alarm is to be issued based on the detected relative position of the detected object, and when the person determination means determines that the detected object is related to a person, the detected object is related to an obstacle. It is determined that the alarm generation determination means that determines to generate an alarm from a position farther than when it is determined to be present, and that the above alarm generation determination means should generate an alarm. And a warning device for generating an alarm in response to the fact.

【0008】第1の発明による警報発生方法は,車両の
前方に存在する被検出物体を検出し,検出した被検出物
体の相対位置を計測し,検出された被検出物体の相対位
置に基づいてその被検出物体が人に関するものであるか
または障害物に関するものであるかを判断し,検出され
た被検出物体の相対位置に基づいて警報を発生するかど
うかを判定するとともに,被検出物体を人に関するもの
であると判定したときには被検出物体を障害物に関する
ものであると判定したときよりも遠い位置から警報を発
生させるように判定し,警報を発生すべきと判定したこ
とに応答して警報を発生するものである。
The alarm generation method according to the first aspect of the present invention detects an object to be detected existing in front of the vehicle, measures the relative position of the detected object to be detected, and based on the detected relative position of the object to be detected. It is determined whether the detected object is related to a person or an obstacle, and whether or not an alarm is issued is determined based on the relative position of the detected object. When it is determined that it is related to a person, it is determined that the detected object is to be issued a warning from a position farther than when it is determined to be related to an obstacle. An alarm is generated.

【0009】第1の発明によると,車両の前方に存在す
る被検出物体が検出され,その被検出物体の相対位置が
計測される。たとえば車両,二輪車等の障害物,路側に
設けられる障害物,人(歩行者),等が被検出物体とし
て検出される。被検出物体の検出にはたとえば,レーザ
光を用いたレーザ・レーダ等の検出装置が用いられる。
被検出物体が検出されると,その被検出物体の相対位置
に基づいて,その被検出物体が人に関するものである
か,またはその他の障害物に関するものであるかが判断
される。次に被検出物体の相対位置に基づいて,警報を
発生するかどうかが判断される。被検出物体が人に関す
るものの場合には,それ以外の障害物の場合よりも遠い
位置から警報が発生される。
According to the first aspect of the present invention, the detected object existing in front of the vehicle is detected, and the relative position of the detected object is measured. For example, a vehicle, an obstacle such as a motorcycle, an obstacle provided on the roadside, a person (pedestrian), or the like is detected as the detected object. For detecting the object to be detected, for example, a detection device such as a laser radar using laser light is used.
When the detected object is detected, it is determined whether the detected object is a person or another obstacle based on the relative position of the detected object. Next, based on the relative position of the detected object, it is determined whether or not to issue an alarm. If the object to be detected is a person, an alarm is issued from a position farther than that of other obstacles.

【0010】したがって,歩行者が検出されたときに
は,その他の障害物が検出されたときよりも遠い位置か
ら警報が鳴らされるので,この警報によってその車両の
運転手は早い時期から歩行者の存在を知ることができ
る。これにより,運転手は歩行者に注意を払い,その歩
行者を保護するような動作(操作)を容易にとることが
できる。
Therefore, when a pedestrian is detected, an alarm is sounded from a position farther than when other obstacles are detected, and this alarm causes the driver of the vehicle to detect the presence of a pedestrian from an early stage. I can know. This allows the driver to pay attention to the pedestrian and easily take an action (operation) to protect the pedestrian.

【0011】第1の発明によるもう1つの警報発生装置
は,被検出物体が人に関するものであるか,またはそれ
他の障害物であるかによって,警報の種類を変えるもの
である。この警報発生装置は,警報発生装置が搭載され
た車両の前方に存在する被検出物体を検出し,検出した
被検出物体の相対位置を計測する物体位置検出手段,上
記物体位置検出手段によって検出された被検出物体の相
対位置に基づいて,その被検出物体が人に関するもので
あるかまたは障害物に関するものであるかを判断する人
判断手段,上記人判断手段が被検出物体を人に関するも
のであると判定したときには第1の警報を発生するかど
うかを,上記人判断手段が被検出物体を障害物に関する
ものであると判定したときには第2の警報を発生するか
どうかを,その被検出物体の相対位置に基づいて判断す
る警報発生判断手段,および上記警報発生判断手段が警
報を発生すべきと判定したことに応答して第1または第
2の警報を発生する警報装置を備えている。
Another alarm generating device according to the first aspect of the invention changes the type of alarm depending on whether the detected object is a person or another obstacle. This alarm generating device detects an object to be detected existing in front of a vehicle equipped with the alarm generating device and detects the relative position of the detected object to be detected by the object position detecting means and the object position detecting means. A person judging means for judging whether the detected object is related to a person or an obstacle based on the relative position of the detected object. When it is determined that the first alarm is to be issued, when the person determining means determines that the detected object is related to an obstacle, whether to issue the second alarm is detected. And an alarm device for issuing a first or second alarm in response to the alarm generation determining means determining that the alarm should be issued. It is equipped with a.

【0012】この警報発生装置に対応する警報発生方法
は,車両の前方に存在する被検出物体を検出し,検出し
た被検出物体の相対位置を計測し,検出された被検出物
体の相対位置に基づいて,その被検出物体が人に関する
ものであるかまたは障害物に関するものであるかを判断
し,被検出物体を人に関するものであると判定したとき
には第1の警報を発生するかどうかを,被検出物体を障
害物に関するものであると判定したときには第2の警報
を発生するかどうかを,その被検出物体の相対位置に基
づいて判断し,警報を発生すべきと判定したことに応答
して第1または第2の警報を発生するものである。
An alarm generating method corresponding to this alarm generating device detects an object to be detected existing in front of the vehicle, measures a relative position of the detected object to be detected, and detects the relative position of the detected object to be detected. Based on this, it is determined whether the detected object is related to a person or an obstacle, and if it is determined that the detected object is related to a person, whether to issue the first alarm, When it is determined that the detected object is related to an obstacle, whether or not to issue the second alarm is determined based on the relative position of the detected object, and in response to the determination that the alarm should be issued. To generate the first or second alarm.

【0013】この発明によると,検出された被検出物体
の相対位置に基づいて,その被検出物体が人に関するも
のであるかまたは障害物に関するものであるかが判断さ
れる。その結果,被検出物体が人に関するものであると
きには第1の警報を発生するかどうかが,被検出物体が
その他の障害物に関するものであるときには第1の警報
と異なる第2の警報を発生するかどうかが,その被検出
物体の相対位置に基づいて判断される。第1の警報はた
とえば第2の警報よりも大きい音量である。
According to the present invention, it is determined based on the detected relative position of the detected object whether the detected object is a person or an obstacle. As a result, whether the first alarm is issued when the detected object is related to a person or not is issued when the detected object is related to other obstacles. Whether or not it is determined based on the relative position of the detected object. The first alarm is, for example, louder than the second alarm.

【0014】したがって,第1の警報(歩行者用)と第
2の警報(その他の障害物用)を変えることによって,
運転手が前方に存在する物体(被検出物体)が歩行者で
あるかまたはその他の障害物であるかを容易に判断する
ことができる。これにより,運転手は歩行者の存在を早
く知ることができるので,歩行者に対する危険回避の処
置を容易にとることができる。
Therefore, by changing the first alarm (for pedestrians) and the second alarm (for other obstacles),
The driver can easily determine whether the object (object to be detected) present in front is a pedestrian or another obstacle. As a result, the driver can quickly know the existence of the pedestrian, and can easily take measures for avoiding danger to the pedestrian.

【0015】第1の発明の一実施態様においては,警報
発生装置が搭載された車両の速度を検出する車速セン
サ,および上記車速センサによって検出された車両の速
度と上記被検出物体の相対位置とに基づいてその被検出
物体の相対速度を算出する相対速度算出手段がさらに設
けられ,上記警報発生判断手段が,被検出物体の相対位
置に加えてその相対速度を用いて警報についての判断を
行うものである。
In one embodiment of the first aspect of the invention, a vehicle speed sensor for detecting the speed of a vehicle equipped with an alarm generation device, and the vehicle speed detected by the vehicle speed sensor and the relative position of the object to be detected. Relative speed calculation means for calculating the relative speed of the detected object based on the above is further provided, and the alarm generation judgment means makes a judgment about the alarm using the relative speed in addition to the relative position of the detected object. It is a thing.

【0016】この実施態様によると,警報発生装置が搭
載された車両の速度が計測され,この車両の速度および
各被検出物体の相対位置に基づいて,その被検出物体の
相対速度が検出される。被検出物体の相対速度は警報を
発生するかどうかの判定に用いられる。警報を発生する
かどうかの判定においては,被検出物体が近づいてくる
場合には,遠い位置から警報を発生し,被検出物体が遠
ざかっていく場合には近づいてくる場合よりも近い位置
から警報を発生するようにする。したがって,被検出物
体が近づいてくるときのように,その被検出物体と衝突
する危険が大きいときには,遠ざかっていくときよりも
遠い位置から警報が発生されることになるので,危険の
度合に応じてより適切に警報を発生することができる。
According to this embodiment, the speed of the vehicle equipped with the alarm generation device is measured, and the relative speed of the detected object is detected based on the speed of the vehicle and the relative position of each detected object. . The relative speed of the detected object is used to determine whether to issue an alarm. In determining whether to issue an alarm, an alarm is issued from a distant position when the detected object is approaching, and an alarm is issued from a position closer than when the detected object is approaching. To occur. Therefore, when there is a high risk of colliding with the detected object, such as when the detected object approaches, an alarm will be issued from a position farther away than when the object moves away. Therefore, the alarm can be more appropriately generated.

【0017】次に第2の発明による警報発生装置および
方法について説明する。
Next, an alarm generating device and method according to the second invention will be described.

【0018】第2の発明による警報発生装置は,被検出
物体を含む被写体を撮像し,その被写体を表す画像デー
タを出力する撮像手段,上記撮像手段から出力された第
1画像データと,この第1画像データの撮像から所定時
間経過後に上記撮像手段から出力された第2画像データ
とを記憶する画像メモリ,上記画像メモリに記憶された
第1画像データと第2画像データとに基づいて被検出物
体を表す対象画像データを作成する対象画像作成手段,
上記対象画像作成手段によって作成された対象画像デー
タによって表わされる被検出物体が人であるかどうかを
判断する人判断手段,および上記人判断手段が人である
と判定したことに応答して警報を発生する警報装置を備
えている。
An alarm generating device according to a second aspect of the present invention includes an image pickup means for picking up an image of a subject including a detected object and outputting image data representing the subject, the first image data output from the image pickup means, and the first image data. An image memory for storing the second image data output from the image pickup means after a lapse of a predetermined time from the image pickup of one image data, and a detected object based on the first image data and the second image data stored in the image memory Target image creating means for creating target image data representing an object,
A person judgment means for judging whether or not the detected object represented by the target image data created by the target image creation means is a person, and an alarm is issued in response to the person judgment means being a person. Equipped with a warning device.

【0019】第2の発明による警報発生方法は,被検出
物体を含む被写体を撮像することにより,その被写体を
表す画像データを得,撮像により得られた第1画像デー
タと,この第1画像データの撮像から所定時間経過後に
撮像により得られた第2画像データとを画像メモリに記
憶しておき,上記画像メモリに記憶された第1画像デー
タと第2画像データとに基づいて被検出物体を表す対象
画像データを作成し,作成された対象画像データによっ
て表わされる被検出物体が人であるかどうかを判断し,
被検出物体を人であると判定したことに応答して警報を
発生するものである。
In the alarm issuing method according to the second aspect of the present invention, an image of a subject including an object to be detected is imaged to obtain image data representing the object, the first image data obtained by the image pickup, and the first image data. The second image data obtained by the imaging after a lapse of a predetermined time from the image capturing is stored in the image memory, and the detected object is detected based on the first image data and the second image data stored in the image memory. Create target image data to represent, determine whether the detected object represented by the created target image data is a person,
An alarm is generated in response to the determination that the detected object is a person.

【0020】第2の発明によると,被検出物体を含む被
写体が撮像手段によって撮像され,その被写体を表す画
像データが出力される。最初に撮像された第1画像デー
タと,この第1画像データの撮像から所定時間経過後に
撮像された第2画像データとが画像メモリに記憶され
る。画像メモリに記憶された第1画像データと第2画像
データに基づいて被検出物体を表す対象画像データが作
成される。対象画像データに基づいてその対象画像デー
タによって表わされる被検出物体が人であるかどうかが
判断される。被検出物体が人(歩行者)であると判定さ
れると警報が鳴らされる。
According to the second aspect of the present invention, the subject including the object to be detected is imaged by the image pickup means, and the image data representing the subject is output. The first image data captured first and the second image data captured after a lapse of a predetermined time from the imaging of the first image data are stored in the image memory. Target image data representing the detected object is created based on the first image data and the second image data stored in the image memory. Based on the target image data, it is determined whether the detected object represented by the target image data is a person. When it is determined that the detected object is a person (pedestrian), an alarm is sounded.

【0021】したがって,歩行者が検出されると警報が
鳴らされるので,運転手は歩行者の存在を知ることがで
きるので,歩行者に対する危険回避のための処置を容易
に行うことができる。
Therefore, when a pedestrian is detected, an alarm is sounded, so that the driver can know the existence of the pedestrian, so that the pedestrian can easily take measures to avoid danger.

【0022】第2の発明の一実施態様においては,上記
対象画像作成手段が,上記画像メモリに記憶された第1
画像データを,上記第2画像データの画像面に2段階透
視変換した透視画像データを作成する透視変換手段,上
記透視変換手段によって作成された透視画像データと,
上記画像メモリに記憶された第2画像データとの差分画
像データを作成し,この差分画像データを所定の閾値で
二値化した二値画像データを作成する二値画像作成手
段,二値画像作成手段によって作成された二値画像デー
タにラベリング処理を施すことにより対象画像を抽出
し,各対象画像を囲むウィンドウを決定するウィンドウ
決定手段,および上記画像メモリに記憶された第2画像
データのうち,各ウィンドウ内に含まれる上記第2画像
データを上記対象画像データとして出力する画像作成手
段によって実現される。
In an embodiment of the second invention, the target image creating means stores the first image stored in the image memory.
Perspective conversion means for generating perspective image data by performing two-step perspective conversion on the image surface of the second image data, perspective image data generated by the perspective conversion means,
Binary image creating means for creating difference image data with the second image data stored in the image memory, and creating binary image data by binarizing the difference image data with a predetermined threshold value, binary image creating Of the second image data stored in the image memory, window determination means for extracting target images by subjecting the binary image data created by the means to labeling processing, and determining windows surrounding each target image, This is realized by an image creating unit that outputs the second image data included in each window as the target image data.

【0023】この実施態様によると,第1画像データを
第2画像データの画像面に透視変換した透視画像データ
が作成され,この透視画像データと第2画像データとの
差分画像データを所定の閾値で二値化した二値画像デー
タが作成される。二値画像データにラベリング処理が施
され,被検出物体を表す対象画像が抽出され,さらに各
対象画像を囲むウィンドウが決定される。第2画像デー
タのうち,各ウィンドウ内に含まれる上記第2画像デー
タが対象画像データとして出力される。2段階透視変換
された透視画像と第2画像との差分画像は,道路等の平
面を表す画像がほぼ無くなり,車両,歩行者等の立体を
表す画像のみが残ることになる。したがって,差分画像
を二値化しラベリング処理を施すことによって,車両,
歩行者等の立体(被検出物体)をそれぞれ表す画像を抽
出することができる。それぞれの被検出物体の画像を含
むウィンドウ内の第2画像データには,その被検出物体
を表す対象画像データが含まれる。
According to this embodiment, perspective image data obtained by perspectively converting the first image data onto the image surface of the second image data is created, and the difference image data between the perspective image data and the second image data is set to a predetermined threshold value. Binarized image data is created by. Labeling processing is performed on the binary image data, target images representing the detected object are extracted, and a window surrounding each target image is determined. Of the second image data, the second image data included in each window is output as target image data. In the difference image between the perspective image subjected to the two-stage perspective transformation and the second image, an image representing a plane such as a road almost disappears, and only an image representing a solid such as a vehicle or a pedestrian remains. Therefore, by binarizing the difference image and applying labeling processing,
It is possible to extract images that respectively represent three-dimensional objects (detected objects) such as pedestrians. The second image data in the window including the image of each detected object includes target image data representing the detected object.

【0024】第2の発明の他の実施態様においては,上
記人判断手段が,上記対象画像作成手段によって作成さ
れた対象画像データに基づいて,被検出物体の水平エッ
ジおよび垂直エッジを抽出するエッジ抽出手段,および
上記エッジ抽出手段によって抽出された被検出物体の水
平エッジおよび垂直エッジに基づいて被検出物体の高さ
とその幅を算出し,これらの高さと幅に基づいて被検出
物体が人であるかどうかを判断する対象判断手段によっ
て実現される。
According to another embodiment of the second aspect of the invention, the person judging means extracts the horizontal edge and the vertical edge of the detected object based on the target image data created by the target image creating means. The height and width of the detected object are calculated based on the extraction means and the horizontal and vertical edges of the detected object extracted by the edge extraction means, and the detected object is a person based on the height and width. It is realized by a target determining unit that determines whether or not there is.

【0025】この実施態様によると,被検出物体を表す
対象画像データに基づいて,被検出物体の水平エッジお
よび垂直エッジが抽出される。被検出物体の水平エッジ
および垂直エッジに基づいて被検出物体の高さとその幅
が検出される。高さと幅に基づいて被検出物体が人であ
るかどうかが判断される。人(歩行者)と,車両等の障
害物とは,高さと幅が異なるので,これらの高さと幅に
基づいて被検出物体が歩行者であるかまたはその他の障
害物であるかを判定することができる。
According to this embodiment, the horizontal edge and the vertical edge of the detected object are extracted based on the target image data representing the detected object. The height and width of the detected object are detected based on the horizontal edge and the vertical edge of the detected object. Whether the detected object is a person is determined based on the height and the width. Since a person (pedestrian) and an obstacle such as a vehicle have different heights and widths, it is determined whether the detected object is a pedestrian or another obstacle based on these heights and widths. be able to.

【0026】[0026]

【実施例】【Example】

第1実施例 第1実施例における警報発生装置は2次元スキャンのレ
ーザ・レーダを用いて歩行者を含む障害物を検出し,そ
れらの距離に応じて警報を発生するものである。
First Embodiment The alarm generation device in the first embodiment detects an obstacle including a pedestrian using a two-dimensional scanning laser radar and issues an alarm according to the distance between them.

【0027】図1は車両に搭載される警報発生装置の電
気的構成を示すブロック図である。この警報発生装置が
搭載された車両を自車両という。
FIG. 1 is a block diagram showing the electrical construction of an alarm generator mounted on a vehicle. A vehicle equipped with this alarm generation device is called a host vehicle.

【0028】レーザ・レーダ10は車両の前方に向けてレ
ーザ光を投射するように車両に取付けられる。このレー
ザ・レーダ10には,投射光を投射する部分と,反射光を
受光する部分とが含まれる。図2に示すように,レーザ
・レーダ10は車両1の前部,たとえばバンパ1Aまたは
その付近に取付けられる。レーザ・レーダ10の全部を車
両1の車体の外側に露出させる必要はなく,少なくとも
レーザ光の出射窓と反射光の入射窓とが開けられていれ
ばよい。各種の信号処理回路は一般には車体内部に設け
られるであろう。
The laser radar 10 is mounted on a vehicle so as to project a laser beam toward the front of the vehicle. The laser radar 10 includes a portion that projects the projected light and a portion that receives the reflected light. As shown in FIG. 2, the laser radar 10 is mounted on the front portion of the vehicle 1, for example, at or near the bumper 1A. It is not necessary to expose the entire laser radar 10 to the outside of the vehicle body of the vehicle 1, as long as at least the laser light emission window and the reflected light incidence window are opened. Various signal processing circuits will generally be provided inside the vehicle body.

【0029】車両,二輪車,自転車等の障害物にはその
後部にリフレクタが設けられているので,そのリフレク
タによって反射されたレーザ光を受光することによっ
て,それらの障害物を検出することができる。一方,歩
行者については,歩行者を検出するため,図3に示すよ
うに,再帰反射特性を持つ素材(これを,反射素材とい
う)5Hと5Lをそれぞれ,人の頭に近い箇所と足に近
い箇所の2箇所に取付ける。頭に近い箇所は,たとえば
帽子,服の襟等であり,足に近い箇所はたとえば,靴,
ズボンの裾,スカートの裾等である。頭に近い箇所およ
び足に近い箇所以外に,その他の箇所に反射素材を着け
てもよく,たとえば反射素材を腕帯として腕に着けても
よい。
Since obstacles such as vehicles, two-wheeled vehicles, and bicycles are provided with reflectors at their rear portions, the obstacles can be detected by receiving the laser light reflected by the reflectors. On the other hand, for pedestrians, in order to detect pedestrians, as shown in FIG. 3, materials having retroreflective characteristics (referred to as reflective materials) 5H and 5L are respectively placed on a part close to a person's head and feet. Install it in two places close to each other. The parts near the head are, for example, hats, clothes collars, etc., and the parts near the legs are, for example, shoes,
For example, the hem of trousers or the hem of a skirt. In addition to the parts near the head and the legs, the reflective material may be applied to other parts, for example, the reflective material may be applied to the arm as an armband.

【0030】レーザ・レーダ10の全体的な動作は制御回
路11によって統括される。制御回路11は一定の周期をも
つ一連の発光パルスを発生し,レーザ・ダイオード(L
D)駆動回路12に与える。発光パルスの周期は,計測可
能な最大距離を光が往復するのに要する時間以上の時間
である。
The overall operation of the laser radar 10 is controlled by the control circuit 11. The control circuit 11 generates a series of light-emission pulses having a constant period, and the laser diode (L
D) It is given to the drive circuit 12. The period of the light emission pulse is a time longer than the time required for light to make a round trip over the maximum measurable distance.

【0031】制御回路11はまた,レーザ光をあらかじめ
定められた走査角度範囲(検知エリア)を水平方向およ
び鉛直方向にそれぞれ走査するたの水平走査角信号およ
び鉛直走査角信号を発生し,二次元スキャナ14に与え
る。走査角度範囲はたとえば,図4に示すように,水平
方向に400[mrad] であり,鉛直方向に70[mrad]である。
走査角度範囲は,各方向にそれぞれ80分割,14分割され
る,すなわち80×14のエリアに分割される。1エリアは
5×5[mrad2] であり,各エリアにレーザ光が投射され
る。
The control circuit 11 also generates a horizontal scanning angle signal and a vertical scanning angle signal for scanning the laser beam in a predetermined scanning angle range (detection area) in the horizontal direction and the vertical direction, respectively. Give to the scanner 14. The scanning angle range is, for example, 400 [mrad] in the horizontal direction and 70 [mrad] in the vertical direction as shown in FIG.
The scanning angle range is divided into 80 and 14 areas in each direction, that is, into 80 × 14 areas. One area is 5 × 5 [mrad 2 ], and laser light is projected onto each area.

【0032】LD駆動回路12は,制御回路11から与えら
れる発光パルスに応答して,レーザ・ダイオード(L
D)13を駆動する。これにより,LD13からパルス・レ
ーザ光が投光される。
The LD drive circuit 12 responds to the light emission pulse given from the control circuit 11 by a laser diode (L
D) Drive 13 As a result, the pulsed laser light is projected from the LD 13.

【0033】二次元スキャナ14は,制御回路11から与え
られる水平走査角信号および鉛直走査角信号に応答し
て,LD13が投射されるパルス・レーザ光を走査し,上
述の走査角度範囲に出射する。図5は二次元スキャナの
詳細な構成を示すブロック図である。
The two-dimensional scanner 14 scans the pulsed laser light projected by the LD 13 in response to the horizontal scanning angle signal and the vertical scanning angle signal supplied from the control circuit 11, and emits the pulsed laser light in the above-mentioned scanning angle range. . FIG. 5 is a block diagram showing the detailed structure of the two-dimensional scanner.

【0034】LD13からのパルス・レーザ光は水平走査
用ミラー41により反射されることによって水平方向に走
査され,さらに鉛直走査用ミラー43により反射されるこ
とによって鉛直方向に走査される。水平走査用ミラー41
は制御回路11から与えられる水平走査角信号に基づく角
度に水平走査用モータ42によって回転され,鉛直走査用
ミラー41は制御回路11から与えられる鉛直走査角信号に
基づく角度に鉛直走査用モータ42によって回転される。
ミラー41,43はたとえばガルバノメータ・ミラーであ
る。
The pulsed laser light from the LD 13 is reflected by the horizontal scanning mirror 41 to be scanned in the horizontal direction, and further reflected by the vertical scanning mirror 43 to be scanned in the vertical direction. Horizontal scanning mirror 41
Is rotated by the horizontal scanning motor 42 at an angle based on the horizontal scanning angle signal given from the control circuit 11, and the vertical scanning mirror 41 is moved at an angle based on the vertical scanning angle signal given from the control circuit 11 by the vertical scanning motor 42. Is rotated.
The mirrors 41 and 43 are galvanometer mirrors, for example.

【0035】パルス・レーザ光の二次元スキャンは,図
5に示す二次元スキャナの他に,ポリゴン・ミラーを用
いてもよいし,レーザ光を投光するコリメータを回動さ
せるコリメータ直動型を用いて行ってもよい。またその
他のものを用いてもよい。
For the two-dimensional scanning of the pulsed laser light, a polygon mirror may be used in addition to the two-dimensional scanner shown in FIG. 5, and a collimator direct-acting type for rotating a collimator for projecting the laser light may be used. You may use it. Other materials may also be used.

【0036】水平走査用ミラー41および鉛直走査用ミラ
ー43の回転角がスキャン角度検出回路によって検出さ
れ,それらの角度を表す水平角検出信号および鉛直角検
出信号が制御回路11に与えられる。
The rotation angles of the horizontal scanning mirror 41 and the vertical scanning mirror 43 are detected by the scan angle detection circuit, and the horizontal angle detection signal and the vertical angle detection signal representing those angles are given to the control circuit 11.

【0037】レーザ光の反射光がフォトダイオード(P
D)16によって受光され,PD16の受光信号が受光回路
17によって所定の閾値でレベル弁別される。受光信号の
レベルがその閾値を超えると,受光タイミング信号が受
光回路17から制御回路11に出力される。
The reflected light of the laser light is reflected by the photodiode (P
D) The light received by the 16 and the light receiving signal of the PD 16 is received by the light receiving circuit.
The level is discriminated by 17 at a predetermined threshold. When the level of the light receiving signal exceeds the threshold value, the light receiving timing signal is output from the light receiving circuit 17 to the control circuit 11.

【0038】PD16は多分割PD(水平方向にまたはマ
トリックス状に分割されたPD)を用いてもよい。この
多分割PDを用いた反射光の検出については,特願平6-
196217号に開示されている。
The PD 16 may be a multi-division PD (PD divided in the horizontal direction or in a matrix). Regarding detection of reflected light using this multi-division PD, Japanese Patent Application No.
No. 196217.

【0039】制御回路11において,発光パルスに基づく
レーザ光の投光タイミングから,受光タイミング信号に
基づく反射光の受光タイミングまでの遅延時間が計時さ
れ,この遅延時間に基づいて,自車両(このレーザ・レ
ーダ10が搭載された車両1)から被検出物体までの距離
rが算出される。被検出物体が検出されたとき(被検出
物体までの距離rが算出されたとき),スキャン角度検
出回路15から与えられる水平角検出信号および鉛直角検
出信号に基づいて,水平角θおよび鉛直角φがそれぞれ
算出される。被検出物体が検出される毎に,その被検出
物体の距離r,水平角θおよび鉛直角φが信号処理装置
20に与えられる。
In the control circuit 11, the delay time from the projection timing of the laser light based on the light emission pulse to the reception timing of the reflected light based on the light reception timing signal is measured, and based on this delay time, the own vehicle (this laser The distance r from the vehicle 1) equipped with the radar 10 to the detected object is calculated. When the detected object is detected (when the distance r to the detected object is calculated), the horizontal angle θ and the vertical angle are determined based on the horizontal angle detection signal and the vertical angle detection signal provided from the scan angle detection circuit 15. φ is calculated respectively. Every time a detected object is detected, the distance r, horizontal angle θ and vertical angle φ of the detected object are signal processing device.
Given to 20.

【0040】自車両の走行速度(車速)vが車速センサ
18によって検出され,信号処理装置20に与えられる。
The traveling speed (vehicle speed) v of the host vehicle is a vehicle speed sensor.
It is detected by 18 and provided to the signal processor 20.

【0041】信号処理装置20は,レーザ・レーダ10によ
って検出された被検出物体の距離r,水平角θおよび鉛
直角φ,ならびに車速センサ18によって検出された車速
vに基づいて,被検出物体が歩行者であるかその他の障
害物であるかを判断するとともに,歩行者であるかまた
はその他の障害物であるかに応じて異なる警報を発生す
るかどうか判断するものである。
The signal processing device 20 detects the detected object based on the distance r, the horizontal angle θ and the vertical angle φ of the detected object detected by the laser radar 10, and the vehicle speed v detected by the vehicle speed sensor 18. It is determined whether it is a pedestrian or another obstacle, and whether a different alarm is issued depending on whether it is a pedestrian or another obstacle.

【0042】信号処理装置20はプログラムされたコンピ
ュータによって実現される。信号処理装置20はそのすべ
てをハードウェアによって実現することもできる。また
信号処理装置20はその一部をハードウェアによって実現
しその他の一部をソフトウェアによって実現することも
できる。
The signal processing device 20 is realized by a programmed computer. The signal processing device 20 may be entirely realized by hardware. Further, part of the signal processing device 20 can be realized by hardware and the other part can be realized by software.

【0043】図6は信号処理装置20における警報発生の
処理手順を示すフロー・チャートである。
FIG. 6 is a flow chart showing a processing procedure for alarm generation in the signal processing device 20.

【0044】図7は信号処理装置20において記憶される
データの構造を示し,レーザ光を走査角度範囲内におい
て一回走査したときに検出された被検出物体に関するデ
ータである。この図ではN個の被検出物体が示されてい
る。
FIG. 7 shows the structure of data stored in the signal processing device 20, which is data relating to the detected object detected when the laser beam is scanned once within the scanning angle range. In this figure, N detected objects are shown.

【0045】信号処理装置20において,被検出物体の距
離r,水平角θおよび鉛直角φによって表される極座標
系が,直交座標系に変換される(ステップ31)。図7に
示すように,レーザ・レーダ10の位置を原点Oとし,水
平方向をX軸,鉛直方向をZ軸,車両1の進行方向をY
軸とする。Y軸はレーザ・レーダ10の高さ位置において
路面に平行である。路面(地面)を高さの基準Z=0と
する場合には,レーザ・レーダ10は車両1のバンパ1A
に取付けられているので,それが取付けられた高さ位置
に相当する高さΔZを用いて補正すればよい。
In the signal processing device 20, the polar coordinate system represented by the distance r of the object to be detected, the horizontal angle θ and the vertical angle φ is converted into an orthogonal coordinate system (step 31). As shown in FIG. 7, the position of the laser radar 10 is the origin O, the horizontal direction is the X axis, the vertical direction is the Z axis, and the traveling direction of the vehicle 1 is Y.
The axis. The Y axis is parallel to the road surface at the height position of the laser radar 10. When the height reference Z = 0 on the road surface (ground), the laser radar 10 uses the bumper 1A of the vehicle 1.
Since it is attached to, the height ΔZ corresponding to the height position where it is attached may be used for correction.

【0046】直交座標系で表わされる被検出物体の位置
(x,y,z)は被検出物体の距離r,水平角θおよび
鉛直角φによって,次式で表される。
The position (x, y, z) of the detected object represented by the orthogonal coordinate system is expressed by the following equation by the distance r of the detected object, the horizontal angle θ and the vertical angle φ.

【0047】 x=r・cos θ …(1) y=r・sin θ・sin φ …(2) z=r・cos φ …(3) X = r · cos θ (1) y = r · sin θ · sin φ (2) z = r · cos φ (3)

【0048】一つの対象を2以上の被検出物体として検
出されることがあるため,それらの被検出物体を1つに
まとめる処理を,座標変換の前または後で行ってもよ
い。
Since one object may be detected as two or more detected objects, the processing of combining these detected objects into one may be performed before or after the coordinate conversion.

【0049】このまとめ処理を座標変換の前に行う場合
には,距離r,水平角θおよび鉛直角φがそれぞれ,一
の被検出物体を基準にして他の被検出物体が所定の範囲
にあるとき,それらは1つの対象から検出されたもので
あると判定され,1つの対象から検出された複数の被検
出物体は,それらの距離r,水平角θおよび鉛直角φに
基づいて,それらの被検出物体を1つにまとめた被検出
物体の距離r,水平角θおよび鉛直角φが算出される,
たとえば平均が算出される。
When this summarizing process is performed before coordinate conversion, the distance r, the horizontal angle θ, and the vertical angle φ are each within a predetermined range with respect to one detected object as a reference. Then, it is determined that they are detected from one target, and a plurality of detected objects detected from one target are detected based on their distance r, horizontal angle θ, and vertical angle φ. The distance r, horizontal angle θ and vertical angle φ of the detected objects are calculated.
For example, the average is calculated.

【0050】また,まとめ処理を座標変換の後に行う場
合には,被検出物体の座標(x,y,z)に基づいて,
一の被検出物体を基準にして他の被検出物体が所定の範
囲内にあるとき,それらは1つの対象であると判定さ
れ,同一の対象から検出された被検出物体は,上述のよ
うに1つの被検出物体にまとめられる。
When the summarizing process is performed after coordinate conversion, based on the coordinates (x, y, z) of the detected object,
When another detected object is within a predetermined range with respect to one detected object, they are determined to be one target, and the detected objects detected from the same target are as described above. They are combined into one detected object.

【0051】車両に対する被検出物体の相対速度が被検
出物体の位置(x,y,z)および車速vに基づいて算
出される(ステップ32)。相対速度はたとえば,位置
(x,y,z)のうちx座標およびy座標に基づいて算
出される,すなわち水平面内の被検出物体の位置情報に
基づいて算出される。位置(x,y)と車速Vに基づ
く,被検出物体の相対速度の算出についてはたとえば特
願平4-305019号に開示されている。
The relative speed of the detected object with respect to the vehicle is calculated based on the position (x, y, z) of the detected object and the vehicle speed v (step 32). The relative velocity is calculated, for example, based on the x coordinate and the y coordinate of the position (x, y, z), that is, based on the position information of the detected object in the horizontal plane. Calculation of the relative speed of the detected object based on the position (x, y) and the vehicle speed V is disclosed in, for example, Japanese Patent Application No. 4-305019.

【0052】続いて,相対速度が算出された被検出物体
について,被検出物体までの相対距離(座標系の変換前
の距離rまたは座標系の変換後のz座標)と,その相対
速度に基づいて,その被検出物体に衝突する危険度を表
す衝突危険度が算出される(ステップ33)。この衝突危
険度はたえば,被検出物体が現在の距離Dから,その被
検出物体の相対速度Vでこのレーザ・レーダ10が搭載さ
れた車両1に近づいてきたときに,被検出物体と車両が
衝突するまでの時間である。衝突危険度tは次式により
算出される。
Next, based on the relative distance to the detected object (relative distance before conversion of the coordinate system or z coordinate after conversion of the coordinate system) and the relative speed of the detected object for which the relative velocity is calculated. Then, the collision risk level representing the risk level of collision with the detected object is calculated (step 33). This collision risk is, for example, when the detected object approaches the vehicle 1 on which the laser radar 10 is mounted at the relative speed V of the detected object from the current distance D, the detected object and the vehicle Is the time until they collide. The collision risk t is calculated by the following equation.

【0053】 t=D/V (V>0) …(4) t=∞ (V≦0) …(5) T = D / V (V> 0) (4) t = ∞ (V ≦ 0) (5)

【0054】相対速度Vが0または負の場合には,車両
から遠ざかっていることになり,車両がその被検出物体
に衝突する危険性が低いので,衝突危険度tが∞に設定
されている。
When the relative speed V is 0 or negative, it means that the vehicle is moving away from the vehicle and the risk of the vehicle colliding with the object to be detected is low. Therefore, the collision risk t is set to ∞. .

【0055】次に,検出された被検出物体が人(歩行
者)であるかどうかが,その位置情報に基づいて判断さ
れる(ステップ34)。被検出物体の位置をY座標の小さ
い順に並替え,その順に一の被検出物体の位置P1(x1,
y1,z1)と,他の被検出物体の位置P2(x2,y2,z2)と
について,次式によって表される条件を満たすかどうか
によって,それらの2つの被検出物体が人(歩行者)で
あるかどうかが判断される。
Next, whether or not the detected object to be detected is a person (pedestrian) is judged based on the position information (step 34). The positions of the detected objects are rearranged in ascending order of the Y coordinate, and the position P1 (x1,
y1, z1) and the position P2 (x2, y2, z2) of the other detected object, these two detected objects are human (pedestrian) depending on whether or not the condition expressed by the following equation is satisfied. Is determined.

【0056】 |x1 −x2 |<Thx AND |y1 −y2 |<Thy AND Thz1 <|z1 −z2 |<Thz2 …(6) | X1 −x2 | <Thx AND | y1 −y2 | <Thy AND Thz1 <| z1 −z2 | <Thz2 (6)

【0057】式(6) は一の被検出物体が頭の付近に着け
られた反射素材であり,他方の被検出物体が足の付近に
着けられた反射素材であることを前提としている。した
がって,Thx,Thyはレーザ・レーダ10の分解能によっ
て決定される閾値であり,Thz1,Thz2 は人の身長によ
って決定される閾値である。これらの閾値はたとえば,
Thx =0.5[m] ,Thy =1.0[m] ,Thz1=1.0[m] およ
びThz2=1.8[m] である。
Equation (6) is based on the premise that one detected object is a reflective material worn near the head and the other detected object is a reflective material worn near the foot. Therefore, Thx and Thy are thresholds determined by the resolution of the laser radar 10, and Thz1 and Thz2 are thresholds determined by the height of the person. These thresholds are, for example,
Thx = 0.5 [m], Thy = 1.0 [m], Thz1 = 1.0 [m] and Thz2 = 1.8 [m].

【0058】式(6) によって表される人判断の条件式を
用いると,道路上におよびその側に存在する障害物,た
とえば路側リフレクタ(デリニエータ),壁,看板等
を,人と区別することができる。路側リフレクタは1つ
の被検出物体として検出され壁および看板は被検出物体
が広い領域で連続的に検出されるので,上述の人判断条
件を満たさない。
By using the conditional expression of the person judgment represented by the equation (6), it is possible to distinguish obstacles existing on and on the road, such as roadside reflectors (delineators), walls, signboards, etc., from people. You can Since the roadside reflector is detected as one detected object and the wall and the signboard detect the detected object continuously in a wide area, the above-mentioned person judgment condition is not satisfied.

【0059】被検出物体が人であると判定されると(ス
テップ34でYES ),衝突危険度tが所定の警報発生閾値
Thmと比較され(ステップ35),衝突危険度tが警報発
生閾値Thm未満の場合(ステップ35でYES )には人用の
警報が警報装置19によって発生され(ステップ36),そ
うでない場合(ステップ35でNO)には警報は発生されな
い。
When it is determined that the detected object is a person (YES in step 34), the collision risk t is compared with a predetermined alarm generation threshold Thm (step 35), and the collision risk t is alarm generation threshold Thm. If less (YES at step 35), a human alarm is generated by the alarm device 19 (step 36), otherwise (NO at step 35) no alarm is generated.

【0060】また被検出物体が人でない,すなわち人以
外の障害物であると判定されると(ステップ34でNO),
衝突危険度tが所定の警報発生閾値Thoと比較され(ス
テップ37),衝突危険度tが警報発生閾値hTo未満の場
合(ステップ37でYES )には,その他用の警報が警報装
置19によって発生され(ステップ38),そうでない場合
(ステップ37でNO)には警報は発生されない。
If it is determined that the detected object is not a person, that is, an obstacle other than a person (NO in step 34),
The collision risk t is compared with a predetermined alarm generation threshold Tho (step 37), and when the collision risk t is less than the alarm generation threshold hTo (YES in step 37), another alarm is generated by the alarm device 19. If not (step 38), otherwise (NO at step 37), no alarm is issued.

【0061】被検出物体が人判断条件には,その被検出
物体の相対速度を考慮してもよい。また,ファジィ推論
により人らしさを算出し,この人らしさに基づいて被検
出物体が人であるかどうかを判定してもよい。
The relative velocity of the detected object may be taken into consideration as the condition for determining the detected object as a person. Further, it may be possible to calculate the human-likeness by fuzzy inference and determine whether or not the detected object is a human based on the human-likeness.

【0062】警報発生閾値はThm>Thoであり,たとえ
ば,Thm=10[秒],Tho=5[秒]である。車両等の
障害物に対して,人(歩行者)が特に危険であるため,
人が検出されたときにはその他の障害物(車両等)より
も早い時期から警報を発生し,人の存在を運転手に知ら
せるものである。
The alarm generation threshold is Thm> Tho, for example, Thm = 10 [seconds] and Tho = 5 [seconds]. Since people (pedestrians) are particularly dangerous for obstacles such as vehicles,
When a person is detected, an alarm is issued earlier than other obstacles (vehicles, etc.) to inform the driver of the presence of the person.

【0063】また,人用の警報とその他の警報はそれぞ
れ異なるものを用いるのが好ましい。たとえば,音の大
きさ(音量)を変える,音の周波数を変える,または音
の大きさと周波数を変える。また,合成された音声を警
報としてもよい。
It is preferable to use different alarms for humans and other alarms. For example, the volume of sound (volume) is changed, the frequency of sound is changed, or the volume and frequency of sound are changed. Further, the synthesized voice may be used as an alarm.

【0064】警報の発生の判定には車速vを考慮しても
よい。たとえば車速vが大きいときは警報発生閾値Th
m,Thoを大きく設定し,車速vが小さいときは警報発
生閾値Thm,Thoを小さく設定する。
The vehicle speed v may be taken into consideration when determining whether the alarm is issued. For example, when the vehicle speed v is high, the alarm generation threshold Th
When m and Tho are set large, when the vehicle speed v is small, the alarm generation thresholds Thm and Tho are set small.

【0065】このようにして,レーザ・レーダ10によっ
て検出された被検出物体について,それが歩行者である
かを判断し,歩行者であるときには早い時期から歩行者
が車両の前方にいることを警報を鳴らすことによって注
意を運転手に促すことができる。運転手が歩行者に注意
することによって,歩行者を巻込んだ事故を減らすこと
ができる。
In this way, it is judged whether or not the detected object detected by the laser radar 10 is a pedestrian, and when it is a pedestrian, the pedestrian is ahead of the vehicle from an early stage. The driver can be alerted by sounding an alarm. If the driver pays attention to the pedestrian, accidents involving the pedestrian can be reduced.

【0066】第2実施例 第2実施例による警報発生装置は,車両の前方の風景を
カメラによって撮像することに得られる画像を用いて,
移動ステレオ視により歩行者を検出し,警報を発生する
ものである。
Second Embodiment An alarm generating device according to a second embodiment uses an image obtained by capturing a scene in front of a vehicle with a camera,
It detects pedestrians by moving stereo vision and issues an alarm.

【0067】図9は第2実施例における警報発生装置の
構成を示すブロック図である。この図において,車速セ
ンサ18および警報装置19は図1に示すものと同一のもの
である。
FIG. 9 is a block diagram showing the structure of the alarm generator in the second embodiment. In this figure, the vehicle speed sensor 18 and the alarm device 19 are the same as those shown in FIG.

【0068】各メモリはRAM,EEPROM等の記憶
素子によって実現される。第1画像メモリ53,第2画像
メモリ54,透視画像メモリ56および差分画像メモリ57を
一つのメモリによって構成することもできるし,これら
のいくつかを組合わせてもよい,たとえば第1画像メモ
リ53と第2画像メモリ54を1つの画像メモリとして構成
してもよい。
Each memory is realized by a storage element such as a RAM or an EEPROM. The first image memory 53, the second image memory 54, the perspective image memory 56, and the difference image memory 57 can be configured by one memory, or some of them can be combined, for example, the first image memory 53. The second image memory 54 may be configured as one image memory.

【0069】ビデオ・カメラ51は,図10に示すように,
ルーム・ミラー1Bの裏側(鏡面となっている面の反対
側)に,車両1のフロント・ガラス1Cを通して車両1
の前方を撮像できるように設置される。このビデオ・カ
メラ51はその視軸(光軸)が車両の直進方向に路面とほ
ぼ平行になるように設置される。ビデオ・カメラ51たと
えば,CCDカメラ等であり,好ましくはシャッタ付き
ビデオ・カメラである。ビデオ・カメ51は,後述する画
像処理装置55から与えられる第1撮像信号または第2撮
像信号に応答して,車両1の前方の風景を撮像し,その
風景を表すアナログ・ビデオ信号をA/D変換器52に出
力する。
The video camera 51, as shown in FIG.
On the back side of the room mirror 1B (the side opposite to the mirror surface), pass the windshield 1C of the vehicle 1 through the vehicle 1
It is installed so that the front of can be imaged. The video camera 51 is installed so that its visual axis (optical axis) is substantially parallel to the road surface in the straight traveling direction of the vehicle. Video camera 51 For example, a CCD camera or the like, preferably a video camera with a shutter. The video camera 51 captures a scene in front of the vehicle 1 in response to a first image pickup signal or a second image pickup signal provided from an image processing device 55 described later, and outputs an analog video signal representing the landscape to A / A. Output to the D converter 52.

【0070】信号処理装置52はA/D変換回路を含み,
ビデオ・カメラ51によって撮像された風景を表すアナロ
グ・ビデオ信号がA/D変換回路によりグレイ・レベル
・ディジタル画像データに変換される。画像データはa
画素(縦)×b画素(横)であり,各画素はたとえば8
ビットのグレイ・レベル・データ(階調データ)によっ
て表現される。第1撮像信号に基づいて画像データは第
1画像メモリ53に記憶され,第2撮像信号に基づいて画
像データは第2画像メモリ54に記憶される。
The signal processing device 52 includes an A / D conversion circuit,
An analog video signal representing a landscape captured by the video camera 51 is converted into gray level digital image data by an A / D conversion circuit. Image data is a
Pixels (vertical) × b pixels (horizontal), each pixel being, for example, 8
It is represented by bit gray level data (gradation data). Image data is stored in the first image memory 53 based on the first image pickup signal, and image data is stored in the second image memory 54 based on the second image pickup signal.

【0071】画像処理装置55は第1画像メモリ53および
第2画像メモリ54にそれぞれ記憶された第1画像データ
および第2画像データ,ならびに車速センサ18によって
検出された車速に基づいて被検出物体を抽出するととも
に被検出物体が人であるかどうかによって異なる警報を
鳴らすものである。図11および図12は画像処理装置55に
おける全体的な処理手順を示すフロー・チャートであ
る。
The image processing device 55 detects an object to be detected based on the first image data and the second image data stored in the first image memory 53 and the second image memory 54, respectively, and the vehicle speed detected by the vehicle speed sensor 18. In addition to extracting, a different alarm is sounded depending on whether the detected object is a person. 11 and 12 are flow charts showing the overall processing procedure in the image processing apparatus 55.

【0072】第1撮像信号がビデオ・カメラ51に出力さ
れ,車両1の前方の風景がビデオ・カメラ51によって撮
像され,その風景を表す画像データが第1画像メモリ53
に記憶される(ステップ61)。この第1画像メモリ53に
記憶された画像データを第1画像データといい,この第
1画像データによって表される画像を第1画像という。
The first image pickup signal is output to the video camera 51, the scene in front of the vehicle 1 is picked up by the video camera 51, and image data representing the scene is stored in the first image memory 53.
(Step 61). The image data stored in the first image memory 53 is called first image data, and the image represented by the first image data is called first image.

【0073】第1撮像信号の出力後,あらかじめ定めら
れた時間τ(たとえば1/30秒)が経過すると,第2撮像
信号が画像処理装置55からビデオ・カメラ1に出力さ
れ,この第2撮像信号に応答して車両1の前方の風景が
ビデオ・カメラ1によって再び撮像され,画像データが
第2画像メモリに記憶される(ステップ62)。第2画像
メモリ4に記憶されるた画像データを第2画像データと
いい,この第2画像データによって表される画像を第2
画像という。。
When a predetermined time τ (for example, 1/30 seconds) elapses after the output of the first image pickup signal, the second image pickup signal is output from the image processing device 55 to the video camera 1, and the second image pickup is performed. In response to the signal, the scene in front of the vehicle 1 is imaged again by the video camera 1 and the image data is stored in the second image memory (step 62). The image data stored in the second image memory 4 is referred to as second image data, and the image represented by this second image data is referred to as the second image data.
It is called an image. .

【0074】第2画像は第1画像の撮像時刻から時間τ
だけ経過した後に撮像されているので,車両1は距離d
=v・τ(vは車速センサ18によって検出される車速を
表す)だけ前方に移動していることになる。したがっ
て,第2画像の撮像位置は第1画像の撮像位置よりも距
離dだけ前方に移動していることになる。
The second image is the time τ from the time when the first image was captured.
Since the image is taken after only the time elapses, the vehicle 1 has a distance d.
= V · τ (v represents the vehicle speed detected by the vehicle speed sensor 18). Therefore, the image pickup position of the second image is moved forward by the distance d from the image pickup position of the first image.

【0075】第1画像メモリに記憶された第1画像デー
タが,第2画像の画像面に画像処理装置55によって2段
階透視変換されることにより透視画像データが作成さ
れ,この透視画像データは透視画像メモリ56に記憶され
る(ステップ63)。透視画像データによって表される画
像を透視画像という。ステップ63における2段階透視変
換処理は第1画像を撮像した後,第2画像の撮像前に行
ってもよい。
The first image data stored in the first image memory is subjected to two-step perspective conversion on the image surface of the second image by the image processing device 55 to produce perspective image data. It is stored in the image memory 56 (step 63). An image represented by the fluoroscopic image data is called a fluoroscopic image. The two-stage perspective transformation process in step 63 may be performed after capturing the first image and before capturing the second image.

【0076】2段階透視変換は,ある第1の視点から撮
像された画像に基づいて異なる第2の視点から撮像した
画像を作成するものである。第1に,第1の視点から撮
像された画像が基準となる水平面上に透視変換(透視投
影)される。第2に,水平面上に透視変換された画像を
第2の視点から撮像した画像に透視変換するものであ
る。この実施例では,第1の視点および第2の視点が第
1画像および第2画像をそれぞれ撮像したビデオ・カメ
ラ51の位置であり,水平面が道路(路面)である。第1
画像に基づいて第2画像を撮像した視点と同じ視点から
見た画像(透視画像)が作成される。
The two-stage perspective transformation creates an image captured from a different second viewpoint based on an image captured from a certain first viewpoint. First, the image captured from the first viewpoint is perspective-transformed (perspective projection) on a horizontal plane serving as a reference. Secondly, the image perspectively transformed on the horizontal plane is perspectively transformed into an image picked up from the second viewpoint. In this embodiment, the first viewpoint and the second viewpoint are the positions of the video camera 51 that has captured the first image and the second image, respectively, and the horizontal plane is the road (road surface). First
An image (a perspective image) viewed from the same viewpoint as the viewpoint at which the second image is captured is created based on the image.

【0077】次に,第2画像メモリ54に記憶されている
第2画像データと透視画像メモリ56に記憶されている透
視画像データとの差分画像データが,それぞれ対応する
画素の画像データの差分の絶対値が算出されることによ
り作成され,差分画像データは差分画像メモリ57に記憶
される(ステップ64)。この差分処理においては,上述
した画像処理装置55の内部メモリに記憶された座標があ
る場合には,この座標に対応する画素データの値(グレ
イ・レベル)は零にされる。差分画像データによって表
わされる画像を差分画像という。
Next, the difference image data between the second image data stored in the second image memory 54 and the perspective image data stored in the perspective image memory 56 is the difference between the image data of the corresponding pixels. It is created by calculating the absolute value, and the difference image data is stored in the difference image memory 57 (step 64). In this difference processing, if there is a coordinate stored in the internal memory of the image processing device 55, the value (gray level) of the pixel data corresponding to this coordinate is set to zero. An image represented by the difference image data is called a difference image.

【0078】一般に2段階透視変換を行った画像と,2
段階透視変換の視点から撮像した画像とを比較すると,
路面(路面上にに描かれている制限速度,センタ・ライ
ン等を表す模様を含む)等の平面は,同じ位置(座標)
に存在するため,路面を表す画像データの値(グレイ・
レベル)は零または零に近い値になり,この平面以外の
車両,歩行者,街灯等の立体を表す画像は同じ位置には
なく,画像データの値は零または零に近い値にはならな
い。したがって,路面を表す画像は透視画像からほぼ消
去され,路面以外の立体を表わす画像が透視画像に残る
ことになる。
Generally, an image which has been subjected to a two-step perspective transformation, and 2
Comparing the images taken from the perspective of stepwise perspective transformation,
The same position (coordinates) on the plane such as the road surface (including the speed limit, the center line, etc. drawn on the road surface)
Value of the image data representing the road surface (gray
Level) becomes zero or a value close to zero, images representing solid bodies such as vehicles, pedestrians, and streetlights other than this plane are not at the same position, and the value of the image data does not become zero or a value close to zero. Therefore, the image representing the road surface is almost deleted from the perspective image, and the image representing the solid other than the road surface remains in the perspective image.

【0079】差分画像メモリ57に記憶された差分画像デ
ータは,画像処理装置55により所定の閾値で二値化さ
れ,その二値画像データが作成される(ステップ65)。
この二値化に用いられる閾値は,障害物を表す画像を浮
き立たせるために適した値に設定される。
The differential image data stored in the differential image memory 57 is binarized by a predetermined threshold value by the image processing device 55, and the binary image data is created (step 65).
The threshold used for this binarization is set to a value suitable for emphasizing the image representing the obstacle.

【0080】この差分画像データを二値化することによ
って,路面を表す画像データは0になり,路面以外の立
体,すなわち障害物を表す画像データは1になる。した
がって,二値画像は,障害物を表す画像のみを抽出する
ことになる。
By binarizing the difference image data, the image data representing the road surface becomes 0, and the image data representing a solid other than the road surface, that is, an obstacle becomes 1. Therefore, in the binary image, only the image showing the obstacle is extracted.

【0081】二値画像データにラベリング処理が行われ
ることにより,障害物を表す画素の集合(画像)が抽出
される(ステップ66)。ラベルが付けられた各画像をす
べて含むようにウィンドウが決定される(ステップ6
7)。
A labeling process is performed on the binary image data to extract a set of pixels (images) representing obstacles (step 66). The window is determined to include all the labeled images (step 6).
7).

【0082】ステップ61〜67の処理の詳細については,
特願平6-153048号に開示されている。
For details of the processing in steps 61 to 67,
It is disclosed in Japanese Patent Application No. 6-153048.

【0083】各障害物を表す画像を囲むウィンドウが,
第2画像メモリに記憶された第2画像データに設定され
(ステップ68),各ウィンドウ内に含まれる第2画像デ
ータ(対象画像データ)について,水平エッジおよび垂
直エッジが抽出される(ステップ69)。第2画像データ
にウィンドウを設定することによって第2画像内の障害
物を表す対象画像データのみを切出すことができる。
A window surrounding an image representing each obstacle is
Horizontal edges and vertical edges are extracted from the second image data (target image data) set in the second image data stored in the second image memory (step 68) and included in each window (step 69). . By setting the window in the second image data, only the target image data representing the obstacle in the second image can be cut out.

【0084】ウィンドウは第2画像データに代えてまた
は加えて透視画像メモリ66に記憶されている透視画像デ
ータに設定してもよい。
The window may be set to the perspective image data stored in the perspective image memory 66 instead of or in addition to the second image data.

【0085】各ウィンドウにおいて抽出された水平エッ
ジのY方向の最小値と最大とが抽出され,最大値と最小
値の差が障害物の上下幅として算出され,垂直エッジの
X方向の最小値と最大値に基づいて左右幅が上下幅と同
様に算出される(ステップ69)。これらの上下幅および
左右幅に基づいて,障害物の縦横比Rが算出される(ス
テップ70)。縦横比RはたとえばR=上下幅/左右幅で
ある。さらにこの縦横比Rに基づいて障害物が人である
か,またはその他の車両等の障害物であるかが判断され
る(ステップ71)。人判断の条件は,Thr1 およびThr
2 を閾値として次式によって表される。
The minimum and maximum values in the Y direction of the horizontal edge extracted in each window are extracted, the difference between the maximum value and the minimum value is calculated as the vertical width of the obstacle, and the minimum value in the X direction of the vertical edge is calculated. The horizontal width is calculated based on the maximum value in the same manner as the vertical width (step 69). The aspect ratio R of the obstacle is calculated based on these vertical width and horizontal width (step 70). The aspect ratio R is, for example, R = vertical width / horizontal width. Further, it is determined based on this aspect ratio R whether the obstacle is a person or another obstacle such as a vehicle (step 71). The conditions for human judgment are Thr1 and Thr.
It is expressed by the following equation with 2 as the threshold value.

【0086】 THR1 <r<Thr2 …(7) THR1 <r <Thr2 (7)

【0087】閾値Thr1 およびThr2 は人の体型を考慮
して決定され,たとえばThr1 =2,Thr2 =4であ
る。
The thresholds Thr1 and Thr2 are determined in consideration of the human body type, and are, for example, Thr1 = 2 and Thr2 = 4.

【0088】ステップ71において,障害物が人(歩行
者)である場合(ステップ71でYES )には警報装置19に
より人用の警報が発生され(ステップ72),そうでない
場合(ステップ71でNO)にはその他用の警報が発生され
る(ステップ73)。
In step 71, if the obstacle is a person (pedestrian) (YES in step 71), an alarm for a person is issued by the alarm device 19 (step 72), and if not (NO in step 71). ), The other alarm is issued (step 73).

【0089】このようにして検出された障害物に応じて
異なる警報が鳴らされる。
Different alarms are sounded according to the obstacles thus detected.

【0090】各障害物が,たとえば自車両が走行してい
る車線上にあるのかまたはその他の車線もしくは歩道上
にあるのかに応じて警報を鳴らすかどうかの判定に用い
てよい。
It may be used to determine whether or not an alarm sounds, for example, depending on whether each obstacle is on the lane in which the host vehicle is traveling or on another lane or sidewalk.

【0091】また,第2実施例における警報発生装置
に,第1実施例におけるレーザ・レーダ10をさらに設け
て,障害物(被検出物体)までの距離に基づいて警報を
発生するかどうかを判定してもよい。
Further, the laser radar 10 of the first embodiment is further provided in the alarm generation device of the second embodiment, and it is determined whether or not the alarm is issued based on the distance to the obstacle (object to be detected). You may.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1実施例における警報発生装置の構成を示す
ブロック図である。
FIG. 1 is a block diagram showing a configuration of an alarm generation device in a first embodiment.

【図2】警報発生装置に含まれるレーザ・レーダが車両
に取付けられた様子を示す。
FIG. 2 shows how a laser radar included in an alarm generation device is attached to a vehicle.

【図3】反射素材が人に着けられた様子を示す。FIG. 3 shows how a reflective material is worn by a person.

【図4】レーザ光を投射する走査角度範囲を示す。FIG. 4 shows a scanning angle range in which a laser beam is projected.

【図5】二次元スキャナの詳細な構成を示す。FIG. 5 shows a detailed configuration of a two-dimensional scanner.

【図6】第1実施例の信号処理装置における警報発生の
処理手順を示すフロー・チャートである。
FIG. 6 is a flow chart showing a processing procedure of alarm generation in the signal processing device of the first embodiment.

【図7】信号処理装置において記憶されるデータの構造
を示す。
FIG. 7 shows a structure of data stored in the signal processing device.

【図8】座標系の変換を説明する図である。FIG. 8 is a diagram illustrating conversion of a coordinate system.

【図9】第2実施例における警報発生装置の構成を示す
ブロック図である。
FIG. 9 is a block diagram showing a configuration of an alarm generation device in a second embodiment.

【図10】警報発生装置に含まれるカメラが車両に取付
けられた様子を示す。
FIG. 10 shows a state in which a camera included in the alarm generation device is attached to a vehicle.

【図11】警報発生装置の全体的な処理手順を示すフロ
ー・チャートである。
FIG. 11 is a flow chart showing an overall processing procedure of the alarm generation device.

【図12】警報発生装置の全体的な処理手順を示すフロ
ー・チャートである。
FIG. 12 is a flow chart showing an overall processing procedure of the alarm generation device.

【符号の説明】 10 レーザ・レーダ 11 制御回路 12 LD駆動回路 13 LD 14 二次元スキャナ 15 スキャン角度検出回路 16 PD 17 受光回路 18 車速センサ 19 警報装置 20 信号処理装置 41,43 ミラー 42,44 モータ 51 ビデオ・カメラ 52 信号処理装置 53 第1画像メモリ 54 第2画像メモリ 55 画像処理装置 56 透視画像メモリ 57 差分画像メモリ[Explanation of symbols] 10 Laser radar 11 Control circuit 12 LD drive circuit 13 LD 14 Two-dimensional scanner 15 Scan angle detection circuit 16 PD 17 Light receiving circuit 18 Vehicle speed sensor 19 Alarm device 20 Signal processing device 41, 43 Mirror 42, 44 Motor 51 video camera 52 signal processing device 53 first image memory 54 second image memory 55 image processing device 56 perspective image memory 57 differential image memory

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 警報発生装置が搭載された車両の前方に
存在する被検出物体を検出し,検出した被検出物体の相
対位置を計測する物体位置検出手段,上記物体位置検出
手段によって検出された被検出物体の相対位置に基づい
てその被検出物体が人に関するものであるかまたは障害
物に関するものであるかを判断する人判断手段,上記物
体位置検出手段によって検出された被検出物体の相対位
置に基づいて警報を発生するかどうかを判定するととも
に,上記人判断手段が被検出物体を人に関するものであ
ると判定したときには被検出物体を障害物に関するもの
であると判定したときよりも遠い位置から警報を発生さ
せるように判定する警報発生判断手段,および上記警報
発生判断手段が警報を発生すべきと判定したことに応答
して警報を発生する警報装置,を備えた警報発生装置。
1. An object position detecting means for detecting a detected object existing in front of a vehicle equipped with an alarm generation device, and measuring a relative position of the detected detected object, the object position detecting means detecting the relative position. A person judging means for judging whether the detected object is related to a person or an obstacle based on the relative position of the detected object, and the relative position of the detected object detected by the object position detecting means. When the person determining means determines that the detected object is related to a person, the position farther than when it is determined that the detected object is related to an obstacle is determined. From the alarm generation determining means that determines to generate an alarm from the above, and generates an alarm in response to the alarm generation determining means determining that an alarm should be generated. An alarm generator equipped with an alarm device.
【請求項2】 警報発生装置が搭載された車両の前方に
存在する被検出物体を検出し,検出した被検出物体の相
対位置を計測する物体位置検出手段,上記物体位置検出
手段によって検出された被検出物体の相対位置に基づい
て,その被検出物体が人に関するものであるかまたは障
害物に関するものであるかを判断する人判断手段,上記
人判断手段が被検出物体を人に関するものであると判定
したときには第1の警報を発生するかどうかを,上記人
判断手段が被検出物体を障害物に関するものであると判
定したときには第2の警報を発生するかどうかを,その
被検出物体の相対位置に基づいて判定する警報発生判断
手段,および上記警報発生判断手段が警報を発生すべき
と判定したことに応答して第1または第2の警報を発生
する警報装置,を備えた警報発生装置。
2. An object position detecting means for detecting a detected object existing in front of a vehicle equipped with an alarm generation device, and measuring a relative position of the detected detected object, the object position detecting means detecting the relative position. Person judging means for judging whether the detected object is related to a person or an obstacle based on the relative position of the detected object, and the person judgment means is related to the detected object. When it is determined that the first alarm is issued, whether the second alarm is issued when the person determining means determines that the detected object is related to an obstacle, An alarm generation determination means for determining based on a relative position, and an alarm device for generating a first or second alarm in response to determination that the alarm generation determination means determines to generate an alarm Alarm generator.
【請求項3】 上記第1の警報は,上記第2の警報より
大きい音量である,請求項2に記載の警報発生装置。
3. The alarm generation device according to claim 2, wherein the first alarm has a volume higher than that of the second alarm.
【請求項4】 上記人判断手段は,2つの被検出物体の
位置関係に基づいてそれらの2つの被検出物体が一人の
人に関するものであるかどうかを判断するものである,
請求項1から3のいずれか一項に記載の警報発生装置。
4. The person judging means judges whether or not the two detected objects are related to one person based on the positional relationship between the two detected objects.
The alarm generation device according to any one of claims 1 to 3.
【請求項5】 警報発生装置が搭載された車両の速度を
検出する車速センサ,および上記車速センサによって検
出された車両の速度と上記被検出物体の相対位置とに基
づいてその被検出物体の相対速度を算出する相対速度算
出手段をさらに備え,上記警報発生判断手段が,被検出
物体の相対位置に加えてその相対速度を用いて警報につ
いての判断を行うものである,請求項1から4のいずれ
か一項に記載の警報発生装置。
5. A vehicle speed sensor for detecting a speed of a vehicle equipped with an alarm generation device, and a relative speed of the detected object based on a vehicle speed detected by the vehicle speed sensor and a relative position of the detected object. The relative speed calculation means for calculating a speed is further provided, and the alarm generation judgment means judges the warning by using the relative speed of the detected object in addition to the relative position thereof. The alarm generation device according to any one of claims.
【請求項6】 被検出物体を含む被写体を撮像し,その
被写体を表す画像データを出力する撮像手段,上記撮像
手段から出力された第1画像データと,この第1画像デ
ータの撮像から所定時間経過後に上記撮像手段から出力
された第2画像データとを記憶する画像メモリ,上記画
像メモリに記憶された第1画像データと第2画像データ
とに基づいて被検出物体を表す対象画像データを作成す
る対象画像作成手段,上記対象画像作成手段によって作
成された対象画像データによって表わされる被検出物体
が人であるかどうかを判断する人判断手段,および上記
人判断手段が人であると判定したことに応答して警報を
発生する警報装置,を備えた警報発生装置。
6. An image pickup means for picking up an image of a subject including an object to be detected and outputting image data representing the subject, first image data output from the image pickup means, and a predetermined time from the image pickup of the first image data. An image memory for storing the second image data output from the image pickup means after a lapse of time, and target image data representing the detected object based on the first image data and the second image data stored in the image memory A target image creating means, a person determining means for determining whether or not the detected object represented by the target image data created by the target image creating means is a person, and the person determining means is a person An alarm generation device equipped with an alarm device that generates an alarm in response to.
【請求項7】 上記対象画像作成手段が,上記画像メモ
リに記憶された第1画像データを,上記第2画像データ
の画像面に2段階透視変換した透視画像データを作成す
る透視変換手段,上記透視変換手段によって作成された
透視画像データと,上記画像メモリに記憶された第2画
像データとの差分画像データを作成し,この差分画像デ
ータを所定の閾値で二値化した二値画像データを作成す
る二値画像作成手段,二値画像作成手段によって作成さ
れた二値画像データにラベリング処理を施すことにより
対象画像を抽出し,各対象画像を囲むウィンドウを決定
するウィンドウ決定手段,および上記画像メモリに記憶
された第2画像データのうち,各ウィンドウ内に含まれ
る上記第2画像データを上記対象画像データとして出力
する画像作成手段,を備えている請求項6に記載の警報
発生装置。
7. The perspective conversion means for generating perspective image data in which the target image creating means performs two-step perspective conversion of the first image data stored in the image memory on the image surface of the second image data, Difference image data between the perspective image data created by the perspective conversion means and the second image data stored in the image memory is created, and the binary image data obtained by binarizing the difference image data with a predetermined threshold is generated. Binary image creating means to be created, window determining means for extracting target images by performing labeling processing on the binary image data created by the binary image creating means, and determining a window surrounding each target image, and the above image Image creating means for outputting the second image data contained in each window among the second image data stored in the memory as the target image data, The alarm generation device according to claim 6, further comprising:
【請求項8】 上記人判断手段が,上記対象画像作成手
段によって作成された対象画像データに基づいて,被検
出物体の水平エッジおよび垂直エッジを抽出するエッジ
抽出手段,および上記エッジ抽出手段によって抽出され
た被検出物体の水平エッジおよび垂直エッジに基づいて
被検出物体の高さとその幅を算出し,これらの高さと幅
に基づいて被検出物体が人であるかどうかを判断する対
象判断手段,を備えている請求項6または7に記載の警
報発生装置。
8. The person judging means extracts the horizontal edge and the vertical edge of the detected object based on the target image data created by the target image creating means, and the edge extracting means. Object determining means for calculating the height and width of the detected object based on the horizontal and vertical edges of the detected object and determining whether the detected object is a person based on these heights and widths, The alarm generation device according to claim 6, further comprising:
【請求項9】 請求項1から8のいずれか一項に記載の
警報発生装置を搭載した車両。
9. A vehicle equipped with the alarm generation device according to any one of claims 1 to 8.
【請求項10】 車両の前方に存在する被検出物体を検
出し,検出した被検出物体の相対位置を計測し,検出さ
れた被検出物体の相対位置に基づいてその被検出物体が
人に関するものであるかまたは障害物に関するものであ
るかを判断し,検出された被検出物体の相対位置に基づ
いて警報を発生するかどうかを判定するとともに,被検
出物体を人に関するものであると判定したときには被検
出物体を障害物に関するものであると判定したときより
も遠い位置から警報を発生させるように判定する,警報
を発生すべきと判定したことに応答して警報を発生す
る,警報発生方法。
10. A detected object existing in front of a vehicle is detected, a relative position of the detected detected object is measured, and the detected object is a person based on the detected relative position of the detected object. It is determined whether or not an alarm is issued based on the relative position of the detected object, and it is determined that the detected object is related to a person. Occasionally, it is determined that an alarm should be issued from a position farther than when the detected object is related to an obstacle, and an alarm is issued in response to the determination that an alarm should be issued. .
【請求項11】 車両の前方に存在する被検出物体を検
出し,検出した被検出物体の相対位置を計測し,検出さ
れた被検出物体の相対位置に基づいて,その被検出物体
が人に関するものであるかまたは障害物に関するもので
あるかを判断し,被検出物体を人に関するものであると
判定したときには第1の警報を発生するかどうかを,被
検出物体を障害物に関するものであると判定したときに
は第2の警報を発生するかどうかを,その被検出物体の
相対位置に基づいて判断し,警報を発生すべきと判定し
たことに応答して,第1または第2の警報を発生する,
警報発生方法。
11. A detected object existing in front of a vehicle is detected, a relative position of the detected detected object is measured, and the detected object relates to a person based on the detected relative position of the detected object. It is determined whether the detected object is a person or not, and when the detected object is determined to be a person, whether the first alarm is issued is related to the detected object is an obstacle. When it is determined that the second alarm is to be issued, it is determined based on the relative position of the detected object, and in response to the determination that the alarm is to be issued, the first or second alarm is issued. appear,
Alarm generation method.
【請求項12】 被検出物体を含む被写体を撮像するこ
とにより,その被写体を表す画像データを得,撮像によ
り得られた第1画像データと,この第1画像データの撮
像から所定時間経過後に撮像により得られた第2画像デ
ータとを画像メモリに記憶しておき,上記画像メモリに
記憶された第1画像データと第2画像データとに基づい
て被検出物体を表す対象画像データを作成し,作成され
た対象画像データによって表わされる被検出物体が人で
あるかどうかを判断し,被検出物体を人であると判定し
たことに応答して警報を発生する,警報発生方法。
12. A subject including a detected object is imaged to obtain image data representing the subject, the first image data obtained by the image pickup, and an image pickup after a predetermined time has elapsed from the image pickup of the first image data. The second image data obtained by the above is stored in the image memory, and the target image data representing the detected object is created based on the first image data and the second image data stored in the image memory, An alarm generation method for determining whether or not the detected object represented by the created target image data is a person and issuing an alarm in response to the determination that the detected object is a person.
JP7144234A 1995-05-19 1995-05-19 Alarm generator, alarm generating method and vehicle mounting alarm generator Pending JPH08313632A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7144234A JPH08313632A (en) 1995-05-19 1995-05-19 Alarm generator, alarm generating method and vehicle mounting alarm generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7144234A JPH08313632A (en) 1995-05-19 1995-05-19 Alarm generator, alarm generating method and vehicle mounting alarm generator

Publications (1)

Publication Number Publication Date
JPH08313632A true JPH08313632A (en) 1996-11-29

Family

ID=15357375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7144234A Pending JPH08313632A (en) 1995-05-19 1995-05-19 Alarm generator, alarm generating method and vehicle mounting alarm generator

Country Status (1)

Country Link
JP (1) JPH08313632A (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213137A (en) * 1998-01-29 1999-08-06 Matsushita Electric Ind Co Ltd Image processing device
WO1999044074A1 (en) * 1998-02-25 1999-09-02 Honda Giken Kogyo Kabushiki Kaisha Radar
US6035053A (en) * 1996-09-30 2000-03-07 Mazda Motor Corporation Moving subject recognizing system for automotive vehicle
JP2002059820A (en) * 2000-08-18 2002-02-26 Nissan Motor Co Ltd Collision preventer for vehicle
JP2003004851A (en) * 2001-04-16 2003-01-08 Nissan Motor Co Ltd Radar apparatus
JP2003215241A (en) * 2002-01-28 2003-07-30 Matsushita Electric Works Ltd On-vehicle radar apparatus
JP2005182256A (en) * 2003-12-17 2005-07-07 Sekisui Jushi Co Ltd Movable body detection/notification system
JP2006194617A (en) * 2005-01-11 2006-07-27 Ishikawajima Harima Heavy Ind Co Ltd Object detection method and apparatus
JP2007233487A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Pedestrian detection method, apparatus, and program
JP2007248480A (en) * 2002-12-10 2007-09-27 Denso Corp Target discriminating device and program
US7370975B2 (en) 2004-11-30 2008-05-13 Honda Motor Co., Ltd. Image processing apparatus
US7388476B2 (en) 2004-11-30 2008-06-17 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7403639B2 (en) 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2009025956A (en) * 2007-07-18 2009-02-05 Mazda Motor Corp Pedestrian detection device
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7545955B2 (en) 2004-11-30 2009-06-09 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7561719B2 (en) 2004-11-30 2009-07-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7580548B2 (en) 2004-11-30 2009-08-25 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
US7619668B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
US7672510B2 (en) 2003-09-01 2010-03-02 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7969466B2 (en) 2004-11-30 2011-06-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US8077204B2 (en) 2008-02-04 2011-12-13 Honda Motor Co., Ltd. Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
WO2011155152A1 (en) * 2010-06-07 2011-12-15 本田技研工業株式会社 Vehicle surroundings monitoring device
US8115809B2 (en) 2004-11-30 2012-02-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2013541696A (en) * 2010-08-25 2013-11-14 ファヒホークシュール フランクフルト アム マイン Human identification device and identification method
JP2014006821A (en) * 2012-06-26 2014-01-16 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2016099340A (en) * 2014-11-24 2016-05-30 ザ・ボーイング・カンパニーThe Boeing Company Range enhancement for lidar systems and ir camera systems
CN106143738A (en) * 2016-08-19 2016-11-23 广东濠绅科技有限公司 A kind of have the bicycle falling down intelligent alarm function
JP2019060644A (en) * 2017-09-25 2019-04-18 株式会社トプコン Laser measurement method and laser measurement apparatus
CN114999226A (en) * 2022-05-16 2022-09-02 中铁十九局集团第六工程有限公司 Tunnel pedestrian avoidance early warning method, computer device and computer readable storage medium

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035053A (en) * 1996-09-30 2000-03-07 Mazda Motor Corporation Moving subject recognizing system for automotive vehicle
JPH11213137A (en) * 1998-01-29 1999-08-06 Matsushita Electric Ind Co Ltd Image processing device
WO1999044074A1 (en) * 1998-02-25 1999-09-02 Honda Giken Kogyo Kabushiki Kaisha Radar
US6335789B1 (en) 1998-02-25 2002-01-01 Honda Giken Kogyo Kabushiki Kaisha Optical radar system
EP1416292A1 (en) * 1998-02-25 2004-05-06 Honda Giken Kogyo Kabushiki Kaisha Optical scanning radar system
JP2002059820A (en) * 2000-08-18 2002-02-26 Nissan Motor Co Ltd Collision preventer for vehicle
JP2003004851A (en) * 2001-04-16 2003-01-08 Nissan Motor Co Ltd Radar apparatus
JP2003215241A (en) * 2002-01-28 2003-07-30 Matsushita Electric Works Ltd On-vehicle radar apparatus
JP2007248480A (en) * 2002-12-10 2007-09-27 Denso Corp Target discriminating device and program
US7672510B2 (en) 2003-09-01 2010-03-02 Honda Motor Co., Ltd. Vehicle environment monitoring device
JP2005182256A (en) * 2003-12-17 2005-07-07 Sekisui Jushi Co Ltd Movable body detection/notification system
US7370975B2 (en) 2004-11-30 2008-05-13 Honda Motor Co., Ltd. Image processing apparatus
US8115809B2 (en) 2004-11-30 2012-02-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7388476B2 (en) 2004-11-30 2008-06-17 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7403639B2 (en) 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7969466B2 (en) 2004-11-30 2011-06-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7545955B2 (en) 2004-11-30 2009-06-09 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7561719B2 (en) 2004-11-30 2009-07-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7580548B2 (en) 2004-11-30 2009-08-25 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
US7619668B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
JP2006194617A (en) * 2005-01-11 2006-07-27 Ishikawajima Harima Heavy Ind Co Ltd Object detection method and apparatus
JP2007233487A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Pedestrian detection method, apparatus, and program
JP2009025956A (en) * 2007-07-18 2009-02-05 Mazda Motor Corp Pedestrian detection device
US8077204B2 (en) 2008-02-04 2011-12-13 Honda Motor Co., Ltd. Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
WO2011155152A1 (en) * 2010-06-07 2011-12-15 本田技研工業株式会社 Vehicle surroundings monitoring device
US9030560B2 (en) 2010-06-07 2015-05-12 Honda Motor Co., Ltd. Apparatus for monitoring surroundings of a vehicle
JP2013541696A (en) * 2010-08-25 2013-11-14 ファヒホークシュール フランクフルト アム マイン Human identification device and identification method
JP2014006821A (en) * 2012-06-26 2014-01-16 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2016099340A (en) * 2014-11-24 2016-05-30 ザ・ボーイング・カンパニーThe Boeing Company Range enhancement for lidar systems and ir camera systems
CN106143738A (en) * 2016-08-19 2016-11-23 广东濠绅科技有限公司 A kind of have the bicycle falling down intelligent alarm function
JP2019060644A (en) * 2017-09-25 2019-04-18 株式会社トプコン Laser measurement method and laser measurement apparatus
CN114999226A (en) * 2022-05-16 2022-09-02 中铁十九局集团第六工程有限公司 Tunnel pedestrian avoidance early warning method, computer device and computer readable storage medium

Similar Documents

Publication Publication Date Title
JPH08313632A (en) Alarm generator, alarm generating method and vehicle mounting alarm generator
KR101632168B1 (en) The apparatus of smart camera with lidar senser module
JP4405155B2 (en) Image analysis system
EP2053424B1 (en) Target detecting device, target detecting method, and target detecting program
JP4612635B2 (en) Moving object detection using computer vision adaptable to low illumination depth
JP3123303B2 (en) Vehicle image processing device
JP2008026997A (en) Pedestrian recognition device and pedestrian recognition method
JP2006184276A (en) All-weather obstacle collision preventing device by visual detection, and method therefor
JP2003296736A (en) Device for detecting obstacle and method thereof
JP2003016429A (en) Vehicle periphery monitoring device
WO2005086080A1 (en) Method and apparatus for detecting a presence
CN101500874A (en) Sight-line end estimation device and driving assist device
JPWO2019202628A1 (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP2003284057A (en) Vehicle periphery monitoring device
JP2000030197A (en) Device for detecting warm body
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
GB2374228A (en) A collision warning device
JPH08156723A (en) Vehicle obstruction detecting device
JP4321142B2 (en) Sign recognition device
JP2021113767A (en) Obstacle detection device and obstacle detection system
JP3822417B2 (en) Vehicle periphery monitoring device
JP6533244B2 (en) Object detection device, object detection method, and object detection program
JP3740531B2 (en) Parked vehicle detection method, detection system, and parked vehicle detection device
JP2006012178A (en) Parked vehicle detection method and parked vehicle detection system
US11257375B2 (en) Method and system for detecting objects in a vehicle blind spot