JP2006036048A - Vehicle light controlling device - Google Patents
Vehicle light controlling device Download PDFInfo
- Publication number
- JP2006036048A JP2006036048A JP2004219513A JP2004219513A JP2006036048A JP 2006036048 A JP2006036048 A JP 2006036048A JP 2004219513 A JP2004219513 A JP 2004219513A JP 2004219513 A JP2004219513 A JP 2004219513A JP 2006036048 A JP2006036048 A JP 2006036048A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- point
- vehicle light
- traveling direction
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
Abstract
Description
本発明は、車両走行中に周囲が暗くなった場合、自動的に車両ライト(例えば、ヘッドランプ、スモールライト等)を点灯させる車両ライト制御装置に関するものであり、特に、カメラにより進行方向における映像を撮影して、撮影された映像に基づいて、車両ライトの点灯を制御する車両ライト制御装置に係る。 The present invention relates to a vehicle light control device that automatically turns on a vehicle light (for example, a headlamp, a small light, etc.) when the surroundings become dark while the vehicle is running. The present invention relates to a vehicle light control device that controls lighting of a vehicle light based on the captured video.
従来、車両ライト制御装置は、車両にオートライトスイッチが設けられ、オートライトスイッチをオン状態にしておくと、車両が走行中にトンネル等の暗部に入った場合には自動的に車両ライトが点灯し、トンネルを抜けると自動的に車両ライトが消灯するシステムが、車両分野においてはコンライトシステムとして、知られている。 Conventionally, a vehicle light control device is provided with an auto light switch, and if the auto light switch is turned on, the vehicle light automatically turns on when the vehicle enters a dark part such as a tunnel while driving. However, a system in which vehicle lights are automatically turned off when exiting a tunnel is known as a conlight system in the vehicle field.
この様な装置は、車両に照度を検出する照度計と車両の進行方向を撮像するためにカメラを備え、前方視界画像の画像データに占める暗部の割合を算出して、この割合が予め決められた第1の暗部閾値を超えた場合に照度計の測定値に基づく点灯制御に優先して、車両ライトを自動的に点灯する(例えば、特許文献1)。
上記した特許文献1に示される装置では、進行方向にトンネルのような暗所があった場合には、暗所に入る十分手前で車両ライトは自動的に点灯することは可能である。
In the device disclosed in
しかしながら、特許文献1に示される装置では、暗部検出範囲は、画像中心とした枠の大きさが車両の速度によって変化すると共に、カーブを走行する際にはステアリングの操舵角に応じてカメラの光軸が左右に動く構成となっている。このため、上記装置では、カメラの光軸を変化させる機構が必要となる。
However, in the apparatus shown in
よって、本発明は上記の問題点に鑑みてなされたものであり、カメラの光軸を移動させる機構を設けることなく、車両の走行状態に応じて車両の周囲の状況により適切に車両ライトの点灯が行える装置とすることを課題とする。 Therefore, the present invention has been made in view of the above problems, and the lighting of the vehicle light is appropriately performed according to the situation of the vehicle according to the traveling state of the vehicle without providing a mechanism for moving the optical axis of the camera. It is an object of the present invention to provide a device that can perform the above.
上記した課題を解決するために講じた手段は、車両ライトの自動点灯を行う制御手段を備え、該制御手段は、撮像手段により撮影された車両の進行方向の映像に基づいて、前記車両ライトの点灯を制御する車両ライト制御装置において、
前記映像から前記撮像手段の撮像素子に結像する特徴点を求める特徴点抽出手段と、前記特徴点より映像上または画像上において車両の進行方向を示す第1点を求める進行方向抽出手段とを備え、前記制御手段は第1点に基づく情報より監視領域を変化させ、該監視領域における輝度に基づき前記車両ライトの点灯を行う構成としたことである。
Means taken in order to solve the above-mentioned problem includes a control means for automatically turning on the vehicle light, and the control means is based on an image of the traveling direction of the vehicle photographed by the imaging means. In the vehicle light control device that controls lighting,
Feature point extracting means for obtaining a feature point imaged on the image sensor of the imaging means from the video, and a traveling direction extracting means for obtaining a first point indicating the traveling direction of the vehicle on the video or image from the feature point. The control means is configured to change the monitoring area based on the information based on the first point, and to turn on the vehicle light based on the luminance in the monitoring area.
この場合、特徴点から進行方向の車両の存在を検出する車両検出手段を備え、進行方向の車両の有無により監視領域を変化させると良い。 In this case, vehicle detection means for detecting the presence of the vehicle in the traveling direction from the feature points may be provided, and the monitoring area may be changed depending on the presence or absence of the vehicle in the traveling direction.
また、進行方向に車両が存在する場合、車両の後方に位置する路面上に監視領域を移動し、映像上における監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、制御手段は、走行速度に基づいて車両ライトを点灯すると良い。 Further, when a vehicle is present in the traveling direction, the monitoring area is moved on the road surface located behind the vehicle, and the number of pixels whose luminance value in the monitoring area on the image is equal to or less than a predetermined threshold is equal to or more than the predetermined pixel. The control means may turn on the vehicle light based on the traveling speed.
進行方向に車両が存在しない場合、第一点の周囲に監視領域を移動し、監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、制御手段は、走行速度に基づいて車両ライトを点灯すると良い。 When there is no vehicle in the traveling direction, the control means moves the monitoring area around the first point, and when the number of pixels whose luminance value in the monitoring area is equal to or less than a predetermined threshold is equal to or greater than a predetermined pixel, The vehicle light should be turned on based on.
また、車両の操舵角を検出する操舵検出手段を備え、操舵角に基づき前記第一点からの監視領域を変化させると良い。 Further, it is preferable to provide a steering detection means for detecting the steering angle of the vehicle, and to change the monitoring area from the first point based on the steering angle.
更に、車両の走行速度を検出する速度検出手段と、車両の進行方向に存在するトンネルまたは暗所を検出するトンネル・暗所検出手段とを備え、制御手段はトンネルまたは暗所を検出した場合、走行速度に基づいて車両ライトを点灯すると良い。 Furthermore, it comprises a speed detection means for detecting the traveling speed of the vehicle and a tunnel / dark place detection means for detecting a tunnel or dark place existing in the traveling direction of the vehicle, and the control means detects the tunnel or dark place, The vehicle light should be turned on based on the running speed.
第1の発明によれば、映像から撮像手段の撮像素子に結像する特徴点を求め、この特徴点より映像上または画像上において車両の進行方向を示す第1点(例えば、特徴点を路面とした場合、路面の延長線が一点で交差する点(消失点)エピポール、オプティカルフローによる一点等)を求めることができる。そして、制御手段は特徴点から求めた第1点に基づく情報より車両の進行方向がわかり、ライト点灯の判断を行う監視領域を変化させて、監視領域における輝度に基づき車両ライトの点灯を行うことができる。これは、撮像手段で捕らえた画像の特徴点から、車両が進むべき方向がわかるので、カメラの光軸を変化させる機構は必要なく、進行方向に応じて監視領域を変化させ、車両の走行状態に応じて適切なタイミングにて車両ライトの点灯を行うことができる。これは、撮像手段によって、車両の進行方向の映像をとらえ、進行方向において監視領域の画素の輝度値を比較することにより、ライト点灯が可能である。 According to the first invention, a feature point imaged on the image sensor of the imaging means is obtained from the video, and a first point (for example, the feature point on the road surface) indicating the traveling direction of the vehicle on the video or the image from the feature point In this case, a point (disappearance point) where the extension line of the road surface intersects at one point (a vanishing point), a point due to an optical flow, etc.) can be obtained. Then, the control means knows the traveling direction of the vehicle from the information based on the first point obtained from the feature points, changes the monitoring area where the lighting is determined, and lights the vehicle light based on the luminance in the monitoring area Can do. This is because the direction in which the vehicle should travel is known from the feature points of the image captured by the imaging means, so there is no need for a mechanism to change the optical axis of the camera, the monitoring area is changed according to the traveling direction, and the vehicle running state Accordingly, the vehicle light can be turned on at an appropriate timing. The light can be turned on by capturing an image of the traveling direction of the vehicle by the imaging means and comparing the luminance values of the pixels in the monitoring area in the traveling direction.
第2の発明によれば、路面または車両に対するカメラの設置位置、及び走行中の映像情報から、車両の進行方向を示す一点を求めることができる。これは、車両の進行方向において遠方に存在する暗所に対してのライト制御が可能となる。 According to the second aspect of the invention, it is possible to obtain one point indicating the traveling direction of the vehicle from the road surface or the installation position of the camera with respect to the vehicle and the video information during traveling. This enables light control to a dark place that exists far away in the traveling direction of the vehicle.
第3の発明によれば、特徴点から進行方向の車両の存在を検出する車両検出手段を備え、進行方向の車両の有無により監視領域を変化させて、進行方向に車両が存在する場合には、先行車両の後方に位置する路面上で、且つ自車の前方に位置する路面上の領域を監視領域とすることによりライト制御が行える。一方、先行車両の存在がない場合には、遠方の領域を監視領域とすることにより、車両周囲の情報に応じた適切なライト制御が可能となる。 According to the third invention, the vehicle detection means for detecting the presence of the vehicle in the traveling direction from the feature point is provided, and when the vehicle is present in the traveling direction by changing the monitoring area depending on the presence or absence of the vehicle in the traveling direction. The light control can be performed by setting a region on the road surface located behind the preceding vehicle and on the road surface ahead of the host vehicle as the monitoring region. On the other hand, when there is no preceding vehicle, it is possible to perform appropriate light control according to information around the vehicle by setting the distant region as the monitoring region.
第4の発明によれば、進行方向に車両が存在する場合には、先行車両の後方に監視領域を移動し、この監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、制御手段は走行速度に基づいて車両ライトを点灯すると、先行車両がいる場合でも監視領域での輝度値を基にしたライト制御が行える。 According to the fourth invention, when a vehicle exists in the traveling direction, the monitoring area is moved behind the preceding vehicle, and the number of pixels whose luminance value in the monitoring area is equal to or less than a predetermined threshold is equal to or more than the predetermined pixel. In this case, when the control means turns on the vehicle light based on the traveling speed, the light control based on the luminance value in the monitoring area can be performed even when there is a preceding vehicle.
第5の発明によれば、進行方向に車両が存在しない場合には、第一点の周囲に監視領域を移動する。そして、第一点の監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、制御手段は走行速度に基づいて車両ライトを点灯すると、先行車両がいない場合での輝度値を基にしたライト制御が行える。 According to the fifth aspect, when there is no vehicle in the traveling direction, the monitoring area is moved around the first point. When the number of pixels whose luminance value in the monitoring area of the first point is equal to or smaller than a predetermined threshold is equal to or larger than the predetermined pixel, the control means turns on the vehicle light based on the traveling speed, and the luminance when there is no preceding vehicle Write control based on the value.
第6の発明によれば、車両の操舵角を検出する操舵検出手段を備え、操舵角に基づき前記第一点の位置を変化させることによって監視領域を変化させると、操舵角に応じて監視領域が変化するので、車両の走行状態に応じたライト制御が行える。 According to the sixth aspect of the present invention, when the monitoring area is changed by changing the position of the first point based on the steering angle, the monitoring area is detected according to the steering angle. Therefore, the light control according to the traveling state of the vehicle can be performed.
第7の発明によれば、車両の進行方向に存在するトンネルまたは暗所を検出し、車両の速度を基にして車両の進行方向にあるトンネルまでの距離に応じて、車両ライトの点灯タイミングを適切に制御することが可能となる。 According to the seventh aspect of the invention, a tunnel or dark place existing in the traveling direction of the vehicle is detected, and the lighting timing of the vehicle light is determined according to the distance to the tunnel in the traveling direction of the vehicle based on the speed of the vehicle. It becomes possible to control appropriately.
以下、本発明の一実施形態について、図面を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、車両ライト制御装置1のシステム構成を示すブロック図である。車両ライト制御装置1は、ドライバー席に設けられたオートライトスイッチ(オートライトSW)6がオンの状態の場合、自動的に車両ライト7を点灯/消灯させるものである。本実施形態において車両ライトとは、車両の前方を照らすヘッドランプおよび車両後方に設けられたテールランプ,スモールライト,ナンバープレートランプの点灯による光を示し、どのライトを点灯させるかは、周囲状況に従う。例えば、自車の周囲が明るい場合には、テールランプおよびヘッドランプを消灯するが、一瞬だけ暗くなった場合或いは薄暗い場合にはテールランプのみ点灯する。また、周囲が暗い場合や一瞬暗くなった場合には、テールランプおよびヘッドランプを共に点灯する。オートライトSW6がオフ状態の場合には、手動のライトスイッチ(例えば、ヘッドライトスイッチ、スモールライトスイッチ)のオン/オフ操作による点灯/消灯に従う。
FIG. 1 is a block diagram showing a system configuration of the vehicle
車両ライト制御装置1は、ライト制御のプログラムを記憶するROM、プログラムの実行に必要な情報を一時的に記憶するRAM、プログラムを実行するCPUを備えたコントローラ2を備えると共に、カメラ3および各種センサ類および車両ライト7を備えている。コントローラ2にはカメラ3からの映像信号が入力されていると共に、車両の走行状態を検出する車速センサ4および操舵角センサ5からの信号が入力されている。このコントローラ2により、オートライトSW6がオン状態の場合に、走行状態に応じてライト制御が行える。
The vehicle
カメラ3は内部に像を結像させるCCDの撮像素子(例えば、640×480から成る画素)を備える。カメラ3は車両前方のフロントグリル或いは後方を確認できるリヤビューミラー等に一体で取り付けられている。カメラ3の光軸は車両前方を向いており、車両の進行方向において数m先(100m程度)まで自車の周辺状況を撮影することができる。車速センサ4は、車速に応じてコントローラ2に対してパルス信号(車速信号)を出力するものであり、コントローラ2に入力されるパルス信号の時間間隔により、自車の車速を検出することができる。
The
また、操舵角センサ5はステアリングコラム軸上に位相の異なる2つのホール素子が設けられ、ステアリングホイールの転舵に応じてステアリングシャフトが回転するときにパルス信号(操舵角信号)が発せられる。操舵角センサ5からのパルス信号は、コントローラ2により2つのパルス信号の立ち上りエッジ/立ち下りエッジのパターンおよびエッジ間の時間間隔によって操舵角θを検出することができる。つまり、ドライバーによるステアリングホイールの操作を操舵角センサ5により検出し、図2に示す様に、車体に対して左右どちらの方向にタイヤが転舵されているのかを検出することが可能である。 Further, the steering angle sensor 5 is provided with two hall elements having different phases on the steering column shaft, and a pulse signal (steering angle signal) is generated when the steering shaft rotates in response to the steering wheel turning. From the pulse signal from the steering angle sensor 5, the controller 2 can detect the steering angle θ based on the rising edge / falling edge pattern of the two pulse signals and the time interval between the edges. That is, the steering wheel sensor operation by the driver can be detected by the steering angle sensor 5, and as shown in FIG. 2, it can be detected in which direction the tire is steered with respect to the vehicle body.
次に、カメラ3により撮影した映像に基づくライト制御について、以下に説明する。
Next, the light control based on the video imaged by the
(実施形態1):路上の消失点に基づくライト制御
(1)自車の前方に他車が存在しない場合、カメラ画像上で路面上の消失点Pvを求める。消失点Pvとは、次の様に定義される。即ち、平行な複数の直線の投影像がカメラ画像上で一つの点で交わるが、この場合において直線上で無限に遠い所にある点(無限遠点)の投影像が消失点Pvとなる。消失点Pvは、カメラ3の内部パラメータ、外部パラメータ(路面に対するカメラ取り付け位置とカメラ角度)から公知の方法により求めることができ、ここではその求め方について詳細な説明は省略する。
消失点Pvが求められると、自車の進むべく進行方向を決定する。即ち、操舵角θ(図2に示す反時計回りを正)を操舵角センサ5によって検知する。車両走行中にタイヤが転舵されると、カメラ画像上では路面上に対する消失点Pvの位置が水平方向にuaだけ移動する。この場合、ua=k・x, x=f・tanθ,kは単位長さ当たりの画素数、fは焦点距離とする(図3参照)。次に、カメラ3内部に設けられるレンズ12に対し、レンズ中心の路面上での直下点P(Xc,Yc,Zc)を求めると共に、撮像素子11を含む平面上において、直下点Pの投影点Piを求める。ここでの(X,Y,Z)座標は、カメラのレンズ中心を原点とするカメラ座標で、光軸をZ軸、水平方向をX軸とする右手系である。既に求めた消失点Pvと投影点Piを結ぶ画像上の直線を、図5の如く決定し、この直線を画像上における自車の進行方向(前進方向)と定義する。
(Embodiment 1): Light control based on vanishing point on road (1) When no other vehicle exists in front of the host vehicle, vanishing point Pv on the road surface is obtained on the camera image. The vanishing point Pv is defined as follows. That is, a plurality of parallel projected images of a straight line intersect at one point on the camera image. In this case, a projected image of a point at an infinite distance on the straight line (infinity point) becomes a vanishing point Pv. The vanishing point Pv can be determined by a known method from the internal parameters and external parameters of the camera 3 (camera attachment position and camera angle with respect to the road surface), and detailed description of the determination method is omitted here.
When the vanishing point Pv is obtained, the traveling direction is determined in order for the host vehicle to travel. That is, the steering angle θ (the counterclockwise direction shown in FIG. 2 is positive) is detected by the steering angle sensor 5. When the tire is steered while the vehicle is running, the position of the vanishing point Pv on the road surface moves in the horizontal direction by ua on the camera image. In this case, ua = k · x, x = f · tan θ, k is the number of pixels per unit length, and f is the focal length (see FIG. 3). Next, a direct point P (Xc, Yc, Zc) on the road surface at the center of the
消失点Pvが公知の方法により求まると、消失点Pvの周辺に監視領域(大きさは任意とするが、例えば、160×120画素の領域、或いは、80×60画素の領域)10を設け、監視領域10の輝度値に基づいて、車両ライト7に対してのライト制御が行われる。即ち、消失点Pvの周辺に設けられた監視領域10での輝度値の小さい画素が所定画素以上あれば、車両ライト7を点灯(オン)する。この場合、車両ライト7を点灯させるための所定画素の閾値(画素数)は、これに限定されるものではないが、例えば、車両が直進状態を仮定して、車両の進行方向(例えば、30m程)先にトンネル8が存在する場合のトンネル8の大きさに相当する画素数に基づき設定することができる。そして、このライト制御では、進行方向にトンネル8が存在する場合に車両ライト7の点灯タイミングは、自車がトンネルに入るまでの時間を自車の走行速度に基づいてコントローラ2により予測し、トンネル8を検出した後、予測時間になった場合に、車両ライト7を点灯する制御を行えば、点灯タイミングの遅れを防止することができる。
When the vanishing point Pv is obtained by a known method, a monitoring area (size is arbitrary, for example, an area of 160 × 120 pixels or an area of 80 × 60 pixels) 10 is provided around the vanishing point Pv. Based on the luminance value of the
車両ライト7をオンの点灯状態からライトをオフして消灯状態へ切り替えるための条件は、オン条件を満足しない状態が所定時間継続且つ監視領域10での路面を除く画像部分の画素における輝度値が所定輝度以上(周囲の状況が明るい状況)が一定時間継続すれば、車両ライト7を消灯するようにする。
The condition for switching the vehicle light 7 from the on state to the off state by turning off the light is that the on condition does not satisfy the on condition continues for a predetermined time and the luminance value in the pixel of the image portion excluding the road surface in the
ドライバーが走行中にステアリングホイールを転舵した場合には、次の様になる。 When the driver steers the steering wheel while driving, the following occurs.
操舵角センサ5に基づく操舵角が、図2に示す如くタイヤが直進状態に比べてθだけ転舵された場合には、上記した様に、図4に示す如く、カメラ内部に設けられるレンズ12のレンズ中心直下点Pは、撮像素子上では投影点Piに結像する。この投影点Piからθだけ操舵を行うと、消失点Pvの位置が図5に示す様にuaだけ移動することになるので、この移動量に応じてカメラ3の監視領域10を移動させて、車両ライト7の点灯/消灯の制御を行う。
(2)自車の前方に他車が存在する場合
画像上で進行方向における前方他車(例えば、図5に楕円形状の破線で示す)の存在を画像処理にて検出した場合には、前方他車の後方(自車側)に監視領域を図5に示す矢印の如く移動させ、監視領域内での前方他車の後方の路面を抽出して、後方路面の輝度値を求める。そして、その路面の輝度値が所定輝度値以下の画素(暗い部分)が所定数以上あれば、車両ライト7を点灯する。この場合、周囲の明るさを検出する監視領域10の位置は、消失点Pvの周辺から先行他車の後方に監視領域10を移動させるが、自車の前方から前方他車がいなくなると、監視領域10を再度消失点Pvの位置に移動するようにしている。
When the steering angle based on the steering angle sensor 5 is steered by θ as shown in FIG. 2 as compared with the straight traveling state, as described above, as shown in FIG. 4, the
(2) When another vehicle is present in front of the host vehicle When the presence of another vehicle ahead (indicated by an elliptical broken line in FIG. 5) in the traveling direction on the image is detected by image processing, The monitoring area is moved behind the other vehicle (on the vehicle side) as shown by the arrow in FIG. 5, the road surface behind the other vehicle in the monitoring area is extracted, and the luminance value of the rear road surface is obtained. And if the brightness value of the road surface is below a predetermined brightness value and there are a predetermined number or more of pixels (dark portions), the vehicle light 7 is turned on. In this case, the position of the
次に、消失点Pvに基づくライト制御について、図6のフローチャートを参照して、具体的に説明する。尚、以下に示すフローチャートでは、図面上の冒頭の数字(ステップ:「S」の番号を示す)に従って、プログラムの各ステップの詳細を説明する。 Next, the write control based on the vanishing point Pv will be specifically described with reference to the flowchart of FIG. In the flowchart shown below, the details of each step of the program will be described according to the numbers at the beginning of the drawing (indicating the step number “S”).
図6に示す処理では、最初に、S1にて操舵角センサ5により出力される信号に基づき操舵角θを検知し、操舵角θに基づく消失点Pvの移動により、画像上での前進方向を求め、自車の進む方向を決定する。その後のS2の処理では、自車の前方に他車が存在するか否かを判断する。ここで他車が進行方向である前方に存在するか否かの判断は、図7に示すフローチャートによって成される。 In the process shown in FIG. 6, first, the steering angle θ is detected based on the signal output from the steering angle sensor 5 in S1, and the forward direction on the image is determined by the movement of the vanishing point Pv based on the steering angle θ. Determine the direction in which the vehicle will travel. In the subsequent process of S2, it is determined whether or not there is another vehicle ahead of the host vehicle. Here, the determination as to whether or not the other vehicle is ahead in the traveling direction is made according to the flowchart shown in FIG.
図7では、カメラ3により時刻t,(t+Δt),(t+2Δt)における3つのカメラ画像を得て、その得られたカメラ画像を所定のメモリ(例えば、RAM)に記憶する。そして、記憶された時刻tにおける画像から公知の方法により、点Pvを求め、消失点Pvを含む消失点Pvの周辺での特徴点m(u,v)を求める。ここで、u:カメラ画像における行の画素、v:カメラ画像における列の画素を2次元的に示す。この場合、特徴点m(u,v)は複数個求めることが可能である。
In FIG. 7, three camera images at time t, (t + Δt), and (t + 2Δt) are obtained by the
その後、時刻t+Δtの画像上のエピポーラ線を求める。このエピポーラ線は次の様に求めることができる。即ち、m(u,v):時刻tにおけるカメラ画像上での特徴点の位置、m’(u’,v’):時刻(t+Δt)におけるカメラ画像上での特徴点m(u,v)の対応点の位置とすると、次式が成立する。
とすると、エピポーラ方程式は次式で示される。
また、A:カメラの内部パラメータ、f:焦点距離、ku:u軸方向の単位長さ当たりの画素数、kv:v軸方向の単位長さ当たりの画素数、(u0,v0):画像中心、T:Δt間のカメラの並進移動量、[T]×R:TとRの外積、θx:水平方向とカメラ光軸方向との角度、V:車速とすると、次式が成立する。
Fの行列成分は既知となり、[数4]を定義し、これを[数2]のエピポーラ方程式に代入すると、時刻(t+Δt)の画像上においてエピポーラ線[数5]を算出することができる。
上記した方法によりエピポーラ線を算出すると、図7に戻り、エピポーラ線上で図8に示す特徴点m(u,v)の対応点を、公知のパターンマッチングにより算出して求める。パターンマッチングにより得られた対応点をm’(u’,v’)とする。対応点が求まると、特徴点m(u,v)とその対応点m’(u’,v’)から実空間上の3次元データを公知の方法を用いて、(x,y,z)を算出する。ここでの(x,y,z)座標は、カメラのレンズ中心を原点とするカメラ座標で、光軸をZ軸、水平方向をX軸とする右手系である。 When the epipolar line is calculated by the above method, returning to FIG. 7, the corresponding point of the feature point m (u, v) shown in FIG. 8 on the epipolar line is calculated and obtained by known pattern matching. The corresponding point obtained by pattern matching is m ′ (u ′, v ′). When the corresponding points are obtained, three-dimensional data in real space is obtained from the feature points m (u, v) and the corresponding points m ′ (u ′, v ′) by using a known method (x, y, z). Is calculated. The (x, y, z) coordinates here are camera coordinates with the lens center of the camera as the origin, and are a right-handed system with the optical axis as the Z axis and the horizontal direction as the X axis.
ここで、実空間上の3次元データの算出方法を述べると、P:時刻tのカメラ行列、P’:時刻(t+Δt)のカメラ行列、A:カメラの内部パラメータ(既知)、θx:水平方向とカメラ光軸方向との角度、V:車速とすると、以下に示す行列により求めることができる。
この場合、X,M+を以下のようにおくと、[数9]に示す関係式により3次元データを導出することができる。
この様な処理が繰り返され、全ての特徴点m(u,v)に対して成される。時刻t+Δtの画像上で求めた対応点を、時刻t+Δtでの特徴点m’(u’,v’)とする。 Such a process is repeated and performed for all feature points m (u, v). The corresponding point obtained on the image at time t + Δt is set as a feature point m ′ (u ′, v ′) at time t + Δt.
上記と同様な方法により、図9に示す如く、今度は時刻t+2Δtの画像上のエピポーラ線上で特徴点m’(u’,v’)の対応点を公知のパターンマッチングにより算出して求め、パターンマッチングにより得られた対応点をm’’(u’’,v’’)とする。対応点が求まると、特徴点m’(u’,v’)とその対応点m’’(u’’,v’’)から実空間上の3次元データを公知の方法を用いて、(x’,y’,z’)を算出する。この様な処理が繰り返され、全ての特徴点m’(u’,v’)に対して成される。 By the same method as described above, as shown in FIG. 9, this time, the corresponding point of the feature point m ′ (u ′, v ′) on the epipolar line on the image at time t + 2Δt is calculated and obtained by known pattern matching. The corresponding point obtained by matching is m ″ (u ″, v ″). Once the corresponding points are obtained, the three-dimensional data in the real space is obtained from the feature points m ′ (u ′, v ′) and the corresponding points m ″ (u ″, v ″) using a known method ( x ′, y ′, z ′) is calculated. Such a process is repeated and performed for all feature points m ′ (u ′, v ′).
時刻tと時刻(t+Δt)間で得られた3次元データ(x,y,z)、時刻(t+Δt)と時刻(t+2Δt)間で得られた3次元データ(x’,y’,z’)が求まる。この2つの3次元データが求まると、z−z’=(VΔt)cosθxが成立する場合には、時間が経過しても特徴点が動いていない静止点と判断し、D(u,v)=0(静止状態)とする。一方、y−y’=(VΔt)cosθxが成立しない場合には、特徴点が時間の経過とともに移動した移動点と判断し、D(u,v)=1(移動状態)とする。その後、画像上における自車の進行する前進方向に移動点D(u,v)=1が所定個数存在するか(ND≧閾値NDth)が判断され、この条件が成立すれば前方他車が存在すると判断し、前方他車を示すCAフラグをセット(=1)するが、条件が成立しなければ、CAフラグをクリア(=0)することにより、3画面よりエピポーラ線から対応する特徴点を求め、前方他車を検出するようにしている。 Three-dimensional data (x, y, z) obtained between time t and time (t + Δt), three-dimensional data (x ′, y ′, z ′) obtained between time (t + Δt) and time (t + 2Δt) Is obtained. When these two three-dimensional data are obtained, if zz ′ = (VΔt) cos θx is established, it is determined that the feature point does not move over time, and D (u, v) = 0 (stationary state). On the other hand, if y−y ′ = (VΔt) cos θx does not hold, it is determined that the feature point has moved with time, and D (u, v) = 1 (moving state). Thereafter, it is determined whether or not there is a predetermined number of moving points D (u, v) = 1 in the forward direction in which the vehicle travels on the image (ND ≧ threshold NDth), and if this condition is satisfied, there is another vehicle ahead. Then, the CA flag indicating the other vehicle ahead is set (= 1), but if the condition is not satisfied, the CA flag is cleared (= 0), and the corresponding feature point from the epipolar line is displayed from the third screen. The other vehicle ahead is detected.
この様にして前方他車の認識が成されると、図6に戻り、S2で前方他車が存在する場合(CA=1)には、S3にて前方車の後方に所定の監視領域10を設けその領域内での輝度値を求める。そして、輝度値f(i,j)が所定閾値fth(暗い状態レベル)以下の画素の個数を調べ、f(i,j)≦fthの画素Nが所定個数Nth以上存在するかが判断される。この処理で、上記条件を満足する場合には、S4にて車両ライト7を点灯するが、上記条件を満足しない場合には、S5にて車両ライト7の状態が、現在、消灯状態(オフ)になっているか否かが判断される。ここで、消灯状態となっている場合には、S1の処理に再度戻るが、S5にて消灯状態となっていない場合には、S6に進む。S6では、画像認識により路面と路面以外の領域を区別して、今度は路面以外の画像部分における輝度値の平均を算出する。そして、この輝度平均値が所定の閾値と比較され、路面以外の画像部分の輝度平均値が前方他車ありで、ライト点灯を判断する所定閾値以下(fm(i,j)≦fmth)の場合には、S1の処理に再度戻る。しかし、これが成立しない場合には、S7にて所定時間この状態が継続したか(t≧tc1)が判断される。S7にてこの条件が所定時間継続しない場合には、S1の処理に再度戻るが、所定時間継続した場合には路面以外の周囲が明るいものと判断して、S8にてライト点灯をオフし消灯した後、S1からの処理を繰り返す。
When the other front vehicle is recognized in this manner, the process returns to FIG. 6 and when the other front vehicle exists in S2 (CA = 1), a
一方、S2にて前方に他車が存在しない場合(CA=0)には、S9にて消失点周辺の画素において、輝度値が所定閾値以下(f(i,j)≦fth)である画素が所定個数以上存在する(N≧Nth)か否かが判断される。ここで、上記条件が成立した場合には、S15にて前回もこの状態であったかが判断され、この状態であった場合にはS1の処理に戻る。一方、S15にて前回この状態でなかった場合には、S16にてTL時間後に車両ライト7を点灯する(SW=1)。この場合、TL時間後にライト点灯を行うことは、次の様に作用する。即ち、進行方向にトンネルが存在する場合に、自車がトンネルに入るまでの時間をコントローラ2により予測し、トンネルを検出した後、予測時間になった場合に車両ライト7を点灯することができるので、車両の走行速度に基づいて点灯タイミングを決めることができ、車両ライト7の点灯タイミングを適切なものとすることができる。 On the other hand, when there is no other vehicle ahead in S2 (CA = 0), a pixel whose luminance value is equal to or less than a predetermined threshold (f (i, j) ≦ fth) in the pixels around the vanishing point in S9. It is determined whether or not there is a predetermined number or more (N ≧ Nth). Here, if the above condition is satisfied, it is determined in S15 whether or not it has been in this state last time, and in this state, the process returns to S1. On the other hand, if it was not this state last time in S15, the vehicle light 7 is turned on after TL time in S16 (SW = 1). In this case, lighting the light after TL time works as follows. That is, when a tunnel exists in the traveling direction, the controller 2 predicts the time until the host vehicle enters the tunnel, and after detecting the tunnel, the vehicle light 7 can be turned on when the predicted time is reached. Therefore, the lighting timing can be determined based on the traveling speed of the vehicle, and the lighting timing of the vehicle light 7 can be made appropriate.
一方、S9にて消失点周辺の画素において、輝度値が所定閾値以下(f(i,j)≦fth)である画素が所定個数以上存在しない場合には、S10にて現在のライトの状態はオフの消灯状態であるかが判断される。ここで、消灯状態である場合にはS1の処理に戻るが、点灯状態の場合には、S11にてこの点灯状態が所定時間継続したか(t≧tc2)が判断される。ここで、車両ライト7の点灯が所定時間継続していない場合には、S1の処理に戻るが、S11にて所定時間継続している場合には、今度は路面以外の画像部分における輝度値の平均値が所定閾値以下であるか(fm(i,j)≦fmth)が判断される。S12にて上記条件が成立する場合には、S1の処理に戻るが、上記条件が成立しない場合には、S13にてこの状態が所定時間継続したか(t≧tc3)が判断され、ここで、S12に示す条件が所定時間継続していない場合には、S1の処理に戻る。しかし、S13にてS12に示す条件が所定時間継続した場合には、ライト点灯が必要なく、周囲の状況が十分に明るいものと判断し、S14にて車両ライト7の点灯を消灯し、上記した処理を所定周期で繰り返す。 On the other hand, in S9, if there are no more than a predetermined number of pixels whose luminance value is equal to or less than the predetermined threshold (f (i, j) ≦ fth) in the pixels around the vanishing point, the current light state is determined in S10. It is determined whether the light is off or not. Here, if the light is off, the process returns to S1. If the light is on, it is determined in S11 whether the light has continued for a predetermined time (t ≧ tc2). Here, when the lighting of the vehicle light 7 has not continued for a predetermined time, the process returns to S1, but when the vehicle light 7 has continued for a predetermined time in S11, the luminance value in the image portion other than the road surface is now changed. It is determined whether the average value is equal to or less than a predetermined threshold value (fm (i, j) ≦ fmth). If the above condition is satisfied in S12, the process returns to S1. If the above condition is not satisfied, it is determined in S13 whether this state has continued for a predetermined time (t ≧ tc3). When the condition shown in S12 does not continue for a predetermined time, the process returns to S1. However, if the condition shown in S12 continues for a predetermined time in S13, it is determined that the lighting is not necessary and the surrounding situation is sufficiently bright, and the vehicle light 7 is turned off in S14. The process is repeated at a predetermined cycle.
(第2実施形態)
第1実施形態においては、カメラ画像上で消失点Pvを求め、この消失点Pvの周囲での輝度を比較することによりライト制御を行った。しかし、第2実施形態では、消失点Pvに代わりにエピポールを用いても、図10に示す様にライト制御を行うことができる。この図10に示す処理は、図6と基本的には同じであるが、S9のみが異なり、S9では消失点Pvではなく、エピポール周辺の画素について輝度値の比較を行う点が図6と異なっている。
(Second Embodiment)
In the first embodiment, the light control is performed by obtaining the vanishing point Pv on the camera image and comparing the luminance around the vanishing point Pv. However, in the second embodiment, even if an epipole is used instead of the vanishing point Pv, the write control can be performed as shown in FIG. The process shown in FIG. 10 is basically the same as that in FIG. 6, but only S9 is different. In S9, not the vanishing point Pv but the brightness value is compared for pixels around the epipole, which is different from FIG. ing.
(第3実施形態)
図11に第3実施形態のフローチャートを示す。この第3実施形態では、オプティカルフローによりライト制御を行うものである。この処理で異なるところは、最初に画像上の特徴点において、オプティカルフローを算出し、各オプティカルフローから距離が最小になる点Ofを求め、点Ofの周囲において図6に示すS9と同じ比較を行う点が異なっている。
(Third embodiment)
FIG. 11 shows a flowchart of the third embodiment. In the third embodiment, write control is performed by optical flow. The difference in this process is that the optical flow is first calculated at the feature points on the image, the point Of having the smallest distance is obtained from each optical flow, and the same comparison as S9 shown in FIG. 6 is performed around the point Of. The point to do is different.
点Ofは、次の様に求められる。即ち、図12に示すカメラ画像上の各特徴点において、各オプティカルフロー(例えば、矢印)が描く直線からの距離が最小になる点Ofを図13の如く求めるものである。以下に、オプティカルフローの導出方法について説明する。 The point Of is obtained as follows. In other words, at each feature point on the camera image shown in FIG. 12, a point Of at which the distance from a straight line drawn by each optical flow (for example, an arrow) is minimized is obtained as shown in FIG. Hereinafter, a method for deriving the optical flow will be described.
(x,y):カメラ画像上での位置、f(x,y):輝度値、fx,fy,ft:水平方向、垂直方向、時間軸方向の偏微分とすると、次式となる。
を設定し、またλを所定の値として以下の式に代入し、所定回数k=0〜nまで繰り返し、最終的に得られた[数13]をオプティカルフローとする。
上記した方法により、点Ofを導出する。レンズ中心の路面上の直下点P(Xc,Yc,Zc)を求め、撮像素子を含む平面上において、直下点Pの投影点Piを求める。そして、既に求めた点Ofと投影点Piを結ぶ画像上の直線を図14の如く決定し、この直線が、カメラ画像上における自車の前進方向となる。 The point Of is derived by the method described above. A direct point P (Xc, Yc, Zc) on the road surface at the center of the lens is obtained, and a projection point Pi of the direct point P is obtained on a plane including the image sensor. Then, a straight line on the image connecting the already-obtained point Of and the projected point Pi is determined as shown in FIG. 14, and this straight line becomes the forward direction of the host vehicle on the camera image.
(第4実施形態)
図15に、第4実施形態のフローチャートを示す。図15に示される処理では、図16に示すトンネルのテンプレートを、トンネルコントローラ内のメモリに複数記憶しており、この記憶されたテンプレートを用いて進行方向におけるトンネルをパターンマッチングにより検出し、ライト制御を行うものである。この処理は図6に示すS9が異なる。即ち、S9では消失点(または、エピポール)周辺において、複数のトンネル画像をパターンマッチングにより検出する。この場合、類似度が所定閾値以上のものがあるか否かによりライト制御が行われる。
(Fourth embodiment)
FIG. 15 shows a flowchart of the fourth embodiment. In the process shown in FIG. 15, a plurality of tunnel templates shown in FIG. 16 are stored in the memory in the tunnel controller, and the tunnel in the traveling direction is detected by pattern matching using the stored template, and the light control is performed. Is to do. This process is different in S9 shown in FIG. That is, in S9, a plurality of tunnel images are detected by pattern matching around the vanishing point (or epipole). In this case, the write control is performed depending on whether there is a similarity higher than a predetermined threshold.
以上、述べた様に第1実施形態から第4実施形態によれば、カメラの光軸を車両の走行状態に応じて移動させる機構は必要なく、車両の走行状態に応じて車両の周囲の状況により適切なタイミングで車両ライトの点灯が行える装置とすることができる。また、ドライバーに違和感を与えることなく点灯が行える装置とすることができる。 As described above, according to the first to fourth embodiments, there is no need for a mechanism for moving the optical axis of the camera according to the traveling state of the vehicle, and the situation around the vehicle according to the traveling state of the vehicle. Thus, a device capable of turning on the vehicle light at an appropriate timing can be obtained. In addition, it is possible to provide a device that can be lit without causing the driver to feel uncomfortable.
尚、本実施形態と請求項とを対応させると、コントローラ2が制御手段、特徴点抽出手段、進行方向抽出手段、車両検出手段、トンネル・暗所検出手段であり、カメラ3が撮像手段、車速センサ4が速度検出手段、操舵角センサ5が操舵検出手段、テンプレート9がトンネル検出手段となる。また、消失点Pvおよびオプティカルフローによる点Ofが第一点となる。
When this embodiment is associated with the claims, the controller 2 is control means, feature point extraction means, traveling direction extraction means, vehicle detection means, tunnel / dark place detection means, and the
1 車両ライト制御装置
2 コントローラ(制御手段、特徴点抽出手段、進行方向抽出手段、車両検出手段、トンネル・暗所検出手段)
3 カメラ(撮像手段)
4 車速センサ(速度検出手段)
5 操舵角センサ(操舵検出手段)
7 車両ライト
8 トンネル
9 テンプレート(トンネル検出手段)
10 監視領域
11 撮像素子
12 レンズ
Pv 消失点(第一点)
Of オプティカルフローによる点(第一点)
1 vehicle light control device 2 controller (control means, feature point extraction means, traveling direction extraction means, vehicle detection means, tunnel / dark place detection means)
3 Camera (imaging means)
4 Vehicle speed sensor (speed detection means)
5 Steering angle sensor (steering detection means)
7 Vehicle light 8 Tunnel 9 Template (tunnel detection means)
10
Of optical flow point (first point)
Claims (6)
前記映像から前記撮像手段の撮像素子に結像する特徴点を求める特徴点抽出手段と、前記特徴点より映像上または画像上において車両の進行方向を示す第1点を求める進行方向抽出手段とを備え、前記制御手段は第1点に基づく情報より監視領域を変化させ、該監視領域における輝度に基づき前記車両ライトの点灯を行うことを特徴とする車両ライト制御装置。 In the vehicle light control device for controlling lighting of the vehicle light based on an image of the traveling direction of the vehicle photographed by the imaging means, the control means for automatically lighting the vehicle light,
Feature point extracting means for obtaining a feature point imaged on the image sensor of the imaging means from the video, and a traveling direction extracting means for obtaining a first point indicating the traveling direction of the vehicle on the video or image from the feature point. The vehicle light control device is characterized in that the control means changes the monitoring area based on the information based on the first point, and turns on the vehicle light based on the luminance in the monitoring area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004219513A JP2006036048A (en) | 2004-07-28 | 2004-07-28 | Vehicle light controlling device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004219513A JP2006036048A (en) | 2004-07-28 | 2004-07-28 | Vehicle light controlling device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006036048A true JP2006036048A (en) | 2006-02-09 |
Family
ID=35901502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004219513A Withdrawn JP2006036048A (en) | 2004-07-28 | 2004-07-28 | Vehicle light controlling device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006036048A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009255722A (en) * | 2008-04-16 | 2009-11-05 | Denso Corp | Traveling environment detection method and lighting unit control device for vehicle |
JP2010132053A (en) * | 2008-12-03 | 2010-06-17 | Koito Mfg Co Ltd | Headlight control device |
KR101169337B1 (en) * | 2010-03-08 | 2012-07-30 | 경상대학교산학협력단 | Vehicles controlling apparatus and controlling method thereof |
US9262817B2 (en) | 2010-11-19 | 2016-02-16 | Mitsubishi Electric Corporation | Environment estimation apparatus and vehicle control system |
CN110682853A (en) * | 2018-07-05 | 2020-01-14 | 上海博泰悦臻网络技术服务有限公司 | Vehicle lamp control method and vehicle |
JP2020120316A (en) * | 2019-01-25 | 2020-08-06 | トヨタ自動車株式会社 | Vehicle periphery monitoring device |
-
2004
- 2004-07-28 JP JP2004219513A patent/JP2006036048A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009255722A (en) * | 2008-04-16 | 2009-11-05 | Denso Corp | Traveling environment detection method and lighting unit control device for vehicle |
JP2010132053A (en) * | 2008-12-03 | 2010-06-17 | Koito Mfg Co Ltd | Headlight control device |
KR101169337B1 (en) * | 2010-03-08 | 2012-07-30 | 경상대학교산학협력단 | Vehicles controlling apparatus and controlling method thereof |
US9262817B2 (en) | 2010-11-19 | 2016-02-16 | Mitsubishi Electric Corporation | Environment estimation apparatus and vehicle control system |
CN110682853A (en) * | 2018-07-05 | 2020-01-14 | 上海博泰悦臻网络技术服务有限公司 | Vehicle lamp control method and vehicle |
JP2020120316A (en) * | 2019-01-25 | 2020-08-06 | トヨタ自動車株式会社 | Vehicle periphery monitoring device |
JP7021134B2 (en) | 2019-01-25 | 2022-02-16 | トヨタ自動車株式会社 | Vehicle peripheral monitoring device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5680573B2 (en) | Vehicle driving environment recognition device | |
JP6649738B2 (en) | Parking lot recognition device, parking lot recognition method | |
JP5421072B2 (en) | Approaching object detection system | |
EP2009611B1 (en) | Road division line detector | |
JP4980970B2 (en) | Image pickup means adjustment device and object detection device | |
JP5760884B2 (en) | Vehicle turning prediction device | |
JP7296768B2 (en) | Image processing device and image processing method | |
US11663834B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
CN108536134A (en) | Vehicle travels autocontrol method and device | |
JP6194245B2 (en) | Traffic light recognition device | |
KR101601500B1 (en) | System and Method for assisting vehicle driving for using smartphone | |
JPH1114346A (en) | Vehicular obstacle detecting device | |
JP2006036048A (en) | Vehicle light controlling device | |
JP7245653B2 (en) | Traffic light recognition method and traffic light recognition device | |
JP4441877B2 (en) | Vehicle headlamp device | |
JP2001071790A (en) | Vehicular display device | |
JP5652374B2 (en) | Vehicle headlamp control device | |
JP4798576B2 (en) | Attachment detection device | |
JP2019133445A (en) | Section line detection device, section line detection system, and section line detection method | |
JP2006146754A (en) | Preceding car detecting method and preceding car detecting apparatus | |
JP2008146404A (en) | In-vehicle image recognition device | |
JP2024030951A (en) | Vehicle control device, vehicle control method, and vehicle control computer program | |
JP2013168737A (en) | Exposure control device | |
JP7322651B2 (en) | Obstacle recognition device | |
JP2004343303A (en) | Exposure controller of in-vehicle camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070621 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080328 |