[go: up one dir, main page]

JP7647676B2 - Traffic light recognition device - Google Patents

Traffic light recognition device Download PDF

Info

Publication number
JP7647676B2
JP7647676B2 JP2022082932A JP2022082932A JP7647676B2 JP 7647676 B2 JP7647676 B2 JP 7647676B2 JP 2022082932 A JP2022082932 A JP 2022082932A JP 2022082932 A JP2022082932 A JP 2022082932A JP 7647676 B2 JP7647676 B2 JP 7647676B2
Authority
JP
Japan
Prior art keywords
light
arrow
vehicle
recognition unit
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022082932A
Other languages
Japanese (ja)
Other versions
JP2023170863A (en
Inventor
充広 木下
孝太郎 長岡
彰裕 渡邉
宏明 清水
一郎 松山
真毅 岸本
雅道 大杉
真輝 右立
聡 武安
貴宏 土居
崇史 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022082932A priority Critical patent/JP7647676B2/en
Publication of JP2023170863A publication Critical patent/JP2023170863A/en
Application granted granted Critical
Publication of JP7647676B2 publication Critical patent/JP7647676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、信号機認識装置に関する。 The present invention relates to a traffic light recognition device.

従来、例えば特許文献1に記載された信号認識システムが知られている。特許文献1に記載された信号認識システムでは、車両に搭載されたカメラのカメラ撮像情報に基づいて、車両の周囲の対象信号機の信号検出情報が取得される。信号機の複数の灯火部分の間の相対位置関係と、複数の灯火部分の各々の点灯時の外観と、を示す灯火パターン情報が取得される。信号検出情報と灯火パターン情報とを比較することで、対象信号機の点灯状態が認識される。 A signal recognition system, such as that described in Patent Document 1, is known in the past. In the signal recognition system described in Patent Document 1, signal detection information of a target traffic light around a vehicle is obtained based on camera image information from a camera mounted on the vehicle. Light pattern information is obtained that indicates the relative positional relationship between the multiple light parts of the traffic light and the appearance of each of the multiple light parts when lit. The light state of the target traffic light is recognized by comparing the signal detection information with the light pattern information.

特開2021-2275号公報JP 2021-2275 A

青色の灯火の矢印(青色灯火矢印)については、矢印以外の灯火(例えば赤、青、又は黄の円形の灯火)とは異なり、灯火が点灯しているか否かだけでなく、矢印の指す方向も認識の対象となり得る。先進安全技術に関する運転支援及び自動運転システムの技術分野では、例えば夜間等の暗い環境下で車両から遠方に位置する信号機も含めて、矢印の指す方向をより正確に認識することが望まれている。 Unlike lights other than arrows (e.g., circular red, blue, or yellow lights), blue light arrows can be recognized not only based on whether the light is on, but also on the direction the arrow is pointing. In the technical fields of driving assistance and autonomous driving systems related to advanced safety technologies, there is a demand for more accurate recognition of the direction the arrow is pointing, including traffic lights located far away from the vehicle in dark environments such as at night.

本発明の一態様に係る信号機認識装置は、車載カメラの撮像画像に基づいて、車両の周囲の信号機の灯火部分の点灯状態を認識する点灯状態認識部と、撮像画像及び点灯状態に基づいて、信号機において青色灯火矢印の指す方向を認識する矢印方向認識部と、を備え、点灯状態認識部は、矢印以外の灯火に対応する第1灯火部分と青色灯火矢印に対応する第2灯火部分との両方が点灯している場合、第1灯火部分及び第2灯火部分の同時点灯との点灯状態を認識し、矢印方向認識部は、点灯状態認識部によって同時点灯が認識された場合、第1灯火部分を光源として撮像画像に生じる第1フレアの輝度分布と、第2灯火部分を光源として撮像画像に生じる第2フレアの輝度分布と、の比較結果に基づいて、青色灯火矢印の指す方向を認識する。 A traffic light recognition device according to one aspect of the present invention includes a lighting state recognition unit that recognizes the lighting state of the light parts of traffic lights around a vehicle based on an image captured by an on-board camera, and an arrow direction recognition unit that recognizes the direction of a blue light arrow at a traffic light based on the captured image and the lighting state. When both a first light part corresponding to a light other than the arrow and a second light part corresponding to the blue light arrow are on, the lighting state recognition unit recognizes the lighting state of the first light part and the second light part being simultaneously on, and when simultaneous lighting is recognized by the lighting state recognition unit, the arrow direction recognition unit recognizes the direction of the blue light arrow based on the comparison result between the luminance distribution of the first flare generated in the captured image with the first light part as a light source and the luminance distribution of the second flare generated in the captured image with the second light part as a light source.

本発明の一態様に係る信号機認識装置では、点灯状態認識部によって同時点灯が認識された場合、例えば夜間等の暗い環境下では、撮像画像において第1フレア及び第2フレアが生じている可能性が高い。第1フレアは矢印以外の灯火に対応する第1灯火部分を光源として撮像画像に生じるため、撮像画像上での輝度分布は、第1灯火部分に対応する同心円状となる。第2フレアは青色灯火矢印に対応する第2灯火部分を光源として撮像画像に生じるため、撮像画像上での輝度分布は、第2灯火部分に対応する同心円に対して偏りが生じる。そこで、点灯状態認識部によって同時点灯が認識された場合、第1フレアの輝度分布を基準とした第2フレアの輝度分布の偏りに基づいて、青色灯火矢印の指す方向をより正確に認識することができる。これにより、例えば夜間等の暗い環境下で車両から遠方に位置する信号機も含めて、矢印の指す方向をより正確に認識することが可能となる。 In a traffic light recognition device according to one aspect of the present invention, when the lighting state recognition unit recognizes simultaneous lighting, for example, in a dark environment such as at night, there is a high possibility that a first flare and a second flare are occurring in the captured image. The first flare occurs in the captured image with the first light portion corresponding to the light other than the arrow as a light source, so the luminance distribution on the captured image is concentric with the first light portion. The second flare occurs in the captured image with the second light portion corresponding to the blue light arrow as a light source, so the luminance distribution on the captured image is biased with respect to the concentric circle corresponding to the second light portion. Therefore, when the lighting state recognition unit recognizes simultaneous lighting, the direction indicated by the blue light arrow can be more accurately recognized based on the bias in the luminance distribution of the second flare based on the luminance distribution of the first flare. This makes it possible to more accurately recognize the direction indicated by the arrow, including traffic lights located far from the vehicle in a dark environment such as at night.

一実施形態において、矢印方向認識部は、撮像画像及び車両の加速度センサの検出結果に基づいて、車両の揺れに起因するブラーが生じていると判定される場合、青色灯火矢印の指す方向を認識しなくてもよい。この場合、撮像画像中に車両の揺れに起因するモーションブラーが生じている状況において、矢印の指す方向の認識の正確さが低下することを抑制することが可能となる。 In one embodiment, the arrow direction recognition unit does not need to recognize the direction of the blue light arrow when it is determined that blurring due to vehicle shaking is occurring based on the captured image and the detection results of the vehicle's acceleration sensor. In this case, it is possible to prevent a decrease in the accuracy of recognition of the direction the arrow is pointing in a situation where motion blurring due to vehicle shaking is occurring in the captured image.

本発明の一態様に係る信号機認識装置によれば、例えば夜間等の暗い環境下で車両から遠方に位置する信号機も含めて、矢印の指す方向をより正確に認識することが可能となる。 The traffic light recognition device according to one aspect of the present invention makes it possible to more accurately recognize the direction of the arrow, including traffic lights located far away from the vehicle in a dark environment, such as at night.

実施形態に係る信号機認識装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a traffic light recognition device according to an embodiment. 候補エリア推定の状況の一例を示す図である。FIG. 13 is a diagram showing an example of a situation in which a candidate area is estimated. 候補エリア推定の状況の他の例を示す図である。FIG. 11 is a diagram showing another example of a situation in which a candidate area is estimated. 第1灯火部分の点灯状態の一例を示す図である。FIG. 4 is a diagram showing an example of a lighting state of a first lighting portion. 第1灯火部分の輝度分布の一例を示す図である。FIG. 4 is a diagram showing an example of the luminance distribution of a first lamp portion. 第1及び第2灯火部分の同時点灯状態の一例を示す図である。FIG. 4 is a diagram showing an example of a state in which the first and second lamp portions are simultaneously turned on; 第1及び第2灯火部分の輝度分布の一例を示す図である。FIG. 4 is a diagram showing an example of the luminance distribution of first and second lamp portions; 図1の信号機認識装置の処理の一例を示すフローチャートである。2 is a flowchart showing an example of processing performed by the traffic light recognition device of FIG. 1 .

以下、本発明の実施形態について図面を参照して説明する。なお、以下の説明において、同一又は相当要素には同一符号を用い、重複する説明は省略する。 The following describes an embodiment of the present invention with reference to the drawings. In the following description, the same or equivalent elements are designated by the same reference numerals, and duplicate descriptions are omitted.

図1は、実施形態に係る信号機認識装置の概略構成を示すブロック図である。図1に示す信号機認識装置100は、乗用車等の車両に搭載されており、車両のカメラの撮像画像に含まれる信号機の点灯状態の認識を行う。 Figure 1 is a block diagram showing the schematic configuration of a traffic light recognition device according to an embodiment. The traffic light recognition device 100 shown in Figure 1 is mounted on a vehicle such as a passenger car, and recognizes the illumination state of traffic lights included in an image captured by a camera of the vehicle.

図1に示されるように、信号機認識装置100は、装置を統括的に制御するECU[Electronic Control Unit]10を備えている。ECU10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等からなる電子制御ユニットである。ECU10では、ROMに記憶されているプログラムをRAMにロードし、CPUで実行することで、各種の車両制御を実行する。ECU10は、複数の電子制御ユニットから構成されていてもよい。 As shown in FIG. 1, the traffic light recognition device 100 includes an ECU [Electronic Control Unit] 10 that provides overall control of the device. The ECU 10 is an electronic control unit that includes a CPU [Central Processing Unit], a ROM [Read Only Memory], and a RAM [Random Access Memory]. The ECU 10 loads programs stored in the ROM into the RAM and executes them with the CPU to perform various vehicle controls. The ECU 10 may be composed of multiple electronic control units.

ECU10は、GPS受信部1、カメラ(車載カメラ)2、レーダセンサ3、加速度センサ4、及び、地図データベース5と接続されている。 The ECU 10 is connected to a GPS receiver 1, a camera (vehicle-mounted camera) 2, a radar sensor 3, an acceleration sensor 4, and a map database 5.

GPS受信部1は、3個以上のGPS衛星から信号を受信することにより、自車両の位置(例えば自車両の緯度及び経度)を測定する。GPS受信部1は、測定した自車両の位置情報をECU10へ送信する。 The GPS receiver 1 measures the vehicle's position (e.g., the latitude and longitude of the vehicle) by receiving signals from three or more GPS satellites. The GPS receiver 1 transmits the measured vehicle position information to the ECU 10.

カメラ2は、車両の外部状況を撮像する撮像機器である。カメラ2は、一例として車両のフロントガラスの裏側に設けられ、車両前方を撮像する。カメラ2は、車両前方の撮像画像をECU10へ送信する。カメラ2は、単眼カメラであってもよく、ステレオカメラであってもよい。また、カメラ2の取付け箇所はフロントガラスの裏側に限られず、少なくとも車両前方を撮像可能であればよい。カメラ2は、車両前方に限らず、車両の複数の方向をそれぞれ撮像する複数台のカメラから構成されていてもよい。 Camera 2 is an imaging device that captures images of the external conditions of the vehicle. As an example, camera 2 is provided behind the windshield of the vehicle and captures images of the area in front of the vehicle. Camera 2 transmits captured images of the area in front of the vehicle to ECU 10. Camera 2 may be a monocular camera or a stereo camera. Furthermore, the location where camera 2 is attached is not limited to the back side of the windshield, as long as it is capable of capturing images of at least the area in front of the vehicle. Camera 2 is not limited to the area in front of the vehicle, and may be composed of multiple cameras that capture images of multiple directions of the vehicle.

レーダセンサ3は、電波(例えばミリ波)又は光を利用して車両の周辺の物体(電柱、信号機など)を検出する検出機器である。レーダセンサ3には、例えば、ミリ波レーダ又はライダー[LiDAR:Light Detection and Ranging]が含まれる。レーダセンサ3は、電波又は光を車両の周辺に送信し、物体で反射された電波又は光を受信することで物体を検出する。レーダセンサ3は、検出した物体に関する検出結果をECU10へ送信する。 The radar sensor 3 is a detection device that uses radio waves (e.g., millimeter waves) or light to detect objects (electric poles, traffic lights, etc.) around the vehicle. The radar sensor 3 includes, for example, millimeter wave radar or LiDAR (Light Detection and Ranging). The radar sensor 3 detects objects by transmitting radio waves or light to the vicinity of the vehicle and receiving the radio waves or light reflected by the objects. The radar sensor 3 transmits the detection results regarding the detected objects to the ECU 10.

加速度センサ4は、車両の加速度を検出する検出器である。加速度センサ4は、例えば、車両の上下方向の加速度である上下加速度を検出する上下加速度センサと、車両の左右方向(横方向)の加速度である左右加速度を検出する横加速度センサと、を含んでいる。加速度センサ4は、車両の前後方向(縦方向)の加速度である縦加速度を検出する縦加速度センサを含んでいてもよい。加速度センサ4は、車両の加速度情報をECU10に送信する。 The acceleration sensor 4 is a detector that detects the acceleration of the vehicle. The acceleration sensor 4 includes, for example, a vertical acceleration sensor that detects vertical acceleration, which is the acceleration in the up and down direction of the vehicle, and a lateral acceleration sensor that detects left and right acceleration, which is the acceleration in the left and right direction (lateral direction) of the vehicle. The acceleration sensor 4 may also include a vertical acceleration sensor that detects vertical acceleration, which is the acceleration in the front and rear direction (vertical direction) of the vehicle. The acceleration sensor 4 transmits vehicle acceleration information to the ECU 10.

地図データベース5は、地図情報を記憶するデータベースである。地図データベース5は、例えば、車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、交差点及び分岐点の位置情報、信号機の地図上の位置情報などが含まれる。信号機の地図上の位置情報とは、信号機の地図上における位置座標の情報である。地図情報には、信号機の地図上の位置情報と関連付けられた周辺構造物データが含まれていてもよい。なお、地図データベース5は、必ずしも車両に搭載されている必要はなく、車両と通信可能なサーバに形成されていてもよい。 The map database 5 is a database that stores map information. The map database 5 is formed, for example, in a HDD [Hard Disk Drive] mounted on the vehicle. The map information includes road position information, road shape information (e.g., curves, types of straight sections, curvature of curves, etc.), intersection and branch point position information, and traffic light position information on the map. The traffic light position information on the map is information on the position coordinates of the traffic light on the map. The map information may include surrounding structure data associated with the traffic light position information on the map. Note that the map database 5 does not necessarily need to be mounted on the vehicle, and may be formed on a server that can communicate with the vehicle.

周辺構造物データには、信号機の周辺に存在する周辺構造物の地図上の位置情報と周辺構造物の形状情報とが含まれる。周辺構造物とは、信号機の周辺に存在する構造物のうち信号機が設けられている蓋然性の高い構造物である。周辺構造物としては、例えば、支柱、電柱、ポール、歩道橋、トンネルの内壁などが含まれてもよい。なお、周辺構造物には、必ずしも構造物の全体が含まれる必要はなく、構造物のうち信号機から一定範囲内の部分のみが含まれていてもよい。周辺構造物の地図上の位置情報とは、周辺構造物の地図上における三次元位置の情報である。周辺構造物の形状情報とは、周辺構造物の三次元形状に関する情報である。 The surrounding structure data includes position information on the map of surrounding structures that exist around the traffic light and shape information of the surrounding structures. Surrounding structures are structures that exist around the traffic light and are likely to house the traffic light. Examples of surrounding structures may include pillars, utility poles, poles, pedestrian bridges, and inner walls of tunnels. Note that the surrounding structures do not necessarily need to include the entire structure, and may include only a portion of the structure within a certain range from the traffic light. The position information of the surrounding structures on the map is information on the three-dimensional position of the surrounding structures on the map. The shape information of the surrounding structures is information on the three-dimensional shape of the surrounding structures.

次に、ECU10の機能的構成について説明する。ECU10は、車両位置認識部11、物体認識部12、候補エリア推定部13、点灯状態認識部14、及び、矢印方向認識部15を有している。なお、以下に記載するECU10の機能の一部は、車両と通信可能なサーバにおいて実行される態様であってもよい。 Next, the functional configuration of the ECU 10 will be described. The ECU 10 has a vehicle position recognition unit 11, an object recognition unit 12, a candidate area estimation unit 13, a lighting state recognition unit 14, and an arrow direction recognition unit 15. Note that some of the functions of the ECU 10 described below may be executed by a server capable of communicating with the vehicle.

車両位置認識部11は、GPS受信部1の位置情報及び地図データベース5の地図情報に基づいて、車両の地図上の位置を認識する。また、車両位置認識部11は、地図データベース5の地図情報に含まれた電柱等の固定障害物の位置情報とカメラ2の撮像画像又はレーダセンサ3の検出結果とを利用して、SLAM[Simultaneous Localization and Mapping]技術により車両の地図上の位置を認識してもよい。車両位置認識部11は、地図データベース5の地図情報に加えて、地図データベース5に記憶されている信号機データ及び周辺構造物データを利用してもよい。車両位置認識部11は、その他、周知の手法により車両の地図上の位置を認識してもよい。 The vehicle position recognition unit 11 recognizes the position of the vehicle on the map based on the position information of the GPS receiver 1 and the map information of the map database 5. The vehicle position recognition unit 11 may also recognize the position of the vehicle on the map using SLAM [Simultaneous Localization and Mapping] technology, using position information of fixed obstacles such as utility poles included in the map information of the map database 5 and the image captured by the camera 2 or the detection results of the radar sensor 3. The vehicle position recognition unit 11 may use traffic light data and surrounding structure data stored in the map database 5 in addition to the map information of the map database 5. The vehicle position recognition unit 11 may also recognize the position of the vehicle on the map using other well-known methods.

物体認識部12は、カメラ2の撮像画像に基づいて、色情報を含む車両前方の撮像画像を取得する。物体認識部12は、例えば、カメラ2の撮像画像及びレーダセンサ3の検出結果に基づいて、車両の周囲の物体を認識する。物体認識部12は、周知のセンサ情報統合処理によって、カメラ2の撮像画像及びレーダセンサ3の検出結果を統合して物体認識を行ってもよい。物体認識部12は、例えば、レーダセンサ3の検出した三次元の検出点(光又はミリ波の反射点)にカメラ2の撮像した色情報を付加するなどのセンサ情報統合を行う。物体認識部12は、車両に対する物体の相対位置及び物体の形状を認識する。 The object recognition unit 12 acquires an image of the area in front of the vehicle, including color information, based on the image captured by the camera 2. The object recognition unit 12 recognizes objects around the vehicle, for example, based on the image captured by the camera 2 and the detection results of the radar sensor 3. The object recognition unit 12 may perform object recognition by integrating the image captured by the camera 2 and the detection results of the radar sensor 3 using a well-known sensor information integration process. The object recognition unit 12 performs sensor information integration, for example, by adding color information captured by the camera 2 to three-dimensional detection points (reflection points of light or millimeter waves) detected by the radar sensor 3. The object recognition unit 12 recognizes the relative position of the object with respect to the vehicle and the shape of the object.

なお、物体認識部12は、必ずしもカメラ2の撮像画像及びレーダセンサ3の検出結果の両方を用いる必要はない。物体認識部12は、カメラ2の撮像画像のみを物体認識に用いてもよい。カメラ2の撮像画像のみを物体認識に用いる場合には、レーダセンサ3を備える必要はない。 Note that the object recognition unit 12 does not necessarily need to use both the captured image of the camera 2 and the detection result of the radar sensor 3. The object recognition unit 12 may use only the captured image of the camera 2 for object recognition. If only the captured image of the camera 2 is used for object recognition, there is no need to include the radar sensor 3.

候補エリア推定部13は、車両位置認識部11の認識した車両の地図上の位置と物体認識部12の認識結果と地図データベース5の地図情報とに基づいて、候補エリアを推定する。候補エリアは、車両の進行方向の前方で車両に対向する信号機が存在する候補となる撮像画像中のエリアである。候補エリアは、撮像画像に設定された探索領域[ROI:Region of Interest]であってもよい。探索領域とは、撮像画像のうち信号機の点灯状態の認識のための画像認識処理を施す領域である。候補エリアを用いることで、例えば夜間等の暗い環境下で信号機以外の光源が車両の周辺に存在する状況であっても、点灯状態の認識の対象となる信号機を特定することができる。 The candidate area estimation unit 13 estimates a candidate area based on the position of the vehicle on the map recognized by the vehicle position recognition unit 11, the recognition result of the object recognition unit 12, and the map information of the map database 5. The candidate area is an area in the captured image that is a candidate for a traffic light that faces the vehicle ahead in the direction of travel of the vehicle. The candidate area may be a search area [ROI: Region of Interest] set in the captured image. The search area is an area in the captured image where image recognition processing is performed to recognize the lighting state of the traffic light. By using the candidate area, it is possible to identify the traffic light to be recognized as a target for lighting state recognition even in a situation where light sources other than traffic lights are present around the vehicle in a dark environment such as at night.

図2は、候補エリア推定の状況の一例を示す図である。図2は、前方に信号機付きの十字路が存在する片側1車線の道路を走行する車両のカメラで撮像された撮像画像である。図3は、候補エリア推定の状況の他の例を示す図である。図3は、前方に信号機付きの横断歩道の手前で停止する先行車両が存在する片側1車線の道路を走行する車両のカメラで撮像された撮像画像である。候補エリア推定部13は、例えば、信号機を含む画像の機械学習結果を用いて、撮像画像中で信号機の外形に近い物体を含む部分を候補エリアとして推定してもよい(図2のエリアA1)。候補エリア推定部13は、例えば、停止している先行車両に特有の赤色ランプの集合体を撮像画像中で認識した場合、撮像画像中で当該先行車両及びその上方を含む部分を候補エリアとして推定してもよい(図3のエリアA2)。候補エリア推定部13は、例えば、撮像画像中で周辺構造物を含む部分を候補エリアとして推定してもよい(図2,図3のエリアA3)。候補エリア推定部13は、例えば、撮像画像中で車両の進行方向に交差する向きに互いに対向する信号機対を含む部分(図2のエリアA4)を認識し、これら一対の信号機対の間にある信号機を含む部分を候補エリアとして推定してもよい(図2のエリアA1)。候補エリア推定部13は、例えば、車両位置認識部11で認識した車両位置の付近に位置する交差点(例えば車両の進行方向の前方の交差点から所定距離手前の白線及び標識等に車両位置が達した場合等における当該交差点)に対応する撮像画像中の部分を候補エリアとして認識してもよい(図2のエリアA5)。 2 is a diagram showing an example of a situation in which a candidate area is estimated. FIG. 2 is a captured image captured by a camera of a vehicle traveling on a one-lane road with a crossroad with traffic lights ahead. FIG. 3 is a diagram showing another example of a situation in which a candidate area is estimated. FIG. 3 is a captured image captured by a camera of a vehicle traveling on a one-lane road with a preceding vehicle stopped in front of a crosswalk with traffic lights ahead. The candidate area estimation unit 13 may, for example, use the machine learning results of an image including a traffic light to estimate a portion of the captured image including an object similar to the outline of a traffic light as a candidate area (area A1 in FIG. 2). For example, when the candidate area estimation unit 13 recognizes a group of red lights specific to a stopped preceding vehicle in the captured image, it may estimate a portion of the captured image including the preceding vehicle and the area above it as a candidate area (area A2 in FIG. 3). For example, the candidate area estimation unit 13 may estimate a portion of the captured image including surrounding structures as a candidate area (area A3 in FIGS. 2 and 3). The candidate area estimation unit 13 may, for example, recognize a portion of the captured image that includes a pair of traffic lights facing each other in a direction that intersects with the vehicle's traveling direction (area A4 in FIG. 2), and estimate the portion that includes the traffic light between the pair of traffic lights as the candidate area (area A1 in FIG. 2). The candidate area estimation unit 13 may, for example, recognize a portion of the captured image that corresponds to an intersection located near the vehicle position recognized by the vehicle position recognition unit 11 (for example, an intersection when the vehicle position reaches a white line and a sign a predetermined distance before the intersection ahead in the vehicle's traveling direction) as the candidate area (area A5 in FIG. 2).

候補エリア推定部13は、撮像画像において車両に対向する信号機の位置を含むように候補エリアを認識する。図2及び図3の例では、候補エリアは、長方形状の領域として設定されている。なお、候補エリアの形状は長方形状に限られず、楕円形、円形、多角形その他の形状であってもよい。また、候補エリアの推定手法は、上記の手法に限定されない。 The candidate area estimation unit 13 recognizes the candidate area so as to include the position of the traffic light facing the vehicle in the captured image. In the examples of Figures 2 and 3, the candidate area is set as a rectangular region. Note that the shape of the candidate area is not limited to a rectangular shape, and may be an ellipse, a circle, a polygon, or other shape. Furthermore, the method of estimating the candidate area is not limited to the above method.

点灯状態認識部14は、車載カメラの撮像画像に基づいて、車両の前方(周囲)の信号機の灯火部分の点灯状態(後述)を認識する。一般的に、信号機は、複数の灯火部分を有する。灯火部分とは、点灯及び消灯する部分である。灯火部分は、例えば、電球、LED、発光装置、ディスプレイ、等で構成されている。 The lighting state recognition unit 14 recognizes the lighting state (described below) of the light parts of the traffic lights in front of (around) the vehicle based on the image captured by the onboard camera. Generally, traffic lights have multiple light parts. A light part is a part that is turned on and off. A light part is composed of, for example, a light bulb, an LED, a light-emitting device, a display, etc.

点灯状態認識部14は、候補エリアが撮像画像中に存在する場合に、候補エリア内の信号機の点灯状態を認識する。点灯状態認識部14は、候補エリア推定部13により推定された候補エリア(例えば上述の図2及び図3の例の少なくとも1つ)が撮像画像中に存在する場合、地図データベース5から抽出した信号機及び周辺構造物と物体認識部12の認識結果との照合結果に基づいて、カメラ2の撮像画像上の信号機の位置を認識する。点灯状態認識部14は、周知の手法により撮像画像上の信号機の位置を認識することができる。点灯状態認識部14は、候補エリア内の画像認識(例えば色を考慮したパターンマッチング)を行うことで信号機の点灯状態を認識する。画像認識の処理内容は特に限定されず、信号機の点灯状態を認識可能な処理であればよい。 When a candidate area is present in the captured image, the lighting state recognition unit 14 recognizes the lighting state of the traffic light in the candidate area. When a candidate area estimated by the candidate area estimation unit 13 (e.g., at least one of the examples in Figures 2 and 3 described above) is present in the captured image, the lighting state recognition unit 14 recognizes the position of the traffic light in the captured image of the camera 2 based on the result of matching the traffic light and surrounding structures extracted from the map database 5 with the recognition result of the object recognition unit 12. The lighting state recognition unit 14 can recognize the position of the traffic light in the captured image by a well-known method. The lighting state recognition unit 14 recognizes the lighting state of the traffic light by performing image recognition (e.g., pattern matching that takes color into consideration) in the candidate area. The content of the image recognition process is not particularly limited, and it may be a process that can recognize the lighting state of the traffic light.

信号機の点灯状態には、矢印以外の灯火に対応する第1灯火部分が点灯している状態が含まれる。第1灯火部分は、典型的には円形信号であり、例えば黄信号又は赤信号等の主光源とされている。図4は、第1灯火部分の点灯状態の一例を示す図である。図4では、例えば、黄信号が単独で点灯している点灯状態を表す撮像画像として、車両から信号までの距離が互いに異なる3つの例(40m,80m,及び120m)が示されている。図4の上段は等倍の撮像画像であり、下段は上段の第1灯火部分の拡大図である。 The lighting state of a traffic light includes a state in which the first light portion, which corresponds to a light other than an arrow, is lit. The first light portion is typically a circular signal, and is the main light source of, for example, a yellow or red light. FIG. 4 is a diagram showing an example of the lighting state of the first light portion. In FIG. 4, for example, three examples (40 m, 80 m, and 120 m) of different distances from the vehicle to the signal are shown as captured images representing a lighting state in which the yellow light is lit alone. The top row of FIG. 4 is a life-size captured image, and the bottom row is an enlarged view of the first light portion in the top row.

図4に示されるように、黄信号が点灯することで、光源部分に対応する高輝度部分と、光源部分の周囲に広がるフレア部分と、が撮像画像上に現れる。フレアとは、信号機の灯火部分にカメラ2のレンズを向けることによりレンズ面等でノイズ光が反射して発生する光のかぶり現象である。フレア部分では、画像の一部が白っぽくなりシャープネス及びコントラストが低下する。フレアは、例えば夜間の撮像画像に生じ易い。そして、車両から信号機までの距離が大きくなるほど、撮像画像中の黄信号の高輝度部分の画像つぶれが発生し、高輝度部分とフレア部分との境界がぼやける傾向がある。 As shown in FIG. 4, when the yellow light is turned on, a high-luminance area corresponding to the light source and a flare area spreading around the light source appear on the captured image. Flare is a light fogging phenomenon that occurs when noise light is reflected off the lens surface or the like when the lens of camera 2 is pointed at the lighted part of the traffic light. In the flare area, part of the image becomes whitish, reducing sharpness and contrast. Flare is likely to occur in images captured at night, for example. Furthermore, the greater the distance from the vehicle to the traffic light, the more image crushing occurs in the high-luminance area of the yellow light in the captured image, and the tendency is for the boundary between the high-luminance area and the flare area to become blurred.

図5は、第1灯火部分の輝度分布の一例を示す図である。図5は、説明の便宜上、図4の80mの拡大図の色情報を反転させてグレースケールとしたものである。図5に示されるように、二点鎖線LSと破線FLとが描かれている。 Figure 5 shows an example of the luminance distribution of the first light portion. For ease of explanation, Figure 5 shows the color information of the 80m enlarged view of Figure 4 inverted to grayscale. As shown in Figure 5, a two-dot chain line LS and a dashed line FL are drawn.

二点鎖線LSは、第1灯火部分の光源が存在する領域に対応する円形領域を区画する。二点鎖線LSは、例えば、撮像画像の輝度分布を所定の光源閾値で二値化したときの高輝度部分として取得されてもよい。二点鎖線LSの形状は、例えば、後述の第2灯火部分と光源の形状同士を比較することで第2灯火部分の矢印の指す方向を判断するために用いられてもよい。 The two-dot chain line LS defines a circular area corresponding to the area where the light source of the first light portion is present. The two-dot chain line LS may be obtained, for example, as a high-luminance area when the luminance distribution of the captured image is binarized using a predetermined light source threshold value. The shape of the two-dot chain line LS may be used, for example, to determine the direction in which the arrow of the second light portion is pointing by comparing the shapes of the second light portion and the light source described below.

破線FLは、第1灯火部分を光源として撮像画像に生じる第1フレアに対応する領域を区画する。図5の例では、円形の光源から等方的にフレアが生じており、破線FLの円は、二点鎖線LSの円に対して略同心円であり、二点鎖線LSの円よりも大きい半径を有する。破線FLは、例えば、撮像画像の輝度分布を所定のフレア閾値で二値化したときの中輝度部分として取得されてもよい。フレア閾値は、上記の光源閾値よりも低輝度の値を有する閾値である。破線FLの形状は、例えば、後述の第2灯火部分のフレアの広がり方同士を比較することで第2灯火部分の矢印の指す方向を判断するために用いられてもよい。 The dashed line FL defines an area corresponding to the first flare that occurs in the captured image with the first light portion as the light source. In the example of FIG. 5, the flare occurs isotropically from a circular light source, and the dashed line FL circle is approximately concentric with the two-dot chain line LS circle and has a larger radius than the two-dot chain line LS circle. The dashed line FL may be obtained, for example, as a medium luminance portion when the luminance distribution of the captured image is binarized with a predetermined flare threshold value. The flare threshold value is a threshold value having a lower luminance value than the light source threshold value. The shape of the dashed line FL may be used, for example, to determine the direction indicated by the arrow of the second light portion by comparing the spread of the flare of the second light portion described below.

信号機の点灯状態には、青色灯火矢印に対応する第2灯火部分が点灯している状態が含まれる。第2灯火部分は、典型的には矢印信号であり、例えば赤信号を補助する補助光源とされている。第2灯火部分は、第1灯火部分よりも小さい光源面積を有している。第2灯火部分の矢印の指す方向は、特に限定されない。また、信号機の点灯状態には、第1灯火部分と第2灯火部分との両方が点灯している同時点灯の状態が含まれる。ここでの同時点灯とは、赤信号と青色矢印信号との両方が点灯している状態を意味する。 The lighted state of a traffic light includes a state in which the second light portion corresponding to the blue light arrow is on. The second light portion is typically an arrow signal, and is used as an auxiliary light source to supplement, for example, a red light. The second light portion has a smaller light source area than the first light portion. There is no particular restriction on the direction in which the arrow of the second light portion points. The lighted state of a traffic light also includes a simultaneous light state in which both the first light portion and the second light portion are on. Simultaneous light here means a state in which both the red light and the green arrow signal are on.

点灯状態認識部14は、矢印以外の灯火に対応する第1灯火部分と青色灯火矢印に対応する第2灯火部分との両方が点灯している場合、第1灯火部分及び第2灯火部分の同時点灯との点灯状態を認識する。点灯状態認識部14は、矢印以外の灯火に対応する第1灯火部分と青色灯火矢印に対応する第2灯火部分との何れか一方が点灯していない場合、同時点灯との点灯状態を認識しない。 The lighting state recognition unit 14 recognizes the lighting state of the first lighting portion and the second lighting portion when both the first lighting portion corresponding to the light other than the arrow and the second lighting portion corresponding to the blue light arrow are lit. The lighting state recognition unit 14 does not recognize the lighting state of the first lighting portion and the second lighting portion when either the first lighting portion corresponding to the light other than the arrow or the second lighting portion corresponding to the blue light arrow is not lit.

図6は、第1及び第2灯火部分の同時点灯状態の一例を示す図である。図6では、例えば、赤信号及び青色矢印信号が同時に点灯している同時点灯の状態を表す撮像画像として、車両から信号までの距離が互いに異なる3つの例(40m,80m,及び120m)が示されている。図6の上段は等倍の撮像画像であり、下段は上段の第1及び第2灯火部分の拡大図である。 Figure 6 is a diagram showing an example of a simultaneous illumination state of the first and second light portions. In Figure 6, three examples (40 m, 80 m, and 120 m) of different distances from the vehicle to the signal are shown as captured images representing a simultaneous illumination state in which, for example, a red light and a green arrow signal are illuminated at the same time. The top row of Figure 6 is a life-size captured image, and the bottom row is an enlarged view of the first and second light portions in the top row.

図6に示されるように、赤信号及び青色矢印信号が同時点灯することで、光源部分に対応する高輝度部分と、光源部分の周囲に広がるフレア部分とが、撮像画像上の赤信号及び青色矢印信号のそれぞれの部分に現れる。図4の例と同様、車両から信号機までの距離が大きくなるほど、撮像画像中の赤信号及び青色矢印信号の高輝度部分の画像つぶれが発生し、高輝度部分とフレア部分との境界がぼやける傾向がある。そのため、青色矢印信号については、車両から信号機までの距離が大きくなるほど、その指す方向の認識が難しくなる。 As shown in Figure 6, when a red light and a blue arrow signal are both illuminated at the same time, a high-brightness portion corresponding to the light source and a flare portion extending around the light source appear in the captured image for the red light and the blue arrow signal, respectively. As with the example in Figure 4, the greater the distance from the vehicle to the traffic light, the more likely it is that the high-brightness portions of the red light and the blue arrow signal in the captured image will be crushed, and the boundaries between the high-brightness portions and the flare portions will tend to become blurred. Therefore, for a blue arrow signal, the greater the distance from the vehicle to the traffic light, the more difficult it becomes to recognize the direction it is pointing.

矢印方向認識部15は、撮像画像及び点灯状態に基づいて、信号機において青色灯火矢印の指す方向を認識する。矢印方向認識部15は、例えば、点灯状態認識部14によって同時点灯が認識された場合、第1灯火部分を光源として撮像画像に生じる第1フレアの輝度分布と、第2灯火部分を光源として撮像画像に生じる第2フレアの輝度分布と、の比較結果に基づいて、青色灯火矢印の指す方向を認識する。第1フレアの輝度分布と第2フレアの輝度分布との比較とは、例えば、撮像画像上で、青色灯火矢印を光源とする輝度分布が、矢印以外の灯火を光源とする輝度分布に対して偏っているか否かを意味する。 The arrow direction recognition unit 15 recognizes the direction in which the blue light arrow is pointing at the traffic light based on the captured image and the lighting state. For example, when simultaneous lighting is recognized by the lighting state recognition unit 14, the arrow direction recognition unit 15 recognizes the direction in which the blue light arrow is pointing based on the result of comparing the luminance distribution of the first flare generated in the captured image with the first light portion as a light source and the luminance distribution of the second flare generated in the captured image with the second light portion as a light source. The comparison of the luminance distribution of the first flare with the luminance distribution of the second flare means, for example, whether or not the luminance distribution in the captured image with the blue light arrow as a light source is biased relative to the luminance distribution with lights other than the arrow as a light source.

図7は、第1及び第2灯火部分の輝度分布の一例を示す図である。図7は、説明の便宜上、図6の80mの拡大図の色情報を反転させてグレースケールとしたものである。なお、青色矢印信号の指す方向であると認識の際には、色情報を含めた認識が行われてもよい。 Figure 7 is a diagram showing an example of the luminance distribution of the first and second light portions. For ease of explanation, Figure 7 shows a grayscale image in which the color information of the 80m enlarged view of Figure 6 has been inverted. Note that when recognizing that the direction is the direction indicated by the blue arrow signal, recognition including color information may also be performed.

図7に示されるように、破線FL1,FL2とが描かれている。破線FL1は、図6の赤信号を光源として撮像画像に生じる第1フレアに対応する領域を区画する。図6の赤信号では、円形の光源から等方的にフレアが生じることから、破線FL1の円は、図5の黄信号の破線FLの円と同等となり得る。第1フレアの輝度分布は、破線FL1の円内で略均等となっている。 As shown in FIG. 7, dashed lines FL1 and FL2 are drawn. Dashed line FL1 defines an area corresponding to the first flare that occurs in the captured image when the red light in FIG. 6 is used as a light source. In the case of the red light in FIG. 6, flare occurs isotropically from a circular light source, so the circle of dashed line FL1 can be equivalent to the circle of dashed line FL of the yellow light in FIG. 5. The luminance distribution of the first flare is approximately uniform within the circle of dashed line FL1.

破線FL2は、第2フレアの輝度分布を第1フレアの輝度分布と比較して説明するために便宜上図示するものである。破線FL2は、図6の青色矢印信号を光源として撮像画像に生じる第2フレアを含むような円形領域であり、一例として破線FL1と同じ形状で示されている。図6の青色矢印信号では、赤信号の円形よりも小さい発光面積の矢印形の光源からフレアが生じることから、第2フレアの輝度分布は、破線FL2において均等ではなく、青色矢印の先端側(指す方向)の輝度が高くなり、青色矢印の基端側(指す方向とは反対側)の輝度が低くなる。図7の例では、第2フレアの輝度分布は、破線FL2の円内における左上部分と左下部分とで低い輝度となる暗部分DZ1,DZ2を有している。この場合、矢印方向認識部15は、第2フレアに関して暗部分DZ1,DZ2とは反対側である図7紙面右側が、青色矢印信号の指す方向であると認識することができる。 The dashed line FL2 is illustrated for convenience in order to compare the luminance distribution of the second flare with the luminance distribution of the first flare. The dashed line FL2 is a circular area including the second flare that occurs in the captured image with the blue arrow signal in FIG. 6 as a light source, and is shown in the same shape as the dashed line FL1 as an example. In the blue arrow signal in FIG. 6, the flare occurs from an arrow-shaped light source with a smaller light-emitting area than the circular red signal, so the luminance distribution of the second flare is not uniform in the dashed line FL2, and the luminance is higher on the tip side (pointing direction) of the blue arrow and lower on the base side (opposite to the pointing direction) of the blue arrow. In the example of FIG. 7, the luminance distribution of the second flare has dark parts DZ1 and DZ2 that are low in the upper left and lower left parts within the circle of the dashed line FL2. In this case, the arrow direction recognition unit 15 can recognize that the right side of the paper in FIG. 7, which is opposite to the dark parts DZ1 and DZ2 with respect to the second flare, is the direction pointed by the blue arrow signal.

また、矢印方向認識部15は、例えば、図6の赤信号及び青色矢印信号を光源として撮像画像の輝度分布のうち上述のフレア閾値以上の輝度となる部分にて、輝度の上下方向及び左右方向の輝度ヒストグラムを画素毎に算出し、青色矢印信号の輝度ヒストグラム上でのピーク位置が赤信号の輝度ヒストグラム上でのピーク位置に対してどの方向に偏っているかに基づき、青色矢印信号の指す方向であると認識してもよい。 In addition, the arrow direction recognition unit 15 may, for example, calculate a luminance histogram in the vertical and horizontal directions for each pixel in a portion of the luminance distribution of an image captured using the red and blue arrow signals in FIG. 6 as light sources where the luminance is equal to or greater than the above-mentioned flare threshold, and recognize that the direction is that indicated by the blue arrow signal based on the direction in which the peak position on the luminance histogram of the blue arrow signal is biased relative to the peak position on the luminance histogram of the red signal.

或いは、矢印方向認識部15は、図6の赤信号及び青色矢印信号を光源とする撮像画像での画素の色が赤であるか青(又は緑)であるかに基づいて暗部分DZ1,DZ2を認識してもよい。矢印方向認識部15は、暗部分DZ1,DZ2を認識した場合、撮像画像中で暗部分DZ1,DZ2に隣接する高輝度部分を所定の輝度閾値を用いて認識し、高輝度部分に関して暗部分DZ1,DZ2とは反対側を、青色矢印信号の指す方向であると認識してもよい。 Alternatively, the arrow direction recognition unit 15 may recognize the dark portions DZ1 and DZ2 based on whether the color of the pixels in the captured image using the red signal and blue arrow signal in Fig. 6 as light sources is red or blue (or green). When the arrow direction recognition unit 15 recognizes the dark portions DZ1 and DZ2, it may recognize the high brightness portions adjacent to the dark portions DZ1 and DZ2 in the captured image using a predetermined brightness threshold, and recognize the opposite side of the high brightness portions from the dark portions DZ1 and DZ2 as the direction indicated by the blue arrow signal.

その他、例えば図6において距離が40mの場合には、距離が80m以上の場合と比べて、光源部分に対応する高輝度部分の形状は、青色矢印信号の指す方向の認識が可能な程度である。この場合、矢印方向認識部15は、上記図5の二点鎖線LSのような光源自体の形状に沿った領域を赤信号及び青色矢印信号の各光源について取得し、それらの形状の比較によって青色灯火矢印の指す方向を認識してもよい。 For example, when the distance is 40 m in FIG. 6, the shape of the high-luminance part corresponding to the light source is such that it is possible to recognize the direction indicated by the blue arrow signal, compared to when the distance is 80 m or more. In this case, the arrow direction recognition unit 15 may obtain an area along the shape of the light source itself, such as the two-dot chain line LS in FIG. 5, for each light source of the red light and blue arrow signal, and recognize the direction indicated by the blue light arrow by comparing these shapes.

ちなみに、矢印方向認識部15は、撮像画像及び車両の加速度センサ4の検出結果に基づいて、車両の揺れに起因するブラーが生じていると判定される場合、青色灯火矢印の指す方向を認識しなくてもよい。矢印方向認識部15は、例えば、撮像画像に基づいて、第1灯火部分を光源として撮像画像に生じる第1ブラーと、第2灯火部分を光源として撮像画像に生じる第2ブラーと、が同等のブラー量で撮像画像における車両上下方向に延在している場合に、第1ブラーと第2ブラーとが共に車両の揺れに起因すると判定してもよい。矢印方向認識部15は、車両の加速度センサの検出結果に基づいて、車両の上下方向の上下加速度が所定の上下加速度閾値以上である場合、又は、車両の左右方向の左右加速度が所定の左右加速度閾値以上である場合に、第1ブラーと第2ブラーとが共に車両の揺れに起因すると判定してもよい。 Incidentally, the arrow direction recognition unit 15 may not need to recognize the direction of the blue light arrow when it is determined that blurring due to vehicle swaying has occurred based on the captured image and the detection result of the vehicle acceleration sensor 4. For example, the arrow direction recognition unit 15 may determine that both the first blur and the second blur are caused by vehicle swaying when, based on the captured image, a first blur occurring in the captured image with the first light portion as a light source and a second blur occurring in the captured image with the second light portion as a light source extend in the vehicle up-down direction in the captured image with an equal amount of blur. The arrow direction recognition unit 15 may determine that both the first blur and the second blur are caused by vehicle swaying based on the detection result of the vehicle acceleration sensor when the vertical acceleration of the vehicle in the up-down direction is equal to or greater than a predetermined vertical acceleration threshold, or when the lateral acceleration of the vehicle in the lateral direction is equal to or greater than a predetermined lateral acceleration threshold.

次に、信号機認識装置100の信号機認識処理の一例について図8を参照して説明する。図8は、図1の信号機認識装置の処理の一例を示すフローチャートである。図8に示すフローチャートの処理は、例えば車両の走行中に、所定周期で繰り返し行われる。 Next, an example of the traffic light recognition process of the traffic light recognition device 100 will be described with reference to FIG. 8. FIG. 8 is a flowchart showing an example of the process of the traffic light recognition device of FIG. 1. The process of the flowchart shown in FIG. 8 is repeated at a predetermined interval, for example, while the vehicle is traveling.

図8に示されるように、ステップS01において、ECU10は、車両位置認識部11により、車両位置の認識を行う。車両位置認識部11は、例えば、GPS受信部1の位置情報及び地図データベース5の地図情報に基づいて、車両の地図上の位置を認識する。 As shown in FIG. 8, in step S01, the ECU 10 recognizes the vehicle position by the vehicle position recognition unit 11. The vehicle position recognition unit 11 recognizes the position of the vehicle on the map based on, for example, the position information of the GPS receiver unit 1 and the map information of the map database 5.

ステップS02において、ECU10は、物体認識部12により、物体の認識を行う。物体認識部12は、カメラ2の撮像画像に基づいて、色情報を含む車両前方の撮像画像を取得する。物体認識部12は、例えば、カメラ2の撮像画像及びレーダセンサ3の検出結果に基づいて、車両の周囲の物体を認識する。 In step S02, the ECU 10 recognizes objects using the object recognition unit 12. The object recognition unit 12 acquires an image of the area in front of the vehicle, including color information, based on an image captured by the camera 2. The object recognition unit 12 recognizes objects around the vehicle, for example, based on the image captured by the camera 2 and the detection results of the radar sensor 3.

ステップS03において、ECU10は、候補エリア推定部13により、候補エリアの推定を行う。候補エリア推定部13は、例えば、車両位置認識部11の認識した車両の地図上の位置と物体認識部12の認識結果と地図データベース5の地図情報とに基づいて、候補エリアを推定する。 In step S03, the ECU 10 estimates the candidate area using the candidate area estimation unit 13. The candidate area estimation unit 13 estimates the candidate area based on, for example, the position on the map of the vehicle recognized by the vehicle position recognition unit 11, the recognition result of the object recognition unit 12, and the map information of the map database 5.

ステップS04において、ECU10は、点灯状態認識部14により、撮像画像中に候補エリアがあるか否かを判定する。点灯状態認識部14は、候補エリア推定部13により候補エリアが撮像画像中に推定された場合、撮像画像中に候補エリアがあると判定する。ECU10は、撮像画像中に候補エリアがあると判定した場合(ステップS04:YES)、ステップS05に移行する。一方、ECU10は、撮像画像中に候補エリアがないと判定した場合(ステップS04:NO)、今回の図8の処理を終了する。 In step S04, the ECU 10 determines whether or not a candidate area is present in the captured image using the lighting state recognition unit 14. If a candidate area is estimated in the captured image by the candidate area estimation unit 13, the lighting state recognition unit 14 determines that a candidate area is present in the captured image. If the ECU 10 determines that a candidate area is present in the captured image (step S04: YES), the ECU 10 proceeds to step S05. On the other hand, if the ECU 10 determines that a candidate area is not present in the captured image (step S04: NO), the ECU 10 ends the current process of FIG. 8.

ステップS05において、ECU10は、点灯状態認識部14により、点灯状態の認識を行う。点灯状態認識部14は、車載カメラの撮像画像に基づいて、車両の前方(周囲)の信号機の灯火部分の点灯状態を認識する。点灯状態認識部14は、例えば、候補エリア内の画像認識(例えば色を考慮したパターンマッチング)を行うことで、候補エリア内の信号機の点灯状態を認識する。 In step S05, the ECU 10 recognizes the lighting state by the lighting state recognition unit 14. The lighting state recognition unit 14 recognizes the lighting state of the lights of the traffic lights in front of (around) the vehicle based on an image captured by the onboard camera. The lighting state recognition unit 14 recognizes the lighting state of the traffic lights in the candidate area, for example, by performing image recognition within the candidate area (e.g., pattern matching that takes color into consideration).

ステップS06において、ECU10は、点灯状態認識部14により、同時点灯との点灯状態を認識したか否かを判定する。点灯状態認識部14は、矢印以外の灯火に対応する第1灯火部分と青色灯火矢印に対応する第2灯火部分との両方が点灯している場合、第1灯火部分及び第2灯火部分の同時点灯との点灯状態を認識したと判定する。点灯状態認識部14は、矢印以外の灯火に対応する第1灯火部分と青色灯火矢印に対応する第2灯火部分との何れか一方が点灯していない場合、同時点灯との点灯状態を認識しないと判定する。ECU10は、同時点灯との点灯状態を認識したと判定した場合(ステップS06:YES)、ステップS07に移行する。一方、ECU10は、同時点灯との点灯状態を認識しないと判定した場合(ステップS06:NO)、今回の図8の処理を終了する。 In step S06, the ECU 10 determines whether the lighting state with simultaneous lighting has been recognized by the lighting state recognition unit 14. When both the first light portion corresponding to the light other than the arrow and the second light portion corresponding to the blue light arrow are on, the lighting state recognition unit 14 determines that the lighting state with simultaneous lighting of the first light portion and the second light portion has been recognized. When either the first light portion corresponding to the light other than the arrow or the second light portion corresponding to the blue light arrow is not on, the lighting state recognition unit 14 determines that the lighting state with simultaneous lighting has not been recognized. When the ECU 10 determines that the lighting state with simultaneous lighting has been recognized (step S06: YES), it proceeds to step S07. On the other hand, when the ECU 10 determines that the lighting state with simultaneous lighting has not been recognized (step S06: NO), it ends the current process of FIG. 8.

ステップS07において、ECU10は、矢印方向認識部15により、車両の揺れに起因するブラー(第1ブラー及び第2ブラー)が生じているか否かを判定する。矢印方向認識部15は、撮像画像に基づいて、第1灯火部分を光源として撮像画像に生じる第1ブラーと、第2灯火部分を光源として撮像画像に生じる第2ブラーと、が同等のブラー量で撮像画像における車両上下方向に延在している場合に、車両の揺れに起因する第1ブラー及び第2ブラーが生じていると判定してもよい。或いは、矢印方向認識部15は、車両の加速度センサ4の検出結果に基づいて、車両の上下方向の上下加速度が所定の上下加速度閾値以上である場合、又は、車両の左右方向の左右加速度が所定の左右加速度閾値以上である場合に、車両の揺れに起因する第1ブラー及び第2ブラーが生じていると判定してもよい。ECU10は、車両の揺れに起因するブラーが生じていないと判定した場合(ステップS07:YES)、ステップS08に移行する。一方、ECU10は、車両の揺れに起因するブラーが生じていると判定した場合(ステップS07:NO)、今回の図8の処理を終了する。 In step S07, the ECU 10 determines whether or not blur (first blur and second blur) caused by vehicle shaking has occurred by the arrow direction recognition unit 15. The arrow direction recognition unit 15 may determine that the first blur and the second blur caused by vehicle shaking have occurred when the first blur caused in the captured image with the first lamp portion as a light source and the second blur caused in the captured image with the second lamp portion as a light source extend in the vehicle up-down direction in the captured image with an equal amount of blur based on the captured image. Alternatively, the arrow direction recognition unit 15 may determine that the first blur and the second blur caused by vehicle shaking have occurred based on the detection result of the acceleration sensor 4 of the vehicle when the vertical acceleration of the vehicle in the up-down direction is equal to or greater than a predetermined vertical acceleration threshold, or when the horizontal acceleration of the vehicle in the left-right direction is equal to or greater than a predetermined horizontal acceleration threshold. When the ECU 10 determines that blur caused by vehicle shaking has not occurred (step S07: YES), it proceeds to step S08. On the other hand, if the ECU 10 determines that blurring is occurring due to vehicle shaking (step S07: NO), it ends the current process in FIG. 8.

ステップS08において、ECU10は、矢印方向認識部15により、矢印方向の認識を行う。矢印方向認識部15は、点灯状態認識部14によって同時点灯が認識された場合、第1灯火部分を光源として撮像画像に生じる第1フレアの輝度分布と、第2灯火部分を光源として撮像画像に生じる第2フレアの輝度分布と、の比較結果に基づいて、青色灯火矢印の指す方向を認識する。その後、ECU10は、今回の図8の処理を終了する。 In step S08, the ECU 10 recognizes the arrow direction using the arrow direction recognition unit 15. When simultaneous illumination is recognized by the illumination state recognition unit 14, the arrow direction recognition unit 15 recognizes the direction indicated by the blue light arrow based on the comparison result between the luminance distribution of the first flare occurring in the captured image with the first light portion as a light source and the luminance distribution of the second flare occurring in the captured image with the second light portion as a light source. After that, the ECU 10 ends the current process of FIG. 8.

以上説明したように、点灯状態認識部14によって同時点灯が認識された場合、例えば夜間等の暗い環境下では、撮像画像において第1フレア及び第2フレアが生じている可能性が高い。第1フレアは矢印以外の灯火に対応する第1灯火部分を光源として撮像画像に生じるため、撮像画像上での輝度分布は、第1灯火部分に対応する同心円状となる。第2フレアは青色灯火矢印に対応する第2灯火部分を光源として撮像画像に生じるため、撮像画像上での輝度分布は、第2灯火部分に対応する同心円に対して偏りが生じる。そこで、上述のような信号機認識装置100によれば、点灯状態認識部14によって同時点灯が認識された場合、矢印方向認識部15によって、第1フレアの輝度分布を基準とした第2フレアの輝度分布の偏りに基づいて、青色灯火矢印の指す方向をより正確に認識することができる。これにより、例えば夜間等の暗い環境下で車両から遠方に位置する信号機も含めて、矢印の指す方向をより正確に認識することが可能となる。 As described above, when the lighting state recognition unit 14 recognizes simultaneous lighting, for example, in a dark environment such as at night, there is a high possibility that the first flare and the second flare are occurring in the captured image. Since the first flare occurs in the captured image with the first light portion corresponding to the light other than the arrow as a light source, the luminance distribution on the captured image is concentric with the first light portion. Since the second flare occurs in the captured image with the second light portion corresponding to the blue light arrow as a light source, the luminance distribution on the captured image is biased with respect to the concentric circle corresponding to the second light portion. Therefore, according to the traffic light recognition device 100 described above, when the lighting state recognition unit 14 recognizes simultaneous lighting, the arrow direction recognition unit 15 can more accurately recognize the direction of the blue light arrow based on the bias of the luminance distribution of the second flare based on the luminance distribution of the first flare. This makes it possible to more accurately recognize the direction of the arrow, including traffic lights located far from the vehicle in a dark environment such as at night.

信号機認識装置100では、矢印方向認識部15は、撮像画像及び車両の加速度センサ4の検出結果に基づいて、車両の揺れに起因するブラーが生じていると判定される場合、青色灯火矢印の指す方向を認識しない。これにより、撮像画像中に車両の揺れに起因するモーションブラーが生じている状況において、矢印の指す方向の認識の正確さが低下することを抑制することが可能となる。 In the traffic light recognition device 100, the arrow direction recognition unit 15 does not recognize the direction of the blue light arrow when it is determined that blurring due to vehicle swaying has occurred based on the captured image and the detection results of the vehicle's acceleration sensor 4. This makes it possible to prevent a decrease in the accuracy of recognition of the direction the arrow is pointing in a situation where motion blurring due to vehicle swaying has occurred in the captured image.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。
[Modification]
Although the embodiment of the present invention has been described above, the present invention is not limited to the above-mentioned embodiment. The present invention can be embodied in various forms including the above-mentioned embodiment and various modifications and improvements based on the knowledge of those skilled in the art.

上述した信号機認識装置100では、矢印方向認識部15は、車両の揺れに起因するブラーが生じていると判定される場合、青色灯火矢印の指す方向を認識しないように構成されたが、この処理(図8のステップS07)は省略されてもよい。 In the traffic light recognition device 100 described above, the arrow direction recognition unit 15 is configured not to recognize the direction of the blue light arrow if it is determined that blurring due to vehicle swaying is occurring, but this process (step S07 in FIG. 8) may be omitted.

上述した実施形態では、同時点灯との点灯状態に関して、矢印以外の灯火に対応する第1灯火部分として赤信号を対象としたが、これに限定されない。第2灯火部分(青色灯火矢印)と同時点灯する第1灯火部分としては、赤色以外の青色又は黄色の灯火を対象としてもよい。なお、例えば路面電車等、青色以外の色(例えば黄色)の灯火矢印によって進行可否が移動体に対しては、青色以外の色の灯火矢印に対応する第3灯火部分を第2灯火部分に代えて本発明を適用することができる。 In the above embodiment, the first light portion corresponding to a light other than the arrow is a red light in terms of the lighting state when the lights are simultaneously turned on, but this is not limited to the above. The first light portion that is turned on simultaneously with the second light portion (blue light arrow) may be a light of a color other than red, such as blue or yellow. For moving objects such as trams, where the ability to proceed is determined by a light arrow of a color other than blue (e.g., yellow), the present invention can be applied by replacing the second light portion with a third light portion corresponding to a light arrow of a color other than blue.

上述した実施形態では、車両の前方の信号機について説明したが、車両の周囲の信号機を撮像対象としてもよい。また、レーダセンサ3は必ずしも備える必要はない。例えば、レーダセンサ3に代えて、TOF[Time Of Flight]センサ、遠赤外線[Far Infrared Rays]カメラ等を用いてもよい。 In the above embodiment, a traffic light in front of the vehicle has been described, but traffic lights around the vehicle may also be imaged. Also, the radar sensor 3 does not necessarily have to be provided. For example, a TOF (Time Of Flight) sensor, a Far Infrared Rays camera, etc. may be used instead of the radar sensor 3.

2…カメラ(車載カメラ)、4…加速度センサ、14…点灯状態認識部、15…矢印方向認識部、100…信号機認識装置。

2... camera (vehicle-mounted camera), 4... acceleration sensor, 14... lighting state recognition unit, 15... arrow direction recognition unit, 100... traffic light recognition device.

Claims (2)

車載カメラの撮像画像に基づいて、車両の周囲の信号機の灯火部分の点灯状態を認識する点灯状態認識部と、
前記撮像画像及び前記点灯状態に基づいて、前記信号機において青色灯火矢印の指す方向を認識する矢印方向認識部と、を備え、
前記点灯状態認識部は、矢印以外の灯火に対応する第1灯火部分と前記青色灯火矢印に対応する第2灯火部分との両方が点灯している場合、前記第1灯火部分及び前記第2灯火部分の同時点灯との前記点灯状態を認識し、
前記矢印方向認識部は、前記点灯状態認識部によって前記同時点灯が認識された場合、前記第1灯火部分を光源として前記撮像画像に生じる第1フレアの輝度分布と、前記第2灯火部分を光源として前記撮像画像に生じる第2フレアの輝度分布と、の比較結果に基づいて、前記青色灯火矢印の指す方向を認識する、信号機認識装置。
a lighting state recognition unit that recognizes lighting states of lights of traffic signals around the vehicle based on an image captured by an in-vehicle camera;
and an arrow direction recognition unit that recognizes a direction indicated by a blue light arrow at the traffic light based on the captured image and the lighting state,
The lighting state recognition unit recognizes the lighting state of the first lighting portion and the second lighting portion when both the first lighting portion corresponding to the light other than the arrow and the second lighting portion corresponding to the blue light arrow are turned on,
When the simultaneous lighting is recognized by the lighting state recognition unit, the arrow direction recognition unit recognizes the direction indicated by the blue light arrow based on a comparison result between a luminance distribution of a first flare generated in the captured image using the first light portion as a light source and a luminance distribution of a second flare generated in the captured image using the second light portion as a light source.
前記矢印方向認識部は、前記撮像画像及び前記車両の加速度センサの検出結果に基づいて、前記車両の揺れに起因するブラーが生じていると判定される場合、前記青色灯火矢印の指す方向を認識しない、請求項1に記載の信号機認識装置。

2. The traffic light recognition device according to claim 1, wherein the arrow direction recognition unit does not recognize the direction indicated by the blue light arrow when it determines, based on the captured image and the detection results of the vehicle's acceleration sensor, that blurring due to the swaying of the vehicle is occurring.

JP2022082932A 2022-05-20 2022-05-20 Traffic light recognition device Active JP7647676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022082932A JP7647676B2 (en) 2022-05-20 2022-05-20 Traffic light recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022082932A JP7647676B2 (en) 2022-05-20 2022-05-20 Traffic light recognition device

Publications (2)

Publication Number Publication Date
JP2023170863A JP2023170863A (en) 2023-12-01
JP7647676B2 true JP7647676B2 (en) 2025-03-18

Family

ID=88927676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022082932A Active JP7647676B2 (en) 2022-05-20 2022-05-20 Traffic light recognition device

Country Status (1)

Country Link
JP (1) JP7647676B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168592A (en) 2011-02-10 2012-09-06 Fuji Heavy Ind Ltd Environment recognition device
JP2015125709A (en) 2013-12-27 2015-07-06 富士重工業株式会社 Arrow signal recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168592A (en) 2011-02-10 2012-09-06 Fuji Heavy Ind Ltd Environment recognition device
JP2015125709A (en) 2013-12-27 2015-07-06 富士重工業株式会社 Arrow signal recognition device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
米陀 佳祐,デジタル地図を活用した市街地自動運転のための信号機認識アルゴリズム,月刊JETI 第68巻 第12号 ,日本,株式会社日本出版制作センター,2020年11月22日,第68巻,p.35-39
関 海克 他2名,車載カメラにおける信号機認識およびイベント検知,第22回 画像センシングシンポジウム SSII2016,日本,画像センシング技術研究会,2016年12月31日,IS106~IS106

Also Published As

Publication number Publication date
JP2023170863A (en) 2023-12-01

Similar Documents

Publication Publication Date Title
JP5892876B2 (en) In-vehicle environment recognition system
US9251708B2 (en) Forward collision warning trap and pedestrian advanced warning system
US10635896B2 (en) Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
US9064418B2 (en) Vehicle-mounted environment recognition apparatus and vehicle-mounted environment recognition system
US7366325B2 (en) Moving object detection using low illumination depth capable computer vision
JP5022609B2 (en) Imaging environment recognition device
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US20080007429A1 (en) Visibility condition determining device for vehicle
EP3975138A1 (en) Bundling of driver assistance systems
US20130083971A1 (en) Front vehicle detecting method and front vehicle detecting apparatus
US20150028741A1 (en) Driver assistance system and operating procedure for the latter
JP2006343322A (en) Method for detecting nighttime fog, and system for implementing the same
JP5313638B2 (en) Vehicle headlamp device
JPH10187930A (en) Driving environment recognition device
JP5065172B2 (en) Vehicle lighting determination device and program
JP2021117048A (en) Change point detection device and map information distribution system
JP5361901B2 (en) Headlight control device
US10846546B2 (en) Traffic signal recognition device
KR20080004833A (en) Method and apparatus for detecting daytime and nighttime driving vehicles according to the illumination conditions
Suganuma et al. Current status and issues of traffic light recognition technology in autonomous driving system
US20240190331A1 (en) Methods and apparatuses for adaptive high beam control for a vehicle
JP7647676B2 (en) Traffic light recognition device
JP7138265B1 (en) OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND PROGRAM
JP5643877B2 (en) Vehicle headlamp device
US11595587B2 (en) Vehicle surroundings object detection in low light conditions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240620

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250217