[go: up one dir, main page]

JP7446830B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7446830B2
JP7446830B2 JP2020013467A JP2020013467A JP7446830B2 JP 7446830 B2 JP7446830 B2 JP 7446830B2 JP 2020013467 A JP2020013467 A JP 2020013467A JP 2020013467 A JP2020013467 A JP 2020013467A JP 7446830 B2 JP7446830 B2 JP 7446830B2
Authority
JP
Japan
Prior art keywords
edge
image processing
brightness
pixels
parking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020013467A
Other languages
Japanese (ja)
Other versions
JP2021120768A (en
Inventor
貴之 金子
守 久保田
俊輔 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2020013467A priority Critical patent/JP7446830B2/en
Publication of JP2021120768A publication Critical patent/JP2021120768A/en
Application granted granted Critical
Publication of JP7446830B2 publication Critical patent/JP7446830B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の周囲の路面を撮像する撮像装置から出力される画像信号に基づいて、この路面に設けられた駐車枠や走行車線を推定する画像処理装置及び画像処理方法に関するものである。 The present invention relates to an image processing device and an image processing method that estimate parking spaces and driving lanes provided on a road surface based on image signals output from an imaging device that images the road surface around a vehicle.

昨今、車両を所定の駐車区画に駐車する際に、駐車目標とする駐車スペースを自動的に検出して、車両を自動駐車させる車両用駐車支援装置が実用化されている。駐車スペースを検出する際には、車両に搭載したカメラで車両周辺を撮影した画像に基づいて、駐車区画線を検出し、駐車区画線で囲まれた領域を駐車スペースとして検出する。また、車両の走行の際に、車両周辺を撮影した画像に基づいて、走行車線(走行レーン)を区画する車線境界線を自動的に検出して、車両を自動運転させる走行支援装置も実用化されている。 2. Description of the Related Art Recently, vehicle parking support devices have been put into practical use that automatically detect a target parking space and park the vehicle automatically when the vehicle is parked in a predetermined parking lot. When detecting a parking space, parking lot lines are detected based on an image taken around the vehicle using a camera mounted on the vehicle, and an area surrounded by the parking lot lines is detected as a parking space. In addition, a driving support device has also been put into practical use that automatically detects the lane boundary lines that separate driving lanes based on images taken of the surrounding area of the vehicle while the vehicle is driving, and allows the vehicle to drive automatically. has been done.

このような駐車区画線や車線境界線等としての白線を検出する技術として、車両周辺を撮影した画像からエッジを検出し、検出したエッジに基づいて白線を検出する白線検出装置や白線検出方法が開示されている(例えば、特許文献1、2参照)。 Technologies for detecting white lines such as parking lot lines and lane boundary lines include white line detection devices and white line detection methods that detect edges from images taken around the vehicle and detect white lines based on the detected edges. It has been disclosed (for example, see Patent Documents 1 and 2).

特開平8-167023号公報Japanese Patent Application Publication No. 8-167023 特開2007-179386号公報Japanese Patent Application Publication No. 2007-179386

しかしながら、上記従来技術では、カメラのエッジ強調機能により、路面上に長尺に延びる影の境界、日向と日陰との境界等のエッジが強調され、駐車区画線や車線境界線以外の部分も白線として検出されることがあった。 However, in the conventional technology described above, the edge enhancement function of the camera emphasizes edges such as the boundary of a long shadow on the road surface, the boundary between sunlight and shade, and white lines also apply to areas other than parking lot lines and lane boundaries. It was sometimes detected as.

そこで、本発明は、駐車区画線や車線境界線等の路面を区画する境界線の検出を、高精度に行うことが可能な画像処理装置及び画像処理方法を提供することを目的としている。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image processing device and an image processing method that can detect boundary lines dividing a road surface, such as parking lot lines and lane boundary lines, with high accuracy.

前記目的を達成するために、本発明の画像処理装置は、路面の所定領域を区画する境界線を検出する画像処理装置である。車両の周囲の前記路面を撮像する撮像装置から出力される画像信号に基づく画像を、所定方向に走査し、前記画像信号に含まれる輝度が閾値よりも大きく変化する画素を検出し、検出した前記画素の並びが所定以上の長さとなっている部分をエッジとして検出するエッジ検出部と、前記エッジ検出部で検出した第1のエッジの所定方向側にある画素の輝度と、前記第1のエッジとは異なる第2のエッジの、前記第1のエッジの所定方向側とは反対方向側にある画素の輝度と、を比較して、輝度の差が所定値以下となる場合、前記第1のエッジ及び前記第2のエッジを、境界線を構成するエッジのペアであると判定する比較部と、を備えたことを特徴とする。 In order to achieve the above object, an image processing device of the present invention is an image processing device that detects a boundary line that partitions a predetermined area of a road surface. An image based on an image signal output from an imaging device that images the road surface around the vehicle is scanned in a predetermined direction, and pixels whose brightness included in the image signal changes more than a threshold value are detected. an edge detection unit that detects as an edge a portion where a pixel arrangement is longer than a predetermined length; a luminance of a pixel located on a predetermined direction side of a first edge detected by the edge detection unit; and the first edge. and the luminance of a pixel on the side opposite to the predetermined direction side of the first edge of a second edge different from The present invention is characterized by comprising a comparison unit that determines that an edge and the second edge are a pair of edges forming a boundary line.

このように構成された本発明の画像処理装置では、撮影された画像から、輝度が閾値よりも大きく変化する画素を検出し、検出した画素の並びが所定以上の長さとなっている部分をエッジとして検出する。そして、検出した第1のエッジの所定方向側にある画素と、これとは異なる第2のエッジの、第1のエッジの所定方向側とは反対方向側にある画素の輝度の差が所定値以下となる場合、これら第1のエッジ及び第2のエッジを、境界線を構成するエッジのペアと判定する。これにより、路面上に延びる木やポールの影等を、境界線と認識するのを抑制できる。 The image processing device of the present invention configured as described above detects pixels whose brightness changes more than a threshold value from a captured image, and defines a portion where the detected pixel arrangement has a length longer than a predetermined value as an edge. Detected as. Then, the difference in brightness between a pixel on the side of a predetermined direction of the detected first edge and a pixel on the side of the second edge in the opposite direction to the side of the predetermined direction of the first edge is a predetermined value. In the following cases, the first edge and the second edge are determined to be a pair of edges forming a boundary line. This makes it possible to prevent the shadows of trees and poles extending on the road surface from being recognized as boundary lines.

このことにより、駐車区画線や車線境界線等の路面を区画する境界線の検出を、高精度に行うことが可能となる。この結果、駐車場等の路面に設けられた駐車枠の検出や、車線境界線によって区画された走行車線の検出を、高精度に行うことが可能となる。 This makes it possible to detect boundary lines that partition the road surface, such as parking lot lines and lane boundary lines, with high precision. As a result, it becomes possible to detect parking spaces provided on the road surface of a parking lot or the like and to detect driving lanes divided by lane boundary lines with high precision.

本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a parking assistance device to which an image processing device according to an embodiment of the present invention is applied. 実施の形態である駐車支援装置の撮像装置の配置位置の一例を示す図である。It is a figure showing an example of the arrangement position of the imaging device of the parking assistance device which is an embodiment. 実施の形態である画像処理装置の概略構成を示す機能ブロック図である。1 is a functional block diagram showing a schematic configuration of an image processing device according to an embodiment. FIG. 実施の形態である画像処理装置の動作の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of the operation of the image processing apparatus according to the embodiment. 実施の形態である画像処理装置の動作の一例を説明するための図であり、車両と、駐車場の路面上に描かれた駐車区画線の一例を示す。FIG. 2 is a diagram for explaining an example of the operation of the image processing device according to the embodiment, and shows an example of a vehicle and a parking lot line drawn on the road surface of a parking lot. 実施の形態である画像処理装置の動作の一例を説明するための図であり、(a)は俯瞰画像を模式的に示した図であり、(b)は俯瞰画像から検出されたエッジを模式的に示した図である。2A and 2B are diagrams for explaining an example of the operation of the image processing device according to the embodiment, in which (a) is a diagram schematically showing an overhead view image, and (b) is a diagram schematically showing an edge detected from the overhead view image. FIG. 実施の形態である画像処理装置の動作の一例を説明するための図であり、図6(b)の領域Aの拡大図である。FIG. 6 is a diagram for explaining an example of the operation of the image processing apparatus according to the embodiment, and is an enlarged view of area A in FIG. 6(b). 実施の形態である画像処理装置の動作の一例を説明するための図であり、図6(b)の領域Bの拡大図である。FIG. 6 is a diagram for explaining an example of the operation of the image processing apparatus according to the embodiment, and is an enlarged view of region B in FIG. 6(b).

(駐車支援装置の概略構成)
以下、この発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。図2は駐車支援装置の撮像装置の配置位置の一例を示す図である。なお、以下では、駐車支援装置について説明するが、本発明の実施の形態である画像処理装置が適用される装置は駐車支援装置に限定されることはなく、走行車線を走行する車両の走行を支援する走行支援装置等にも適用できる。
(Schematic configuration of parking assist device)
Embodiments of the present invention will be described below based on the drawings. FIG. 1 is a block diagram showing a schematic configuration of a parking assistance device to which an image processing device according to an embodiment of the present invention is applied. FIG. 2 is a diagram showing an example of the arrangement position of the imaging device of the parking assist device. Note that although a parking assistance device will be described below, the device to which the image processing device according to the embodiment of the present invention is applied is not limited to the parking assistance device; It can also be applied to driving support devices and the like.

図1に示すように、駐車支援装置1は、車両V(図2参照)に搭載され、駐車支援動作を行う。具体的には、駐車支援装置1は、この車両Vが駐車可能な駐車枠を認識する。そして、駐車支援装置1は、認識した駐車枠に車両Vを駐車させるようにこの車両Vを制御する。 As shown in FIG. 1, the parking assistance device 1 is mounted on a vehicle V (see FIG. 2) and performs a parking assistance operation. Specifically, the parking support device 1 recognizes a parking slot in which this vehicle V can park. Then, the parking support device 1 controls the vehicle V to park the vehicle V in the recognized parking slot.

車両Vの前後左右には、図2に示すように複数の小型カメラ(撮像装置)が備えられている。 As shown in FIG. 2, a plurality of small cameras (imaging devices) are provided at the front, rear, left and right sides of the vehicle V.

具体的には、車両Vのフロントバンパまたはフロントグリルには、車両Vの前方に向けて前方カメラ20aが装着されている。車両Vのリアバンパまたはリアガーニッシュには、車両Vの後方に向けて後方カメラ20bが装着されている。車両Vの左ドアミラーには、車両Vの左側方に向けて左側方カメラ20cが装着されている。車両Vの右ドアミラーには、車両Vの右側方に向けて右側方カメラ20dが装着されている。 Specifically, a front camera 20a is mounted on the front bumper or front grill of the vehicle V so as to face the front of the vehicle V. A rear camera 20b is attached to the rear bumper or rear garnish of the vehicle V, facing toward the rear of the vehicle V. A left side camera 20c is mounted on the left door mirror of the vehicle V to face the left side of the vehicle V. A right side camera 20d is mounted on the right door mirror of the vehicle V, facing toward the right side of the vehicle V.

前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dには、それぞれ、広範囲を観測可能な広角レンズや魚眼レンズが装着されており、4台のカメラ20a~20dで車両Vの周囲の路面を含む領域を漏れなく観測できるようになっている。これらカメラ20a~20dにより、車両Vの周囲の路面を撮像する撮像装置が構成されている。なお、以下の説明において、個々のカメラ(撮像装置)20a~20dを区別せずに説明する場合は単にカメラ20として説明する。 The front camera 20a, the rear camera 20b, the left side camera 20c, and the right side camera 20d are each equipped with a wide-angle lens or a fisheye lens that can observe a wide range. It is now possible to observe the entire area including the road surface. These cameras 20a to 20d constitute an imaging device that images the road surface around the vehicle V. In the following description, when the individual cameras (imaging devices) 20a to 20d are described without distinction, they will be simply referred to as the camera 20.

図1に戻って、駐車支援装置1は、前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dと、カメラECU21と、ナビゲーション装置30と、車輪速センサ32と、操舵角センサ33とを有する。 Returning to FIG. 1, the parking assist device 1 includes a front camera 20a, a rear camera 20b, a left camera 20c, a right camera 20d, a camera ECU 21, a navigation device 30, a wheel speed sensor 32, and a steering angle sensor 33. and has.

カメラECU21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。カメラECU21は、カメラ20を制御するとともに、カメラ20が検知した情報を用いて、俯瞰画像の生成処理や、駐車枠を検出する検出処理や、検出した駐車枠に車両Vを駐車できるか否かを判定する判定処理等を行う。 The camera ECU 21 is mainly composed of a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like. The camera ECU 21 controls the camera 20, and uses information detected by the camera 20 to perform processes for generating an overhead image, detection processing for detecting a parking frame, and determining whether the vehicle V can be parked in the detected parking frame. Performs judgment processing etc. to judge.

ナビゲーション装置(表示装置)30は画像表示機能を有するモニター31を有する。ナビゲーション装置30は、経路案内用の地図データ等が格納された記憶部を有する。ナビゲーション装置30は、この地図データ等及び図略のGPS装置等により検出された車両Vの現在位置に基づいて、ナビゲーション装置30の操作者が設定した目標地点までの経路案内を行う。経路案内動作中の各種画像はモニター31に表示される。 The navigation device (display device) 30 has a monitor 31 having an image display function. The navigation device 30 has a storage unit that stores map data for route guidance and the like. The navigation device 30 provides route guidance to the target point set by the operator of the navigation device 30 based on the map data and the current position of the vehicle V detected by a GPS device (not shown) or the like. Various images during the route guidance operation are displayed on the monitor 31.

車輪速センサ32は、車両Vの車輪速を検知するセンサである。車輪速センサ32で検知された検知情報(車輪速)は、車両制御ECU40に入力される。 The wheel speed sensor 32 is a sensor that detects the wheel speed of the vehicle V. Detection information (wheel speed) detected by the wheel speed sensor 32 is input to the vehicle control ECU 40.

操舵角センサ33は、車両Vのステアリングの操舵角を検知する。車両Vが直進状態で走行するときの操舵角を中立位置(0度)とし、その中立位置からの回転角度を操舵角として出力する。操舵角センサ33で検知された検知情報(操舵角)は、車両制御ECU40に入力される。 The steering angle sensor 33 detects the steering angle of the steering wheel of the vehicle V. The steering angle when the vehicle V runs straight is set as a neutral position (0 degrees), and the rotation angle from the neutral position is output as the steering angle. Detection information (steering angle) detected by the steering angle sensor 33 is input to the vehicle control ECU 40.

さらに、駐車支援装置1は、車両制御ECU40と、ステアリング制御ユニット50と、スロットル制御ユニット60と、ブレーキ制御ユニット70とを有する。 Further, the parking assist device 1 includes a vehicle control ECU 40, a steering control unit 50, a throttle control unit 60, and a brake control unit 70.

車両制御ECU40は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。車両制御ECU40は、カメラECU21、車輪速センサ32及び操舵角センサ33から入力された各検知情報に基づいて、車両Vの駐車を支援する各種処理を実行する。 The vehicle control ECU 40 is mainly composed of a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like. The vehicle control ECU 40 executes various processes to support parking of the vehicle V based on each detection information input from the camera ECU 21, the wheel speed sensor 32, and the steering angle sensor 33.

すなわち、例えば図略の自動駐車開始スイッチを運転手がオン操作して駐車支援装置1を作動させると、車両制御ECU40は、カメラECU21が駐車可と判定した駐車枠に車両Vを自動で駐車させる自動駐車処理を実行する。 That is, for example, when the driver turns on an automatic parking start switch (not shown) to activate the parking support device 1, the vehicle control ECU 40 automatically parks the vehicle V in the parking slot that the camera ECU 21 determines is available for parking. Executes automatic parking processing.

ステアリング制御ユニット50は、車両制御ECU40で決定した車両制御情報に基づいて、パワーステアリングアクチュエータ51を駆動して、車両Vの操舵角を制御する。 The steering control unit 50 controls the steering angle of the vehicle V by driving the power steering actuator 51 based on vehicle control information determined by the vehicle control ECU 40.

スロットル制御ユニット60は、車両制御ECU40で決定した車両制御情報に基づいて、スロットルアクチュエータ61を駆動して、車両Vのスロットルを制御する。 The throttle control unit 60 controls the throttle of the vehicle V by driving the throttle actuator 61 based on vehicle control information determined by the vehicle control ECU 40.

ブレーキ制御ユニット70は、車両制御ECU40で決定した車両制御情報に基づいて、ブレーキアクチュエータ71を駆動して、車両Vのブレーキを制御する。 The brake control unit 70 controls the brakes of the vehicle V by driving the brake actuator 71 based on vehicle control information determined by the vehicle control ECU 40.

なお、カメラECU21、車輪速センサ32及び操舵角センサ33と、車両制御ECU40との間は、車内LAN(Local Area Network)であるセンサ情報CAN(登録商標)(Controller Area Network)80によって接続される。 The camera ECU 21, wheel speed sensor 32, and steering angle sensor 33 are connected to the vehicle control ECU 40 by a sensor information CAN (registered trademark) (Controller Area Network) 80, which is an in-vehicle LAN (Local Area Network). .

また、ステアリング制御ユニット50、スロットル制御ユニット60及びブレーキ制御ユニット70と、車両制御ECU40との間は、車内LANである車両情報CAN(登録商標)81によって接続される。 Further, the steering control unit 50, throttle control unit 60, and brake control unit 70 are connected to the vehicle control ECU 40 by a vehicle information CAN (registered trademark) 81, which is an in-vehicle LAN.

以上の構成を有する駐車支援装置1において、本実施の形態の画像処理装置100は、カメラECU21により主に構成されている。 In the parking assist device 1 having the above configuration, the image processing device 100 of this embodiment is mainly configured by the camera ECU 21.

(画像処理装置の機能構成)
図3は、本実施の形態である画像処理装置100の概略構成を示す機能ブロック図である。本実施の形態である画像処理装置100は、制御部110及び記憶部120を有する。制御部110は、カメラECU21のCPUから主に構成されており、記憶部120は、カメラECU21のROM、RAM、フラッシュメモリ等から主に構成されている。
(Functional configuration of image processing device)
FIG. 3 is a functional block diagram showing a schematic configuration of image processing apparatus 100 according to this embodiment. Image processing apparatus 100 according to this embodiment includes a control section 110 and a storage section 120. The control unit 110 is mainly composed of the CPU of the camera ECU 21, and the storage unit 120 is mainly composed of the ROM, RAM, flash memory, etc. of the camera ECU 21.

制御部110は、画像処理装置100全体の制御を行う。加えて、制御部110は、後述するエッジ検出部111、比較部112及び駐車枠検出部113により検出、推定された駐車スペースを区画する駐車区画線や駐車スペースに基づいて、車両Vが駐車可と判定した駐車枠にこの車両Vを自動で駐車させる自動駐車処理を車両制御ECU40に実行させるために、自動駐車処理に必要な情報(駐車スペース、駐車枠の位置、形状など)をこの車両制御ECU40に送出する。 The control unit 110 controls the entire image processing apparatus 100. In addition, the control unit 110 determines whether the vehicle V can park based on parking lot lines and parking spaces that demarcate parking spaces detected and estimated by an edge detection unit 111, a comparison unit 112, and a parking space detection unit 113, which will be described later. In order to have the vehicle control ECU 40 execute automatic parking processing to automatically park this vehicle V in the parking slot determined as It is sent to the ECU 40.

車両制御ECU40は、制御部110から提供された情報に基づいて、さらに、車輪速センサ32及び操舵角センサ33(図3ではセンサとのみ図示している)が検知した検知情報に基づいて、パワーステアリングアクチュエータ51、スロットルアクチュエータ61及びブレーキアクチュエータ71(図3ではアクチュエータとのみ図示している)を駆動制御する。 The vehicle control ECU 40 adjusts the power based on the information provided from the control unit 110 and further based on the detection information detected by the wheel speed sensor 32 and the steering angle sensor 33 (only sensors are shown in FIG. 3). The steering actuator 51, the throttle actuator 61, and the brake actuator 71 (only actuators are shown in FIG. 3) are drive-controlled.

制御部110はCPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子を有する。 The control unit 110 includes arithmetic elements such as a CPU, a programmable logic device such as an FPGA, and an integrated circuit such as an ASIC.

画像処理装置100の記憶部120には図略の制御用プログラムが格納されており、この制御用プログラムが画像処理装置100の起動時に制御部110により実行されて、画像処理装置100は図3に示すような機能構成を備えたものとなる。特に、本実施形態の画像処理装置100は、後述するように高速の画像処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。 A control program (not shown) is stored in the storage unit 120 of the image processing device 100, and this control program is executed by the control unit 110 when the image processing device 100 is started up, and the image processing device 100 operates as shown in FIG. It will have the functional configuration as shown. In particular, since the image processing apparatus 100 of this embodiment performs high-speed image processing as described later, it is preferable to include an arithmetic element capable of high-speed calculation, such as an FPGA.

この図3に示すように、制御部110は、エッジ検出部111、比較部112、駐車枠検出部113、及び表示制御部114を有する。なお、画像処理装置100及び画像処理方法を、走行支援装置及び走行支援方法に適用する場合は、図3の駐車枠検出部113に代えて走行車線検出部を有する構成とすることで、走行車線を検出する画像処理装置及び画像処理方法が得られる。 As shown in FIG. 3, the control section 110 includes an edge detection section 111, a comparison section 112, a parking frame detection section 113, and a display control section 114. Note that when the image processing device 100 and the image processing method are applied to a driving support device and a driving support method, a driving lane detection unit can be used instead of the parking frame detection unit 113 in FIG. An image processing device and an image processing method for detecting are obtained.

エッジ検出部111は、車両Vの周囲の路面Rを撮像するカメラ20から出力される画像信号に基づいて、エッジ検出により駐車場等の路面上の駐車区画線のエッジを検出する。また、走行支援装置に適用されるときは、エッジ検出部111は、路面上の車線境界線等のエッジを検出する。ここでいう駐車区画線とは、主に路面R上に設けられた駐車領域を区画する境界線(直線)として描かれた線のことである。図5に、車両Vと、この車両Vが駐車を行おうとしている駐車場Pの路面R上に描かれた駐車区画線200の一例を示す。駐車区画線200の間が、駐車スペースを表す駐車枠201である。また、図6(a)は、カメラ20で撮影された画像信号を合成して生成された俯瞰画像Gを模式的に示した図であり、図6(b)は俯瞰画像Gから検出されたエッジを模式的に示した図である。 The edge detection unit 111 detects edges of parking lot lines on the road surface of a parking lot or the like by edge detection based on an image signal output from the camera 20 that images the road surface R around the vehicle V. Furthermore, when applied to a driving support device, the edge detection unit 111 detects edges such as lane boundary lines on the road surface. The parking lot line here refers to a line drawn as a boundary line (straight line) that mainly divides a parking area provided on the road surface R. FIG. 5 shows an example of a vehicle V and a parking lot line 200 drawn on the road surface R of the parking lot P where the vehicle V is attempting to park. Between the parking lot lines 200 is a parking frame 201 representing a parking space. Further, FIG. 6(a) is a diagram schematically showing an overhead image G generated by combining image signals taken by the camera 20, and FIG. FIG. 3 is a diagram schematically showing edges.

また、車線境界線は、主に路面上に設けられた走行車線(走行レーン)を区画する境界線として描かれ、途切れのない実線(直線又は曲線)、又は所定長さの短い線分が連続する破線(直線又は曲線)である。 In addition, lane boundary lines are mainly drawn as boundaries that separate driving lanes on the road surface, and are either unbroken solid lines (straight or curved lines) or continuous short line segments of a predetermined length. A broken line (straight or curved).

駐車区画線及び車線区画線は、一般的には白線で示されるが、白線以外の、例えば黄色線等、白以外の色の線で描かれている場合もある。このため、エッジ検出部111によって検出される駐車区画線や車線境界線は、「白線」に限定されるものではなく、一般に、路面との間にコントラストを有する境界線を駐車区画線や車線境界線として検出すればよい。 Parking lane lines and lane lane lines are generally indicated by white lines, but may also be drawn by lines of a color other than white, such as yellow lines, for example. Therefore, the parking lot line or lane boundary line detected by the edge detection unit 111 is not limited to a "white line", but in general, a parking lot line or lane boundary line that has contrast with the road surface is used. It is sufficient to detect it as a line.

エッジ検出部111は、画像を所定方向に走査(スキャン)して、画像信号に含まれる輝度又は色のパラメータ(例えば、RGB、RGBA等)が、閾値よりも大きく変化する画素を検出し、検出した画素の並びが所定以上の長さとなっている部分をエッジとして検出する。ここでいう走査とは、所定方向に向かって1つずつ画素を選択し、隣り合った画素間で、輝度又は色のパラメータを比較していくことをいう。検出したエッジは、輝度又は色のパラメータの変化の方向(傾向)に応じて、第1のエッジ又は第2のエッジとする。 The edge detection unit 111 scans the image in a predetermined direction to detect pixels whose brightness or color parameters (for example, RGB, RGBA, etc.) included in the image signal change more than a threshold value. A portion where the length of the pixel arrangement is longer than a predetermined length is detected as an edge. Scanning here refers to selecting pixels one by one in a predetermined direction and comparing brightness or color parameters between adjacent pixels. The detected edge is defined as a first edge or a second edge depending on the direction (trend) of change in the brightness or color parameter.

なお、走査の方向は、路面Rに描かれた駐車区画線に直交する方向に設定するのが望ましい。すなわち、図5に示すように、駐車区画線200が車両Vの進行方向と直交する方向に延在しているときには、図6(a)に示す俯瞰画像G上で進行方向に沿って走査するのが望ましい。これに対して、駐車区画線200が車両Vの進行方向に沿って延在しているときは、俯瞰画像G上で進行方向と直交する方向に走査するのが望ましい。一般には、駐車区画線200が延びている方向は未知であるため、エッジ検出部111は、俯瞰画像G上で車両Vの進行方向及びこれに直交する方向にそれぞれ沿って、2回に分けて走査することが望ましい。 Note that the scanning direction is preferably set in a direction perpendicular to the parking lot line drawn on the road surface R. That is, as shown in FIG. 5, when the parking lot line 200 extends in a direction perpendicular to the traveling direction of the vehicle V, scanning is performed on the overhead image G shown in FIG. 6(a) along the traveling direction. is desirable. On the other hand, when the parking lot line 200 extends along the traveling direction of the vehicle V, it is desirable to scan the overhead image G in a direction perpendicular to the traveling direction. Generally, since the direction in which the parking lot line 200 extends is unknown, the edge detection unit 111 detects the direction in which the parking lot line 200 extends in two steps, respectively along the traveling direction of the vehicle V and the direction perpendicular thereto on the overhead image G. It is desirable to scan.

そして、エッジ検出部111は、検出した複数のエッジから、隣り合った画素の輝度差又は色のパラメータ差がプラス方向に所定値よりも大きくなるエッジを第1のエッジ(「プラスエッジ」、「立上りエッジ」ともいう)として検出し、隣り合った画素の輝度差又は色のパラメータ差がマイナス方向に所定値よりも大きくなるエッジを第2のエッジ(「マイナスエッジ」、「立下がりエッジ」ともいう)として検出する。 Then, the edge detection unit 111 selects an edge where the luminance difference or color parameter difference between adjacent pixels is larger than a predetermined value in the positive direction from the plurality of detected edges as a first edge ("plus edge", " An edge where the luminance difference or color parameter difference between adjacent pixels is larger than a predetermined value in the negative direction is detected as a second edge (also called a "minus edge" or "falling edge"). ) is detected.

ここで、輝度に基づいてエッジを抽出する場合は、輝度が低く暗い画素(例えば黒い画素)から、閾値よりも大きな差を持って輝度が高く明るい画素(例えば白い画素)に変化(プラス方向に変化)した画素の並びをプラスエッジとして検出する。つまり、走査位置が路面Rから駐車区画線と推定されるものに切替わったことを示す。また、輝度が高く明るい画素から、閾値よりも大きな差を持って輝度が低く暗い画素に変化(マイナス方向に変化)した画素の並びをマイナスエッジとして検出する。つまり、走査位置が駐車区画線と推定されるものから路面Rに切替わったことを示す。 Here, when extracting edges based on brightness, there is a change (in the positive direction) from a low brightness and dark pixel (for example, a black pixel) to a high brightness and bright pixel (for example, a white pixel) with a larger difference than the threshold value. The sequence of pixels that have changed) is detected as a plus edge. In other words, this indicates that the scanning position has been switched from the road surface R to what is presumed to be the parking lot line. Further, a row of pixels that changes from a bright pixel with high brightness to a dark pixel with low brightness with a difference greater than a threshold value (changes in the negative direction) is detected as a negative edge. In other words, this indicates that the scanning position has been switched from what is estimated to be the parking lot line to the road surface R.

これに対して、色のパラメータに基づいてエッジを抽出する場合は、路面の色のパラメータと、駐車区画線の色のパラメータとを比較する。エッジ検出部111は、色のパラメータの値が大きくなる方向に変化(マイナス方向に変化)した画素の並びをマイナスエッジとして検出し、色のパラメータの値が小さくなる方向に変化(プラス方向に変化)した画素の並びをプラスエッジとして検出する。また、路面よりも駐車区画線の輝度が低い(或いは色のパラメータが大きい)場合は、輝度や色のパラメータの変化は逆転する。いずれの場合でも駐車区画線等の境界線では、その両側縁にプラスエッジとマイナスエッジが検出されるため、後述のペアの抽出が可能である。 On the other hand, when extracting edges based on color parameters, the road surface color parameter and the parking lot line color parameter are compared. The edge detection unit 111 detects as a negative edge the arrangement of pixels in which the value of the color parameter changes in the direction of increasing (changes in the negative direction), and detects as a negative edge the arrangement of pixels in which the value of the color parameter changes in the direction of decreasing (changes in the positive direction). ) is detected as a plus edge. Furthermore, when the brightness of the parking lot line is lower than that of the road surface (or the color parameter is larger), the changes in the brightness and color parameters are reversed. In either case, a plus edge and a minus edge are detected on both sides of a boundary line such as a parking lot line, so it is possible to extract pairs as described below.

上記走査を複数ライン(行)分繰り返すことで、走査方向と交差する方向に連続するプラスエッジで構成される線分(画素の並び、画素列)を、プラスエッジ(第1のエッジ)の線分として抽出する。さらに連続するマイナスエッジで構成される線分(画素列)を、マイナスエッジ(第2のエッジ)の線分として抽出する。抽出したプラスエッジの線分及びマイナスエッジの線分に対して、基準長さに従って長さによるフィルタリングを行い、基準長さに満たないプラスエッジの線分及びマイナスエッジの線分を破棄する。また、長さに加えて、線分が延びる方向(角度)によってフィルタリングしてもよい。 By repeating the above scanning for multiple lines (rows), a line segment (pixel arrangement, pixel column) consisting of continuous plus edges in the direction intersecting the scanning direction is Extract as minutes. Furthermore, a line segment (pixel column) composed of consecutive negative edges is extracted as a line segment of negative edges (second edge). The extracted plus edge line segments and minus edge line segments are filtered by length according to the reference length, and plus edge line segments and minus edge line segments that are less than the reference length are discarded. In addition to the length, filtering may also be performed based on the direction (angle) in which the line segment extends.

次いで、エッジ検出部111は、フィルタリングの結果残った、プラスエッジの線分及びマイナスエッジの線分の各端点の位置(座標)を算出し、この位置に基づいて、所定間隔で隣り合うプラスエッジの線分とマイナスエッジの線分のペアを抽出する。 Next, the edge detection unit 111 calculates the positions (coordinates) of each end point of the plus edge line segment and the minus edge line segment that remain as a result of the filtering, and based on this position, detects adjacent plus edges at a predetermined interval. Extract pairs of line segments with a negative edge and a line segment with a negative edge.

ところで、使用するカメラ20によっては、エッジ強調機能によって、駐車区画線と路面の境界以外の長尺に延びる部分、例えば、ポール等の影と路面との境界、日陰と日向との境界、路面テクスチャ等が白く浮かび上がることがある。特に、画像を俯瞰変換した場合、カメラ20から離れた位置を撮影した画像信号はエッジ強調の影響を受け易い。すると、画像中に本来はない不自然な白線(以下、「偽白線」という。)が映し出されることがあり、エッジ走査によって、本来の駐車区画線等のエッジだけでなく、このような偽白線のエッジも検出され、駐車区画線等と誤認識されることがある。この結果、駐車枠の検出や車線検出の精度にも影響することがある。 By the way, depending on the camera 20 used, the edge enhancement function may be used to detect long parts other than the boundary between the parking lot line and the road surface, such as the boundary between the shadow of a pole etc. and the road surface, the boundary between a shaded area and a sunny area, and the road surface texture. etc. may appear white. In particular, when an image is converted into a bird's-eye view, an image signal captured at a position far from the camera 20 is easily affected by edge enhancement. As a result, unnatural white lines (hereinafter referred to as "false white lines") that do not originally exist may appear in the image. edges are also detected and may be mistakenly recognized as parking lot lines, etc. As a result, the accuracy of parking frame detection and lane detection may be affected.

このような誤認識を回避するため、比較部112は、エッジ検出部111で抽出された各ペアのエッジ周辺の画像信号に含まれる輝度を比較して、複数のペアの中から、駐車区画線を構成するエッジのペアのみを抽出し、それ以外のペアは偽白線のエッジのペアとして破棄する。 In order to avoid such misrecognition, the comparison unit 112 compares the brightness included in the image signals around the edges of each pair extracted by the edge detection unit 111, and selects the parking lot line from among the plurality of pairs. Only the pairs of edges that make up are extracted, and the other pairs are discarded as pairs of false white line edges.

このため、比較部112は、各ペアに対して、プラスエッジの所定方向側にある画素の輝度と、マイナスエッジの、プラスエッジの所定方向側とは反対方向側にある画素の輝度と、を比較する。より詳細には、プラスエッジから走査元側に、所定のオフセット値でオフセットした画素の輝度と、マイナスエッジから走査先側に、所定のオフセット値でオフセットした画素の輝度とを比較する。輝度差分が所定値以下となる場合、このプラスエッジとマイナスエッジを、駐車区画線を構成するエッジのペアであると判定する。所定値を超えたペアは、駐車区画線以外の線分のエッジを構成するものとして、破棄する。ここでいうオフセットとは、プラス又はマイナスのエッジを構成する画素から、所定方向(プラスエッジは走査元側、マイナスエッジは走査先側)に、オフセット値の分だけ、平行移動することである。この平行移動先の画素をそれぞれ比較する。 For this reason, the comparison unit 112 calculates, for each pair, the brightness of a pixel on the positive edge side in a predetermined direction and the brightness of a pixel on the negative edge side in the opposite direction from the positive edge side in the predetermined direction. compare. More specifically, the luminance of a pixel offset by a predetermined offset value from the plus edge toward the scanning source side is compared with the luminance of a pixel offset by a predetermined offset value from the minus edge toward the scanning destination side. If the brightness difference is less than or equal to a predetermined value, the plus edge and minus edge are determined to be a pair of edges forming a parking lot line. Pairs exceeding a predetermined value are discarded as forming edges of line segments other than parking lot lines. The offset here refers to a parallel movement from a pixel forming a plus or minus edge in a predetermined direction (a plus edge to the scanning source side and a minus edge to the scanning destination side) by an amount equal to the offset value. The pixels of this parallel movement destination are compared.

輝度を比較する際に、プラスエッジとマイナスエッジのそれぞれの平行移動先の画素列の中から、少なくとも1画素ずつを選択して比較すればよい。より好ましくは、画素列の中から複数の画素を任意若しくは所定間隔で選択するか、又は画素列を等間隔で分割した複数の分割点の画素を選択し、これらの輝度の平均値を互いに比較する。これにより、輝度の比較の精度が向上し、駐車区画線を構成するペアの判定精度を向上できる。 When comparing the luminances, at least one pixel may be selected and compared from among the pixel columns to which the plus edge and the minus edge are parallelly moved. More preferably, a plurality of pixels are selected from the pixel row at arbitrary or predetermined intervals, or pixels at a plurality of division points obtained by dividing the pixel row at equal intervals are selected, and the average values of their luminances are compared with each other. do. This improves the accuracy of brightness comparison and improves the accuracy of determining pairs forming parking lot lines.

駐車区画線の外側は、通常は路面であるため、駐車区画線から検出されるプラスエッジから走査元側にオフセットした画素の輝度と、マイナスエッジから走査先側にオフセットした画素の輝度とは、ともに路面の輝度である。このため、これらの画素の輝度には殆ど差が生じない。よって、輝度差が所定値以下であれば、当該ペアは駐車区画線を構成するペアであると判定する。 The outside of the parking lot line is usually the road surface, so the brightness of the pixel offset from the positive edge detected from the parking lot line toward the scanning source side and the brightness of the pixel offset from the negative edge toward the scanning destination side are: Both are road surface brightness. Therefore, there is almost no difference in brightness between these pixels. Therefore, if the brightness difference is less than or equal to a predetermined value, it is determined that the pair constitutes a parking lot line.

これに対して、例えば、カメラ20のエッジ強調機能によってポール等の影と路面との境界に偽白線が現れ、エッジのペアが検出された場合、一方のエッジからオフセットした画素からは、路面の輝度が取得される。他方のエッジからオフセットした画素からは、路面よりも暗い影の輝度が取得される。よって、これらの画素の輝度差は大きくなる。このため、輝度差が所定値を超えた場合は、当該ペアは駐車区画線以外の偽白線を構成するものと判定する。このような偽白線を構成するエッジのペアを、破棄することで、後述の駐車枠検出部113での駐車枠検出の精度を向上できる。 On the other hand, for example, if a false white line appears at the boundary between the shadow of a pole or the like and the road surface due to the edge enhancement function of the camera 20, and a pair of edges is detected, pixels offset from one edge Luminance is obtained. The luminance of the shadow, which is darker than the road surface, is obtained from the pixels offset from the other edge. Therefore, the difference in brightness between these pixels becomes large. Therefore, if the brightness difference exceeds a predetermined value, the pair is determined to constitute a false white line other than a parking lot line. By discarding a pair of edges that constitute such a false white line, it is possible to improve the accuracy of parking frame detection by the parking frame detection unit 113, which will be described later.

本実施の形態では、具体的に次の手順で輝度を比較している。まず、プラスエッジを構成する画素列(線分)を、走査元側にオフセット値に基づいてオフセットした画素列(線分)を、延在方向に沿って等分割した複数の分割点における画素の輝度を取得し、平均値Ypを算出する。 In this embodiment, the brightness is specifically compared in the following procedure. First, the pixel row (line segment) that constitutes the plus edge is offset to the scanning source side based on the offset value, and the pixel row (line segment) is divided equally along the extending direction. The luminance is acquired and the average value Yp is calculated.

また、マイナスエッジを構成する画素列(線分)から、走査先側にオフセット値に基づいてオフセットした画素列(線分)を、延在方向に沿って等分割した複数の分割点における画素の輝度を取得し、平均値Ymを算出する。 In addition, the pixel row (line segment) offset from the pixel row (line segment) constituting the minus edge to the scanning destination side based on the offset value is equally divided along the extending direction, and the pixels at multiple division points are The luminance is acquired and the average value Ym is calculated.

そして、比較部112は、算出した平均値Yp、Ymが、下記式(1)を満たす場合、プラスエッジ及びマイナスエッジを、駐車区画線を構成するエッジのペアであると判定する。 Then, when the calculated average values Yp and Ym satisfy the following formula (1), the comparison unit 112 determines that the plus edge and the minus edge are a pair of edges forming a parking lot line.

|Yp - Ym| ≦ 閾値 (1) |Yp - Ym| ≦ Threshold (1)

また、オフセットした画素の比較は、輝度に代えて色のパラメータに基づいて行ってもよい。また、輝度差又は色のパラメータ差の閾値としては、特に限定されることはなく、使用するカメラ20の画像信号の状態に応じて、適宜設定できる。また、オフセット値についても、特に限定されることはなく、カメラ20のエッジ強調の程度や解像度等に応じて、エッジ近傍の部位の輝度又は色のパラメータの比較を適切に行うことができる位置にオフセットできる値を適宜設定できる。オフセット値は、例えば、画素数(pixel)とすることができる。また、輝度又は色のパラメータの比較に用いる画素の数も、特に限定されることはなく、解像度等に応じて適宜の数を設定できる。また、線分の長さ(画素数)等に応じて、輝度又は色のパラメータの比較に用いる画素の数を増減することもできる。 Further, offset pixels may be compared based on color parameters instead of brightness. Further, the threshold value for the luminance difference or the color parameter difference is not particularly limited, and can be set as appropriate depending on the state of the image signal of the camera 20 used. Further, the offset value is not particularly limited, and may be set at a position where the brightness or color parameters of the portion near the edge can be appropriately compared depending on the degree of edge emphasis, resolution, etc. of the camera 20. You can set the value that can be offset as appropriate. The offset value can be, for example, the number of pixels. Further, the number of pixels used for comparison of brightness or color parameters is not particularly limited, and can be set as appropriate depending on resolution and the like. Furthermore, the number of pixels used for comparison of brightness or color parameters can be increased or decreased depending on the length of the line segment (number of pixels) or the like.

本実施の形態では、画素の比較を輝度に基づいて行い、輝度差(絶対値)の閾値を45としている。また、オフセット値を、2pixelとしている。また、輝度を比較する画素の数を10個(10点)としている。すなわち、各エッジの線分からオフセットした位置の線分を9等分して、当該線分の始点と終点とを含む分割点10点に対応する10個の画素の輝度を各々取得し、平均値を算出している。 In this embodiment, pixels are compared based on brightness, and the threshold value of the brightness difference (absolute value) is set to 45. Further, the offset value is set to 2 pixels. Furthermore, the number of pixels whose brightness is compared is 10 (10 points). That is, a line segment at a position offset from the line segment of each edge is divided into 9 equal parts, the brightness of 10 pixels corresponding to 10 dividing points including the starting point and ending point of the line segment is obtained, and the average value is calculated. is being calculated.

また、閾値、オフセット値、輝度の比較に用いる画素の数や分割数は、記憶部120にパラメータデータ122として予め設定されている。これらのパラメータデータ122は、固定的に設定されていてもよいが、製造元やユーザが任意に設定できるようにしてもよい。例えば、ナビゲーション装置30の初期設定画面等から設定する仕様としてもよいし、ソフトウェアやデータのバージョンアップ時に設定する仕様としてもよい。カメラ20の仕様に応じて適切に設定できることから、例えば、本実施の形態の画像処理装置100のみを車両Vに新たに搭載すればよく、カメラ20等は既存のものを使用でき、汎用性に優れる画像処理装置100を提供できる。 Further, the number of pixels and the number of divisions used for comparison of threshold values, offset values, and brightness are set in advance in the storage unit 120 as parameter data 122. These parameter data 122 may be set fixedly, but may also be set arbitrarily by the manufacturer or the user. For example, the specifications may be set from the initial setting screen of the navigation device 30, or the specifications may be set when updating the software or data. Since settings can be made appropriately according to the specifications of the camera 20, for example, only the image processing device 100 of this embodiment needs to be newly installed in the vehicle V, and the existing camera 20 etc. can be used, increasing versatility. An excellent image processing device 100 can be provided.

駐車枠検出部113は、比較部112により駐車区画線を構成するエッジのペアであると判定されたペアのプラスエッジの線分及びマイナスエッジの線分の中から、駐車枠を構成する可能性のある隣り合うエッジの線分を検出する。検出したエッジの線分間の距離に基づいて、駐車枠(つまり、駐車枠で区画された駐車スペース)を検出する。 The parking frame detection unit 113 determines the possibility of forming a parking frame from among the plus edge line segments and minus edge line segments of the pair determined by the comparison unit 112 to be a pair of edges forming a parking lot line. Detect line segments of adjacent edges with . A parking frame (that is, a parking space divided by a parking frame) is detected based on the distance between the detected edge line segments.

より具体的には、駐車枠検出部113は、まず、複数の駐車区画線のペアのプラスエッジの線及びマイナスエッジの線のうち、駐車スペースを構成する可能性のある隣り合う2本の線を選択する。ここで選択される2本の線は、駐車スペースを仕切る一対の駐車区画線の左右両端を構成する線であり、所定の駐車区画線(例えば、図6(b)に示すK1)のマイナスエッジの線(Em1)と、これに向かい合う駐車区画線(図6(b)に示すK2)のプラスエッジの線(Ep2)である。 More specifically, the parking frame detection unit 113 first detects two adjacent lines that may constitute a parking space among the positive edge lines and negative edge lines of a plurality of pairs of parking lot lines. Select. The two lines selected here are the lines that constitute the left and right ends of the pair of parking lot lines that separate the parking spaces, and are the negative edge of the predetermined parking lot line (for example, K1 shown in FIG. 6(b)). (Em1) and a positive edge line (Ep2) of the parking lot line (K2 shown in FIG. 6(b)) facing this.

そして、駐車枠検出部113は、選択された2本のエッジの線の距離(隣り合う駐車区画線の内法寸法)を、各エッジの端点の座標に基づいて算出し、算出された距離が、所定範囲内にあるか判定する。この距離が所定の駐車スペース幅±閾値の範囲内であれば、2本のエッジの線で仕切られた領域を駐車スペースとして検出する。駐車スペース幅としては、普通自動車や小型貨物車用の駐車スペースであれば2m~3mが望ましい。大型貨物車やバス用の駐車スペースであれば、3.3m以上が望ましい。 Then, the parking frame detection unit 113 calculates the distance between the lines of the two selected edges (inner dimensions of adjacent parking lot lines) based on the coordinates of the end points of each edge, and the calculated distance is , determine whether it is within a predetermined range. If this distance is within the range of the predetermined parking space width±threshold value, the area partitioned by the two edge lines is detected as a parking space. The width of the parking space is preferably 2m to 3m if it is for a regular car or small cargo vehicle. If it is a parking space for a large freight vehicle or bus, a height of 3.3 m or more is desirable.

比較部112によって駐車区画線以外の偽白線から検出されたエッジが破棄されているので、駐車枠検出部113による駐車スペースの検出を高精度に行うことができる。つまり、駐車区画線と影との間(例えば、図6(b)のエッジの線分Em3とEp4の間等)が駐車スペースとして誤検知されるのを抑制できる。 Since edges detected from false white lines other than parking lot lines are discarded by the comparison unit 112, the parking space detection unit 113 can detect parking spaces with high precision. That is, it is possible to prevent the area between the parking lot line and the shadow (for example, between the edge line segments Em3 and Ep4 in FIG. 6(b)) from being mistakenly detected as a parking space.

そして、駐車枠検出部113は、検出された駐車スペースに基づいて、駐車スペースの形状、つまり駐車枠(図5に示す201)を推定し、その座標値を駐車枠登録データ121として記憶部120に登録する。 Then, the parking frame detection unit 113 estimates the shape of the parking space, that is, the parking frame (201 shown in FIG. 5) based on the detected parking space, and stores the coordinate value in the storage unit 120 as the parking frame registration data 121. Register.

表示制御部114は、カメラ20により撮像された車両V周辺の路面画像や、駐車枠検出部113により検出、推定された駐車枠を示す画像をこの路面画像に適宜重複して、あるいは単独でナビゲーション装置(表示装置)30のモニター31に表示させるための表示制御信号をナビゲーション装置30に送出する。 The display control unit 114 displays a road surface image around the vehicle V captured by the camera 20 and an image indicating a parking space detected and estimated by the parking space detection unit 113, overlapping this road surface image as appropriate, or performing navigation alone. A display control signal for display on the monitor 31 of the device (display device) 30 is sent to the navigation device 30.

記憶部120は、ハードディスクドライブ等の大容量記憶媒体やROM、RAM等の半導体記憶媒体などの記憶媒体を有する。記憶部120には、制御部110における各種動作の際に用いられる各種データが一時的または非一時的に格納される。 The storage unit 120 includes a storage medium such as a large capacity storage medium such as a hard disk drive, or a semiconductor storage medium such as ROM or RAM. The storage unit 120 temporarily or non-temporarily stores various data used during various operations in the control unit 110.

また、前述したように、記憶部120には、駐車枠登録データ121、パラメータデータ122が格納される。パラメータデータ122として、閾値、オフセット値、輝度の比較に用いる画素の数や分割数等の他に、駐車区画線や車線境界線等の境界線の基準長さ、駐車スペース幅及びその閾値等を格納することもできる。さらに、境界線の幅、延在方向の角度等、画像処理装置100が使用する様々なパラメータを格納することもできる。また、駐車支援装置1が使用される国、地域、駐車スペース(駐車枠)の形状や大きさ、走行車線間の距離や車線境界線の形状等に対応して、複数のパラメータを格納し、適切なパラメータを選択する構成とすることもできる。 Furthermore, as described above, the storage unit 120 stores parking space registration data 121 and parameter data 122. As parameter data 122, in addition to thresholds, offset values, the number of pixels and the number of divisions used for brightness comparison, reference lengths of boundary lines such as parking lot lines and lane boundary lines, parking space widths, and their thresholds are included. It can also be stored. Furthermore, various parameters used by the image processing apparatus 100, such as the width of the boundary line and the angle of the extending direction, can also be stored. In addition, a plurality of parameters are stored corresponding to the country and region where the parking assistance device 1 is used, the shape and size of the parking space (parking frame), the distance between driving lanes, the shape of the lane boundary line, etc. It may also be configured to select appropriate parameters.

(画像処理装置の動作)
次に、本実施の形態である画像処理装置100の動作の一例を図4のフローチャート及び図5~図8を参照して説明する。
(Operation of image processing device)
Next, an example of the operation of the image processing apparatus 100 according to this embodiment will be described with reference to the flowchart of FIG. 4 and FIGS. 5 to 8.

図4は画像処理装置100の動作を説明するためのフローチャートである。図4のフローチャートに示す動作は、運転者が図略の自動駐車開始スイッチを操作して自動駐車開始の指示入力を行うことにより開始する。 FIG. 4 is a flowchart for explaining the operation of the image processing apparatus 100. The operation shown in the flowchart of FIG. 4 starts when the driver inputs an instruction to start automatic parking by operating an automatic parking start switch (not shown).

ステップS1では、画像処理装置100の制御部110が、カメラ20により撮像された車両V周囲の路面Rの画像信号を取得する。 In step S1, the control unit 110 of the image processing device 100 acquires an image signal of the road surface R around the vehicle V captured by the camera 20.

ステップS2では、ステップS1により取得された画像信号に基づき、制御部110がこれら画像信号を合成した信号を生成する。ステップS2において合成される信号は、あたかも車両Vの上方にカメラを設置して真下を見下ろしたような画像(俯瞰画像)をナビゲーション装置30に表示させるための信号である。このような俯瞰画像を生成する技術は公知であり、一例として、特開平3-99952号公報や特開2003-118522号公報に開示された技術が知られている。 In step S2, based on the image signal acquired in step S1, the control unit 110 generates a signal by combining these image signals. The signal synthesized in step S2 is a signal for causing the navigation device 30 to display an image (overhead image) as if a camera was installed above the vehicle V and looked down directly below. Techniques for generating such a bird's-eye view image are well known, and examples thereof include techniques disclosed in Japanese Patent Laid-Open Nos. 3-99952 and 2003-118522.

図6(a)は、合成した信号に基づく俯瞰画像Gの一例である。この俯瞰画像Gは、カメラ20a~20dで撮影された画像信号に基づいて、それぞれ車両Vを真上から見下ろした俯瞰画像g1,g2,g3,g4に変換して、さらに各俯瞰画像g1を合成して生成された画像である。俯瞰画像Gの中心部分には、車両Vを真上から見下ろした状態を示すアイコンIが表示される。 FIG. 6(a) is an example of an overhead image G based on the combined signals. This bird's-eye view image G is converted into bird's-eye view images g1, g2, g3, and g4 that look down on the vehicle V from directly above, respectively, based on the image signals taken by the cameras 20a to 20d, and each bird's-eye view image g1 is further synthesized. This is an image generated by In the center of the bird's-eye view image G, an icon I indicating a state in which the vehicle V is viewed from directly above is displayed.

なお、ステップS2において画像合成作業を行わず、あるいは、次のステップS3におけるプラスエッジとマイナスエッジの抽出の後にステップS2における画像合成作業を行うこともできる。しかしながら、俯瞰画像Gを生成してからプラスエッジとマイナスエッジの抽出作業を行うほうが画像処理装置100の処理負担が低減できる。 Note that the image compositing operation in step S2 may not be performed, or the image compositing operation in step S2 may be performed after the extraction of plus edges and minus edges in the next step S3. However, the processing load on the image processing apparatus 100 can be reduced by performing the work of extracting the plus edges and minus edges after generating the bird's-eye view image G.

ステップS3(エッジ検出工程)では、前述したように、エッジ検出部111がステップS2で合成した俯瞰画像Gを所定方向に走査し、画像信号に含まれる輝度に基づいて、画像中のプラスエッジ及びマイナスエッジを抽出する。 In step S3 (edge detection step), as described above, the edge detection unit 111 scans the overhead image G synthesized in step S2 in a predetermined direction, and detects positive edges and Extract negative edges.

一例として、図6(a)に示すように、俯瞰画像GのX軸(ここでは、図5に矢印で示す車両Vの走行方向に沿う方向であって駐車区画線200の延在方向に直交する方向)を図中の左右方向に設定し、Y軸(ここでは駐車区画線200の延在方向)を図中の上下方向に設定する。エッジ検出部111は、俯瞰画像Gを、車両Vの走行方向に直交する方向であって図中の左から右(X軸正方向)に向けて走査する。これにより、画像中のプラス(+)エッジ及びマイナス(-)エッジを検出していく。なお、図中の右から左、つまりX軸負方向に画素を走査した場合、プラスエッジとマイナスエッジは逆転する。また、画像信号に含まれる色のパラメータ(例えば、RGB、RGBA等)の情報に基づいてプラスエッジ、マイナスエッジを検出してもよい。この場合、所定の色の大きさ(階調)の変化に基づいてこれらを検出する。 As an example, as shown in FIG. 6(a), the X-axis of the bird's-eye view image G (in this case, the The Y-axis (in this case, the direction in which the parking lot line 200 extends) is set in the vertical direction in the diagram. The edge detection unit 111 scans the bird's-eye view image G in a direction perpendicular to the traveling direction of the vehicle V, from left to right in the figure (X-axis positive direction). As a result, positive (+) edges and negative (-) edges in the image are detected. Note that when pixels are scanned from right to left in the figure, that is, in the negative direction of the X axis, the plus edges and minus edges are reversed. Further, plus edges and minus edges may be detected based on information on color parameters (for example, RGB, RGBA, etc.) included in the image signal. In this case, these are detected based on changes in the size (gradation) of predetermined colors.

図6(b)に、俯瞰画像Gで検出されたプラスエッジを太線で、マイナスエッジを太破線で模式的に示した。この図6(b)に示すように、4本の駐車区画線の外周部分であって、左側(走査元)にプラスエッジの線分Ep1,Ep2,Ep3,Ep6が検出され、右側(走査先)にマイナスエッジの線分Em1,Em2,Em3,Em6が検出された。この他に、エッジ強調機能の影響により、長尺に延びる物体(ポール)の影の両側に、それぞれプラスエッジの線分Ep4,Ep5と、マイナスエッジの線分Em4,Em5が検出された。 In FIG. 6(b), positive edges detected in the overhead image G are schematically shown with thick lines, and negative edges are schematically shown with thick broken lines. As shown in FIG. 6(b), line segments Ep1, Ep2, Ep3, and Ep6 with positive edges are detected on the left side (scanning source) and on the right side (scanning destination) in the outer peripheral portion of the four parking lot lines. ), negative edge line segments Em1, Em2, Em3, and Em6 were detected. In addition, due to the effect of the edge enhancement function, plus-edge line segments Ep4 and Ep5 and minus-edge line segments Em4 and Em5 were detected on both sides of the shadow of the elongated object (pole), respectively.

また、この他にも、路面上での光の反射や、ゴミや汚れ等がある場合、これらのエッジもノイズ(短いエッジ)として検出されることがある。これらのノイズは、次のステップS4のフィルタリングによって破棄される。 In addition to this, when there is light reflection on the road surface, dust, dirt, etc., these edges may also be detected as noise (short edges). These noises are discarded by filtering in the next step S4.

次のステップS4では、エッジ検出部111がステップS3で検出したプラスエッジ及びマイナスエッジのフィルタリングを行う。このフィルタリングは、次のステップS5のペアの抽出の後に行うこともできるが、ペアの抽出の前に行って、ノイズを除去することで、画像処理を高速化できる。 In the next step S4, the edge detection unit 111 performs filtering of the plus edges and minus edges detected in step S3. Although this filtering can be performed after pair extraction in the next step S5, image processing can be speeded up by performing it before pair extraction to remove noise.

まず、エッジ検出部111は予め決められた基準長さ以上の長さを有し、かつ予め決められた方向に延びるプラスエッジの線分及びマイナスエッジの線分を抽出する。基準長さは、例えば、車両Vの車長分(例えば5m)の長さとしているが、駐車区画線が短い場合等は、車長よりも短い長さとしている。角度は、車両Vの走行方向、画像を撮影したカメラ20の向き等を考慮した角度としている。図6の場合は、駐車区画線は、走行方向に対して駐車スペースに向かって略直角に延びる直線であるため、角度=90°±閾値としている。 First, the edge detection unit 111 extracts a plus edge line segment and a minus edge line segment that have a length equal to or greater than a predetermined reference length and extend in a predetermined direction. The reference length is, for example, the length of the vehicle V (for example, 5 m), but if the parking lot line is short, the reference length is set to be shorter than the vehicle length. The angle is set in consideration of the traveling direction of the vehicle V, the direction of the camera 20 that took the image, and the like. In the case of FIG. 6, the parking lot line is a straight line extending substantially perpendicularly toward the parking space with respect to the driving direction, so the angle is set to 90°±threshold.

この処理により、プラスエッジの線分Ep1~Ep6と、マイナスエッジの線分Em1~Em6が抽出される。これに対して、路面の反射やゴミ等の存在によって検知された短いエッジや、垂直方向以外に延びる長いエッジの線分は抽出されず、ノイズとして破棄される。 Through this process, plus edge line segments Ep1 to Ep6 and minus edge line segments Em1 to Em6 are extracted. On the other hand, short edges detected due to reflections on the road surface, the presence of dust, etc., and long edge line segments that extend in a direction other than the vertical direction are not extracted and are discarded as noise.

次のステップS5で、エッジ検出部111は、抽出された複数のエッジの線分から、隣接するプラスエッジの線分とマイナスエッジの線分のペアを抽出する。このとき、俯瞰画像Gに基づき路面上で隣り合うプラスエッジとマイナスエッジの距離を算出し、この距離が所定の線幅±閾値の範囲内であれば、これらをペアと判定する。 In the next step S5, the edge detection unit 111 extracts a pair of adjacent plus edge line segments and minus edge line segments from the extracted multiple edge line segments. At this time, the distance between a plus edge and a minus edge adjacent to each other on the road surface is calculated based on the bird's-eye view image G, and if this distance is within the range of a predetermined line width±threshold value, these are determined to be a pair.

図6(a)の例では、プラスエッジの線分Ep1とマイナスエッジの線分Em1のペアが抽出される。以下、同様にEp2とEm2、Ep3とEm3、Ep4とEm4、Ep5とEm5、Ep6とEm6が、それぞれペアとして抽出される。つまり、駐車区画線以外の偽白線のエッジも、駐車区画線を構成するエッジのペアの候補として抽出されてしまう。 In the example of FIG. 6A, a pair of a plus-edge line segment Ep1 and a minus-edge line segment Em1 is extracted. Similarly, Ep2 and Em2, Ep3 and Em3, Ep4 and Em4, Ep5 and Em5, and Ep6 and Em6 are extracted as pairs. In other words, edges of false white lines other than parking lot lines are also extracted as candidates for pairs of edges constituting parking lot lines.

そこで、次のステップS6~S11の駐車区画線抽出のループ処理(比較工程)によって、駐車区画線を構成するエッジのペアのみを抽出し、偽白線を構成するエッジのペアを破棄している。このステップS6~S11の処理は、すべてのペアの処理を行ったと判定した場合に、終了する。 Therefore, in the parking lot line extraction loop process (comparison step) in the next steps S6 to S11, only the pairs of edges that make up the parking lot lines are extracted, and the pairs of edges that make up the false white lines are discarded. The processing of steps S6 to S11 ends when it is determined that all pairs have been processed.

まず、ステップS7で、処理対象のペアのプラスエッジの線分から、走査元側にオフセットした10点の画素の輝度を取得し、その平均値Ypを算出する。次いで、ステップS8で、処理対象のペアのマイナスエッジの線分から、走査先側にオフセットした10点の画素の輝度を取得し、その平均値Ymを算出する。 First, in step S7, the luminance of 10 pixels offset to the scanning source side from the plus edge line segment of the pair to be processed is acquired, and the average value Yp is calculated. Next, in step S8, the brightness of ten pixels offset toward the scanning destination from the line segment of the negative edge of the pair to be processed is acquired, and the average value Ym is calculated.

次いで、ステップS9で、輝度の平均値Yp、Ymの差分が閾値以下か否か、すなわち、前述の式(1)を満足するか否かを判定する。式(1)を満足する場合(差分が閾値以下)は、当該ペアが駐車区画線を構成するペアであると判定し、ステップS10へ進み、当該プラスエッジとマイナスエッジのペアで挟まれた線分を、駐車区画線として記憶部120に登録する。その後、処理すべき次のペアが存在する場合は、ステップS7へ戻り、処理すべきペアが存在しない場合は、ループを終了してステップS12へと進む。 Next, in step S9, it is determined whether the difference between the average luminance values Yp and Ym is less than or equal to a threshold value, that is, whether the above-mentioned formula (1) is satisfied. If formula (1) is satisfied (the difference is less than or equal to the threshold), it is determined that the pair constitutes a parking lot line, and the process proceeds to step S10, where the line sandwiched between the pair of plus edges and minus edges is is registered in the storage unit 120 as a parking lot line. Thereafter, if there is a next pair to be processed, the process returns to step S7, and if there is no pair to process, the process ends the loop and proceeds to step S12.

一方、式(1)を満足しない場合(差分が閾値超)は、当該ペアが駐車区画線以外の偽白線を構成するペアであると判定し、ステップS10をスキップして、当該ペアを破棄する。これにより、偽白線が除去される。その後、処理すべき次のペアが存在する場合は、ステップS7へ戻り、処理すべきペアが存在しない場合は、ループを終了してステップS12へと進む。 On the other hand, if formula (1) is not satisfied (the difference exceeds the threshold), it is determined that the pair constitutes a false white line other than the parking lot line, and step S10 is skipped and the pair is discarded. . This removes false white lines. Thereafter, if there is a next pair to be processed, the process returns to step S7, and if there is no pair to process, the process ends the loop and proceeds to step S12.

以下、ステップS7~S10の処理の具体例を、図7、図8を参照しながら説明する。図7は、図6(b)の領域Aの拡大図であり、駐車区画線の外周に検出されたプラスエッジの線分Ep1とマイナスエッジの線分Em1のペアを示す。図8は、図6(b)の領域Bの拡大図であり、偽白線の外周に検出されたプラスエッジの線分Ep4とマイナスエッジの線分Em4のペア、及びプラスエッジの線分Ep5とマイナスエッジの線分Em5のペアを示す。 A specific example of the processing in steps S7 to S10 will be described below with reference to FIGS. 7 and 8. FIG. 7 is an enlarged view of region A in FIG. 6(b), showing a pair of a plus-edge line segment Ep1 and a minus-edge line segment Em1 detected on the outer periphery of the parking lot line. FIG. 8 is an enlarged view of region B in FIG. 6(b), showing a pair of plus edge line segment Ep4 and minus edge line segment Em4 detected on the outer periphery of the false white line, and a pair of plus edge line segment Ep5 and A pair of line segments Em5 with negative edges is shown.

図7に示す例では、プラスエッジの線分Ep1から走査元側に2pixel(2pix)平行移動(オフセット)した画素列の線分Lp1と、マイナスエッジの線分Em1から走査先側に2pixel(2pix)平行移動(オフセット)した画素列の線分Lm1を抽出する。各線分Lp1,Lm1を9等分し、各線分Lp1,Lm1の両端(始点と終点)を含む10点の画素Qの輝度を取得する。取得した複数の輝度を平均して平均値Yp,Ym(以下、「Yp1」,「Ym1」のように、線分と同じ番号を付与して区別する。)を算出する。 In the example shown in FIG. 7, line segment Lp1 is a pixel column that is parallel shifted (offset) by 2 pixels (2 pixels) from the plus edge line segment Ep1 toward the scanning source side, and 2 pixels (2 pixels) from the minus edge line segment Em1 toward the scanning destination side. ) Extract the line segment Lm1 of the pixel row that has been translated (offset). Each line segment Lp1, Lm1 is divided into nine equal parts, and the brightness of 10 pixels Q including both ends (start point and end point) of each line segment Lp1, Lm1 is obtained. A plurality of acquired luminances are averaged to calculate average values Yp and Ym (hereinafter, the same numbers as the line segments are given to distinguish them, such as "Yp1" and "Ym1").

同様にして、図8に示す例では、プラスエッジの線分Ep4とマイナスエッジの線分Em4のペアに基づいて、線分Lp4,Lm4が抽出され、これらを9等分して得られる10点の画素Qの輝度の平均値Yp4,Ym4が算出される。また、プラスエッジの線分Ep5とマイナスエッジの線分Em5のペアに基づいて、線分Lp5,Lm5が抽出され、これらを9等分して得られる10点の画素Qの輝度の平均値Yp5,Ym5が算出される。 Similarly, in the example shown in FIG. 8, line segments Lp4 and Lm4 are extracted based on the pair of plus-edge line segment Ep4 and minus-edge line segment Em4, and 10 points are obtained by dividing these into 9 equal parts. The average luminance values Yp4 and Ym4 of the pixel Q are calculated. In addition, line segments Lp5 and Lm5 are extracted based on the pair of the plus edge line segment Ep5 and the minus edge line segment Em5, and the average value Yp5 of the brightness of the 10 pixels Q obtained by dividing these into 9 equal parts. , Ym5 are calculated.

図7に示す線分Ep1,Em1のペアは駐車区画線を構成するペアであるため、線分Lp1,Lm1においては路面の輝度が取得され、これらの平均値Yp1,Ym1の差分は閾値以下となる。このため、式(1)を満足し、エッジの線分Ep1,Em1は、駐車区画線を構成するエッジのペアと判定され、駐車区画線として記憶部120に登録される。 Since the pair of line segments Ep1 and Em1 shown in FIG. 7 constitute a parking lot line, the road surface brightness is obtained for the line segments Lp1 and Lm1, and the difference between these average values Yp1 and Ym1 is less than or equal to the threshold value. Become. Therefore, the edge line segments Ep1 and Em1 that satisfy equation (1) are determined to be a pair of edges forming a parking lot line, and are registered in the storage unit 120 as a parking lot line.

一方、図8に示す線分Ep4,Em4のペア及び線分Ep5,Em5のペアは、エッジ強調機能により影の周囲に現れる偽白線のエッジである。このため、線分Lp4,Lm5においては路面の輝度が取得され、線分Lm4,Lp5においては路面よりも暗い影の輝度が取得される。よって、平均値Yp4と平均値Ym4、及び平均値Yp5と平均値Ym5との差分が大きくなり、式(1)を満足せず、これらのペアは破棄される。 On the other hand, the pair of line segments Ep4 and Em4 and the pair of line segments Ep5 and Em5 shown in FIG. 8 are false white line edges that appear around the shadow due to the edge enhancement function. Therefore, the brightness of the road surface is acquired for the line segments Lp4 and Lm5, and the brightness of a shadow darker than the road surface is acquired for the line segments Lm4 and Lp5. Therefore, the differences between the average value Yp4 and the average value Ym4 and between the average value Yp5 and the average value Ym5 become large, and the equation (1) is not satisfied, and these pairs are discarded.

以上から、図6(b)の例では、プラスエッジの線分とマイナスエッジの線分のペア(Ep1とEm1、Ep2とEm2、Ep3とEm3及びEp6とEm6)で構成される駐車区画線K1~K4が記憶部120に登録される。 From the above, in the example of FIG. 6(b), the parking lot line K1 is composed of pairs of plus edge line segments and minus edge line segments (Ep1 and Em1, Ep2 and Em2, Ep3 and Em3, and Ep6 and Em6). ~K4 is registered in the storage unit 120.

図4に戻り、ステップS6~S11の駐車区画線抽出のループ処理を抜けると、次のステップS12では、駐車枠検出部113が記憶部120に登録された駐車区画線(図6(b)の例では、駐車区画線K1~K4)に基づいて、駐車枠及び駐車スペースを検出する。それには、前述したように駐車スペースを構成する可能性のある隣り合う駐車区画線K1~K4の、向かい合うプラスエッジの線分とマイナスエッジの線分間の距離を算出する。この距離が所定の駐車スペース幅±閾値の範囲であれば、この2つの駐車区画線で間の領域が駐車スペースであると判定する。図6(b)の例では、プラス又はマイナスエッジの線分Em1と線分Ep2間、線分Em2と線分Ep3間、線分Em3と線分Ep6間が、駐車スペースとして検出される。そして、検出された駐車スペースを構成する向かい合うプラスエッジの線分とマイナスエッジの線分に沿った線を長辺とし、向かい合う両端をそれぞれ結んだ線を短辺とする矩形状の枠が駐車枠201(図5参照)であると推定できる。 Returning to FIG. 4, after passing through the parking lot line extraction loop processing of steps S6 to S11, in the next step S12, the parking frame detection unit 113 detects the parking lot line registered in the storage unit 120 (see FIG. 6(b)). In the example, parking frames and parking spaces are detected based on parking lot lines K1 to K4). To do this, as described above, the distance between the opposing positive edge line segment and negative edge line segment of adjacent parking lot lines K1 to K4 that may constitute a parking space is calculated. If this distance is within the range of the predetermined parking space width±threshold value, it is determined that the area between these two parking lot lines is a parking space. In the example of FIG. 6B, the areas between the line segment Em1 and the line segment Ep2, between the line segment Em2 and the line segment Ep3, and between the line segment Em3 and the line segment Ep6, which have positive or negative edges, are detected as parking spaces. Then, the parking frame is a rectangular frame whose long side is a line along the opposite positive edge line segment and negative edge line segment that make up the detected parking space, and whose short side is a line connecting the opposing ends. 201 (see FIG. 5).

ステップS13では、駐車枠検出部113が、各駐車枠201を構成する向かい合うプラスエッジの線分及びマイナスエッジの線分の端点の座標値を各々算出し、駐車枠登録データ121として記憶部120に登録する。このとき、駐車枠201の少なくとも車両Vに近い側の2つの端点の座標値を登録すれば、記憶容量をできるだけ少なくしつつ、駐車枠201を特定できるが、4点の座標値を登録してもよい。また、駐車区画線200の角度(延在方向)、その他自動駐車処理に必要な情報を駐車枠登録データ121に加えることもできる。 In step S13, the parking frame detection unit 113 calculates the coordinate values of the end points of the opposing plus-edge line segments and minus-edge line segments that constitute each parking frame 201, and stores them in the storage unit 120 as parking frame registration data 121. register. At this time, by registering the coordinate values of at least the two end points of the parking frame 201 on the side closer to the vehicle V, the parking frame 201 can be identified while minimizing the storage capacity. However, if the coordinate values of the four points are registered, Good too. Further, the angle (extending direction) of the parking lot line 200 and other information necessary for automatic parking processing can also be added to the parking space registration data 121.

また、駐車枠検出部113は、検出した駐車枠に車両Vを駐車できるか否かを判定する判定処理等を行う。例えば、検出された駐車スペースに他車両や障害物等が存在するときには、駐車ができないと判断して、駐車枠登録データ121として記憶部120に登録しないようにする。また、駐車枠検出部113は、車両Vから近い駐車枠、又は駐車し易い駐車枠を、駐車可能な駐車枠と判定し、駐車枠登録データ121として記憶部120に登録することもできる。 Furthermore, the parking frame detection unit 113 performs a determination process and the like to determine whether or not the vehicle V can be parked in the detected parking frame. For example, if there are other vehicles or obstacles in the detected parking space, it is determined that parking is not possible and the parking space is not registered in the storage unit 120 as the parking space registration data 121. Moreover, the parking frame detection unit 113 can also determine a parking frame that is close to the vehicle V or a parking frame that is easy to park in as a parking frame that can be parked, and register it in the storage unit 120 as the parking frame registration data 121.

以上のようにして検出された駐車枠登録データ121が、車両制御ECU40に送出され、車両Vの駐車を支援する各種処理が実行される。 The parking space registration data 121 detected as described above is sent to the vehicle control ECU 40, and various processes for supporting parking of the vehicle V are executed.

(画像処理装置の効果)
以上のように構成された本実施の形態である画像処理装置100では、エッジ検出部111が、車両Vの周囲の路面Rを撮像するカメラ20から出力される画像信号に基づく画像を、所定方向に走査し、画像信号に含まれる輝度が閾値よりも大きく変化する画素を検出し、検出した画素の並びが所定以上の長さとなっている部分をエッジとして検出する。そして、比較部112が、エッジ検出部111で検出した第1のエッジの所定方向側にある画素の輝度と、第2のエッジの、第1のエッジの所定方向側とは反対方向側にある画素の輝度と、を比較して、輝度差が所定値以下となる場合、この第1のエッジ及び第2のエッジを、境界線を構成するエッジのペアであると判定する。
(Effect of image processing device)
In the image processing device 100 according to the present embodiment configured as described above, the edge detection unit 111 converts an image based on an image signal output from the camera 20 that images the road surface R around the vehicle V in a predetermined direction. The image signal is scanned to detect pixels whose brightness included in the image signal changes more than a threshold value, and a portion where the detected pixel arrangement has a length longer than a predetermined value is detected as an edge. Then, the comparison unit 112 compares the luminance of the pixel located on the predetermined direction side of the first edge detected by the edge detection unit 111 with the luminance of the pixel located on the side of the second edge in the predetermined direction opposite to the predetermined direction side of the first edge. The brightness of the pixel is compared, and if the brightness difference is less than or equal to a predetermined value, the first edge and the second edge are determined to be a pair of edges forming a boundary line.

本実施の形態では、第1のエッジと、第2のエッジは、隣り合った画素の輝度差がプラス方向に所定値よりも大きくなるプラスエッジと、隣り合った画素の輝度差がマイナス方向に所定値よりも大きくなるマイナスエッジである。 In this embodiment, the first edge and the second edge are a positive edge where the difference in brightness between adjacent pixels is greater than a predetermined value in the positive direction, and a positive edge where the difference in brightness between adjacent pixels is increased in the negative direction. This is a negative edge that is larger than a predetermined value.

これにより、カメラ20のエッジ強調機能によりエッジが強調された路面上に延びる木やポールの影等を構成するエッジのペアが除外され、境界線と判定されるのを抑制できる。この結果、駐車区画線や車線境界線等の路面を区画する境界線の検出を、高精度に行うことが可能な画像処理装置及び画像処理方法を提供できる。この結果、カメラ20が有する機能に左右されることなく、何れのカメラ20を備えた車両Vにも適用可能な画像処理装置100及び画像処理方法を提供できる。 As a result, pairs of edges constituting shadows of trees or poles extending on the road surface whose edges have been emphasized by the edge enhancement function of the camera 20 are excluded, and it is possible to suppress the pair of edges from being determined as a boundary line. As a result, it is possible to provide an image processing device and an image processing method that can detect boundary lines that partition a road surface, such as parking lot lines and lane boundary lines, with high precision. As a result, it is possible to provide an image processing device 100 and an image processing method that can be applied to any vehicle V equipped with any camera 20, regardless of the functions of the camera 20.

また、この画像処理装置100又は画像処理方法を備えることで、駐車枠の検出や走行車線の検出を高精度に行うことが可能な駐車支援装置、駐車支援方法、走行支援装置及び走行支援方法を提供できる。 In addition, by including the image processing device 100 or the image processing method, a parking support device, a parking support method, a driving support device, and a driving support method that can detect parking spaces and driving lanes with high accuracy can be provided. Can be provided.

また、比較部112は、第1のエッジ(プラスエッジ)の所定方向側にある画素の輝度と、第2のエッジ(マイナスエッジ)の、第1のエッジの所定方向側と反対方向側にある画素の輝度と、を比較するとき、第1のエッジ及び第2のエッジから所定量オフセットした画素を用いて比較することが望ましい。これにより、例えば、輝度が明確に異なる路面部分の輝度と影部分の輝度とを比較でき、境界線の検出精度をより向上できる。 Furthermore, the comparison unit 112 compares the luminance of a pixel on the side of a predetermined direction of the first edge (plus edge) with the luminance of a pixel on the side of the second edge (minus edge) in the predetermined direction and the opposite side of the first edge. When comparing the brightness of pixels, it is desirable to use pixels that are offset by a predetermined amount from the first edge and the second edge. Thereby, for example, it is possible to compare the brightness of a road surface portion with clearly different brightness and the brightness of a shadow portion, and it is possible to further improve the detection accuracy of the boundary line.

また、本実施の形態では、比較部112は下記式を満たす場合、第1のエッジ及び第2のエッジを、境界線を構成するエッジのペアであると判定する。これにより、境界線以外の影等のエッジのペアを破棄し、境界線を構成するエッジのペアのみを高精度に抽出できる。 Further, in the present embodiment, when the following formula is satisfied, the comparison unit 112 determines that the first edge and the second edge are a pair of edges forming a boundary line. As a result, pairs of edges other than the boundary line, such as shadows, are discarded, and only the pair of edges forming the boundary line can be extracted with high precision.

|Yp - Ym| ≦ 閾値
上記式中、Ypは、プラスエッジの所定方向側にある画素の並びを、延在方向に沿って等分割した複数の分割点における輝度を平均した平均値である。Ymは、マイナスエッジの、プラスエッジの所定方向側とは反対方向側にある画素の並びを、延在方向に沿って等分割した複数の分割点における画素の輝度を平均した平均値である。
|Yp − Ym| ≦ Threshold In the above formula, Yp is the average value of the luminances at a plurality of division points obtained by equally dividing the row of pixels on the predetermined direction side of the plus edge along the extending direction. Ym is an average value of the luminances of pixels at a plurality of division points obtained by equally dividing a row of pixels on the side of the minus edge in the opposite direction from the predetermined direction side of the plus edge along the extending direction.

また、エッジ検出部111は、輝度に代えて、画像信号に含まれる色のパラメータ(例えば、RGB、RGBA等)の情報に基づいてエッジを検出してもよく、この場合でも、第1のエッジ(プラスエッジ)と、これと異なる第2のエッジ(マイナスエッジ)を、より高速かつより精度よく検出できる。 Further, the edge detection unit 111 may detect edges based on information on color parameters (for example, RGB, RGBA, etc.) included in the image signal instead of the brightness, and even in this case, the first edge (plus edge) and a second edge (minus edge) different from this can be detected faster and more accurately.

また、エッジ検出部111及び比較部112で用いられるオフセット値等のパラメータ及び各種閾値が、予め設定されている記憶部120を備える構成としてもよい。この構成により、使用するカメラ20の機能や駐車場や走行車線の状態(長尺な影を作り易いポール、木、建物等の有無、天候、季節、時間等。)に基づいてオフセット値や閾値を任意に設定したり、更新したりでき、境界線の検出をより適切に行えるとともに、画像処理装置100や画像処理方法の汎用性も向上する。 Further, the configuration may include a storage unit 120 in which parameters such as an offset value and various threshold values used in the edge detection unit 111 and the comparison unit 112 are set in advance. With this configuration, offset values and threshold values can be set based on the functions of the camera 20 used and the conditions of parking lots and driving lanes (presence of poles, trees, buildings, etc. that tend to create long shadows, weather, season, time, etc.). can be arbitrarily set or updated, the boundary line can be detected more appropriately, and the versatility of the image processing apparatus 100 and the image processing method is also improved.

また、境界線が、駐車スペースを区画する駐車区画線である場合は、比較部112によって判定された境界線を構成するエッジのペアの中から、隣り合うペアを検出し、隣り合うペア間の距離に基づいて、駐車枠を検出する駐車枠検出部113を備える構成とすることで、駐車枠をより高精度に検出可能となる。よって、画像処理装置100及び画像処理方法を、駐車支援装置及び駐車支援方法に好適に用いることができる。 In addition, when the boundary line is a parking lot line that divides parking spaces, adjacent pairs are detected from among the pairs of edges that constitute the boundary line determined by the comparison unit 112, and By having a configuration including a parking frame detection unit 113 that detects a parking frame based on distance, a parking frame can be detected with higher accuracy. Therefore, the image processing device 100 and the image processing method can be suitably used in a parking support device and a parking support method.

また、境界線が、走行車線を区画する車線境界線である場合は、比較部112によって判定された境界線を構成するエッジのペアに基づいて、走行車線を検出する走行車線検出部を備えた構成とすることで、走行車線を高精度に検出可能となる。よって、画像処理装置100及び画像処理方法を、走行支援装置及び走行支援方法に好適に用いることができる。 In addition, when the boundary line is a lane boundary line that divides a driving lane, the driving lane detection section detects the driving lane based on the pair of edges forming the boundary line determined by the comparison section 112. With this configuration, the driving lane can be detected with high accuracy. Therefore, the image processing device 100 and the image processing method can be suitably used in a driving support device and a driving support method.

以上、図面を参照して、本発明の実施の形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the specific configuration is not limited to these embodiments and examples, and design changes can be made to the extent that they do not depart from the gist of the present invention. are included in the present invention.

例えば、上述の実施の形態である画像処理装置100では、画像の輝度や色のパラメータ(例えば、RGB、RGBA等)の情報の変化の大きさ及び変化の方向(プラス方向又はマイナス方向)に基づいてエッジを検出しているが、これらに限定されることはなく、画像信号に含まれる他の情報の変化の大きさ及び変化の方向に基づいてエッジを検出してもよい。 For example, in the image processing apparatus 100 according to the above-described embodiment, information on brightness and color parameters (for example, RGB, RGBA, etc.) of an image is based on the magnitude of change and the direction of change (positive direction or negative direction). However, the present invention is not limited to this, and edges may be detected based on the magnitude and direction of change in other information included in the image signal.

20 カメラ(撮像装置) 20a 前方カメラ(撮像装置)
20b 後方カメラ(撮像装置) 20c 左側方カメラ(撮像装置)
20d 右側方カメラ(撮像装置) 100 画像処理装置
111 エッジ検出部 112 比較部
113 駐車枠検出部 120 記憶部
200 駐車区画線 201 駐車枠
Em1~Em6 マイナスエッジの線分(第2のエッジ)
Ep1~Ep6 プラスエッジの線分(第1のエッジ)
G 俯瞰画像(画像) R 路面
V 車両 Ym 平均値(第2のエッジ)
Yp 平均値(第1のエッジ)
20 Camera (imaging device) 20a Front camera (imaging device)
20b Rear camera (imaging device) 20c Left side camera (imaging device)
20d Right side camera (imaging device) 100 Image processing device 111 Edge detection unit 112 Comparison unit 113 Parking frame detection unit 120 Storage unit 200 Parking lane line 201 Parking frame Em1 to Em6 Negative edge line segment (second edge)
Ep1 to Ep6 Plus edge line segment (first edge)
G Overhead image (image) R Road surface V Vehicle Ym Average value (second edge)
Yp average value (first edge)

Claims (9)

路面の所定領域を区画する境界線を検出する画像処理装置であって、
車両の周囲の前記路面を撮像する撮像装置から出力される画像信号に基づく画像を、所定方向に走査し、前記画像信号に含まれる輝度が閾値よりも大きく変化する画素を検出し、検出した前記画素の並びが所定以上の長さとなっている部分をエッジとして検出するエッジ検出部と、
前記エッジ検出部で検出した第1のエッジの所定方向側にある画素列の中から選択した複数の画素の輝度の平均値と、前記第1のエッジとは異なる第2のエッジの、前記第1のエッジの所定方向側とは反対方向側にある画素列の中から選択した複数の画素の輝度の平均値と、を比較して、輝度差が所定値以下となる場合、前記第1のエッジ及び前記第2のエッジを、境界線を構成するエッジのペアであると判定する比較部と、を備えたことを特徴とする画像処理装置。
An image processing device that detects a boundary line dividing a predetermined area of a road surface, the image processing device comprising:
An image based on an image signal output from an imaging device that images the road surface around the vehicle is scanned in a predetermined direction, and pixels whose brightness included in the image signal changes more than a threshold value are detected. an edge detection unit that detects a portion where the pixel arrangement is longer than a predetermined length as an edge;
The average value of the luminance of a plurality of pixels selected from a pixel column located on the predetermined direction side of the first edge detected by the edge detection unit and the second edge of the second edge different from the first edge. and the average value of the brightness of a plurality of pixels selected from the pixel row on the side opposite to the predetermined direction of the first edge.If the difference in brightness is less than a predetermined value, An image processing device comprising: a comparison unit that determines an edge and the second edge to be a pair of edges forming a boundary line.
前記第1のエッジと、前記第2のエッジは、隣り合った画素の輝度差がプラス方向に所定値よりも大きくなるプラスエッジと、隣り合った画素の輝度差がマイナス方向に所定値よりも大きくなるマイナスエッジであることを特徴とする請求項1に記載の画像処理装置。 The first edge and the second edge include a positive edge where the brightness difference between adjacent pixels is larger than a predetermined value in a positive direction, and a positive edge where the brightness difference between adjacent pixels is larger than a predetermined value in a negative direction. The image processing apparatus according to claim 1, wherein the negative edge becomes larger. 前記比較部は、前記第1のエッジの所定方向側にある画素の輝度と、前記第2のエッジの、前記第1のエッジの所定方向側と反対方向側にある画素の輝度と、を比較するとき、前記第1のエッジ及び前記第2のエッジから所定量オフセットした画素を用いて比較することを特徴とする請求項1又は2に記載の画像処理装置。 The comparison unit compares the brightness of a pixel on a predetermined direction side of the first edge with the brightness of a pixel on the second edge in a direction opposite to the predetermined direction side of the first edge. 3. The image processing apparatus according to claim 1, wherein the image processing apparatus performs the comparison using pixels offset by a predetermined amount from the first edge and the second edge. 前記第1のエッジの所定方向側にある画素の並びを、延在方向に沿って等分割した複数の分割点における前記画素の輝度を平均した平均値をYpとし、
前記第2のエッジの、前記第1のエッジの所定方向側とは反対方向側にある画素の並びを、延在方向に沿って等分割した複数の分割点における前記画素の輝度を平均した平均値をYmとしたとき、
前記比較部は、次式
|Yp - Ym| ≦ 閾値
を満たす場合、前記第1のエッジ及び前記第2のエッジを、前記境界線を構成するエッジのペアであると判定することを特徴とする請求項1~3のいずれか一項に記載の画像処理装置。
An average value of the luminance of the pixels at a plurality of division points obtained by equally dividing the row of pixels on the side of the first edge in a predetermined direction along the extending direction is set as Yp,
An average of the luminances of the pixels at a plurality of division points obtained by equally dividing a row of pixels on the side of the second edge in the opposite direction from the predetermined direction side of the first edge. When the value is Ym,
The comparison unit may determine the first edge and the second edge to be a pair of edges constituting the boundary line if the following formula |Yp − Ym| ≦ threshold is satisfied. The image processing device according to any one of claims 1 to 3.
前記エッジ検出部は、輝度に代えて、前記画像信号に含まれる色のパラメータに基づいて前記エッジを検出することを特徴とする請求項1~4のいずれか一項に記載の画像処理装置。 The image processing device according to claim 1, wherein the edge detection unit detects the edge based on a color parameter included in the image signal instead of brightness. 前記エッジ検出部及び前記比較部で用いられるパラメータ及び閾値が、予め設定されている記憶部を備えたことを特徴とする請求項1~5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, further comprising a storage unit in which parameters and threshold values used in the edge detection unit and the comparison unit are set in advance. 前記境界線が、駐車スペースを区画する駐車区画線であり、
前記比較部によって判定された前記境界線を構成するエッジのペアの中から、隣り合う前記ペアを検出し、隣り合う前記ペア間の距離に基づいて、駐車枠を検出する駐車枠検出部を、備えたことを特徴とする請求項1~6のいずれか一項に記載の画像処理装置。
The boundary line is a parking lot line dividing a parking space,
A parking frame detection unit that detects adjacent pairs of edges constituting the boundary line determined by the comparison unit, and detects a parking frame based on the distance between the adjacent pairs, The image processing apparatus according to any one of claims 1 to 6, further comprising an image processing apparatus.
前記境界線が、走行車線を区画する車線境界線であり、
前記比較部によって判定された前記境界線を構成するエッジのペアに基づいて、前記走行車線を検出する走行車線検出部を、備えたことを特徴とする請求項1~6のいずれか一項に記載の画像処理装置。
The boundary line is a lane boundary line that divides driving lanes,
7. The vehicle according to claim 1, further comprising a driving lane detection unit that detects the driving lane based on a pair of edges forming the boundary line determined by the comparison unit. The image processing device described.
路面の所定領域を区画する境界線を検出する画像処理方法であって、
車両の周囲の前記路面を撮像する撮像装置から出力される画像信号に基づく画像を、所定方向に走査し、前記画像信号に含まれる輝度が閾値よりも大きく変化する画素を検出し、検出した前記画素の並びが所定以上の長さとなっている部分をエッジとして検出するエッジ検出工程と、
前記エッジ検出工程で検出した第1のエッジの所定方向側にある画素列の中から選択した複数の画素の輝度の平均値と、前記第1のエッジとは異なる第2のエッジの、前記第1のエッジの所定方向側とは反対方向側にある画素列の中から選択した複数の画素の輝度の平均値と、を比較して、輝度差が所定値以下となる場合、前記第1のエッジ及び前記第2のエッジを、境界線を構成するエッジのペアであると判定する比較工程と、
を含むことを特徴とする画像処理方法。
An image processing method for detecting a boundary line dividing a predetermined area of a road surface, the method comprising:
An image based on an image signal output from an imaging device that images the road surface around the vehicle is scanned in a predetermined direction, and pixels whose brightness included in the image signal changes more than a threshold value are detected. an edge detection step of detecting a portion where the pixel arrangement is longer than a predetermined length as an edge;
The average value of the luminance of a plurality of pixels selected from a pixel column located on the predetermined direction side of the first edge detected in the edge detection step, and the second edge of the second edge different from the first edge. and the average value of the brightness of a plurality of pixels selected from the pixel row on the side opposite to the predetermined direction of the first edge.If the difference in brightness is less than a predetermined value, a comparison step of determining the edge and the second edge to be a pair of edges forming a boundary line;
An image processing method characterized by comprising:
JP2020013467A 2020-01-30 2020-01-30 Image processing device and image processing method Active JP7446830B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020013467A JP7446830B2 (en) 2020-01-30 2020-01-30 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020013467A JP7446830B2 (en) 2020-01-30 2020-01-30 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021120768A JP2021120768A (en) 2021-08-19
JP7446830B2 true JP7446830B2 (en) 2024-03-11

Family

ID=77269928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020013467A Active JP7446830B2 (en) 2020-01-30 2020-01-30 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7446830B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185857A (en) 2012-03-06 2013-09-19 Iwasaki Electric Co Ltd Luminance measurement device
WO2014084118A1 (en) 2012-11-27 2014-06-05 クラリオン株式会社 On-vehicle image processing device
WO2017068699A1 (en) 2015-10-22 2017-04-27 日産自動車株式会社 Parking space line detection method and device
JP2019012309A (en) 2017-06-29 2019-01-24 株式会社デンソーテン Parking frame detection apparatus and parking frame detection method
JP2019020957A (en) 2017-07-14 2019-02-07 株式会社デンソー Detection device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219435A (en) * 1998-02-03 1999-08-10 Honda Motor Co Ltd White line detector for automobile

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185857A (en) 2012-03-06 2013-09-19 Iwasaki Electric Co Ltd Luminance measurement device
WO2014084118A1 (en) 2012-11-27 2014-06-05 クラリオン株式会社 On-vehicle image processing device
WO2017068699A1 (en) 2015-10-22 2017-04-27 日産自動車株式会社 Parking space line detection method and device
JP2019012309A (en) 2017-06-29 2019-01-24 株式会社デンソーテン Parking frame detection apparatus and parking frame detection method
JP2019020957A (en) 2017-07-14 2019-02-07 株式会社デンソー Detection device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
実吉敬二,ステレオカメラによる自動車運転支援システム,情報処理学会研究報告 2012(平成24)年度(5) [CD-ROM] ,日本,一般社団法人情報処理学会,2013年02月15日,pp.1~6

Also Published As

Publication number Publication date
JP2021120768A (en) 2021-08-19

Similar Documents

Publication Publication Date Title
CN111563405B (en) Image processing apparatus and image processing method
CN113212352B (en) Image processing apparatus and image processing method
JP7499606B2 (en) Image processing device and image processing method
JP7296768B2 (en) Image processing device and image processing method
CN113313935B (en) Image processing apparatus and image processing method
US20210402987A1 (en) Image processor and image processing method
US11270452B2 (en) Image processing device and image processing method
JP7446851B2 (en) Image processing device and image processing method
JP7466324B2 (en) Image processing device and image processing method
JP7446830B2 (en) Image processing device and image processing method
JP7341730B2 (en) Image processing device and image processing method
JP7453008B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7446830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150