[go: up one dir, main page]

JP6416654B2 - White line detector - Google Patents

White line detector Download PDF

Info

Publication number
JP6416654B2
JP6416654B2 JP2015028566A JP2015028566A JP6416654B2 JP 6416654 B2 JP6416654 B2 JP 6416654B2 JP 2015028566 A JP2015028566 A JP 2015028566A JP 2015028566 A JP2015028566 A JP 2015028566A JP 6416654 B2 JP6416654 B2 JP 6416654B2
Authority
JP
Japan
Prior art keywords
white line
dimensional object
image
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015028566A
Other languages
Japanese (ja)
Other versions
JP2016151863A (en
Inventor
嘉修 竹前
嘉修 竹前
直輝 川嵜
直輝 川嵜
唯史 酒井
唯史 酒井
章弘 渡邉
章弘 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2015028566A priority Critical patent/JP6416654B2/en
Publication of JP2016151863A publication Critical patent/JP2016151863A/en
Application granted granted Critical
Publication of JP6416654B2 publication Critical patent/JP6416654B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、白線検出装置に関する。   The present invention relates to a white line detection device.

車両が走行する走行車線の白線を検出する技術として、特許文献1に記載された車両用画像処理装置がある。特許文献1に記載された装置は、1台のカメラを利用して立体物検出の処理に適した画像と白線検出の処理に適した画像とを交互に得る。そして、車両用画像処理装置の画像認識処理部は、白線検出の処理に適した画像を利用して、白線検出処理を実行することにより白線を検出する。   As a technique for detecting a white line of a traveling lane in which a vehicle travels, there is a vehicle image processing apparatus described in Patent Document 1. The apparatus described in Patent Document 1 alternately obtains an image suitable for a three-dimensional object detection process and an image suitable for a white line detection process using a single camera. Then, the image recognition processing unit of the vehicle image processing apparatus detects a white line by executing a white line detection process using an image suitable for the white line detection process.

特開2006−325094号公報JP 2006-325094 A

白線検出の処理に適した画像には白線とは異なる立体物も写り込む。画像に写り込んだ立体物は、画像から白線を検出する処理においてノイズになり得る。そこで、白線検出の処理に適した画像に写り込んだ立体物を検出し、立体物の情報を利用してノイズ処理を実行することも考えられる。しかし、白線検出の処理に適した画像は、白線を明瞭に撮像するための条件下で撮像される。一方、白線検出の処理に適した画像に写り込んだ立体物は明瞭でないことがあるので、立体物を精度良く検出してノイズ処理を実行することは困難である。従って、白線を検出する精度を向上させ難かった。   The image suitable for the white line detection process includes a three-dimensional object different from the white line. The three-dimensional object reflected in the image can become noise in the process of detecting a white line from the image. Therefore, it is conceivable to detect a three-dimensional object reflected in an image suitable for white line detection processing and perform noise processing using information of the three-dimensional object. However, an image suitable for white line detection processing is captured under conditions for clearly capturing the white line. On the other hand, since a three-dimensional object reflected in an image suitable for white line detection processing may not be clear, it is difficult to accurately detect the three-dimensional object and perform noise processing. Therefore, it is difficult to improve the accuracy of detecting white lines.

そこで、本発明は、白線の検出精度を向上することを目的とする。   Accordingly, an object of the present invention is to improve white line detection accuracy.

本発明の一形態は、車両に搭載された車載カメラが撮像した画像を利用して、車両が走行する走行車線の白線を検出する白線検出装置であって、第1のタイミングにおいて車載カメラが撮像した立体物用画像と、第1のタイミングと同時ではない第2のタイミングにおいて車載カメラが撮像した白線用画像と、を取得する画像取得部と、立体物用画像を利用して、ステレオ処理により立体物用画像内の立体物の情報を得る立体物抽出部と、白線用画像を利用して、エッジ処理により白線用画像内のエッジを構成する候補点の情報を得る候補点抽出部と、立体物の情報と、車両の車速及び向きと、第1のタイミング及び第2のタイミングの時間差と、を利用して、白線用画像において立体物が占める領域の情報を得る領域特定部と、候補点の情報と立体物が占める領域の情報とを利用して、立体物が占める領域に含まれない候補点を白線のエッジを構成する点として検出する検出部と、を備える。   One embodiment of the present invention is a white line detection device that detects a white line of a traveling lane in which a vehicle travels using an image captured by an in-vehicle camera mounted on the vehicle, and the in-vehicle camera captures an image at a first timing. A three-dimensional object image and a white line image captured by the in-vehicle camera at a second timing that is not simultaneously with the first timing, and a stereo process using the three-dimensional object image. A three-dimensional object extraction unit that obtains information on a three-dimensional object in the three-dimensional object image; a candidate point extraction unit that obtains information on candidate points that form edges in the white line image by edge processing using the white line image; A region specifying unit that obtains information of a region occupied by a three-dimensional object in a white line image by using the information of the three-dimensional object, the vehicle speed and direction of the vehicle, and the time difference between the first timing and the second timing; Point information And by utilizing the information of the region occupied by the three-dimensional object, comprising a detection unit for detecting a candidate point that is not included in the area where the solid object is occupied as points constituting the edge of the white line, the.

本発明によれば、白線の検出精度を向上することができる。   According to the present invention, white line detection accuracy can be improved.

図1は、本発明の一形態に係る白線検出装置を備えた画像処理システムの機能ブロック図である。FIG. 1 is a functional block diagram of an image processing system including a white line detection device according to an embodiment of the present invention. 図2は、立体物用画像及び白線用画像の撮像タイミングを示す図である。FIG. 2 is a diagram illustrating the imaging timing of the solid object image and the white line image. 図3は、白線検出装置の動作を示すフロー図である。FIG. 3 is a flowchart showing the operation of the white line detection device. 図4は、白線検出装置の動作を説明するための立体物用画像及び白線用画像の例である。FIG. 4 is an example of a solid object image and a white line image for explaining the operation of the white line detection device. 図5は、第2の構成に係る白線検出装置を備えた画像処理システムの機能ブロック図である。FIG. 5 is a functional block diagram of an image processing system including a white line detection device according to the second configuration. 図6(a)は縁石エッジ及び白線エッジの位置差と尤度との関係を示すグラフであり、図6(b)は縁石エッジと白線エッジとの位置関係を説明するための図である。FIG. 6A is a graph showing the relationship between the positional difference between the curb edge and the white line edge and the likelihood, and FIG. 6B is a diagram for explaining the positional relationship between the curb edge and the white line edge. 図7は、第3の構成に係る白線検出装置を備えた画像処理システムの機能ブロック図である。FIG. 7 is a functional block diagram of an image processing system including a white line detection device according to the third configuration.

以下、添付図面を参照しながら本発明を実施するための形態を詳細に説明する。図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

図1は、本発明の一形態である白線検出装置を含む画像処理システム100の機能ブロック図である。画像処理システム100は、白線検出装置1と、車載カメラ2と、車両センサ3と、データ記録部4と、走路パラメータ推定部5と、を備える。画像処理システム100は、自車両に搭載されるシステムであり、自車両に搭載された車載カメラ2によって撮像された画像から走行車線の両脇を示す白線を検出する。検出した白線は、走行車線のパラメータ算出などに利用される。   FIG. 1 is a functional block diagram of an image processing system 100 including a white line detection device according to an embodiment of the present invention. The image processing system 100 includes a white line detection device 1, an in-vehicle camera 2, a vehicle sensor 3, a data recording unit 4, and a runway parameter estimation unit 5. The image processing system 100 is a system mounted on the host vehicle, and detects white lines indicating both sides of the traveling lane from an image captured by the in-vehicle camera 2 mounted on the host vehicle. The detected white line is used for parameter calculation of the traveling lane.

車載カメラ2は、撮像手段である2台のカメラ2a,2bと、カメラ制御部2cとを有する。車載カメラ2は、白線検出装置1からカメラ制御部2cに出力された制御信号により撮像条件が制御される。2台のカメラ2a,2bは、自車両の幅方向に離間して配置される。カメラ制御部2cは、白線用画像を取得するための制御パラメータと、立体物用画像を取得するための制御パラメータと、を有し、撮像フレーム毎に制御パラメータを変更する。図2は、立体物用画像及び白線用画像の撮像タイミングを示す図である。図2に示されるように、例えば、カメラ制御部2cは、立体物用画像を取得するフレームF1と、白線用画像を取得するフレームF2と、を50ミリ秒間隔で繰り返し変更する。車両センサ3は、自車両の走行に関するデータを取得し、白線検出装置1に出力する。車両センサ3は、車速センサ、ヨーレートセンサなどの自車両の運動状態を示す数値を取得するセンサ群からなる。データ記録部4は、白線検出装置1から参照可能に構成される。データ記録部4は、カメラ2a,2bの配置された位置、カメラ2a,2b同士の位置関係、及び各カメラ2a,2bの画角のようなカメラパラメータや、白線検出に関する各種の設定値が記録される。走路パラメータ推定部5は、自車両が走行する道路の形状を示す各種パラメータを推定する。パラメータには、道路の曲率、曲率変化率、白線に対する自車両のヨー角(向き)、白線に対する自車両の横位置などがある。走路パラメータ推定部5は、後述するように白線検出装置1から入力された白線情報を利用して、カルマンフィルタ処理により上記パラメータを推定する。   The in-vehicle camera 2 includes two cameras 2a and 2b, which are imaging means, and a camera control unit 2c. The imaging condition of the in-vehicle camera 2 is controlled by a control signal output from the white line detection device 1 to the camera control unit 2c. The two cameras 2a and 2b are spaced apart from each other in the width direction of the host vehicle. The camera control unit 2c has a control parameter for acquiring a white line image and a control parameter for acquiring a three-dimensional object image, and changes the control parameter for each imaging frame. FIG. 2 is a diagram illustrating the imaging timing of the solid object image and the white line image. As shown in FIG. 2, for example, the camera control unit 2c repeatedly changes a frame F1 for acquiring a three-dimensional object image and a frame F2 for acquiring a white line image at intervals of 50 milliseconds. The vehicle sensor 3 acquires data related to traveling of the host vehicle and outputs the data to the white line detection device 1. The vehicle sensor 3 includes a sensor group that acquires numerical values indicating the motion state of the host vehicle, such as a vehicle speed sensor and a yaw rate sensor. The data recording unit 4 is configured to be referenced from the white line detection device 1. The data recording unit 4 records camera parameters such as the positions where the cameras 2a and 2b are arranged, the positional relationship between the cameras 2a and 2b, and the angles of view of the cameras 2a and 2b, and various setting values related to white line detection. Is done. The travel path parameter estimation unit 5 estimates various parameters indicating the shape of the road on which the host vehicle travels. The parameters include road curvature, curvature change rate, yaw angle (direction) of the vehicle with respect to the white line, and lateral position of the vehicle with respect to the white line. The runway parameter estimation unit 5 uses the white line information input from the white line detection device 1 as described later to estimate the parameters by Kalman filter processing.

白線検出装置1は、ECU(Electric Control Unit)上でプログラムを実行することにより実現される。ECUは、いわゆるコンピュータであり、中央演算処理装置(CPU)、プログラムや各種データが記録されるROM、データが一時的に記録されるRAM、入出力装置などが一つのユニットとして構成される。白線検出装置1は、機能的構成要素として、画像取得部6と、立体物抽出部7と、候補点抽出部8と、領域特定部9と、検出部11と、を備える。白線検出装置1では、画像取得部6が車載カメラ2から画像を取得する。画像取得部6は、立体物用画像と白線用画像を取得する。立体物抽出部7及び候補点抽出部8は、画像取得部6により取得された画像から立体物に関する情報と白線エッジを構成する候補点に関する情報とをそれぞれ抽出する。領域特定部9は、白線用画像における立体物が占める領域を特定する。そして、検出部11は、立体物が占める領域に候補点が含まれるか否かを判定して、立体物が占める領域に含まれない候補点を、白線を示す情報として検出する。   The white line detection device 1 is realized by executing a program on an ECU (Electric Control Unit). The ECU is a so-called computer, and includes a central processing unit (CPU), a ROM in which programs and various data are recorded, a RAM in which data is temporarily recorded, an input / output device, and the like as one unit. The white line detection device 1 includes an image acquisition unit 6, a three-dimensional object extraction unit 7, a candidate point extraction unit 8, a region specification unit 9, and a detection unit 11 as functional components. In the white line detection device 1, the image acquisition unit 6 acquires an image from the in-vehicle camera 2. The image acquisition unit 6 acquires a solid object image and a white line image. The three-dimensional object extraction unit 7 and the candidate point extraction unit 8 respectively extract information about the three-dimensional object and information about the candidate points constituting the white line edge from the image acquired by the image acquisition unit 6. The area specifying unit 9 specifies an area occupied by the three-dimensional object in the white line image. And the detection part 11 determines whether a candidate point is contained in the area | region which a solid object occupies, and detects the candidate point which is not contained in the area | region which a solid object occupies as information which shows a white line.

画像取得部6は、車載カメラ2から画像情報を取得し、立体物抽出部7及び候補点抽出部8に出力する。画像情報は、2台のカメラ2a,2bでそれぞれ撮像された2枚の画像を含む。画像取得部6は、車載カメラ2から立体物用画像を取得して立体物抽出部7に出力する動作と、車載カメラ2から白線用画像を取得して候補点抽出部8に出力する動作とを繰り返す。白線用画像は、白線を検出するための画像であり、画像において白線である領域の明るさ(輝度値)が最適とされている。立体物用画像は、立体物を検出するための画像であり、画像において立体物である領域の明るさ(輝度値)が最適とされている。カメラ制御部2cは、白線又は立体物の明るさが最適となるように、カメラの露出時間を制御する。   The image acquisition unit 6 acquires image information from the in-vehicle camera 2 and outputs it to the three-dimensional object extraction unit 7 and the candidate point extraction unit 8. The image information includes two images captured by the two cameras 2a and 2b. The image acquisition unit 6 acquires an image for a three-dimensional object from the in-vehicle camera 2 and outputs it to the three-dimensional object extraction unit 7, and acquires an image for the white line from the in-vehicle camera 2 and outputs it to the candidate point extraction unit 8. repeat. The white line image is an image for detecting a white line, and the brightness (luminance value) of the white line area in the image is optimal. The three-dimensional object image is an image for detecting a three-dimensional object, and the brightness (luminance value) of an area that is a three-dimensional object in the image is optimal. The camera control unit 2c controls the exposure time of the camera so that the brightness of the white line or the three-dimensional object is optimized.

立体物抽出部7は、立体物用画像を利用して、立体物用画像内の立体物に関する情報(以下「立体物情報」という)を得ると共に、取得した立体物情報を領域特定部9に出力する。立体物としては、例えば、自車両の走行する車線に隣接する走行車線を自車両と同じ方向に向かって走行する他車両、対向車線を走行する対向車両、走行車線の外縁に設けられた縁石、道路標識、信号機、電柱などがある。立体物抽出部7は、カメラ2a及びカメラ2bによって同じタイミングで撮像された視差の異なる2枚の立体物用画像を利用して、画像に含まれた立体物の三次元情報を取得する。立体物抽出部7は、抽出可能な領域を有する全ての立体物について、それらの三次元情報を取得する。三次元情報は、立体物用画像に含まれた立体物の三次元位置データ及び三次元形状データを含む。三次元形状データは、立体物の詳細な形状を示すものではなく、立体物を例えば直方体或いは円柱の形状として近似した場合の高さ、幅、奥行きを示す情報である。また、三次元位置データは、例えば、三次元形状データによって示される形状の重心点(中心点)の位置を、当該立体物の代表位置として示す情報である。なお、以下の説明において、三次元情報を規定する座標系として、自車両を原点として、自車両の幅方向をX軸方向とし、鉛直方向をY軸方向とし、X軸とY軸とに直交する方向をZ軸方向とする。   The three-dimensional object extraction unit 7 uses the three-dimensional object image to obtain information about the three-dimensional object in the three-dimensional object image (hereinafter referred to as “three-dimensional object information”), and sends the acquired three-dimensional object information to the region specifying unit 9. Output. As a three-dimensional object, for example, another vehicle that travels in the same direction as the own vehicle in the traveling lane adjacent to the own vehicle, an oncoming vehicle that travels in the opposite lane, a curb provided on the outer edge of the traveling lane, There are road signs, traffic lights and utility poles. The three-dimensional object extraction unit 7 acquires three-dimensional information of the three-dimensional object included in the image by using two images for three-dimensional objects with different parallax imaged at the same timing by the camera 2a and the camera 2b. The three-dimensional object extraction unit 7 acquires the three-dimensional information of all the three-dimensional objects having extractable areas. The three-dimensional information includes three-dimensional position data and three-dimensional shape data of the three-dimensional object included in the three-dimensional object image. The three-dimensional shape data does not indicate the detailed shape of the three-dimensional object, but is information indicating the height, width, and depth when the three-dimensional object is approximated as a rectangular parallelepiped or a cylindrical shape, for example. The three-dimensional position data is information indicating, for example, the position of the center of gravity (center point) of the shape indicated by the three-dimensional shape data as the representative position of the three-dimensional object. In the following description, as a coordinate system for defining three-dimensional information, the own vehicle is the origin, the width direction of the own vehicle is the X-axis direction, the vertical direction is the Y-axis direction, and orthogonal to the X-axis and the Y-axis. The direction to perform is the Z-axis direction.

立体物抽出部7は、カメラ2aで撮像された基準画像(同じタイミングで撮像された視差の異なる立体物用画像の一方)から小領域を切り出し、その小領域と対応するカメラ2bで撮像された参照画像(立体物用画像の他方)の小領域を探索する。探索には、例えば、パターンマッチング処理の一例であるSAD(Sum of Absolute Difference)といった輝度パターンの類似性を利用できる。立体物抽出部7は、探索の結果を利用して、基準画像の小領域と、この小領域に対応する参照画像の小領域とのずれ量(ずれ画素数)を得る。立体物抽出部7は、このずれ画素数と、データ記録部4を参照して得た各カメラの焦点距離、カメラ同士の相対位置を利用して、視差を算出する。そして、立体物抽出部7は、視差をグループ化及びそれらグループを追跡して、立体物に関する三次元位置を算出する。   The three-dimensional object extraction unit 7 cuts out a small area from the reference image captured by the camera 2a (one of the three-dimensional object images captured at the same timing) and captured by the camera 2b corresponding to the small area. A small area of the reference image (the other of the three-dimensional object images) is searched. For the search, for example, similarity of luminance patterns such as SAD (Sum of Absolute Difference) which is an example of pattern matching processing can be used. The three-dimensional object extraction unit 7 uses the search result to obtain a shift amount (shift pixel number) between the small area of the reference image and the small area of the reference image corresponding to the small area. The three-dimensional object extraction unit 7 calculates the parallax using the number of shifted pixels, the focal length of each camera obtained by referring to the data recording unit 4, and the relative position between the cameras. Then, the three-dimensional object extraction unit 7 groups parallaxes, tracks these groups, and calculates a three-dimensional position related to the three-dimensional object.

また、立体物情報は、立体物の絶対速度に関する情報も含む。立体物の絶対速度は、最新の立体物用画像と、1又は所定のフレーム数だけ過去に取得された立体物用画像と、車両センサ3から得た車速及びヨーレートを利用して周知の手法により算出される。また、車両センサに含まれるミリ波センサなどの出力を利用することもできる。   The three-dimensional object information also includes information on the absolute speed of the three-dimensional object. The absolute speed of the three-dimensional object is determined by a known method using the latest three-dimensional object image, the three-dimensional object image acquired in the past by one or a predetermined number of frames, and the vehicle speed and yaw rate obtained from the vehicle sensor 3. Calculated. Further, the output of a millimeter wave sensor or the like included in the vehicle sensor can be used.

候補点抽出部8は、白線用画像を利用して、白線エッジを構成する候補点の情報(以下「白線候補点情報」という)を得ると共に、取得した白線候補点情報と白線用画像とを領域特定部9に出力する。従って、候補点抽出部8において取得される白線候補点情報は白線を示す情報そのものではなく、この白線候補点情報から抽出された点によって構成される。候補点抽出部8は、エッジ処理により候補点を抽出する。エッジ処理においては、白線用画像を構成するピクセルの輝度値を利用した周知のエッジ処理法が用いられる。候補点抽出部8は、同じタイミングで撮像された2枚の白線用画像に基づいて、ステレオマッチング法により候補点の三次元位置を得てもよい。なお、候補点抽出部8は、白線エッジを構成する候補点に限らず、エッジを構成する候補点を全て抽出してもよい。すなわち、白線候補点には、白線以外の立体物のエッジの候補点などが含まれていてもよい。   The candidate point extraction unit 8 uses the white line image to obtain information on candidate points constituting the white line edge (hereinafter referred to as “white line candidate point information”), and obtains the acquired white line candidate point information and the white line image. The data is output to the area specifying unit 9. Therefore, the white line candidate point information acquired in the candidate point extraction unit 8 is not the information indicating the white line itself, but is constituted by points extracted from the white line candidate point information. The candidate point extraction unit 8 extracts candidate points by edge processing. In the edge processing, a well-known edge processing method using the luminance value of the pixels constituting the white line image is used. The candidate point extraction unit 8 may obtain a three-dimensional position of the candidate point by a stereo matching method based on the two white line images captured at the same timing. Note that the candidate point extraction unit 8 may extract all candidate points constituting the edge, not limited to the candidate points constituting the white line edge. That is, the white line candidate points may include candidate points for edges of solid objects other than the white lines.

候補点抽出部8は、白線用画像を構成するピクセルが有する輝度値を判定値とし、白線用画像の左側から右側へと走査する。そして、候補点抽出部8は、閾値より小さい領域から閾値より大きい領域へ変化した部分を上りエッジを示す点として取得し、閾値より大きい領域から閾値より小さい領域へ変化した部分を下りエッジを示す点として取得する。この上りエッジ点と下りエッジ点との間が白線となる領域である。候補点抽出部8は、2枚の白線用画像のそれぞれから下りエッジ候補情報及び上りエッジ候補情報を取得した後に、ステレオマッチング法といった画像処理方法を利用して、三次元位置情報を得る。従って、候補点抽出部8において取得される候補点情報は、三次元的な位置が特定された上りエッジ候補情報及び下りエッジ候補情報を含む。   The candidate point extraction unit 8 scans from the left side to the right side of the white line image using the luminance value of the pixels constituting the white line image as a determination value. Then, the candidate point extraction unit 8 acquires a portion that has changed from a region smaller than the threshold value to a region that is larger than the threshold value as a point indicating an upstream edge, and indicates a portion that has changed from a region that is larger than the threshold value to a region that is smaller than the threshold value. Get as a point. A region between the rising edge point and the falling edge point is a white line. The candidate point extraction unit 8 obtains the downlink edge candidate information and the uplink edge candidate information from each of the two white line images, and then obtains three-dimensional position information using an image processing method such as a stereo matching method. Therefore, the candidate point information acquired by the candidate point extraction unit 8 includes the uplink edge candidate information and the downlink edge candidate information in which the three-dimensional position is specified.

なお、候補点抽出部8は、複数の候補点に対してフィッティング処理を行ってもよい。候補点抽出部8は、複数の上りエッジ点を含む集合を上りエッジ候補点群として取り扱い、複数の下りエッジ点を含む集合を下りエッジ候補点群として取り扱う。そして、それぞれの候補点群に対して、例えば、時間的連続性に基づく処理を行う。この処理では、処理対象である候補点が、過去に検出された別の候補点と比較して近い位置にあるか否かを判定することによりノイズを候補点から除き、より確からしい候補点を選択する。また、幾何学的連続性に基づく処理がある。この処理では、処理対象である候補点が、走路パターンなどから予想される仮想線分と比較して近い位置にあるか否かを判定することによりノイズを候補点から除き、より確からしい候補点を選択する。これら処理によれば、候補点抽出部8から出力される情報の精度を向上させることができる。   The candidate point extraction unit 8 may perform a fitting process on a plurality of candidate points. The candidate point extraction unit 8 handles a set including a plurality of upstream edge points as an upstream edge candidate point group, and handles a set including a plurality of downstream edge points as a downstream edge candidate point group. Then, for example, processing based on temporal continuity is performed on each candidate point group. In this process, noise is removed from the candidate points by determining whether or not the candidate point to be processed is close to another candidate point detected in the past, and a more probable candidate point is determined. select. There is also a process based on geometric continuity. In this process, the candidate point to be processed is removed from the candidate point by determining whether or not the candidate point is closer to the virtual line segment expected from the runway pattern, etc. Select. According to these processes, the accuracy of information output from the candidate point extraction unit 8 can be improved.

領域特定部9は、領域情報を得ると共に、取得した領域情報を検出部11に出力する。領域情報とは、白線用画像において立体物が占める領域を示す情報である。立体物情報は、立体物に関する三次元情報である。また、白線候補点情報は、白線を立体物用画像に含まれた白線を示す情報の候補点を示す三次元情報である。従って、これらは、共通の座標系を選択することにより、仮想的な空間において共通して取り扱うことが可能になる。   The area specifying unit 9 obtains area information and outputs the acquired area information to the detecting unit 11. The area information is information indicating an area occupied by the three-dimensional object in the white line image. The three-dimensional object information is three-dimensional information related to a three-dimensional object. The white line candidate point information is three-dimensional information indicating candidate points of information indicating a white line included in the solid object image. Therefore, these can be handled in common in a virtual space by selecting a common coordinate system.

ところで、立体物情報は、第1のタイミングで取得された立体物画像から抽出される。また、白線候補点情報は、第2のタイミングで取得された白線用画像から抽出される。そうすると、立体物情報と白線候補点情報とを単に組み合わせただけは、立体物と白線との関係が正確でない場合がある。第1のタイミングと第2のタイミングとは同じではない。   Incidentally, the three-dimensional object information is extracted from the three-dimensional object image acquired at the first timing. Further, the white line candidate point information is extracted from the white line image acquired at the second timing. Then, the relationship between the three-dimensional object and the white line may not be accurate if the three-dimensional object information and the white line candidate point information are simply combined. The first timing and the second timing are not the same.

そこで、領域特定部9は、車両センサ3から取得された速度と、ヨーレートと、第1及び第2のタイミングの時間差と、を利用して、第2のタイミングにおける立体物の位置を推定する。そして、領域特定部9は、白線候補点情報を規定する座標系によって示された立体物をXY平面に投影し、XY平面に占める領域を得る。この処理により、白線用画像において立体物が占める領域を示す領域情報が得られる。   Therefore, the area specifying unit 9 estimates the position of the three-dimensional object at the second timing using the speed acquired from the vehicle sensor 3, the yaw rate, and the time difference between the first and second timings. And the area | region specific part 9 projects the solid object shown by the coordinate system which prescribes | regulates white line candidate point information on XY plane, and obtains the area which occupies in XY plane. By this processing, area information indicating the area occupied by the three-dimensional object in the white line image is obtained.

領域特定部9は、水平面(XZ平面)における立体物の位置を推定する。この推定は、水平面(XZ平面)をなすX軸及びZ軸のそれぞれの方向について実施する。具体的には、領域特定部9は、立体物抽出部7が算出した立体物の絶対速度に時間差を乗算して、時間差により生じる立体物の移動量を算出する。当該移動量を立体物用画像から取得された位置に適用して、立体物の運動により生じるずれが補正された推定位置を得る。続いて、領域特定部9は、時間差により生じる自車両の移動量を算出する。自車両の運動については、車両センサ3から得た車速及びヨーレートを利用する。領域特定部9は、当該移動量を前述の推定位置に適用して、立体物の運動及び自車両の運動により生じる位置のずれが補正された推定位置を得る。続いて、領域特定部9は、立体物の推定位置において、立体物情報に含まれた三次元形状データを利用して、立体物の三次元形状を復元する。続いて、領域特定部9は、XY平面上に投影された立体物の平面形状を算出することにより、白線用画像において立体物が占める領域の情報を取得する。   The area specifying unit 9 estimates the position of the three-dimensional object on the horizontal plane (XZ plane). This estimation is performed for each direction of the X axis and the Z axis forming a horizontal plane (XZ plane). Specifically, the region specifying unit 9 calculates the amount of movement of the three-dimensional object generated by the time difference by multiplying the absolute speed of the three-dimensional object calculated by the three-dimensional object extraction unit 7 by the time difference. The movement amount is applied to the position acquired from the three-dimensional object image to obtain an estimated position in which the shift caused by the movement of the three-dimensional object is corrected. Subsequently, the area specifying unit 9 calculates the amount of movement of the host vehicle caused by the time difference. For the movement of the host vehicle, the vehicle speed and yaw rate obtained from the vehicle sensor 3 are used. The area specifying unit 9 applies the movement amount to the estimated position described above, and obtains an estimated position in which the displacement of the position caused by the movement of the three-dimensional object and the movement of the host vehicle is corrected. Subsequently, the region specifying unit 9 restores the three-dimensional shape of the three-dimensional object using the three-dimensional shape data included in the three-dimensional object information at the estimated position of the three-dimensional object. Subsequently, the region specifying unit 9 obtains information on the region occupied by the three-dimensional object in the white line image by calculating the planar shape of the three-dimensional object projected on the XY plane.

なお、領域特定部9は、白線用画像を取得した第2のタイミングにおいて立体物が占める領域だけでなく、過去にその立体物が存在していた箇所を領域情報に含めてもよい。具体的には、領域情報は、第1のタイミングから第2のタイミングまでに立体物が移動したときに、立体物が白線画像上に占める領域を含んでもよい。また、立体物が対向車両などの移動体である場合には、領域情報は、水平面(XZ平面)上において、立体物が占める領域をXY平面に投影した領域を含んでもよい。水平面上において、他車両や電柱等の立体物が占める領域は、主に車線内又は車線外の領域であり、一般には白線は存在しない可能性が高いと考えることができる。従って、白線が存在しない可能性が高い領域も領域情報に追加することにより、路面の汚れなどを白線として誤検出する可能性を低減できる。   Note that the area specifying unit 9 may include not only the area occupied by the three-dimensional object at the second timing when the white line image is acquired, but also the part where the three-dimensional object previously existed in the area information. Specifically, the area information may include an area occupied by the three-dimensional object on the white line image when the three-dimensional object moves from the first timing to the second timing. When the three-dimensional object is a moving body such as an oncoming vehicle, the region information may include a region obtained by projecting the region occupied by the three-dimensional object on the XY plane on the horizontal plane (XZ plane). On the horizontal plane, a region occupied by a three-dimensional object such as another vehicle or a utility pole is mainly a region in the lane or outside the lane, and it can be considered that there is generally a high possibility that no white line exists. Therefore, by adding a region where there is a high possibility that no white line exists to the region information, it is possible to reduce the possibility of erroneously detecting road dirt or the like as a white line.

検出部11は、白線情報を得ると共に、白線情報を走路パラメータ推定部5に出力する。白線情報とは、白線候補点情報から選択された白線を示す可能性が高い情報である。検出部11には、領域特定部9からXY平面上における白線エッジの候補を示す候補情報と、同じXY平面上における立体物が占める領域を示す領域情報とが入力される。ここで、立体物が占める領域には、白線が映っていないと考えられる。そうすると、立体物が占める領域に、白線候補点が存在しないと仮定することができる。従って、立体物が占める領域に白線候補点が存在した場合には、それはノイズである可能性が高いと考えられる。   The detection unit 11 obtains white line information and outputs the white line information to the travel path parameter estimation unit 5. White line information is information that is likely to indicate a white line selected from white line candidate point information. Candidate information indicating candidates for white line edges on the XY plane and area information indicating areas occupied by the three-dimensional object on the same XY plane are input to the detection unit 11 from the area specifying unit 9. Here, it is considered that the white line is not reflected in the area occupied by the three-dimensional object. Then, it can be assumed that there are no white line candidate points in the region occupied by the three-dimensional object. Therefore, when a white line candidate point exists in the area occupied by the three-dimensional object, it is considered that there is a high possibility that it is noise.

そこで、検出部11は、領域情報と白線候補点情報とを利用して、立体物が占める領域に白線候補点が含まれるか否かを判断する。そして、検出部11は、立体物が占める領域に白線候補点が含まれると判断した場合には、当該白線候補点はノイズである可能性が高いと判定し白線情報には採用しない。一方、検出部11は、立体物が占める領域に白線候補点が含まれない判断した場合には、当該白線候補点は白線を示す真の情報である可能性が高いと判定し白線情報として採用する。すなわち、検出部11は、当該白線候補点を白線のエッジを構成する点として検出する。検出部11は、立体物抽出部7において抽出された全ての立体物について、上記判定を行う。検出部11は、白線候補点の中から白線のエッジを構成する点を検出し、白線のエッジを構成する点を利用して、白線の検出を行う。   Therefore, the detection unit 11 determines whether white line candidate points are included in the area occupied by the three-dimensional object, using the area information and the white line candidate point information. When the detection unit 11 determines that the white line candidate point is included in the region occupied by the three-dimensional object, the detection unit 11 determines that the white line candidate point is highly likely to be noise, and does not adopt the white line information. On the other hand, when the detection unit 11 determines that the white line candidate point is not included in the region occupied by the three-dimensional object, the detection unit 11 determines that the white line candidate point is highly likely to be true information indicating the white line, and employs the white line candidate point as white line information. To do. That is, the detection unit 11 detects the white line candidate point as a point constituting the edge of the white line. The detection unit 11 performs the above determination on all three-dimensional objects extracted by the three-dimensional object extraction unit 7. The detection unit 11 detects a point constituting a white line edge from the white line candidate points, and detects a white line using the point constituting the white line edge.

次に、図3及び図4を参照しつつ白線検出装置の動作について説明する。   Next, the operation of the white line detection device will be described with reference to FIGS.

白線検出装置1は、車載カメラ2及び画像取得部6を利用して、第1のタイミングで立体物用画像を取得する(工程S1)。図4(a)に示される立体物用画像G1は、自車両が片側一車線である走行車線を走行しているときに撮像された画像である。立体物用画像G1には、白線Wa,Wbと、車両中央線Cとが含まれる。また、立体物用画像G1には、対向車線を走行する対向車T(立体物)が含まれる。立体物用画像G1では、対向車Tが明瞭に示されている。   The white line detection device 1 uses the in-vehicle camera 2 and the image acquisition unit 6 to acquire the three-dimensional object image at the first timing (step S1). The three-dimensional object image G1 shown in FIG. 4A is an image captured when the host vehicle is traveling in a traveling lane that is one lane on one side. The solid object image G1 includes white lines Wa and Wb and a vehicle center line C. The three-dimensional object image G1 includes an oncoming vehicle T (three-dimensional object) traveling in the oncoming lane. The oncoming vehicle T is clearly shown in the three-dimensional object image G1.

続いて、白線検出装置1は、車載カメラ2及び画像取得部6を利用して、第2のタイミングで白線用画像を取得する(工程S2)。図4(b)に示される白線用画像G2は、自車両が片側一車線である走行車線を走行しているときに撮像された画像である。白線用画像G2には、白線Wa,Wbと、車両中央線Cとが含まれる。また、白線用画像G2には、対向車線を走行する対向車Tが含まれる。白線用画像G2では、白線Wa,Wb及び車両中央線Cが明瞭に示されている。また、白線用画像G2は、立体物用画像G1よりも後に撮像される。従って、対向車Tの位置は、立体物用画像G1の対向車Tの位置とは異なっている。   Subsequently, the white line detection device 1 uses the in-vehicle camera 2 and the image acquisition unit 6 to acquire a white line image at the second timing (step S2). The white line image G2 shown in FIG. 4B is an image captured when the host vehicle is traveling in a traveling lane that is one lane on one side. The white line image G2 includes white lines Wa and Wb and a vehicle center line C. The white line image G2 includes an oncoming vehicle T traveling in the oncoming lane. In the white line image G2, the white lines Wa and Wb and the vehicle center line C are clearly shown. The white line image G2 is captured after the three-dimensional object image G1. Therefore, the position of the oncoming vehicle T is different from the position of the oncoming vehicle T in the three-dimensional object image G1.

続いて、白線検出装置1は、車両センサ3を利用して走行データを取得する(工程S3)。走行データは、自車両の車速、自車両のヨーレートを含む。そして、白線検出装置1は、データ記録部4を利用して設定データを取得する(工程S4)。設定データは、車載カメラ2のカメラパラメータ、後述する尤度の初期値、後述する尤度の変更値などを含む。   Subsequently, the white line detection device 1 acquires travel data using the vehicle sensor 3 (step S3). The travel data includes the vehicle speed of the host vehicle and the yaw rate of the host vehicle. And the white line detection apparatus 1 acquires setting data using the data recording part 4 (process S4). The setting data includes a camera parameter of the in-vehicle camera 2, an initial value of likelihood described later, a change value of likelihood described later, and the like.

白線検出装置1は、立体物抽出部7を利用して立体物画像から立体物情報を抽出する(工程S5)。立体物情報に含まれる立体物の数は、少なくとも1個である。立体物情報に含まれる立体物の総数をNとする(Nは1以上の整数)。Nが2以上の場合には、例えば、第1の立体物、第2の立体物…というように番号を付して取り扱う。例えば、図4(c)に示されるように、立体物抽出部7は、対向車Tを第nの立体物とし、対向車Tの三次元位置及び三次元形状に関するデータを抽出する。   The white line detection device 1 uses the three-dimensional object extraction unit 7 to extract three-dimensional object information from the three-dimensional object image (step S5). The number of three-dimensional objects included in the three-dimensional object information is at least one. The total number of three-dimensional objects included in the three-dimensional object information is N (N is an integer of 1 or more). When N is 2 or more, for example, the first three-dimensional object, the second three-dimensional object, etc. are attached with numbers. For example, as illustrated in FIG. 4C, the three-dimensional object extraction unit 7 uses the oncoming vehicle T as the nth three-dimensional object, and extracts data regarding the three-dimensional position and the three-dimensional shape of the oncoming vehicle T.

白線検出装置1は、候補点抽出部8を利用して白線候補点情報を取得する(工程S6)。候補点情報に含まれる白線の数は、少なくとも1本であり、2本又は3本以上でもよい。例えば、図4(d)に示されるように、候補点抽出部8は、白線Wa,Wb及び車両中央線Cの三次元位置及び形状に関するデータを抽出する。このとき、対向車Tの一部が白線Waの一部として誤って抽出されたとする(線分W1)。また、工程S6では、全ての候補点に尤度の初期値を設定する。尤度の初期値は、例えば、0.5である。尤度は、候補点が実際に白線エッジを構成する点であるのことの確からしさを表わす評価値である。   The white line detection device 1 acquires white line candidate point information using the candidate point extraction unit 8 (step S6). The number of white lines included in the candidate point information is at least one, and may be two or three or more. For example, as illustrated in FIG. 4D, the candidate point extraction unit 8 extracts data relating to the three-dimensional positions and shapes of the white lines Wa and Wb and the vehicle center line C. At this time, it is assumed that a part of the oncoming vehicle T is erroneously extracted as a part of the white line Wa (line segment W1). In step S6, initial values of likelihood are set for all candidate points. The initial value of likelihood is 0.5, for example. The likelihood is an evaluation value representing the probability that the candidate point is a point that actually constitutes a white line edge.

白線検出装置1は、時間差を算出する(工程S7)。この工程S7は、領域特定部9により実行される。領域特定部9は、立体物用画像G1及び白線用画像G2に含まれたそれぞれの時刻データの差分を時間差として算出する。時間差は、例えば50ミリ秒である。   The white line detection device 1 calculates a time difference (step S7). This step S7 is executed by the region specifying unit 9. The area specifying unit 9 calculates a difference between time data included in the three-dimensional object image G1 and the white line image G2 as a time difference. The time difference is, for example, 50 milliseconds.

白線検出装置1は、対向車Tの位置を推定する(工程S8)。この工程S8は、領域特定部9により実行される。この処理S8は、立体物情報の基準となる座標系と、候補点情報の基準となる座標系とは共通であるとしている。立体物情報の基準となる座標系が候補点情報の基準となる座標系と異なる場合には、いずれか一方を他方の座標系に基づくように座標変換すればよい。続いて、図4(e)に示されるように、白線検出装置1は、白線用画像G2において対向車Tが占める領域Aを算出する(工程S9)。この工程S9は、領域特定部9により実行される。   The white line detection device 1 estimates the position of the oncoming vehicle T (step S8). This step S8 is executed by the region specifying unit 9. In this process S8, the coordinate system that is the reference for the three-dimensional object information and the coordinate system that is the reference for the candidate point information are common. If the coordinate system that is the reference for the three-dimensional object information is different from the coordinate system that is the reference for the candidate point information, coordinate conversion may be performed so that either one is based on the other coordinate system. Subsequently, as shown in FIG. 4E, the white line detection device 1 calculates a region A occupied by the oncoming vehicle T in the white line image G2 (step S9). This step S9 is executed by the region specifying unit 9.

白線検出装置1は、白線情報を取得する。この工程は、検出部11により実行される。具体的には、検出部11は、処理対象の白線候補点における尤度が初期値(0.5)と等しいか否かを判定する(工程S10)。この工程S10によれば、繰り返し処理において、既に、立体物が占める領域に含まれると判定された白線候補点の処理を省略することができる。続いて、白線Waを構成する白線候補点情報について処理を行う。対向車Tが占める領域Aに候補点が含まれるか否かを判定する(工程S11)。候補点が含まれる場合(工程S11:YES)には、当該候補点の尤度を所定の値(例えば0.1)に変更する(工程S12)。例えば、図4(e)に示されるように、線分W1を構成する候補点P1は対向車Tが占める領域Aに含まれているので、尤度を初期値の0.5から変更値の0.1とする。そして、次の工程S13に移行する。候補点が含まれない場合(工程S11:NO)には、当該候補点の尤度を変更することなく、工程S13に移行する。例えば、線分Wa1を構成する候補点P2は対向車Tが占める領域Aに含まれていない、尤度を初期値の0.5ままとする。   The white line detection device 1 acquires white line information. This step is executed by the detection unit 11. Specifically, the detection unit 11 determines whether or not the likelihood at the white line candidate point to be processed is equal to the initial value (0.5) (step S10). According to this step S10, it is possible to omit processing of white line candidate points that have already been determined to be included in the region occupied by the three-dimensional object in the iterative processing. Subsequently, processing is performed on white line candidate point information constituting the white line Wa. It is determined whether candidate points are included in the area A occupied by the oncoming vehicle T (step S11). If the candidate point is included (step S11: YES), the likelihood of the candidate point is changed to a predetermined value (for example, 0.1) (step S12). For example, as shown in FIG. 4 (e), since the candidate point P1 constituting the line segment W1 is included in the area A occupied by the oncoming vehicle T, the likelihood is changed from the initial value 0.5 to the changed value. 0.1. Then, the process proceeds to the next step S13. If the candidate point is not included (step S11: NO), the process proceeds to step S13 without changing the likelihood of the candidate point. For example, the candidate point P2 constituting the line segment Wa1 is not included in the area A occupied by the oncoming vehicle T, and the likelihood is left at the initial value of 0.5.

続いて、全ての候補点について処理が終了したか否かを判定する(工程S13)。処理が終了していない場合(工程S13:NO)には、再び工程S10〜工程S12を実施する。処理が終了した場合(工程S13:YES)には、次の工程S14に移行する。上記工程S10〜S13を実行することにより、1個の立体物に対する処理が終了する。   Subsequently, it is determined whether or not the processing has been completed for all candidate points (step S13). If the process has not been completed (step S13: NO), steps S10 to S12 are performed again. When the process is completed (step S13: YES), the process proceeds to the next step S14. By executing the steps S10 to S13, the process for one three-dimensional object is completed.

続いて、全ての立体物について処理が終了したか否かを判定する(工程S14)。処理が終了していない場合(工程S14:NO)には、カウンタ(n)を加算して(工程S15)、次の第(n+1)の立体物について、上述の工程S10〜工程S14を実施する。処理が終了した場合(工程S14:YES)には、工程S16に移行する。   Subsequently, it is determined whether or not processing has been completed for all three-dimensional objects (step S14). When the processing is not completed (step S14: NO), the counter (n) is added (step S15), and the above-described steps S10 to S14 are performed on the next (n + 1) th three-dimensional object. . When the process is completed (step S14: YES), the process proceeds to step S16.

続いて、白線情報を検出する(工程S16)。上述の工程S10〜工程S14を実施した後の候補情報は、それぞれの候補点について尤度による重み付けがなされている。例えば、図4(f)に示されるように、白線Waにおいて、領域Aに含まれた線分W1を構成する候補点は、尤度が0.1である。一方、白線Waにおいて、領域Aに含まれない線分Wa1,Wa2を構成する候補点は、尤度が0.5である。従って、検出部11は、所定値以上(0.5以上)の尤度を有する候補点が白線のエッジを構成する点であるとして、選択する。以上の工程S1〜工程S16を実施することにより、白線が検出される。   Subsequently, white line information is detected (step S16). In the candidate information after performing the above-described Steps S10 to S14, weighting by likelihood is performed for each candidate point. For example, as shown in FIG. 4F, the candidate points constituting the line segment W1 included in the region A in the white line Wa have a likelihood of 0.1. On the other hand, in the white line Wa, the candidate points constituting the line segments Wa1 and Wa2 not included in the region A have a likelihood of 0.5. Therefore, the detection unit 11 selects a candidate point having a likelihood equal to or greater than a predetermined value (0.5 or more) as a point constituting an edge of a white line. A white line is detected by performing the above steps S1 to S16.

なお、上述の動作において、立体物情報を抽出する動作(工程S5)と、白線用画像を取得する動作(工程S2)とは、並行して実施してもよい。同様に、候補点情報を抽出する動作(工程S6)と、立体物用画像を取得する動作(工程S1)とは、並行して実施してもよい。また、上述の動作において、処理に用いる立体物用画像と白線用画像との組み合わせには、処理に用いる立体物用画像と白線用画像との時間差が取得されれば、任意の組み合わせとすることができる。   In the above-described operation, the operation of extracting the three-dimensional object information (step S5) and the operation of acquiring the white line image (step S2) may be performed in parallel. Similarly, the operation of extracting candidate point information (step S6) and the operation of acquiring the three-dimensional object image (step S1) may be performed in parallel. In the above-described operation, the combination of the three-dimensional object image and the white line image used for the processing may be any combination as long as the time difference between the three-dimensional object image and the white line image used for the processing is acquired. Can do.

上述したように白線検出装置1では、画像取得部6が第1のタイミングで立体物用画像G1を取得し、第1のタイミングと同時ではない第2のタイミングで白線用画像G2を取得している。立体物用画像G1と白線用画像G2を取得するタイミングが時間的にずれているので、車載カメラ2をそれぞれの画像の撮像に適した条件に設定することが可能になる。従って、立体物抽出部7及び候補点抽出部8において、立体物情報及び白線候補点情報をそれぞれ精度良く取得することが可能になる。この白線候補点情報は、立体物である対向車Tの存在に起因するノイズ成分(例えば、図4(d)の線分W1)を含むことがある。そこで、領域特定部9は、立体物情報を利用して、白線用画像G2において対向車Tが占める領域Aを示す領域情報を取得する。この領域情報の取得では、自車両の車速及び向きと第1及び第2のタイミングの時間差を利用して、それぞれの画像間における時間的な位置のずれが補正される。従って、白線用画像G2における対向車Tが占める領域Aを精度良く特定することが可能になる。そして、対向車Tが占める領域Aに含まれる候補点P1はノイズである可能性が高いので、検出部11は対向車Tが占める領域Aに含まれない候補点P2等を白線情報として検出する。そうすると、検出された白線情報には、検出精度を低下させるノイズとなり得る候補点P2等が含まれないので、白線の検出精度を向上することができる。   As described above, in the white line detection device 1, the image acquisition unit 6 acquires the three-dimensional object image G1 at the first timing, and acquires the white line image G2 at the second timing not simultaneously with the first timing. Yes. Since the timing for acquiring the three-dimensional object image G1 and the white line image G2 is shifted in time, the vehicle-mounted camera 2 can be set to a condition suitable for capturing each image. Therefore, the three-dimensional object extraction unit 7 and the candidate point extraction unit 8 can acquire the three-dimensional object information and the white line candidate point information with high accuracy. This white line candidate point information may include a noise component (for example, a line segment W1 in FIG. 4D) due to the presence of the oncoming vehicle T that is a three-dimensional object. Therefore, the region specifying unit 9 acquires region information indicating the region A occupied by the oncoming vehicle T in the white line image G2 using the three-dimensional object information. In the acquisition of the area information, the temporal position shift between the images is corrected using the time difference between the vehicle speed and direction of the host vehicle and the first and second timings. Accordingly, it is possible to accurately specify the region A occupied by the oncoming vehicle T in the white line image G2. Since the candidate point P1 included in the area A occupied by the oncoming vehicle T is highly likely to be noise, the detection unit 11 detects the candidate point P2 and the like not included in the area A occupied by the oncoming vehicle T as white line information. . Then, since the detected white line information does not include the candidate point P2 or the like that may be noise that reduces the detection accuracy, the detection accuracy of the white line can be improved.

第2の形態に係る画像処理システム100Aについて説明する。画像処理システム100Aは、立体物のうち、特に走行車線の外側に設置される縁石に注目し、縁石の存在に起因する白線検出の精度の低下を抑制する。また、立体物用画像の撮像タイミングと白線用画像の撮像タイミングとの時間差に関する補正では、縁石の位置推定を自車両の走行データに基づく推定処理ではなく、画像に基づくフロー検出処理によって実施する。   An image processing system 100A according to the second embodiment will be described. The image processing system 100A pays attention to the curb installed on the outside of the traveling lane among the three-dimensional objects, and suppresses the decrease in the accuracy of white line detection due to the presence of the curb. Further, in the correction relating to the time difference between the imaging timing of the three-dimensional object image and the imaging timing of the white line image, the curb position is estimated by the flow detection process based on the image, not the estimation process based on the traveling data of the own vehicle.

図5に示されるように、画像処理システム100Aは、白線検出装置1Aと、車載カメラ2と、データ記録部4と、走路パラメータ推定部5とを備える。第1の形態と同一の要素には同一の符号を付し、重複する説明を省略する。   As shown in FIG. 5, the image processing system 100 </ b> A includes a white line detection device 1 </ b> A, an in-vehicle camera 2, a data recording unit 4, and a runway parameter estimation unit 5. The same elements as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.

白線検出装置1Aは、画像取得部6と、立体物抽出部7と、候補点抽出部8と、位置推定部12と、検出部13と、を備える。画像取得部6は、第1実施形態の画像取得部6と同様の構成を有し、同様に動作する。   The white line detection device 1 </ b> A includes an image acquisition unit 6, a three-dimensional object extraction unit 7, a candidate point extraction unit 8, a position estimation unit 12, and a detection unit 13. The image acquisition unit 6 has the same configuration as the image acquisition unit 6 of the first embodiment and operates in the same manner.

上述した一形態と同様に、立体物抽出部7は、立体物用画像を利用して、当該画像内の縁石に関する縁石情報(立体物情報)を取得し、当該縁石情報を位置推定部12に出力する。縁石情報とは、縁石の三次元位置及び三次元形状を示す情報である。この情報の取得には、例えば、ステレオマッチング処理を利用することができる。ステレオマッチング処理により、立体物画像に含まれた2枚の画像間における視差を算出する。続いて、縁石の段差(視差の変化または三次元形状を示す情報に含まれる高さ情報)を利用して、路面と縁石との境界を縁石エッジとして検出する。この縁石エッジの検出には、パターンマッチング処理を利用することもできる。パターンマッチング処理によれば、自車両から遠い位置にある縁石の視差精度の低下を抑制できる。なお、上述した一形態においては、立体物抽出部7は、縁石エッジの検出までは行わなくてもよい。   Similarly to the above-described embodiment, the three-dimensional object extraction unit 7 acquires curb information (three-dimensional object information) related to the curb in the image using the three-dimensional image, and sends the curb information to the position estimation unit 12. Output. The curb information is information indicating a three-dimensional position and a three-dimensional shape of the curb. For example, stereo matching processing can be used to acquire this information. The parallax between the two images included in the three-dimensional object image is calculated by the stereo matching process. Subsequently, a boundary between the road surface and the curb is detected as a curb edge by using a step of the curb (height information included in information indicating a change in parallax or a three-dimensional shape). A pattern matching process can also be used to detect the curb edge. According to the pattern matching process, it is possible to suppress a decrease in the parallax accuracy of the curb at a position far from the host vehicle. In the above-described embodiment, the three-dimensional object extraction unit 7 may not perform until the detection of the curb edge.

上述した一形態と同様に、候補点抽出部8は、白線用画像を利用して、当該画像内の白線に関する候補点情報を取得し、当該候補点情報を検出部11に出力する。候補点抽出部8は、候補点抽出部8と同様にエッジ処理により複数の候補点を白線用画像から抽出する。   Similar to the above-described embodiment, the candidate point extraction unit 8 uses the white line image to acquire candidate point information regarding the white line in the image, and outputs the candidate point information to the detection unit 11. Similar to the candidate point extraction unit 8, the candidate point extraction unit 8 extracts a plurality of candidate points from the white line image by edge processing.

位置推定部12は、立体物用画像と白線用画像との間の時間差を利用して、第1のタイミングにおける縁石の位置から、第2のタイミングのタイミングにおける縁石の位置を推定する。そして、位置推定部12は、推定した縁石の位置に関する情報(推定縁石情報)を、検出部13に出力する。縁石情報が抽出される立体物用画像と、候補点情報が抽出される白線用画像とは、撮像のタイミングがずれている。すなわち、車載カメラ2におけるシャッタータイミングが異なる(図2参照)。例えば、立体物画像を先に取得しその後に白線用画像を取得した場合、立体物用画像内の縁石の位置は、白線用画像における縁石の位置よりも遅れて見える。立体物用画像を取得した時刻と白線用画像を取得した時刻は既知であるので、位置推定部12は、これら時刻から時間差(遅れ時間)を算出する。続いて、位置推定部12は、最新の立体物用画像と1フレーム過去(例えば100ミリ秒前)の立体物用画像とを利用して、縁石のオプティカルフロー量(単位時間あたりのピクセル移動量)を算出する。そして、位置推定部12は、当該遅れ時間とオプティカルフロー量とを利用して、立体物用画像から取得された縁石の位置情報から、白線用画像を取得した時刻における位置を推定する。   The position estimation unit 12 estimates the position of the curb at the timing of the second timing from the position of the curb at the first timing using the time difference between the image for the three-dimensional object and the image for the white line. Then, the position estimation unit 12 outputs information on the estimated curb position (estimated curb information) to the detection unit 13. The imaging timing is shifted between the solid object image from which the curb information is extracted and the white line image from which the candidate point information is extracted. That is, the shutter timing in the vehicle-mounted camera 2 is different (see FIG. 2). For example, when the solid object image is acquired first and then the white line image is acquired, the position of the curb in the solid object image appears to be delayed from the position of the curb in the white line image. Since the time when the three-dimensional object image is acquired and the time when the white line image is acquired are known, the position estimating unit 12 calculates a time difference (delay time) from these times. Subsequently, the position estimation unit 12 uses the latest 3D object image and the 3D object image (for example, 100 milliseconds before) for the curb optical flow amount (pixel movement amount per unit time). ) Is calculated. And the position estimation part 12 estimates the position in the time which acquired the image for white lines from the positional information on the curb acquired from the image for solid objects using the said delay time and the amount of optical flows.

なお、位置推定部12は、必要に応じて、候補点情報を規定する座標系を用いた表現に推定された縁石の位置を変換する。また、位置推定部12は、必要に応じて、推定された縁石の位置情報を利用したパラメータ推定を行ってもよい。パラメータ推定処理では、直線モデルやクロソイドモデルといったモデルを利用して、最小二乗法といった近似処理により、推定縁石情報から縁石のエッジ情報を算出する。このパラメータ推定処理は、ステレオカメラで取得された2枚の画像の視差が小さい場合に縁石の段差が精度よく算出されず、縁石情報により示される縁石のエッジ形状が連続的でない場合に有効である。また、パラメータ推定処理は、ステレオマッチング処理において基準画像の所定領域に対応する領域が参照画像から見つからない場合になどに有効である。   In addition, the position estimation part 12 converts the position of the curb estimated to the expression using the coordinate system which prescribes candidate point information as needed. Further, the position estimation unit 12 may perform parameter estimation using the estimated position information of the curb as necessary. In the parameter estimation process, edge information of the curb is calculated from the estimated curb information by an approximation process such as a least square method using a model such as a straight line model or a clothoid model. This parameter estimation process is effective when the curb steps are not accurately calculated when the parallax between the two images acquired by the stereo camera is small, and the curb edge shape indicated by the curb information is not continuous. . The parameter estimation process is effective when a region corresponding to a predetermined region of the standard image is not found from the reference image in the stereo matching process.

検出部13は、推定縁石情報を利用して白線候補点情報に対して重み付け処理を行い、重み付けがなされた白線候補点情報から白線情報を検出する。推定縁石情報を利用した白線候補点情報の重み付け処理について説明する。この重み付け処理では、推定縁石情報に示される縁石位置から白線候補点情報に示される白線エッジ候補までのX軸方向に沿った位置差をパラメータとする。図6(a)は、位置差と白線である確からしさ(尤度)との関係を示す。横軸は、位置差を示し、縦軸は尤度を示す。位置差と尤度とは、所定の関数により示され、ここでは一次関数であるとする。グラフに示されるように、位置差が大きいほど、縁石から白線エッジ候補が離れているので、白線エッジ候補は白線である確からしさが大きいと規定する(尤度を大きくする)。一方、位置差が小さいほど、縁石と白線エッジ候補が近接しているので、白線エッジ候補は白線である確からしさが小さいと規定する(尤度を小さくする)。なお、図6(a)に示されたグラフは、最適な制御がなされるように適切に設定される。   The detection unit 13 performs weighting processing on the white line candidate point information using the estimated curb information, and detects white line information from the weighted white line candidate point information. The weighting process of white line candidate point information using estimated curb information will be described. In this weighting process, the positional difference along the X-axis direction from the curb position indicated in the estimated curb information to the white line edge candidate indicated in the white line candidate point information is used as a parameter. FIG. 6A shows the relationship between the positional difference and the probability (likelihood) that is a white line. The horizontal axis indicates the position difference, and the vertical axis indicates the likelihood. The position difference and the likelihood are represented by a predetermined function, and are assumed to be a linear function here. As shown in the graph, since the white line edge candidate is further away from the curb as the positional difference is larger, it is defined that the white line edge candidate is more likely to be a white line (increase the likelihood). On the other hand, since the curbstone and the white line edge candidate are closer to each other as the positional difference is smaller, the white line edge candidate is defined to have a lower probability of being a white line (decrease the likelihood). Note that the graph shown in FIG. 6A is appropriately set so that optimum control is performed.

図6(b)は、白線候補線情報により示される白線エッジ候補Wcと、推定縁石情報に示される縁石エッジEとを、Y軸方向から見た平面視した図である。検出部13は、白線エッジ候補Wcと縁石エッジEとを奥行き方向(Z軸方向)に沿って3個の領域B1,B2,B3に分割する。例えば、領域B1,B2,B3の長さは、5メートルであるとする。なお、奥行き方向に沿った分割数は、3個以上であってもよい。分割数が多い場合には、湾曲する走行車線において精度のよい位置差を得ることができる。続いて、第1の領域B1において、縁石エッジEと白線エッジ候補Wcとの横方向(X軸方向)における手前側の位置差daを算出する。続いて、第1の領域B1において奥側の位置差dbを算出する。そして、第1の領域B1における縁石エッジEと白線エッジ候補Wcとの位置差d1は、(d1=(da+db)/2)であると規定する。続いて、位置差dを図6(a)に示されたグラフを用いて尤度L1に換算する。これら位置差dを算出する処理と、位置差を尤度に換算する処理と、を第2の領域B2及び第3の領域B3についても実施する。その結果、第2の領域B2の尤度はL2であり、第3の領域B3の尤度はL3であるとする。   FIG. 6B is a plan view of the white line edge candidate Wc indicated by the white line candidate line information and the curb edge E indicated by the estimated curb information viewed from the Y-axis direction. The detection unit 13 divides the white line edge candidate Wc and the curb edge E into three regions B1, B2, and B3 along the depth direction (Z-axis direction). For example, it is assumed that the lengths of the regions B1, B2, and B3 are 5 meters. Note that the number of divisions along the depth direction may be three or more. When the number of divisions is large, an accurate positional difference can be obtained in a curved traveling lane. Subsequently, in the first region B1, a position difference da on the near side in the lateral direction (X-axis direction) between the curb edge E and the white line edge candidate Wc is calculated. Subsequently, the position difference db on the back side is calculated in the first region B1. The positional difference d1 between the curb edge E and the white line edge candidate Wc in the first area B1 is defined as (d1 = (da + db) / 2). Subsequently, the positional difference d is converted into the likelihood L1 using the graph shown in FIG. The processing for calculating the positional difference d and the processing for converting the positional difference into likelihood are also performed for the second region B2 and the third region B3. As a result, the likelihood of the second region B2 is L2, and the likelihood of the third region B3 is L3.

次に、検出部13は、白線情報を検出する。検出部11は、重み付けがなされた第1〜第3の領域B1,B2,B3について、閾値以上の重み(尤度)を有する領域の線分を、白線として選択する。例えば、検出部13は、尤度がLs以上である領域を白線情報として採用する。そうすると、図6(a)に示されるように、領域B1,B2を示す白線候補情報が白線情報として採用される。   Next, the detection unit 13 detects white line information. The detection unit 11 selects, as a white line, a line segment of a region having a weight (likelihood) equal to or greater than a threshold for the first to third regions B1, B2, and B3 that are weighted. For example, the detection unit 13 employs a region whose likelihood is Ls or more as white line information. Then, as shown in FIG. 6A, white line candidate information indicating the regions B1 and B2 is adopted as the white line information.

上記白線検出装置1Aによれば、白線検出装置1と同様に、縁石の存在に起因するノイズの影響を低減し、白線の検出精度を向上することができる。   According to the white line detection device 1A, similarly to the white line detection device 1, it is possible to reduce the influence of noise caused by the presence of the curb and improve white line detection accuracy.

第3の形態における白線検出装置1Bについて説明する。第3の形態における白線検出装置1Bは、縁石の存在に起因する白線検出の精度の低下を抑制する点で、第1実施形態の白線検出装置1と相違し、第2の構成の白線検出装置1Aと共通する。また、立体物用画像及び白線用画像における撮像タイミングの時間差に関する補正は、自車両の走行データを用いる点で、第1実施形態の白線検出装置1と共通であり、第2の構成の白線検出装置1Aと相違する。   A white line detection device 1B in the third embodiment will be described. The white line detection device 1B according to the third embodiment is different from the white line detection device 1 according to the first embodiment in that white line detection device 1B according to the first embodiment is different from the white line detection device 1 according to the first embodiment in that the white line detection accuracy caused by the presence of the curb is suppressed. Common to 1A. Further, the correction regarding the time difference between the imaging timings in the three-dimensional object image and the white line image is the same as the white line detection device 1 of the first embodiment in that the traveling data of the host vehicle is used, and the white line detection of the second configuration is performed. Different from the device 1A.

図7に示されるように、画像処理システム100Bは、白線検出装置1Bと、車載カメラ2と、車両センサ3と、データ記録部4と、走路パラメータ推定部5と、を備える。白線検出装置1Bは、画像取得部6と、立体物抽出部7と、候補点抽出部8と、位置推定部12Aと、検出部13と、を有する。   As shown in FIG. 7, the image processing system 100 </ b> B includes a white line detection device 1 </ b> B, an in-vehicle camera 2, a vehicle sensor 3, a data recording unit 4, and a runway parameter estimation unit 5. The white line detection device 1B includes an image acquisition unit 6, a three-dimensional object extraction unit 7, a candidate point extraction unit 8, a position estimation unit 12A, and a detection unit 13.

位置推定部12Aは、立体物用画像と白線用画像との間の時間差を利用して、第1のタイミングにおける縁石の位置から、第2のタイミングのタイミングにおける位置を推定する。この推定において、位置推定部12Aは、オプティカルフローを利用した方法に代えて、第1実施形態のように車両センサ3から取得された車両速度、ヨーレートを利用した方法を利用する。具体的には、位置推定部12Aは、時間差により生じる自車両の移動量を算出する。当該移動量を縁石の位置に適用することにより、縁石の推定位置を得る。なお、第1実施形態の領域特定部9では、立体物の運動に起因する移動量を算出していた。しかし、縁石は固定物であるのでそれ自身の移動量はゼロである。従って、位置推定部12Aでは立体物自体の移動に関する処理は必要ない。   The position estimation unit 12A estimates the position at the timing of the second timing from the position of the curb at the first timing, using the time difference between the solid object image and the white line image. In this estimation, the position estimation unit 12A uses a method using the vehicle speed and yaw rate acquired from the vehicle sensor 3 as in the first embodiment, instead of the method using the optical flow. Specifically, the position estimation unit 12A calculates the amount of movement of the host vehicle caused by the time difference. The estimated position of the curb is obtained by applying the amount of movement to the position of the curb. In addition, in the area | region specific part 9 of 1st Embodiment, the movement amount resulting from the motion of a solid object was calculated. However, because the curb is a fixed object, its own movement is zero. Therefore, the position estimation unit 12A does not need processing related to the movement of the three-dimensional object itself.

上記白線検出装置1Bによれば、白線検出装置1と同様に、縁石の存在に起因するノイズの影響を低減し、白線の検出精度を向上することができる。   According to the white line detection device 1B, similarly to the white line detection device 1, it is possible to reduce the influence of noise caused by the presence of the curb and improve white line detection accuracy.

1,1A,1B…白線検出装置、2…車載カメラ、2a,2b…カメラ、2c…カメラ制御部、3…車両センサ、4…データ記録部、5…走路パラメータ推定部、6…画像取得部、7…立体物抽出部、8…候補点抽出部、9…領域特定部、11,13…検出部、12…位置推定部、12A…位置推定部、100,100A,100B…画像処理システム、A…対向車が占める領域、C…車両中央線、E…縁石エッジ、G1…立体物用画像、G2…白線用画像、L1,L2,L3…尤度、P1,P2…候補点、T…対向車、Wa,Wb…白線、Wc…白線エッジ候補。 DESCRIPTION OF SYMBOLS 1,1A, 1B ... White line detection apparatus, 2 ... Car-mounted camera, 2a, 2b ... Camera, 2c ... Camera control part, 3 ... Vehicle sensor, 4 ... Data recording part, 5 ... Runway parameter estimation part, 6 ... Image acquisition part 7 ... Solid object extraction unit, 8 ... Candidate point extraction unit, 9 ... Region specifying unit, 11, 13 ... Detection unit, 12 ... Position estimation unit, 12A ... Position estimation unit, 100, 100A, 100B ... Image processing system, A ... Area occupied by oncoming vehicle, C ... Vehicle center line, E ... Curb edge, G1 ... Solid object image, G2 ... White line image, L1, L2, L3 ... Likelihood, P1, P2 ... Candidate point, T ... Oncoming vehicle, Wa, Wb ... white line, Wc ... white line edge candidate.

Claims (1)

自車両に搭載された車載カメラが撮像した画像を利用して、前記自車両が走行する走行車線の白線を検出する白線検出装置であって、
第1のタイミングにおいて前記車載カメラが撮像した立体物用画像と、第1のタイミングと同時ではない第2のタイミングにおいて前記車載カメラが撮像した白線用画像と、を取得する画像取得部と、
前記立体物用画像を利用して、ステレオ処理により前記立体物用画像内の立体物の情報を得る立体物抽出部と、
前記白線用画像を利用して、エッジ処理により前記白線用画像内のエッジを構成する候補点の情報を得る候補点抽出部と、
前記立体物の情報と、前記自車両の車速及び向きと、前記第1のタイミング及び前記第2のタイミングの時間差と、を利用して、前記白線用画像において前記立体物が占める領域の情報を得る領域特定部と、
前記候補点の情報と前記立体物が占める領域の情報とを利用して、前記立体物が占める領域に含まれない前記候補点を前記白線のエッジを構成する点として検出する検出部と、を備える白線検出装置。
A white line detection device that detects a white line of a traveling lane in which the host vehicle travels using an image captured by an in-vehicle camera mounted on the host vehicle,
An image acquisition unit that acquires a three-dimensional object image captured by the vehicle-mounted camera at a first timing and a white line image captured by the vehicle-mounted camera at a second timing that is not simultaneous with the first timing;
A three-dimensional object extraction unit that obtains information of a three-dimensional object in the three-dimensional object image by stereo processing using the three-dimensional object image;
A candidate point extraction unit that obtains information of candidate points that constitute edges in the white line image by edge processing using the white line image;
Using the information of the three-dimensional object, the vehicle speed and direction of the host vehicle, and the time difference between the first timing and the second timing, information on the area occupied by the three-dimensional object in the white line image is obtained. An area identification unit to obtain;
A detection unit that detects the candidate points that are not included in the region occupied by the three-dimensional object as points constituting the edge of the white line using the information of the candidate point and the information of the region occupied by the three-dimensional object; A white line detection device provided.
JP2015028566A 2015-02-17 2015-02-17 White line detector Active JP6416654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015028566A JP6416654B2 (en) 2015-02-17 2015-02-17 White line detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015028566A JP6416654B2 (en) 2015-02-17 2015-02-17 White line detector

Publications (2)

Publication Number Publication Date
JP2016151863A JP2016151863A (en) 2016-08-22
JP6416654B2 true JP6416654B2 (en) 2018-10-31

Family

ID=56696545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015028566A Active JP6416654B2 (en) 2015-02-17 2015-02-17 White line detector

Country Status (1)

Country Link
JP (1) JP6416654B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6544341B2 (en) * 2016-11-25 2019-07-17 トヨタ自動車株式会社 Vehicle driving support device
CN113879312B (en) * 2021-11-01 2023-02-28 无锡威孚高科技集团股份有限公司 Forward target selection method and device based on multi-sensor fusion and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JP4797441B2 (en) * 2005-05-20 2011-10-19 トヨタ自動車株式会社 Image processing apparatus for vehicle
JP5189556B2 (en) * 2009-05-22 2013-04-24 富士重工業株式会社 Lane detection device
JP2012221103A (en) * 2011-04-06 2012-11-12 Denso Corp Image processing device for vehicle

Also Published As

Publication number Publication date
JP2016151863A (en) 2016-08-22

Similar Documents

Publication Publication Date Title
EP3545464B1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
EP2546602B1 (en) Stereo camera apparatus
JP6440411B2 (en) Object detection device
CN102194239B (en) For the treatment of the method and system of view data
JP5267596B2 (en) Moving body detection device
EP2963634B1 (en) Stereo camera device
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
JP6457278B2 (en) Object detection apparatus and object detection method
WO2014002692A1 (en) Stereo camera
JP6499047B2 (en) Measuring device, method and program
JP2006105661A (en) Method for estimating plane by stereo image
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2016004446A (en) Motion estimation device
JP6416654B2 (en) White line detector
WO2014054124A1 (en) Road surface markings detection device and road surface markings detection method
EP3333828B1 (en) Step detection device and step detection method
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP7058128B2 (en) Information processing equipment and programs
JP5903901B2 (en) Vehicle position calculation device
JP5891802B2 (en) Vehicle position calculation device
JP7134780B2 (en) stereo camera device
JP7064400B2 (en) Object detection device
JP2023003924A (en) Arithmetic device and speed calculation method
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP6334773B2 (en) Stereo camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181004

R151 Written notification of patent or utility model registration

Ref document number: 6416654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250