JP4775658B2 - Feature recognition device, vehicle position recognition device, navigation device, feature recognition method - Google Patents
Feature recognition device, vehicle position recognition device, navigation device, feature recognition method Download PDFInfo
- Publication number
- JP4775658B2 JP4775658B2 JP2006351619A JP2006351619A JP4775658B2 JP 4775658 B2 JP4775658 B2 JP 4775658B2 JP 2006351619 A JP2006351619 A JP 2006351619A JP 2006351619 A JP2006351619 A JP 2006351619A JP 4775658 B2 JP4775658 B2 JP 4775658B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- information
- image
- road
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、車両に搭載された撮像装置により少なくとも道路の路面を撮像した画像情報を逐次取り込む画像情報取得手段と、地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識手段と前記道路特徴情報取得手段により取得された前記道路特徴情報と、前記画像情報認識手段により認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識装置に関するとともに、この種の地物認識装置で使用される地物認識方法、さらには、当該地物認識装置を装備した自車位置認識装置及びナビゲーション装置に関する。 The present invention acquires image feature acquisition means that sequentially captures at least image information obtained by imaging at least a road surface by an image pickup device mounted on a vehicle, and acquires road feature information related to features around the image information pickup position from map information. A road feature information acquisition unit, an image information recognition unit that performs recognition processing of the image information, and recognizes an image of a recognition object corresponding to the feature included in the image information, and the road feature information acquisition unit The feature recognition apparatus for recognizing the feature based on the acquired road feature information and the arrangement in the image information of the image of the recognition object recognized by the image information recognition means. The present invention relates to a feature recognition method used in this feature recognition device, and further to a vehicle position recognition device and a navigation device equipped with the feature recognition device.
近年、例えばナビゲーション装置等において、走行中の車両の位置を特定するために、GPS(全地球測位システム)からの電波信号を用いた位置特定の方法が広く用いられている。しかし、このGPSによる車両の位置特定の精度は、数m程度の誤差を含んでおり、それ以上の精度での詳細な位置を特定することは困難であった。そこで、このGPSによる位置特定の精度の悪さを補うために、これまでにも様々な技術が提案されている。 2. Description of the Related Art In recent years, for example, in a navigation apparatus or the like, a position specifying method using a radio wave signal from a GPS (Global Positioning System) is widely used to specify the position of a traveling vehicle. However, the accuracy of specifying the position of the vehicle by GPS includes an error of about several meters, and it is difficult to specify a detailed position with higher accuracy. In view of this, various techniques have been proposed so far in order to compensate for the poor accuracy of position determination by GPS.
このような技術として、特許文献1には、車両に搭載された撮像装置により撮像された画像情報について、認識部が画像の輝度等に基づいて区画線を認識し、それにより車両が走行中の道路が一般道か高速道かを判定する技術が開示されている。
As such a technique, in
この技術では、例えば、撮像した画像中の一定の広さを有するウィンドウ内の輝度が一定の基準を超えている部分を区画線の画像として認識する。これにより認識された区画線は、その長さ、区画線間の破断部部分の長さ、区画線の繰り返しピッチといった特徴抽出データとして判定部に出力される。そして、判定部では、一般道と高速道とでそれぞれ規格化された区画線の設置基準に基づいて、走行中の道路が一般道か高速道かを判定できる。結果、この技術によれば、車両が走行中の道路が一般道か高速道かに応じて、車両の速度制御等を行うことができる。 In this technique, for example, a portion in a window having a certain width in a captured image where the luminance exceeds a certain reference is recognized as a lane marking image. The lane lines recognized in this way are output to the determination unit as feature extraction data such as their lengths, the lengths of the broken portions between the lane lines, and the repetition pitches of the lane lines. Then, the determination unit can determine whether the traveling road is a general road or a highway based on the lane marking installation standards standardized for the general road and the highway. As a result, according to this technique, the speed of the vehicle can be controlled according to whether the road on which the vehicle is traveling is a general road or a highway.
しかしながら、上記技術では、走行中の道路の中における車両の位置、例えば、走行方向に複数の車線がある道路を車両が走行中である場合において、車両がどの車線を走行しているか等のように、走行中の道路の中における位置等の詳細な位置を特定することは不可能である。 However, in the above technique, the position of the vehicle on the road that is being traveled, such as which lane the vehicle is traveling on when the vehicle is traveling on a road having a plurality of lanes in the traveling direction, etc. In addition, it is impossible to specify a detailed position such as a position in a running road.
そこで、出願人は、特許文献2において、撮像装置から得られる画像の画像認識を実行するに際して、撮像位置にある地物の情報(道路特徴情報と呼んでいる)に基づいて画像認識を実行し、認識対象物を精度良く個々に認識するとともに、認識された地物の位置情報と撮像装置の位置との関係とに基づいて、自車の詳細な位置を特定することを提案している。
この特許文献2にあっては、道路の長手方向に沿った位置の特定おいては、マンホール、停止線、標識等、道路に沿って設けられてない地物が使用される。道路の幅方向に沿った位置の特定においては、道路に沿って設けられている区画線(実線、破線)等の地物が使用される。この例にあっては、道路特徴情報と、認識対象物の画像の画像情報中の位置との関係に基づいて、地物を認識する。
Therefore, in Japanese Patent Application Laid-Open No. 2004-228867, the applicant executes image recognition based on feature information (referred to as road feature information) at the imaging position when executing image recognition of an image obtained from the imaging device. In addition, it is proposed that the recognition target object is recognized individually with high accuracy and the detailed position of the own vehicle is specified based on the relationship between the position information of the recognized feature and the position of the imaging device.
In this
この例における自車位置の特定は、例えば、本明細書図10に示されるように、歩道I1から分離体I2に渡って、区画線P1a,P2a,P2b,P1bが存在し、区画線間に走行方向別通行区分P3がある場合、これら区画線及び走行方向別通行区画を個別に識別認識し、その位置関係から自車位置を特定するものとなる。従って、この位置特定手法では、あくまでも、地物個々が良好に認識されることを前提とする。即ち、例えば、自車が走行している走行線あるいは道路幅方向の位置を特定しようとすると、少なくとも区画線である実線と破線とは正確に識別認識される必要がある。 For example, as shown in FIG. 10 of this specification, there are lane lines P1a, P2a, P2b, and P1b from the sidewalk I1 to the separation body I2, and between the lane lines. In the case where there is a travel direction traffic section P3, these lane lines and travel direction traffic sections are individually identified and recognized, and the vehicle position is specified from the positional relationship. Therefore, this position specifying method is based on the premise that each feature is recognized well. In other words, for example, when trying to specify the travel line in which the vehicle is traveling or the position in the road width direction, at least a solid line and a broken line that are division lines need to be accurately identified and recognized.
区画線である実線と破線との識別認識は、特許文献2の図7に示すような撮像画像が得られた場合は比較的容易であるが、本願明細書の図9(a)に示すような撮像画像が得られた場合は、破線の認識が困難となる場合がある。この図にあっては、区画線の画像GP2bの認識において、破断部が画像奥側に位置するため、この区画線P2bが破線なのか実線なのか識別が困難となる場合がある。そこで、撮像装置により逐次撮像される複数の画像(複数のフレーム画像)に関して、同一の認識対象物を順次認識し、複数フレーム間に渡って、同一と認められる認識対象物(この場合は区画線)に関して、破断部が認められる当該区画線を破線と認識し、破断部が認められない当該区画線を実線と認識する認識方法も採用されている。
Identification and recognition between the solid line and the broken line, which are lane markings, is relatively easy when a captured image as shown in FIG. 7 of
しかしながら、先に説明したように、実線と破線との識別を複数フレームに渡って行う構成を採用したとしても、車両が停止している場合、あるいは極めて低速で走行している場合には、撮像装置により取り込まれる画像に実質的な変化がないため、結果的に継続的に破断部の無い部位を撮像し続けたり、破断部を継続的に撮像することになり、破線を実線と識別したり、破線が存在するにも拘らず、破線が無いと識別してしまうことがあることが判明した。 However, as described above, even when the configuration in which the solid line and the broken line are distinguished over a plurality of frames is adopted, the imaging is performed when the vehicle is stopped or when traveling at a very low speed. Since there is no substantial change in the image captured by the device, as a result, it will continue to image a part without a broken part, or it will continuously image a broken part, and the broken line is identified as a solid line. It has been found that there is a case in which there is no broken line even though the broken line exists.
また、車両が何らかの理由から、例えば、道路上に描かれたペイント表示の一種である走行方向通行区分上で停車した場合に、画像認識側では区画線上で車両が停車したと認識し、車線間に渡って走行する、所謂跨ぎが行われたと誤認識する場合があることが判明した。 Also, when the vehicle stops for some reason, for example, on a travel direction traffic category that is a kind of paint display drawn on the road, the image recognition side recognizes that the vehicle has stopped on the lane line, and It has been found that there is a case where it is erroneously recognized that the so-called straddling is performed.
本発明は、上記の課題に鑑みてなされたものであり、その目的は、地物の撮像情報と地図データベースに記憶された地物に関する道路特徴情報とに基づいて、地物を認識する地物認識装置において、例えば、区画線としての実線と破線とを誤って識別するような問題を発生することがない地物認識装置を得ることにある。 The present invention has been made in view of the above problems, and an object of the present invention is to recognize a feature on the basis of imaging information of the feature and road feature information regarding the feature stored in the map database. An object of the recognition apparatus is to obtain a feature recognition apparatus that does not cause a problem of erroneously identifying a solid line and a broken line as lane markings.
上記目的を達成するための、
車両に搭載された撮像装置により少なくとも道路の路面を撮像した画像情報を逐次取り込む画像情報取得手段と、
地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、
前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識手段と、を備え
前記道路特徴情報取得手段により取得された前記道路特徴情報と、前記画像情報認識手段により認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識装置の第1の特徴構成は、
前記画像情報認識手段は、道路の路面に設けられたペイント表示を前記認識対象物として画像認識を行うに際して、単一フレームを対象として、当該単一フレームに含まれる前記認識対象物の画像認識を行う第一認識処理を実行し、当該第一認識処理により実線又は破線の区画線と認識された前記認識対象物に関して、連続する複数フレームを対象として、当該複数フレーム間に渡ってほぼ同一の位置に撮影された区画線を同一の区画線と認識すると共に、当該同一と認識された区画線に関して、破断部が認められる場合に当該区画線を破線と認識し、破断部が認められない場合に実線と認識する第二認識処理を実行するように構成されているとともに、
車両の走行速度情報を取得する速度情報取得手段と、
取得された前記走行速度情報が所定の値より低い場合に、前記画像情報認識手段による前記認識対象物の認識を停止する認識補正処理制御手段と、を備えたことにある。
To achieve the above purpose,
Image information acquisition means for sequentially capturing image information obtained by imaging at least a road surface by an imaging device mounted on a vehicle;
Road feature information acquisition means for acquiring road feature information related to features around the imaging position of the image information from map information;
Image information recognition means for performing recognition processing of the image information and recognizing an image of a recognition object corresponding to the feature included in the image information , and acquired by the road feature information acquisition means A first feature configuration of the feature recognition apparatus that recognizes the feature based on road feature information and an arrangement in the image information of the image of the recognition object recognized by the image information recognition unit is:
The image information recognizing means recognizes an image of the recognition object included in the single frame for a single frame when performing image recognition using the paint display provided on the road surface of the road as the recognition object. The first recognition process is performed, and the recognition target object recognized as a solid line or a broken lane line by the first recognition process is subjected to a plurality of consecutive frames and is substantially the same position between the plurality of frames. When the lane markings taken in the above are recognized as the same lane markings, and when the rupture portion is recognized as a broken line with respect to the lane markings recognized as the same, the lane marking is recognized as a broken line and the rupture portion is not recognized. It is configured to execute a second recognition process that recognizes as a solid line,
A velocity information acquiring means for acquiring the traveling speed information of the vehicle,
When the traveling speed information obtained is lower than a predetermined value, in that and a recognition correction control means for stopping the recognition of the recognition target object by the image information recognizing unit.
この地物認識装置にあっても、撮像装置側から得られる画像情報において地物に対応する認識対象物の画像を認識する画像認識を実行するとともに、画像認識の結果認識された認識対象物と、地物に関す情報を含む道路特徴情報を比較対照して、地物を認識するのであるが、この地物認識装置が搭載される車両の走行速度が別途、速度情報取得手段により取得され、認識補正処理制御手段により、走行速度が所定値より小さい場合には、画像情報認識処理手段による認識処理を行わないものとされる。
即ち、走行速度が所定値より小さい場合は、撮像装置において同じ画像を継続的に取り込んだり(停止している場合)、ほぼ同じ画像を継続的に取り込んだり(極めて低速で走行している場合)することとなるが、このような画像情報が認識処理の対象となることはない。換言すると、画像認識の対象となる画像情報は、走行に伴って順次遷移していく画像となる。結果、画像情報として認識対象物を異なった撮像位置から撮像した画像情報を得ることとなり、認識対象物である地物の特徴が良く現れた画像情報を得て、或は、複数のフレーム間に渡る画像情報から識別認識を行う場合は、認識対象物の特徴を良好に捉えて、地物の認識を的確に行える。
Even in this feature recognition device, image recognition for recognizing the image of the recognition target corresponding to the feature in the image information obtained from the imaging device is performed, and the recognition target recognized as a result of the image recognition The road feature information including information about the feature is compared and contrasted to recognize the feature, but the traveling speed of the vehicle on which the feature recognition device is mounted is separately acquired by the speed information acquisition means, When the traveling speed is smaller than the predetermined value by the recognition correction processing control means, the recognition processing by the image information recognition processing means is not performed.
That is, when the traveling speed is smaller than the predetermined value, the image capturing device continuously captures the same image (when stopped), or captures the same image continuously (when traveling at an extremely low speed). However, such image information is not subject to recognition processing. In other words, the image information that is subject to image recognition is an image that sequentially transitions as the vehicle travels. As a result, image information obtained by imaging the recognition target object from different imaging positions is obtained as image information, and image information in which features of the feature that is the recognition target object appear well is obtained, or between a plurality of frames. When identifying and recognizing from crossing image information, the feature of the recognition target can be satisfactorily recognized and the feature can be recognized accurately.
この第1の特徴構成を備えた地物認識装置にあっては、請求項7に記載されているように、下記の画像認識方法を使用することとなる。
即ち、車両に搭載された撮像装置により少なくとも道路の路面を撮像した画像情報を逐次取り込む画像情報取得ステップと、
地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得ステップと、
前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識ステップと、
前記道路特徴情報取得ステップで取得された前記道路特徴情報と、前記画像情報認識ステップで認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識方法を実行するに、
前記画像情報認識ステップでは、道路の路面に設けられたペイント表示を前記認識対象物として画像認識を行うに際して、単一フレームを対象として、当該単一フレームに含まれる前記認識対象物の画像認識を行う第一認識処理を実行した後、当該第一認識処理により実線又は破線の区画線と認識された前記認識対象物に関して、連続する複数フレームを対象として、当該複数フレーム間に渡ってほぼ同一の位置に撮影された区画線を同一の区画線と認識すると共に、当該同一と認識された区画線に関して、破断部が認められる場合に当該区画線を破線と認識し、破断部が認められない場合に実線と認識する第二認識処理を実行するように構成されているとともに、
車両の走行速度情報を取得する速度情報取得ステップを実行し、
取得された前記走行速度情報が所定の値より低い場合に、前記画像情報認識ステップによる前記認識対象物の認識を停止するのである。
この場合、認識対象物の認識を停止した後、車両の走行が始まり走行速度が所定の値より大きくなった場合は,当然に認識を再開する。このようにすることで、車両の走行状態に合わせて正確に地物の認識を行える
In the feature recognition apparatus having the first characteristic configuration, as described in
That is, an image information acquisition step for sequentially capturing image information obtained by imaging at least a road surface by an imaging device mounted on a vehicle;
Road feature information acquisition step for acquiring road feature information related to features around the imaging position of the image information from map information;
Recognizing the image information and recognizing an image of a recognition object corresponding to the feature included in the image information; and
A feature that recognizes the feature based on the road feature information acquired in the road feature information acquisition step and the arrangement in the image information of the image of the recognition object recognized in the image information recognition step. To run the recognition method,
In the image information recognition step, when performing the image recognition using the paint display provided on the road surface of the road as the recognition object, the image recognition of the recognition object included in the single frame is performed with respect to a single frame. After performing the first recognition process to be performed, with respect to the recognition target object recognized as a solid line or a broken lane line by the first recognition process, it is substantially the same across the plurality of frames for a plurality of consecutive frames. When a lane line photographed at a position is recognized as the same lane line, and when a broken portion is recognized with respect to the lane line recognized as the same, the lane line is recognized as a broken line and no broken portion is recognized Is configured to execute a second recognition process for recognizing a solid line,
Execute a speed information acquisition step of acquiring vehicle travel speed information;
When the acquired travel speed information is lower than a predetermined value, the recognition of the recognition object by the image information recognition step is stopped.
In this case, after the recognition of the recognition object is stopped, when the vehicle starts to travel and the traveling speed becomes higher than a predetermined value, the recognition is naturally restarted. In this way, features can be accurately recognized according to the running state of the vehicle.
さて、第1の特徴構成を備えた地物認識装置において、請求項2に記載されているように、少なくとも、全地球測位システムから得られる測位システム位置情報に基づいて、車両の概略位置を求める位置情報取得手段を備え、
前記画像情報が撮像された時点で前記位置情報取得手段により求められる車両の位置を、前記画像情報の撮像位置とすることが、好ましい。この構成が本願第2の特徴構成である。
Now, in the feature recognition device having the first characteristic configuration, as described in
It is preferable that the position of the vehicle obtained by the position information acquisition unit at the time when the image information is captured is set as the imaging position of the image information. This configuration is the second characteristic configuration of the present application.
全地球測位システムからの位置情報は、粗い位置情報ではあるが、画像情報内に含まれる可能性のある地物を特定するには充分な情報である。そこで、道路特徴取得手段により取得する道路特徴情報の取得のための位置基準及び撮像位置の特定に際して、この情報を利用することで、画像情報内に含まれる認識対象物の画像情報と道路特徴情報との対照を的確に行い、撮像された地物(認識対象物)を迅速且つ正確に認識できる。 Although the position information from the global positioning system is coarse position information, it is sufficient information to identify features that may be included in the image information. Therefore, when specifying the position reference and the imaging position for acquiring the road feature information acquired by the road feature acquisition means, this information is used to obtain the image information of the recognition target object included in the image information and the road feature information. The imaged feature (recognition target) can be recognized quickly and accurately.
さて、これまで説明してきた地物認識装置を備えた自車位置認識装置は、請求項3に記載されるように、地物認識装置に加えて、
前記認識対象物に予め定められた測定点について、前記画像情報に含まれている前記認識対象物についての前記測定点の画像認識を行い、
認識された前記測定点の画像認識結果と、予め求められている当該測定点の位置情報とに基づいて自車位置情報を更新補正する自車位置認識補正手段、
を備える構成とできる。
この自車位置認識装置は、地物認識装置を成す、各手段に加えて、自車位置認識補正手段が備えられる。
一方、認識対象物(地物)には、予め測定点を定めておく。例えば、矢印である走行方法通行区分においては、その矢印先端点を測定点と定めておいたり、停止線であれば、その走行方向前方側の輪郭線上を測定点と定めておく。そして、その測定点の画像認識結果から、測定点から撮像位置(実質的に自車位置)を割り出し、予め求められている当該測定点の位置情報に基づいて自車位置を求め、自車位置情報を更新補正する。このようにして、詳細な自車位置を正確に特定することができる。
Now, vehicle position recognition apparatus having a feature recognition apparatus that has been described thus far, as described in
Performing image recognition of the measurement points for the recognition object included in the image information for the measurement points predetermined for the recognition object,
Vehicle position recognition correction means for updating and correcting the vehicle position information based on the image recognition result of the recognized measurement point and the position information of the measurement point obtained in advance;
It can be set as the structure provided with.
This own vehicle position recognizing device is provided with own vehicle position recognition correcting means in addition to each means constituting the feature recognizing device.
On the other hand, measurement points are determined in advance for the recognition object (feature). For example, in the traveling method passage classification that is an arrow, the tip of the arrow is determined as a measurement point, and if it is a stop line, the outline on the front side in the traveling direction is determined as the measurement point. Then, from the image recognition result of the measurement point, the imaging position (substantially the own vehicle position) is determined from the measurement point, and the own vehicle position is obtained based on the position information of the measurement point obtained in advance. Update and correct information. In this way, the detailed vehicle position can be specified accurately.
このような測定点としては、請求項4に記載されているように、各地物の輪郭形状に応じて、自車両の進行方向に略直交する輪郭線上、又は前記輪郭形状が角部を有する場合には当該角部上に設定されていることが好ましい。
進行方向に略直交する輪郭線上を測定点とすることで、輪郭線上で発生する画像情報での輝度の変化を良好に見出して、その測定点の特定が容易であり、さらに、進行方向に略直交することで、道路の長手方向に沿った自車の位置の特定を容易に行えることとなる。
輪郭形状が角部を有する場合には当該角部上に設定されていることで、角部上で発生する画像情報での輝度の変化を良好に見出して、その測定点の特定が容易である。さらに、道路の長手方向及び幅方向の自車の位置の特定を容易に行えることとなる。
As such a measurement point, as described in
By making the measurement point on the contour line approximately perpendicular to the traveling direction, it is easy to find the change in luminance in the image information generated on the contour line, and to easily identify the measurement point. By being orthogonal, the position of the vehicle along the longitudinal direction of the road can be easily identified.
When the contour shape has a corner, it is set on the corner, so that a change in luminance in the image information generated on the corner can be found well and the measurement point can be easily specified. . Furthermore, the position of the vehicle in the longitudinal direction and the width direction of the road can be easily identified.
これまで説明してきた自車位置認識装置を備えた車両制御装置は、請求項5に記載されるように、自車位置認識装置に加えて、地図情報を格納した地図情報格納手段を備え、
前記地図情報格納手段から取得した自車両の進行方向の地図情報と、前記自車位置認識補正手段による更新補正後の自車位置情報とに基づいて、自車両の走行制御を行う車両制御装置とすることができる。
この車両制御装置は、自車位置認識装置を成す、各手段に加えて、地図情報格納手段が備えられる。そして、車両制御に際しては、正確な自車位置を自車位置認識装置側から取得して、地図情報格納手段から得られる地図情報に基づいて、自車両を走行制御する。結果、正確に信頼性の高い車両制御を実現できる。
The vehicle control apparatus provided with the own vehicle position recognizing device described so far includes, in addition to the own vehicle position recognizing device, a map information storing means for storing map information, as described in
A vehicle control device that performs travel control of the host vehicle based on the map information of the traveling direction of the host vehicle acquired from the map information storage unit and the host vehicle position information after the update correction by the host vehicle position recognition correction unit; can do.
This vehicle control device is provided with a map information storage means in addition to each means constituting the vehicle position recognition device. In the vehicle control, an accurate own vehicle position is acquired from the own vehicle position recognition device side, and the own vehicle is travel-controlled based on the map information obtained from the map information storage means. As a result, accurate and reliable vehicle control can be realized.
これまで説明してきた自車位置認識装置を備えたナビゲーション装置は、請求項6に記載されるように、自車位置認識装置に加えて、地図情報を格納した地図情報格納手段を備え、
前記地図情報格納手段から取得した自車両の進行方向の地図情報と、前記自車位置認識補正手段による更新補正後の自車位置情報とに基づいて、自車両の進路案内を行うナビゲーション装置とすることができる。
このナビゲーション装置は、自車位置認識装置を成す、各手段に加えて、地図情報格納手段が備えられる。そして、ナビゲーションに際しては、正確な自車位置を自車位置認識装置側から取得して、地図情報格納手段から得られる地図情報に基づいて、自車両をナビゲートする。結果、正確に信頼性の高いナビゲーションを実現できる。
Navigation system having a vehicle position recognition apparatus described so far, as described in claim 6, in addition to the vehicle position recognition apparatus, comprising a map information storage means for storing map information,
Based on the map information of the traveling direction of the own vehicle acquired from the map information storage unit and the own vehicle position information after the update correction by the own vehicle position recognition correction unit, the navigation apparatus performs route guidance of the own vehicle. be able to.
This navigation device is provided with a map information storage means in addition to each means constituting the vehicle position recognition device. In navigation, an accurate vehicle position is acquired from the vehicle position recognition device side, and the vehicle is navigated based on map information obtained from the map information storage means. As a result, accurate and reliable navigation can be realized.
以下に、本発明の実施形態について図面に基づいて説明する。
本願にあっては、第一の実施形態と第二の実施形態について、本願に係る自車位置認識装置100を説明する。この自車位置認識装置100は、本願にいう地物認識装置ともなっている。
第一の実施形態では、自車位置認識装置100は、道路における自車の道路長手方向及び道路幅方向の詳細な位置を特定するとともに、自車位置を精度の高い詳細な位置に更新補正するように構成され、自車の周りにある走行不可能領域の認識も行うように構成されている。
一方、第二の実施形態では、自車位置認識装置100は、走行中の道路における走行車線(自車線)を認識して、道路幅方向の詳細な位置を特定し、自車位置(具体的には自車線位置)を精度の高い詳細な位置に更新補正するように構成されている。
本願にあっては、このような詳細な位置の特定、走行不可能領域の認識において、道路にペイントされている区画線の認識(特に、実線と破線との識別認識)が的確に行われることが重要となる。そこで、本願にあっては、実線と破線との誤認識が起こりやすい特定の条件下で、認識処理、それに続く後続処理を行わないように自車位置認識装置100が構築されている。
Embodiments of the present invention will be described below with reference to the drawings.
If it is in this application, self-vehicle
In the first embodiment, the own vehicle
On the other hand, in the second embodiment, the own vehicle
In the present application, in such specification of the detailed position and recognition of the untravelable area, recognition of the lane markings painted on the road (particularly, recognition recognition of solid lines and broken lines) should be performed accurately. Is important. Therefore, in the present application, the vehicle
本願に係る自車位置認識装置100は、自車位置の特定・更新補正に際して、GPS受信機4等からの情報に基づいて自車の概略位置を求めるとともに、同時に撮像された画像情報Gに関して、当該概略位置に存在するはずの地物に関する情報である道路特徴情報Cとを利用して撮像された地物の画像認識を行い、認識された地物を基準に詳細な位置を特定し、特定された自車位置に自車位置を更新補正する。このような処理を実行するに際して、先にも述べたように、区画線の認識に誤りを生じると、自車位置特定の信頼性が低くなる。そこで、本願に係る自車位置認識装置100にあっては、画像認識、自車位置特定、それら処理に随伴する自車位置の更新補正、さらには、走行不可能領域の認識を、自車が停止している場合あるいは、極めて低速で走行している場合には実行しない。この実行停止は、第一及び第二の実施形態において共通である。そこで、図1〜図3に基づいて、まず共通構成である、この制御機能部位に関して説明する。
The vehicle
図1は、上記共通の制御機能部位のハードウエア構成の概略を説明するための機能ブロック図である。図1に示すように、自車位置認識装置100は、走行速度導出部101、認識補正処理制御部102と自車位置認識補正部103とを備えて構成されており、走行速度導出部101で導出される走行速度情報Vに基づいて、認識補正処理制御部102が自車位置認識補正部103での処理の実行の可否を制御するように構成されている。
自車位置認識補正部103の詳細構成を示したのが、第一の実施形態について図4であり、第二の実施形態について図15である。この自車位置認識補正部103の詳細は、後に、これら図及びその部位のフローチャートに基づいて説明する。
FIG. 1 is a functional block diagram for explaining the outline of the hardware configuration of the common control function part. As shown in FIG. 1, the host vehicle
A detailed configuration of the vehicle position
走行速度導出部101は、図2に示すように、走行輪Wに連結される駆動伝達軸等の回転を検出する回転センサ101aからの回転情報を利用して走行速度を導出する。この走行速度導出部101にあっては、車両が停止している走行停止状態、及び、走行速度が1km/hr未満といった極めて低速で走行している低速走行状態も検出される。この場合、回転センサ101a,走行速度導出部101が、本発明における「速度情報取得手段」に相当する。
As illustrated in FIG. 2, the traveling
認識補正処理制御部102は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備え、走行速度導出部101により導出される走行速度情報Vに基づいて、自車位置認識補正部103における処理を実行するか否かの判断を実行する。図3に、認識補正処理制御部102におけるフローチャートを示した。
自車位置認識装置100が働いている状態にあっては、走行速度導出部101は逐次、回転センサ101aからその回転情報を受け取り、走行速度情報Vを導出する。そして、導出された走行速度情報Vが認識補正処理制御部102に取得される(ステップ#1)。
認識補正処理制御部102にあっては、取得した走行速度情報Vを、予め設定されている走行基準情報と比較する(ステップ#2)。この走行基準情報は、自車が走行しているか、停止しているかの判断を行うための走行速度情報であり、例えば、1km/hrに設定されている。
The recognition correction
When the vehicle
In the recognition correction
認識補正処理制御部102にあっては、走行速度情報Vが走行基準情報より大きい場合(ステップ#2:yes)は、自車位置認識補正部103での処理を許可する。一方、走行速度情報Vが走行基準情報より小さい場合(ステップ#2:no)は、自車が停止若しくは極めて低速で走行しているため、自車位置認識補正部103での処理を行うことなく、走行速度情報の取得を繰り返す。即ち、自車位置認識補正部103での処理は行われない。
このように、本願の自車位置認識装置100にあっては、自車が停止しているか、若しくは、極めて低速で走行している状態にあっては、自車位置認識補正処理を実行しないように構成されている。従って、この認識補正処理制御部102が、本発明における「認識補正処理制御手段」に相当する。また、前記自車位置認識補正部103が、本発明における「自車位置認識補正手段」に相当する。
In the recognition correction
As described above, in the subject vehicle
以下、第一、第二の実施形態の夫々に関して、自車位置認識補正部103の構成及びその働きについて順に説明する。
Hereinafter, with respect to each of the first and second embodiments, the configuration and operation of the vehicle position
〔第一の実施形態〕
この実施形態における自車位置認識補正部103は、図4に示すように、撮像装置2により撮像された画像情報Gの認識結果と地図情報から取得した道路特徴情報Cとの両方に基づいて、車両Mの走行中の道路11内における詳細な位置、すなわち自車の道路長手方向及び道路幅方向の詳細な位置を特定し、装置100が認識している自車位置を、特定された詳細な位置に更新補正する。さらに、走行不可能領域Iの認識も行う。
[First embodiment]
As shown in FIG. 4, the vehicle position
図4に示すように、この自車位置認識補正部103は、主たる構成として、車両M(図2参照)に搭載された撮像装置2からの画像情報Gを取り込む画像情報取得部3と、GPS(全地球測位システム)受信機4、方位センサ5及び距離センサ6からの出力に基づいて撮像装置2による概略の撮像位置を特定するための演算を行う概略位置特定演算部7と、地図情報データベース8に格納されている地図情報から撮像装置2による概略の撮像位置周辺の地物に関する道路特徴情報Cを取得するための演算を行う道路特徴情報取得演算部9と、取得された道路特徴情報Cを用いて画像情報Gの認識処理を行い、画像情報Gの中に含まれる前記地物に対応する認識対象物の画像を認識するための演算を行う画像情報認識演算部10と、道路特徴情報取得演算部9で取得された道路特徴情報Cと、画像情報認識演算部10で認識された認識対象物の画像の画像情報G中の配置とに基づいて、車両Mの走行中の道路11内における詳細な位置を特定し、自車の認識位置を補正する車両位置特定演算部17と、を備えている。
As shown in FIG. 4, the vehicle position
ここで、概略位置特定演算部7、GPS受信機4、方位センサ5、距離センサ6、及び地図情報データベース8は、車両に搭載され、車両の経路案内等を行うためのナビゲーション装置の構成を利用することができる。この場合、概略位置特定演算部7、GPS受信機4、方位センサ5、距離センサ6等が、本発明における「位置情報取得手段」に相当する。
Here, the approximate position specifying
撮像装置2は、例えばCCDセンサやCMOSセンサ等の撮像素子と、この撮像素子に光を導くための光学系を構成するレンズ等を有して構成される。この撮像装置2は、車両Mの前方や後方、例えば図2のQ1〜Q3で示す位置に向けて配置され、車両Mが走行する道路11の少なくとも路面が撮影され、更にここではその道路11の周囲も撮影されるように設けられる。このような撮像装置2としては、車両Mの前方や後方等の映像を撮像するためにこれまでにも設けられている車載カメラ等が好適に用いられる。
The
画像情報取得部3は、撮像装置2と接続するためのインターフェース回路12と、撮像装置2からの画像情報Gに対して前処理を行う画像前処理回路13と、前処理後の画像情報Gを格納する画像メモリ14とを有している。インターフェース回路12は、アナログ/デジタル・コンバータ等を備えており、撮像装置2により撮像したアナログの画像情報Gを所定の時間間隔で取り込み、デジタル信号に変換して画像前処理回路13へ出力する。このインターフェース回路12による画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部3は、車両Mが走行中の道路11の画像情報をほぼ連続的に取得することができる。画像前処理回路13は、ここでは画像情報Gに対する前処理として二値化処理、エッジ検出処理等の画像情報認識演算部10による画像認識を容易にするための処理を行う。そして、このような前処理後の画像情報Gが画像メモリ14に格納される。
The image
また、インターフェース回路12は、画像前処理回路13へ送る画像情報Gとは別に、直接画像メモリ14へも画像情報Gを出力する。したがって、画像メモリ14には、画像前処理回路13により前処理を行った後の画像情報G2と、前処理を行っていないそのままの画像情報G1との両方が格納されることになる。
本実施形態においては、この画像情報取得部3が、本発明における「画像情報取得手段」を構成する。
In addition to the image information G sent to the
In the present embodiment, the image
概略位置特定演算部7は、本実施形態においては、GPS受信機4、方位センサ5、及び距離センサ6と接続さている。ここで、GPS受信機4は、GPS衛星からの信号を受信する装置であり、GPS受信機4の位置(緯度及び経度)や移動速度など様々な情報を得ることができる。方位センサ5は、地磁気センサやジャイロセンサ、或いは、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、車両Mの進行方向を検知することができる。距離センサ6は、車輪の回転数を検知する車速センサや車両Mの加速度を検知するヨー・Gセンサと、検知された加速度を2回積分する回路との組み合わせ等により構成され、車両Mの移動距離を検知することができる。
In this embodiment, the approximate position specifying
そして、概略位置特定演算部7は、これらのGPS受信機4、方位センサ5及び距離センサ6からの出力に基づいて、車両Mの現在の概略位置を求める演算を行う。こうして演算された車両Mの位置が撮像装置2の位置となる。
Then, the approximate position specifying
この概略位置特定演算部7により求めることができる車両の概略位置の精度は、GPS受信機の精度に大きく影響を受ける。このため、現状では、数m程度の誤差を含んでいる。よって、この概略位置特定演算部7において、車両Mの道路長手方向及び道路幅方向の詳細な位置を特定することはできない。
結果、本願で示すように、画像情報G及び地物に関して地図情報データベース8に記憶される情報を利用して、車両Mの詳細な位置を特定し、その特定結果に基づいて、自車位置認識装置100が認識する自車位置を更新補正することが必要となる。
The accuracy of the approximate position of the vehicle that can be obtained by the approximate position specifying
As a result, as shown in the present application, the detailed position of the vehicle M is identified using the information stored in the
概略位置特定演算部7は、画像情報取得部3のインターフェース回路12とも接続されている。このインターフェース回路12は、撮像装置2による撮像のタイミングで概略位置特定演算部7に対して信号の出力を行う。したがって、概略位置特定演算部7は、このインターフェース回路12からの信号の入力を受けたタイミングでの撮像装置2の位置を演算することにより、画像情報Gの概略の撮像位置を特定することができる。このようにして概略位置特定演算部7により求められた画像情報Gの概略の撮像位置は緯度及び経度の情報により表され、道路特徴情報取得演算部9に出力される。
この概略位置特定演算部7は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
The approximate position specifying
The approximate position specifying
道路特徴情報取得演算部9は、概略位置特定演算部7及び地図情報データベース8と接続されている。
図5は、地図情報データベース8に格納されている地図情報の内容を示す説明図である。この図に示すように、本実施形態に係る地図情報データベース8には、地図情報として、道路ネットワークレイヤL1、道路形状レイヤL2、地物レイヤL3が格納されている。
道路ネットワークレイヤL1は、道路11間の接続情報を示すレイヤである。具体的には、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路11を構成する多数のリンクLの情報とを有して構成されている。また、各リンクLは、そのリンク情報として、道路11の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。
道路形状レイヤL2は、道路ネットワークレイヤL1に関連付けられて格納され、道路11の形状を示すレイヤである。具体的には、2つのノードNの間(リンクL上)に配置されて緯度及び経度で表現された地図上の位置情報を有する多数の道路形状補完点Sの情報と、各道路形状補完点Sにおける道路幅Wの情報とを有して構成されている。
The road feature information
FIG. 5 is an explanatory diagram showing the contents of the map information stored in the
The road network layer L1 is a layer indicating connection information between the
The road shape layer L2 is stored in association with the road network layer L1 and indicates the shape of the
地物レイヤL3は、道路ネットワークレイヤL1及び道路形状レイヤL2に関連付けられて格納され、道路11上及び道路11の周辺に設けられた各種地物の情報を示すレイヤである。この地物レイヤL3に格納する地物情報としては、少なくとも、この自車位置認識補正部103において認識対象物となり得る地物に関する位置、形状、色彩等の情報が格納されている。本実施形態においては、具体的には、道路11の路面に設けられたペイント表示P、道路11に隣接する走行不可能領域I、道路11上に設けられた各種の標識15や信号機16等の各種地物について、道路形状補完点S又はノードNを基準とした地図上の位置、並びに形状及び色彩等の地物情報を有して構成されている。
The feature layer L3 is a layer that is stored in association with the road network layer L1 and the road shape layer L2, and indicates information on various features provided on the
ここで、ペイント表示Pには、例えば、車線を分ける区画線(実線、破線、二重線等の区画線の種類の情報も含む。)、ゼブラゾーン、各レーンの進行方向を指定する進行方向別通行区分表示、停止線、横断歩道、横断歩道予告(横断歩道あり)、転回禁止、速度表示等が含まれる。走行不可能領域Iには、例えば、道路11に隣接する路肩、歩道、分離帯等が含まれる。
Here, the paint display P includes, for example, lane markings that divide the lane (including information on the types of lane markings such as solid lines, broken lines, and double lines), zebra zones, and traveling directions that specify the traveling direction of each lane. Includes separate traffic classification display, stop line, pedestrian crossing, pedestrian crossing notice (with pedestrian crossing), turn prohibition, speed display, etc. The travel impossible area I includes, for example, a shoulder, a sidewalk, a separation zone, etc. adjacent to the
なお、地図情報データベース8は、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。
The
そして、道路特徴情報取得演算部9は、概略位置特定演算部7により特定された画像情報Gの撮像位置を示す緯度及び経度の情報に基づいて、地図情報データベース8に格納されている地図情報から、画像情報Gの撮像位置周辺の地物に関する道路特徴情報Cを取得するための演算を行う。ここでは、道路特徴情報取得演算部9は、画像情報Gの撮像位置周辺の、少なくとも撮像装置2による撮像領域を含む領域内に含まれる地物の位置、形状、色彩等の地物情報を、道路特徴情報Cとして地図情報データベース8の地物レイヤL3から抽出する演算処理を行う。
Then, the road feature information
この道路特徴情報取得演算部9は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
本実施形態においては、この道路特徴情報取得演算部9が、本発明における「道路特徴情報取得手段」を構成する。
This road feature information
In the present embodiment, the road feature information
画像情報認識演算部10は、画像情報Gの認識処理を行い、画像情報Gの中に含まれる認識対象物の画像を認識するための演算を行う。本実施形態においては、画像情報認識演算部10は、画像情報取得部3の画像メモリ14及び道路特徴情報取得演算部9と接続されており、道路特徴情報取得演算部9により取得された道路特徴情報Cを用いて画像情報Gの認識処理を行う。
また、画像情報認識演算部10において画像認識を行う認識対象物は、上述したペイント表示P、走行不可能領域I、及び各種の標識15や信号機16等の地物レイヤL3に地物情報として格納されている地物に対応するものとする。
The image information
In addition, a recognition object for which image recognition is performed in the image information
この画像情報認識演算部10は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
本実施形態においては、この画像情報認識演算部10が、本発明における「画像情報認識手段」を構成する。
The image information
In the present embodiment, the image information
画像情報認識演算部10における道路特徴情報Cを用いた画像情報Gの認識処理の具体的方法として、この車両位置認識装置1では、画像情報Gに含まれる一のフレームを対象とする場合、以下の2つの方法をそれぞれ単独で或いはこれらを組み合わせて用いる。
一の画像認識処理方法は、画像情報Gから認識対象物の画像候補を抽出して道路特徴情報Cと対比し、道路特徴情報Cとの整合性が高い画像候補を認識対象物の画像として認識する処理方法である。
他の画像認識処理方法は、道路特徴情報Cに基づいて画像情報G中における認識対象物の画像が存在する領域を推測し、その推測結果に基づいて、認識対象物の画像が存在すると推測される領域内では認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して、画像情報Gの中から認識対象物の画像を認識する処理方法である。
これら2つの画像認識処理方法は、何れも、単一フレーム内にある画像情報にも適応可能な画像認識処理方法であり、本発明の「第一認識処理」に相当する。
As a specific method for recognizing the image information G using the road feature information C in the image information
One image recognition processing method extracts an image candidate of a recognition object from the image information G, compares it with the road feature information C, and recognizes an image candidate having high consistency with the road feature information C as an image of the recognition object. It is a processing method to do.
In another image recognition processing method, an area where an image of a recognition object exists in the image information G is estimated based on the road feature information C, and it is estimated that an image of the recognition object exists based on the estimation result. In this processing method, the recognition algorithm is adjusted so that the criterion for determining whether or not the object is a recognition object is lower than in other areas, and the image of the recognition object is recognized from the image information G.
These two image recognition processing methods are both image recognition processing methods applicable to image information in a single frame, and correspond to the “first recognition processing” of the present invention.
さらに、区画線である実線と破線との識別認識に関しては、上記の手法により実線若しくは破線と認識された認識対象物の画像に関して、単位時間に取り込まれる連続する複数のフレーム間に渡って、同一と認められる個々の認識対象物を順次抽出・追跡し、認識処理において、連続するフレーム間で同一と認められる区画線に関し、破断部が認められる場合にその当該区画線を破線と認識し、破断部が認められない場合に実線と認識する。
この画像認識処理方法は、複数のフレームに亘って得られる画像情報を対象とするものであり、本発明の「第二認識処理」に相当する。
Further, regarding the recognition and recognition between the solid line and the broken line, which are lane markings, the same image is recognized between a plurality of consecutive frames captured in a unit time with respect to the image of the recognition object recognized as a solid line or a broken line by the above method. In the recognition process, if a broken part is recognized in the recognition process, the recognition line is recognized as a broken line. If the part is not recognized, it is recognized as a solid line.
This image recognition processing method targets image information obtained over a plurality of frames, and corresponds to the “second recognition processing” of the present invention.
本実施形態においては、後にフローチャートを用いて説明するように、画像情報認識演算部10は、これらの認識処理方法を組み合わせて、道路11の路面に設けられたペイント表示Pと、道路11に隣接する走行不可能領域Iとを認識する処理を行う。そのため、この画像情報認識演算部10は、ペイント表示認識演算部10a、道路特徴情報照合部10b、領域推測部10c、及び走行不可能領域認識部10dを備えている。
In the present embodiment, as will be described later with reference to a flowchart, the image information
車両位置特定演算部17は、道路特徴情報取得演算部9で取得された道路特徴情報Cと、画像情報認識演算部10で認識された認識対象物の画像の画像情報G中の配置とに基づいて、車両Mの走行中の道路11内における詳細な位置を特定するための演算を行う。そのため、本実施形態においては、車両Mの道路長手方向と車両Mの道路幅方向との両方の詳細な位置を特定する演算処理を行う。
本実施形態においては、後にフローチャートを用いて説明するように、車両位置特定演算部17は、画像情報認識演算部10により認識された1又は2以上の認識対象物の画像の画像情報G中の配置と、道路特徴情報Cに含まれる1又は2以上の認識対象物に対応する物の位置情報とを対比して、画像情報Gの撮像位置を詳細に特定することにより、車両Mの道路長手方向及び車両Mの道路幅方向の詳細な位置を特定する演算処理を行う。そして、このような演算処理により求められた車両Mの詳細な位置が、新たな自車の位置として更新補正される。そのため、この車両位置特定演算部17は、配置情報抽出部17a、対比演算部17b、撮像位置特定部17c及び自車位置認識補正部17dを備えている。
The vehicle position specifying
In the present embodiment, as will be described later with reference to a flowchart, the vehicle position specifying
この車両位置特定演算部17は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
The vehicle position specifying
次に、撮像装置2により撮像された画像情報の認識結果と地図情報から取得した道路特徴情報Cとに基づいて、走行不可能領域Iの特定、車両Mの走行中の道路11内における詳細な位置を特定し、自車位置を更新補正する処理の具体例について、図6〜8に示すフローチャートを用いて詳細に説明する。
Next, based on the recognition result of the image information imaged by the
図6に示すように、自車位置認識補正部103は、まず、撮像装置2により撮像された画像情報Gを取り込む処理を行う(ステップ#61)。具体的には、車載カメラ等からなる撮像装置2により撮像した画像情報Gをインターフェース回路12を介して画像前処理回路13及び画像メモリ14に送る処理を行う。またこの際、インターフェース回路12は、撮像装置2からの画像情報Gの取り込みのタイミングで、すなわち撮像装置2による撮像のタイミングとほぼ同じタイミングで、概略位置特定演算部7に対して信号の出力を行う。この信号は概略位置特定演算部7に対して撮像のタイミングを知らせるための信号である。
As shown in FIG. 6, the own vehicle position
画像情報Gの入力を受けた画像前処理回路13では、画像情報Gに対する前処理を行う(ステップ#62)。ここで行う前処理としては、例えば、二値化処理やエッジ検出処理等の画像情報認識演算部10による画像認識を容易にするための各種の処理を行う。図9(a)は、撮像装置2により撮像された画像情報G(G1)の一例であり、図9(b)は、(a)に示された画像情報Gに対して前処理を行った後の画像情報G(G2)の一例である。この図9(b)に示す例では、エッジ検出処理により画像情報Gとして撮像された物の輪郭を示す画像が抽出されている。そして、このステップ#62において前処理が行われた後の画像情報G2、及びインターフェース回路12から直接送られてきた画像情報G1を画像メモリ14に格納する(ステップ#63)。
In response to the input of the image information G, the
また、ステップ#62及び#63の処理と並行して、概略位置特定演算部7では、画像情報Gの概略の撮像位置を求める処理を行う(ステップ#64)。具体的には、インターフェース回路12から画像情報Gの取り込みのタイミングを示す信号が出力された時に、それを撮像装置2による撮像のタイミングとして、GPS受信機4、方位センサ5及び距離センサ6に基づいて車両Mの概略の現在位置を求める演算を行う。そして、これにより求められた車両Mの概略の現在位置を画像情報Gの概略の撮像位置とする。ここで求められた概略の撮像位置の情報は、緯度及び経度の情報として道路特徴情報取得演算部9に送られる。
In parallel with the processes of
次に、道路特徴情報取得演算部9において、地図情報データベース8に格納されている地図情報から画像情報Gの撮像位置周辺の地物に関する道路特徴情報Cを取得する処理を行う(ステップ#65)。この際、道路特徴情報取得演算部9は、地図情報データベース8に格納されている広範囲の地図情報の中から、ステップ#64において求められた概略の撮像位置の周辺の一定範囲R内の道路特徴情報Cを抽出して取得する。ここで、概略の撮像位置周辺の一定範囲Rとしては、撮像装置2により画像情報Gとして撮像される領域を少なくとも含むように設定すると好適である。
Next, the road feature information
図10は、道路特徴情報取得演算部9により取得された道路特徴情報Cの一例を図形化して示したものである。本例では、道路特徴情報Cに含まれる地物としては、ペイント表示Pとして、片側3車線の道路11の車道の外縁を示す2本の実線の区画線P1a、P1bと、3車線の間を区切る2本の破線の区画線P2a、P2bと、3車線に設けられた走行方向通行区分P3とがある。また、走行不可能領域Iとして、道路11の右側に隣接する歩道I1と、道路11の左側に隣接する中央分離帯I2とがある。なお、この図10は単なる一例であり、画像情報Gの撮像位置によって様々な地物が道路特徴情報Cに含まれることになる。
FIG. 10 shows an example of the road feature information C acquired by the road feature information
この道路特徴情報Cの内容は、これらの各地物の位置情報、形状情報及び色彩情報により構成されている。ここで、各地物の位置情報は、道路形状補完点S(交差点等のノードNが存在する場所ではノードN(図5参照)も含む。)を基準とする位置情報により表される。すなわち、例えば、ペイント表示Pのうちの実線の区画線P1a、P1bや破線の区画線P2a、P2b、或いは走行不可能領域Iの歩道I1や中央分離帯I2等の道路11に沿って設けられている地物については、道路形状補完点S(又はノードN)からの距離(オフセット量)のみにより表される。一方、例えば、道路11に沿って設けられない走行方向通行区分P3や、停止線、標識等の地物については、特定の道路形状補完点S(又はノードN)からの距離及び方向により位置情報を表される。
各地物の形状情報は、上記位置情報により求められる位置を基準として縦、横、高さ方向にそれぞれどれだけの大きさを有し、どのような形状(シルエット)を備えているか等の情報を有する。この形状情報は、画像情報Gとの対比が容易となるように簡略化して表された情報とすると好適である。
各地物の色彩情報は、例えば道路標識等の一様な色彩でない地物の場合には、上記形状情報の中の領域毎に色彩情報が格納された情報とすると好適である。
The content of the road feature information C is composed of position information, shape information, and color information of these various features. Here, the position information of each feature is represented by position information based on a road shape complementing point S (including a node N (see FIG. 5) where a node N such as an intersection is present). That is, for example, it is provided along
The shape information of each feature includes information such as what size and shape (silhouette) each has in the vertical, horizontal, and height directions based on the position obtained from the position information. Have. It is preferable that the shape information is simplified and expressed so as to be easily compared with the image information G.
The color information of each feature is preferably information in which color information is stored for each region in the shape information in the case of a non-uniform color feature such as a road sign.
次に、画像情報認識演算部10において、画像情報Gの認識処理を行い、画像情報Gの中に含まれる認識対象物の画像を認識する処理を行う(ステップ#66)。本実施形態においては、画像情報Gに含まれる地物の画像の中で、ペイント表示Pと走行不可能領域I(特に歩道I1)を認識対象物としている。そして、この認識対象物の画像認識処理として、認識が比較的容易なペイント表示Pの画像認識を行った後、それに基づいて認識アルゴリズムを調整して、ペイント表示Pより認識が困難な走行不可能領域Iの画像認識を行う処理としている。このような画像情報Gの認識処理の具体例を図7のフローチャートに示す。
なお、走行不可能領域Iの画像認識がペイント表示Pの画像認識より困難であるのは、ペイント表示Pは、道路11の路面との輝度や色彩の差が大きく画像認識が比較的容易であるのに対して、路肩、歩道、分離帯等の走行不可能領域Iは、道路11やその周囲との輝度や色彩の差が小さいためにエッジ検出等によっても輪郭を特定することが困難な場合が多いからである。
Next, the image information
Note that the image recognition of the untravelable area I is more difficult than the image recognition of the paint display P. The paint display P has a large difference in luminance and color from the road surface of the
この画像情報Gの認識処理では、図7に示すように、まず、画像情報認識演算部10のペイント表示認識演算部10aにおいて、画像情報Gの中に含まれるペイント表示Pの可能性がある画像候補を抽出する処理を行う(ステップ#71)。具体的には、図9(b)に示されるようにエッジ検出処理等の前処理を行った後の画像情報G2の中から、区画線等のペイント表示Pの特徴を表すテンプレート等の予め規定された特徴データと整合性が高い画像を抽出し、それをペイント表示Pの画像候補とする処理を行う。図10に示す例では、図9(b)、右側の実線の区画線の画像GP1a、右側の破線の区画線の画像GP2a、左側の破線の区画線の画像GP2b、外側にある歩道の縁石の画像GI1a、左側の実線の区画線の画像GP1b、及び走行方向進行区分の画像GP3がペイント表示Pの画像候補として抽出される。
In the recognition processing of the image information G, as shown in FIG. 7, first, in the paint display
その後、画像情報認識演算部10の道路特徴情報照合部10bにおいて、ステップ#71で抽出されたペイント表示Pの画像候補と、ステップ#65で取得された道路特徴情報Cの中のペイント表示Pに関する情報とを対比する(ステップ#72)。そして、この対比の結果、位置関係、形状、及び色彩や輝度等の各情報についての整合性が高い画像候補を抽出し、抽出された画像候補をペイント表示Pの画像と認識する(ステップ#73)。図10のペイント表示Pに関する道路特徴情報Cに基づいて、実線及び破線の区画線P1a、P1b、P2a、P2bの位置関係(間隔)、これらの区画線P1a、P1b、P2a、P2bと走行方向通行区分P3との位置関係、並びにこれらの区画線P1a、P1b、P2a、P2b及び走行方向通行区分P3の形状及び色彩や輝度等がわかる。したがって、これらの道路特徴情報Cと整合性が高い画像情報G中のペイント表示Pの画像候補を抽出することで、ペイント表示Pの可能性が高い画像候補のみを抽出することができる。図10に示す例の場合、このステップ#73の処理により、左側の実線の区画線の画像GP1aの外側にある歩道の縁石の画像GI1aが除外される。そして、このように抽出された画像候補をペイント表示Pの画像と認識する。なお、ペイント表示Pの画像候補の色彩や輝度等の情報は、画像メモリ14に格納されている前処理が行われていない画像情報Gから取得することができる。
図11(a)は、画像情報Gからステップ#73の処理により抽出されたペイント表示Pの画像のみを表した図である。
Thereafter, in the road feature
FIG. 11A shows only the image of the paint display P extracted from the image information G by the process of
次に、認識されたペイント表示Pの画像を基準として、画像情報Gと道路特徴情報Cとの照合を行う(ステップ#74)。すなわち、画像情報G中における認識されたペイント表示Pの画像の位置と、道路特徴情報Cに含まれるペイント表示Pの位置とが合致するように対応付けることにより、道路特徴情報Cに含まれる各地物の情報と画像情報Gに含まれる画像とを対応付けることが可能になる。この対応付けにおいて、実線GP1a,GP1bと破線GP2a,GP2bとの識別に際しては、順次取得されている画像情報Gの複数のフレームの画像に関して、連続する複数のフレーム間に渡って、同一と認められる個々の認識対象物GP1a,GP1b,GP2a,GP2bを順次抽出・追跡し、認識処理において、連続するフレーム間で同一と認められる区画線GP1a,GP1b,GP2a,GP2bに関し、破断部が認められる場合にその当該区画線を破線GP2a,GP2bと認識し、破断部が認められない場合に実線GP1a,GP1bと認識する。
この識別手法に関して、図9(a),図13に基づいて説明する。図9(a)は、これまで説明してきたように、現在認識の対象としている画像情報Gであり、図13は、図9(a)に示されるように数フレーム前の画像情報Gである。両者間で、走行車線の変更は行われていない。両図を比較すると、実線GP1a,GP1bに関しては、その画像がほぼ同一の位置に連続する白線として認められるのに対して、破線GP2a,GP2bでは、破断部GSの位置を異ならせて、ほぼ同一の位置に撮影される破断状態にある白線となる。従って、車両が走行状態にあると、画像の特定高さ位置において画像横断方向の輝度を、複数フレームに渡って、区画線毎に追跡すると実線には破断部が出現することはなく、破線には順次破断部GSが出現する。そこで、このような識別処理により実線GP1a,GP1bと破線GP2a,GP2bとをさらに正確に識別することができる。
Next, the image information G and the road feature information C are collated with reference to the recognized image of the paint display P (step # 74). In other words, by associating the position of the recognized image of the paint display P in the image information G with the position of the paint display P included in the road feature information C so as to match, the various features included in the road feature information C Can be associated with the image included in the image information G. In this association, when identifying the solid lines GP1a and GP1b and the broken lines GP2a and GP2b, the images of a plurality of frames of the image information G acquired sequentially are recognized to be the same over a plurality of consecutive frames. When individual recognition objects GP1a, GP1b, GP2a, GP2b are sequentially extracted and tracked, and in the recognition process, a broken portion is recognized with respect to the partition lines GP1a, GP1b, GP2a, GP2b that are recognized to be the same between consecutive frames. The partition lines are recognized as broken lines GP2a and GP2b, and are recognized as solid lines GP1a and GP1b when a broken portion is not recognized.
This identification method will be described with reference to FIGS. FIG. 9A shows the image information G that is currently recognized as described above, and FIG. 13 shows the image information G several frames before as shown in FIG. 9A. . There is no change in the driving lane between the two. Comparing the two figures, the solid lines GP1a and GP1b are recognized as white lines continuing at substantially the same position, whereas the broken lines GP2a and GP2b are substantially the same by changing the positions of the broken portions GS. The white line in a broken state is photographed at the position. Therefore, when the vehicle is in a running state, when the luminance in the image crossing direction is tracked for each lane line over a plurality of frames at a specific height position of the image, no broken portion appears in the solid line, and the broken line appears. The rupture part GS appears sequentially. Thus, the solid lines GP1a and GP1b and the broken lines GP2a and GP2b can be more accurately identified by such identification processing.
そして、道路11に沿って設けられている区画線GP1a、GP2a等の地物を基準とすることにより道路11の幅方向の位置関係を正確に対応付けることができ、道路11に沿って設けられない走行方向通行区分P3や、図示しない停止線、標識等の地物を基準とすることにより道路11に沿った長手方向の位置関係を正確に対応付けることができる。
The positional relationship in the width direction of the
その後、画像情報認識演算部10の領域推測部10cにおいて、ステップ#74における道路特徴情報Cと画像情報Gとの照合結果に基づいて、画像情報G中における走行不可能領域Iの画像が存在する領域を推測する処理を行う(ステップ#75)。すなわち、上記のステップ#74における画像情報Gと道路特徴情報Cとの照合結果に基づけば、画像情報Gの中におけるペイント表示Pや走行不可能領域Iを含む各地物の画像の配置が推測可能である。そこで、道路特徴情報Cに含まれる走行不可能領域Iの位置及び形状に対応する画像情報G中の領域を、ステップ#74における照合結果から推測する演算を行う。そして、このステップ#75の処理の結果として演算される領域を、走行不可能領域Iの画像が存在する領域と推測する。
Thereafter, in the
本実施形態においては、図11(b)に示すように、画像情報Gとして撮像された画像範囲を、ステップ#73の処理により認識されたペイント表示Pの中の区画線P1a、P1b、P2a、P2bに基づいて、区画線P1a、P1b、P2a、P2bのそれぞれが属する領域A1〜A4と、これらの領域A1〜A4により分割された領域A5〜A8とに簡易的に区分している。そして、それぞれの領域A5〜A8が走行不可能領域Iを含むか否かという判断をステップ#74における照合結果に基づいて行うことにより、走行不可能領域Iの画像が存在する領域を推測する処理を行う。ここでは、図11(b)に示されるように、道路特徴情報Cに基づいて、道路11の両側の実線の区画線P1aの外側に走行不可能領域I(歩道I1)が存在していると判断することができるので、当該道路11の実線の区画線P1a、が属する領域A1の外側の領域A5内に走行不可能領域Iの画像が存在すると推測できる(ステップ#75)。
In the present embodiment, as shown in FIG. 11 (b), the image range captured as the image information G is divided into lane markings P1a, P1b, P2a in the paint display P recognized by the process of
次に、ステップ#75の推測結果に基づいて、画像情報認識演算部10の走行不可能領域認識部10dにおける認識アルゴリズムを調整し(ステップ#76)、画像情報Gの中に含まれる走行不可能領域Iの画像の認識を行う(ステップ#77)。
本実施形態においては、ステップ#75において走行不可能領域Iの画像が存在すると推測された領域A5内について、走行不可能領域Iであるか否かの判断基準が他の領域(ここでは領域A6〜A8)よりも低くなるように認識アルゴリズムを調整する。すなわち、上述のとおり、歩道I1、路肩等の走行不可能領域Iは、道路11やその周囲との輝度や色彩の差が小さいためにエッジ検出等によっても輪郭を特定することが困難な場合が多く、ペイント表示Pよりも画像認識が一般的に困難である。そこで、走行不可能領域Iの画像が存在すると推測された領域A5について、他の領域よりも走行不可能領域Iと認識しやすくする方向に認識アルゴリズムを調整することにより、走行不可能領域Iの認識率を高めることができる。
なお、走行不可能領域Iであるか否かの判断基準が他の領域よりも低くなるように認識アルゴリズムを調整するためには、走行不可能領域Iの画像が存在すると推測された領域A5における判断基準を他の領域に対して低くする方法の他に、他の領域の判断基準を領域A5に対して高くする方法や、領域A5における判断基準を他の領域に対して低くするとともに他の領域の判断基準を領域A5に対して高くする方法等がある。この認識アルゴリズムの具体的な調整方法は、走行不可能領域Iの認識方法に応じた方法とする。
Next, based on the estimation result of
In the present embodiment, in the area A5 in which it is estimated that the image of the untravelable area I exists in
In order to adjust the recognition algorithm so that the criterion for determining whether or not the vehicle is in the non-travelable region I is lower than that in the other regions, the region A5 in which the image of the non-driveable region I is estimated to exist exists. In addition to a method for lowering the criterion for other regions, a method for increasing the criterion for other regions relative to the region A5, a method for lowering the criterion for the region A5 relative to other regions, and other For example, there is a method of raising the determination criterion of the region with respect to the region A5. The specific adjustment method of this recognition algorithm is a method according to the recognition method of the travel impossible area I.
例えば、本実施形態においては、走行不可能領域Iの画像の認識アルゴリズムとして、画像情報Gに対してエッジ検出処理を行い、道路11の幅方向の各位置におけるエッジ点数を検出し、このエッジ点数が所定のしきい値以上となっている場所が走行不可能領域Iであると認識するアルゴリズムとしている。そして、この際のしきい値として、図12に示すように、低い値に設定された第一しきい値t1と、高い値に設定された第二しきい値t2とを用いている。すなわち、走行不可能領域Iの画像が存在すると推測された領域A5内では第一しきい値t1を用い、それ以外の領域A6〜A8内では第二しきい値t2を用いることにより、走行不可能領域Iの画像が存在すると推測された領域A5内について、走行不可能領域Iであるか否かの判断基準が他の領域A6〜A8よりも低くなるように認識アルゴリズムを調整している。
For example, in the present embodiment, as the recognition algorithm for the image of the untravelable area I, edge detection processing is performed on the image information G, the number of edge points at each position in the width direction of the
図12は、図11に示す画像情報Gについて、道路11の幅方向の各位置におけるエッジ点数を検出した結果を示すグラフである。この図に示すように、領域A1〜A4は、区画線P1a、P1b、P2a、P2bが存在するのでエッジ点数は多くなっているが、これらの領域A1〜A4は走行不可能領域Iの画像認識の対象とはならない。領域A6、A7、A8は、走行方向進行区分P3が存在する位置以外はアスファルトの路面のみであるので全体的にエッジ点数は少なくなる。
一方、領域A5は、エッジ点数はある程度多くなっている。結論からいうと、領域A5は歩道I1といった走行不可能領域Iが存在することによりエッジ点数が多くなる。しかし、エッジ点数のみからそれが走行不可能領域Iであるか否かを判断することは困難である。
FIG. 12 is a graph showing the result of detecting the number of edge points at each position in the width direction of the
On the other hand, the area A5 has a certain number of edge points. In conclusion, the area A5 has a large number of edge points due to the presence of the non-travelable area I such as the sidewalk I1. However, it is difficult to determine whether or not it is the non-running region I from only the number of edge points.
そこで、ステップ#75の推測結果に基づいて、走行不可能領域Iの画像が存在すると推測された領域A5内については、走行不可能領域Iであると判断するしきい値を低い値に設定された第一しきい値t1とし、その他の領域A6〜A8内については、走行不可能領域Iであると判断するしきい値を高い値に設定された第二しきい値t2としている。これにより、ステップ#75の推測結果に基づいて、走行不可能領域Iの画像が存在すると推測された領域A5内で走行不可能領域Iの検出漏れを減らすとともに、それ以外の領域A6〜A8内で走行不可能領域Iと誤検出することを防止できる。したがって、走行不可能領域Iの認識率を高めることができる。これらの第一しきい値t1及び第二しきい値t2の値は、実験的及び統計的に適切な値を求めるとよい。また、これらの第一しきい値t1及び第二しきい値t2の値を、画像情報Gから抽出される他の情報や車両Mに搭載された他のセンサからの信号等に基づいて変化する可変値とすることも好適な実施形態の一つである。
Therefore, based on the estimation result of
以上のようにして、画像情報認識演算部10において画像情報Gの認識処理を行うことにより、画像情報G中に含まれる認識対象物としてのペイント表示Pと走行不可能領域Iの画像が認識される。図11に示す画像情報Gの例では、図11(b)に示すように、区画線P1a、P1b、P2a、P2bの画像GP1a、GP1b、GP2a、GP2b、走行方向通行区分P3の画像Gp3、区画線P1aの画像GP1aの右側の歩道I1の画像GI1がそれぞれ認識されることになる。この認識処理において、特に区画線である実線と破線とに認識を正確に行えることが、本願に係る地物認識装置100の信頼性の向上に大きく寄与するが、本願にあっては、走行速度が低い場合は、画像認識処理を行わない構成が採用されるため、装置の信頼性が大幅に向上する。
As described above, the image information
次に、車両位置特定演算部17において、図6に示すように、ステップ#65により取得された道路特徴情報Cと、ステップ#66により認識された認識対象物の画像の画像情報G中の配置とに基づいて、車両Mの走行中の道路11内における詳細な位置を特定し自車位置を更新補正する処理を行う(ステップ#67)。本実施形態においては、ステップ#66により認識された認識対象物の画像の画像情報G中の配置と、ステップ#65により取得された道路特徴情報Cに含まれる前記認識対象物に対応する物の位置情報とを対比して、画像情報Gの撮像位置を詳細に特定することにより、車両Mの道路長手方向及び車両Mの道路幅方向の詳細な位置を特定する演算処理を行う。
Next, as shown in FIG. 6, the vehicle position specifying
このような車両Mの詳細な位置を特定する処理の具体例を図8のフローチャートに示す。この処理では、まず、車両位置特定演算部17の配置情報抽出部17aにおいて、ステップ#66で認識された各認識対象物の画像情報G中の配置情報を抽出する(ステップ#81)。ここでは、認識対象物の画像情報G中の配置情報としては、各認識対象物の画像情報G中における位置の情報と、それに対応する各認識対象物の形状及び色彩等の情報とが含まれる。図9に示す画像情報Gの例では、図9(a),図14に示すように、認識対象物として、区画線P1a、P1b、P2a、P2bの画像GP1a、GP1b、GP2a、GP2b、走行方向通行区分P3の画像GP3、歩道I1の画像GI1が認識されているので、このステップ#81では、これらの認識対象物についての画像情報G中の配置情報が抽出される。
A specific example of the process for specifying the detailed position of the vehicle M is shown in the flowchart of FIG. In this process, first, the arrangement
次に、車両位置特定演算部17の対比演算部17bにおいて、ステップ#81により抽出された各認識対象物の画像情報G中の配置情報と、ステップ#65により取得された道路特徴情報Cとを対比する処理を行う(ステップ#82)。ここでは、各認識対象物の画像情報G中の配置情報と、道路特徴情報C中に含まれる各地物の配置とを対比し、整合性が高い画像情報G中の認識対象物の画像と道路特徴情報C中の地物の情報とを対応付ける処理を行う。これにより、画像情報G中の各認識対象物の画像が、道路特徴情報C中のどの地物の画像であって、道路特徴情報Cにより表される道路11上のどの位置に配置されているかを特定することができる。
Next, in the
その後、車両位置特定演算部17の撮像位置特定部17cにおいて、画像情報Gの撮像位置を詳細に特定する処理を行う(ステップ#83)。図14は、この処理の手順を模式的に表した図である。すなわち、この撮像位置を詳細に特定する処理は、ステップ#82の対比結果に基づいて、画像情報G中の各認識対象物の画像の配置と整合する画像情報Gの撮像位置を、道路特徴情報C中の位置に対応させて、道路11の道路長手方向及び道路幅方向に詳細に特定することにより行う。
Thereafter, the imaging
そこで、画像情報Gの認識結果に基づいて画像情報Gの撮像位置を特定する際の演算処理方法について具体的に説明する。
まず、道路長手方向の撮像位置を特定する場合は、区画線や歩道等とは異なり、道路11に沿って設けられない走行方向通行区分、停止線、標識、信号機等の認識対象物の画像を基準とすることにより道路11に沿った方向、すなわち道路長手方向の撮像位置を詳細に特定することができる。すなわち、画像情報G中における、これらの道路11に沿って設けられていない認識対象物の画像の配置を解析すると、図14に示す例では、走行方向通行区分の画像GP3があることがわかる。ここで、撮像装置2は車両Mに所定の高さで所定の撮像方向となるように固定されていることから、走行方向通行区分の画像GP3の画像情報G中の配置、特に高さ方向の配置に基づいて、撮像位置から走行方向通行区分P3までの距離Dを算出することができる。この時、図14に示す例では、矢印である走行方向通行区分P3の先端に設定される測定点FCに注目して、距離Dが算出される。この注目点FCの絶対位置は、その緯度・経度情報として地図情報データベース8に格納されている。これにより、画像情報Gの撮像位置を道路長手方向に詳細に特定することができる。図14に示す例では、この画像情報Gの撮像位置はB1位置と特定されている。
Therefore, a specific description will be given of a calculation processing method for specifying the imaging position of the image information G based on the recognition result of the image information G.
First, when specifying the imaging position in the longitudinal direction of the road, unlike lane markings and sidewalks, images of recognition objects such as travel direction traffic sections, stop lines, signs, traffic lights, etc. that are not provided along the
道路幅方向の位置を特定する場合、画像情報G中の各認識対象物の画像の配置を解析すると、画像情報Gの中心から、左側に破線の区画線の画像GP2aがあり、右側に実線の区画線の画像GP1aがあることがわかる。また、この実線の区画線の画像GP1aの左側には歩道の画像GI1があり、更に、左側の破線の区画線の画像GP2aと右側の実線の区画線の画像GP1aとの間には、走行方向通行区分の画像GP3がある。これらの各認識対象物の画像は、ステップ#82の処理により道路特徴情報Cに含まれる各地物の情報と対応付けられているので、画像情報G中の上記の各認識対象物の画像の配置の解析結果に基づけば、道路幅方向の撮像位置は、図14に示されている道路特徴情報C中において、3車線の道路11の右側車線(B1位置が存在する車線)内に撮像位置があると特定することができる。また、実線の区画線の画像GP1a又は破線の区画線の画像GP2aの画像情報G中の配置、特に幅方向の配置に基づけば、左側車線内の左寄り又は右寄り等の更に詳細な位置も特定することが可能である。
When specifying the position in the road width direction, when analyzing the arrangement of the images of each recognition object in the image information G, there is a broken line GP2a on the left side from the center of the image information G, and a solid line on the right side. It can be seen that there is a marking line image GP1a. Further, there is a sidewalk image GI1 on the left side of the solid lane line image GP1a. Further, there is a traveling direction between the broken line lane line image GP2a on the left side and the solid line lane line image GP1a on the right side. There is a traffic classification image GP3. Since these images of the respective recognition objects are associated with the information on the various features included in the road feature information C by the processing of
なお、例えば、画像情報Gの撮像位置が、図14のB2位置のように3車線の道路11の中央車線にある場合には、画像情報Gの中心から両側に破線の区画線P2a、P2bの画像が認識されることなる。また、例えば、画像情報Gの撮像位置が、図14のB3位置のように3車線の道路11の右側車線にある場合には、画像情報Gの中心から、右側に破線の区画線P2bの画像が、左側に実線の区画線P1bの画像がそれぞれ認識されることなる。
本願にあっては、実線の区画線P1a、P1bと破線の区画線P2a、P2bとの識別認識が重要であるが、車両が停止している、あるいは極低速で走行している状態では、認識処理自体を行わない構成を採用しているため、実線及び破線の識別認識を信頼性の高い状態で実行することができる。
For example, when the imaging position of the image information G is in the central lane of the three-
In the present application, it is important to recognize and distinguish between the solid lane markings P1a and P1b and the dashed lane markings P2a and P2b. However, in the state where the vehicle is stopped or traveling at a very low speed, it is recognized. Since the configuration in which the processing itself is not performed is adopted, the solid line and the broken line can be identified and recognized with high reliability.
以上の演算処理により、画像情報Gの撮像位置を道路長手方向及び道路幅方向の双方について詳細に特定することができる。そして、撮像装置2は、車両Mに搭載されているので、この特定された撮像位置を、車両Mの詳細な位置であると特定する(ステップ#84)。そして、このようにして特定された車両Mの位置が、確度の高い位置として詳細な自車位置の更新補正に使用される(ステップ#85)。
With the above arithmetic processing, the imaging position of the image information G can be specified in detail in both the road longitudinal direction and the road width direction. And since the
以上に説明したステップ#61〜#67の一連の処理工程は、所定の時間間隔で繰り返し行われる。これにより、走行中の車両Mの詳細な位置特定をリアルタイムで常時行うことができる。 The series of processing steps of steps # 61 to # 67 described above are repeatedly performed at predetermined time intervals. Thereby, the detailed position specification of the vehicle M that is traveling can always be performed in real time.
また、車両位置特定演算部17による詳細な車両位置の特定結果は、例えば、図示しない車両Mの走行制御装置やナビゲーション装置等へ出力され、レーンキープ等の車両Mの操舵や車速等の走行制御に用いられ、或いはナビゲーション装置における詳細な自車位置の表示等に用いられる。
The detailed vehicle position specifying result by the vehicle position specifying
〔第二の実施形態〕
次に、第二の実施形態について図面に基づいて説明する。図15は、この実施形態に係る自車位置認識補正部103のハードウエア構成の概略を示すブロック図である。この例の場合も、車両が停止している場合、或は、極めて低速で走行している場合は、自車位置認識補正部103における処理が行われることはない。
本実施形態に係る自車位置認識補正部103は、道路特徴情報取得演算部9において地図情報から画像情報Gの撮像位置周辺の地物に関する道路特徴情報Cを、道路11の車線毎に異なる複数の位置を基準とする車線別道路特徴情報C´として取得し、各車線別道路特徴情報C´のそれぞれについて、画像情報G中の前記地物に対応する認識対象物の配置と対比することにより、車両Mの車線位置(自車両の位置の一種)を特定する点で、上記第一の実施形態とは異なる。
また、本実施形態に係る自車位置認識補正部103は、車両Mの進路に関する車両Mからの情報や車両Mの過去の走行経路に関する情報を取得して車両Mの車線位置を推測する車両位置推測演算部18を備え、これによる推測結果を用いて車両Mの車線位置の特定を行う点でも、上記第一の実施形態とは異なる。
[Second Embodiment]
Next, a second embodiment will be described based on the drawings. FIG. 15 is a block diagram showing an outline of the hardware configuration of the vehicle position
The own vehicle position
In addition, the vehicle position
図15に示すように、本実施形態に係る自車位置認識補正部103は、主たる構成として、上記第一の実施形態において説明した構成に加えて、車両位置推測演算部18を更に備えている。この車両位置推測演算部18は、車両Mの進路に関する車両Mからの情報を取得する車両情報取得部19、及び車両Mの過去の走行経路に関する情報を取得して記憶している過去経路記憶部20と接続されており、これらの車両情報取得部19及び過去経路記憶部20からの情報に基づいて、車両Mの車線の位置を推測する演算処理を行う。そして、この車両位置推測演算部18による推測結果は、道路特徴情報取得演算部9に出力されて車線別道路特徴情報C´の取得のための処理に用いられる。
As shown in FIG. 15, the own vehicle position
車両情報取得部19は、本実施形態においては、運転操作検知部21、GPS受信機4、方位センサ5、及び距離センサ6と接続さている。ここで、GPS受信機4、方位センサ5、及び距離センサ6は、既に説明した概略位置特定演算部7に接続されているものと共用しており、これらの出力が車両情報取得部19へも出力されるような構成としている。これにより、車両情報取得部19は、車両Mの移動方向、移動距離、ハンドル操作等の情報を取得することができる。
また、運転操作検知部21は、運転者による運転操作、例えば方向指示器の操作やハンドル操作(方位センサ5の構成として設けられている場合は重複するため除く。)、アクセル操作、ブレーキ操作等を検知するセンサ等により構成され、その検知結果も車両情報取得部19へ出力される。
In this embodiment, the vehicle
Further, the driving
そして、車両情報取得部19は、これら車両の各部から取得した車両情報を総合して、車両Mの進路に関する情報を作成し、その情報を車両位置推測演算部18及び過去経路記憶部20へ出力する。この車両Mの進路に関する情報は、具体的には、車両Mの進路変更の有無及びその角度等の情報となる。
この車両情報取得部19は、このような演算処理を行うためのCPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
And the vehicle
The vehicle
過去経路記憶部20は、車両情報取得部19から出力された車両Mの進路に関する情報を、車両Mの移動距離や移動時間等の情報と関連付けて車両Mの過去の走行経路に関する情報として記憶する処理を行う。そして、この過去経路記憶部20に記憶された車両Mの過去の走行経路に関する情報は、車両位置推測演算部18からの命令信号等に応じて、車両位置推測演算部18へ出力される。
この過去経路記憶部20は、このような演算処理を行うための演算処理装置及びその演算結果を記憶するメモリを中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
The past
The past
また、本実施形態に係る自車位置認識補正部103は、道路特徴情報取得演算部9が、車線情報取得部9a及び車線別道路特徴情報取得演算部9bを備えている点、並びに、車両位置特定演算部17が、配置情報抽出部17a及び撮像位置特定部17cを備えていない代わりに撮像車線特定部17eを備えている点でも、上記第一の実施形態とは異なる。これらの相違は、本実施形態に係る自車位置認識補正部103による車両位置の認識処理が、上記第一の実施形態と異なることによるものである。よって、これらの各部により行う処理については、以下にフローチャートを用いて詳細に説明する。
In addition, the vehicle position
図16は、本実施形態に係る自車位置認識補正部103により車両Mの走行中の車線位置を特定する処理の具体例を示すフローチャートである。
この図に示すように、本実施形態に係る自車位置認識補正部103は、まず、撮像装置2により撮像された画像情報Gを取り込み(ステップ#101)、画像前処理回路13で画像情報Gに対する前処理を行う(ステップ#102)。そして、このステップ#102において前処理が行われた後の画像情報G2、及びインターフェース回路12から直接送られてきた画像情報G1を画像メモリ14に格納する(ステップ#103)。また、ステップ#102及び#103の処理と並行して、概略位置特定演算部7で画像情報Gの概略の撮像位置を求める処理を行う(ステップ#104)。なお、これらのステップ#101〜#104の処理は、上記第一の実施形態についての図6のステップ#61〜#64と同様の処理であるため、詳細な説明は省略する。
FIG. 16 is a flowchart showing a specific example of the process of specifying the lane position during travel of the vehicle M by the vehicle position
As shown in this figure, the vehicle position recognition /
次に、車両位置推測演算部18において、車両Mが走行中の車線を推測する処理を行う(ステップ#105)。この車線を推測する処理は、車両情報取得部19及び過去経路記憶部20からの情報に基づいて行う。すなわち、車両情報取得部19は、車両Mの各部のセンサ等からの情報に基づいて車両Mの進路に関する情報を車両位置推測演算部18に出力する。また、過去経路記憶部20は、車両情報取得部19から出力された車両Mの進路に関する情報を、車両Mの移動距離や移動時間等の情報と関連付けて車両Mの過去の走行経路に関する情報として記憶している。したがって、車両位置推測演算部18は、車両情報取得部19及び過去経路記憶部20から、車両Mが過去に行った進路変更の回数や各進路変更の角度等の履歴及び現在の進路変更の有無の状況等の情報を得ることができる。また、車両位置推測演算部18は、車両Mが行った進路変更の角度や方向指示器の操作等から各進路変更が車線変更か否かを判断することが可能である。車両位置推測演算部18は、これらの情報に基づいて所定の判断アルゴリズムに従って走行中の車線を推測する。
Next, the vehicle position
この判断アルゴリズムは、例えば以下のようにすることができる。すなわち、例えば、車両Mが走行を開始したときの車線は最も左側の車線であると推測する。また、その状態から車両Mが車線変更に該当する進路変更を右方向にn回行った場合には、左からn番目の車線にいると推測することができる(nは自然数)。更に、その状態から車両Mが車線変更に該当する進路変更を左方向にm回行った場合には、左から(n−m)番目の車線にいると推測することができる(mは自然数)。この際、(n−m)がゼロ又は負の値となった場合には、推測した車線が誤っていたことになるので、そのときの車線を最も左側の車線と推測するように修正を行う。この場合も、区画線認識を伴った実線の区画線と破線の区画線の識別認識が重要な役割を果す。
以上の判断アルゴリズムは単なる一例であり、車両位置推測演算部18における判断アルゴリズムはこれ以外にも、様々なアルゴリズムを用いることが可能である。
This determination algorithm can be performed as follows, for example. That is, for example, it is estimated that the lane when the vehicle M starts traveling is the leftmost lane. Moreover, when the vehicle M performs the course change corresponding to the lane change n times in the right direction from the state, it can be estimated that the vehicle M is in the nth lane from the left (n is a natural number). Furthermore, when the vehicle M has made a course change corresponding to the lane change m times in the left direction, it can be estimated that the vehicle M is in the (n−m) th lane from the left (m is a natural number). . At this time, if (nm) becomes zero or a negative value, the estimated lane is incorrect, so that the lane at that time is corrected to be the leftmost lane. . Also in this case, the identification recognition of the solid lane line and the broken lane line with the lane line recognition plays an important role.
The above determination algorithm is merely an example, and various other algorithms can be used as the determination algorithm in the vehicle position
その後、ステップ#105による推測結果に基づいて、道路特徴情報取得演算部9において車両Mが走行中と推測された車線についての車線別道路特徴情報C´を取得する処理を行う(ステップ#106)。ここでは、まず車線情報取得部9aにより、地図情報データベース8からステップ#104において特定された概略の撮像位置の周辺の道路11の車線数を含む車線情報を取得し、次に、取得された車線情報に基づいて、ステップ#105による推測結果として推測された車線についての車線別道路特徴情報C´を、車線別道路特徴情報取得演算部9bにより取得する処理を行う。後述するステップ#108では、取得された車線別道路特徴情報C´について画像情報Gとの対比を行うので、車線別道路特徴情報C´を取得する順序をステップ#105による推測結果に基づいて決定することにより、車線別道路特徴情報C´の対比の順序も決定することになる。
Thereafter, based on the estimation result in
車線別道路特徴情報C´は、地図情報データベース8に格納されている広範囲の地図情報の中から、ステップ#104において求められた概略の撮像位置の周辺の地物に関する道路特徴情報Cを、特定の車線を基準として抽出した情報である。図17は、この車線別道路特徴情報C´の一例を図形化して示した図である。この図に示すように、本例では、車線別道路特徴情報C´は、ステップ#104において特定された概略の撮像位置の周辺の道路特徴情報Cを左側車線、中央車線、及び右側車線の3つの車線毎に、各車線を基準として、当該車線及びその両側の所定範囲内に存在する地物の情報までを含む範囲で抽出したものとしている。図17の(a)は左側車線を基準とする車線別道路特徴情報C´1を、(b)は中央車線を基準とする車線別道路特徴情報C´2を、(c)は右側車線を基準とする車線別道路特徴情報C´3をそれぞれ示している。なお、この図17に示す道路11の全体の地物の配置は図10に示す例と同じである。
The lane-specific road feature information C ′ specifies the road feature information C related to the features around the approximate imaging position obtained in step # 104 from a wide range of map information stored in the
次に、画像情報認識演算部10において、画像情報Gの認識処理を行い、画像情報Gの中に含まれる前記地物に対応する認識対象物の画像を認識する処理を行う(ステップ#107)。この処理は、上記第一の実施形態についての図6のステップ#66と同様の処理であるため、詳細な説明は省略する。
Next, the image information
その後、車両位置特定演算部17の対比演算部17bにおいて、ステップ#107により認識された認識対象物の画像を含む画像情報Gと、ステップ#106により取得された車線別道路特徴情報C´とを対比する処理を行う(ステップ#108)。本実施形態においては、車線別道路特徴情報C´を、画像情報Gと対比可能な情報の形式に変換する処理を行い、変換後の車線別道路特徴情報C´と画像情報Gとを対比して整合性が高いか否かの判断を行うこととする。ここで、車線別道路特徴情報C´の変換処理として、ここでは、図に示すように、車線別道路特徴情報C´を、その車線別道路特徴情報C´が基準とする車線のほぼ中央を撮像位置としたときに撮像されると考えられる画像情報に対応する配置となるように車線別道路特徴情報C´に含まれる各地物を配置したデータに変換する処理とする。図18に示す例では、(a)は図17(a)に示す左側車線を基準とする車線別道路特徴情報C´1を変換したデータであり、(b)は図17(b)に示す中央車線を基準とする車線別道路特徴情報C´2を変換したデータであり、(c)は図17(c)に示す右側車線を基準とする車線別道路特徴情報C´3を変換したデータである。
Thereafter, in the
このような変換処理を行うことにより、画像情報G中の認識対象物の画像の配置と、車線別道路特徴情報C´に含まれる当該認識対象物に対応する各地物の配置とを容易に対比することができる。この対比の処理は、具体的には、画像情報G中の各認識対象物の画像の位置並びに各認識対象物の画像の形状及び色彩等と、車線別道路特徴情報C´に含まれる前記認識対象物に対応する各地物の位置並びにその形状及び色彩等の情報とを対比して、整合性が高いか否かの判断を行う。例えば、画像情報Gが図9に示す例のとおりである場合には、図17(a)に示される左側車線を基準とする車線別道路特徴情報C´1が、車線の両側の区画線P1a、P2a、走行方向通行区分P3、及び歩道I1の位置、形状及び色彩等について画像情報Gと整合する。 By performing such conversion processing, the arrangement of the image of the recognition object in the image information G can be easily compared with the arrangement of the various features corresponding to the recognition object included in the lane-specific road feature information C ′. can do. More specifically, the comparison processing is performed by the recognition of the position of the image of each recognition object in the image information G, the shape and color of the image of each recognition object, and the recognition included in the road-specific road feature information C ′. The position of each feature corresponding to the object and the information such as its shape and color are compared to determine whether or not the consistency is high. For example, when the image information G is as shown in the example shown in FIG. 9, the road-specific road feature information C′1 based on the left lane shown in FIG. 17A is the lane marking P1a on both sides of the lane. , P2a, the traveling direction passage section P3, and the position, shape, color, and the like of the sidewalk I1 are matched with the image information G.
そして、この対比演算部17bにおけるステップ#108の対比の結果、整合性が高い場合には(ステップ#109:yes)、車両位置特定演算部17の撮像車線特定部17bにおいて、その車線別道路特徴情報C´が基準とする車線を車両Mが走行中の車線として特定する(ステップ#110)。
If the result of the comparison in
一方、この対比演算部17bにおけるステップ#108の対比の結果、整合性が低い場合には(ステップ#109:no)、隣接する車線の車線別道路特徴情報C´を地図情報データベース8から取得する処理を行う(ステップ#106)。ここで、隣接する車線の車線別道路特徴情報C´を取得するのは、ステップ#105による推測結果が外れていた場合であっても、それに近い車線を車両Mが走行中である可能性が高いからである。この際、例えばステップ#108で最初に対比した車線別道路特徴情報C´が3車線のうちの中央車線を基準とするものであった場合等のように、ステップ#109の判断の結果、整合性が低い車線に隣接する、未だ対比の対象となっていない車線が両側にある場合には、例えば、左側の車線を先に対比する等のように、予め定め一定のアルゴリズムに従って決定することになる。
On the other hand, if the result of the comparison in
そして、ステップ#110により取得された新たな車線別道路特徴情報C´について、ステップ#108以降の処理を再度行い、ステップ#109において整合性が高いと判断されて車両Mが走行中の車線が特定されるか、或いは、車両Mが走行中の道路11の全ての車線の車線別道路特徴情報C´についてステップ#108の対比処理が行われるまで、ステップ#108〜#110の処理を繰り返し行う。この場合も、区画線認識を伴った実線の区画線と破線の区画線の識別認識が重要な役割を果す。なお、図16のフローチャートには示していないが、車両Mが走行中の道路11の全ての車線の車線別道路特徴情報C´についてステップ#108の対比処理を行った結果、整合性が高い車線別道路特徴情報C´が存在しない場合には、車線位置は不明と判断し、次の画像情報Gについて、ステップ#101〜#111の処理を実行する。
以上の処理により、車両Mが走行中の車線を特定することができる。
そして、自車線更新補正部17fは、自車線を新たに認識された詳細な車線に更新補正する(ステップ#112)。
この実施形態の場合も、区画線である自線と破線とが的確に認識され、これら区画線を渡る車線変更が行われたか否かが的確に認識されて、信頼性の高い装置とできる。
Then, with respect to the new lane-specific road feature information C ′ acquired at
With the above processing, the lane in which the vehicle M is traveling can be specified.
Then, the own lane
Also in this embodiment, the own line and the broken line, which are lane markings, are accurately recognized, and whether or not the lane change across the lane markings has been accurately recognized, and a highly reliable apparatus can be obtained.
〔その他の実施形態〕
(1) 上記の実施形態では、地物の認識実行する地物認識装置としての構成と、自車位置認識装置としての構成に関して述べたが、これら装置は、地図情報を格納した地図データベースを、「地図情報格納手段」として備えるため、自車位置認識装置から得られる自車位置情報と、地図情報とを使用して、車両制御情報を生成できる構成とする場合、装置は車両制御装置とすることができる。
[Other Embodiments]
(1) In the above embodiment, the configuration as a feature recognition device that executes recognition of features and the configuration as a vehicle position recognition device have been described. However, these devices use a map database that stores map information, In order to provide as “map information storage means”, when the vehicle control information can be generated using the vehicle position information obtained from the vehicle position recognition device and the map information, the device is a vehicle control device. be able to.
(2) 上記の実施形態では、地物の認識実行する地物認識装置としての構成と、自車位置認識装置としての構成に関して述べたが、これら装置は、地図情報を格納した地図データベースを、「地図情報格納手段」として備えるため、自車位置認識装置から得られる自車位置情報と、地図情報とを使用して、ナビゲーション情報を生成できる構成とする場合、装置はナビゲーション装置とすることができる。 (2) In the above embodiment, the configuration as a feature recognition device that performs recognition of a feature and the configuration as a vehicle position recognition device have been described, but these devices use a map database that stores map information, In order to provide as "map information storage means", when the navigation information can be generated using the vehicle position information obtained from the vehicle position recognition device and the map information, the device may be a navigation device. it can.
(3) 上記の実施形態では、詳細な自車位置の特定に際して、測定点として、進行方向別通行区分の矢印先端を採用する場合を示したが、矢印先端を使用する他、矢の基端部、矢印の根元部としてもよい。即ち、任意の地物の輪郭形状の角部を選択することができる。さらに、これまでも説明してきたように、地物としては、停止線、横断歩道、横断歩道予告、転回禁止、速度表示等も使用できるが、これらにおいて、道路の進行方向に略直交する輪郭線上に測定点を設定することができる。 (3) In the above embodiment, when the detailed vehicle position is specified, the case where the arrow tip of the traveling section according to the traveling direction is adopted as the measurement point is shown, but in addition to using the arrow tip, the base end of the arrow Or the root of an arrow. That is, the corner of the contour shape of an arbitrary feature can be selected. Furthermore, as described above, as features, stop lines, pedestrian crossings, pedestrian crossing notices, turn prohibitions, speed indications, etc. can be used, but these are on contour lines that are substantially orthogonal to the direction of road travel. Measurement points can be set in
(4)上記第二の実施形態に係る車両位置認識装置1では、車両Mの詳細な位置として、車両Mが走行中の車線位置を特定する場合について説明したが、本発明はこれに限定されるものではない。例えば、道路11の幅方向に異なる複数の位置を基準とする位置毎の道路特徴情報Cとして、車線毎よりも更に細分化した位置毎に道路特徴情報Cを取得することにより、更に詳細な道路幅方向の位置を特定することが可能な構成とすることも好適な実施形態の一つである。
(4) In the vehicle
(5)また、上記第二の実施形態に係る車両位置認識装置1では、車両Mの詳細な位置として、道路幅方向の車線位置を特定する構成について説明したが、上記第二の実施形態の構成において、上記第一の実施形態と同様に、道路11に沿って設けられない停止線、標識、信号機等の認識対象物の画像を基準とすることにより、道路11に沿った方向、すなわち道路長手方向の撮像位置を詳細に特定することができる構成とすることも好適な実施形態の一つである。
(5) In the vehicle
地物の撮像情報と地図データベースに記憶された地物に関する道路特徴情報とに基づいて、地物を認識する地物認識装置において、例えば、区画線としての実線と破線とを誤って識別するような問題を発生することがない地物認識装置を得ることができた。 In a feature recognition device that recognizes a feature based on feature image pickup information and road feature information stored in the map database, for example, a solid line as a division line and a broken line are erroneously identified. It was possible to obtain a feature recognition device that would not cause any serious problems.
2 :撮像装置
3 :画像情報取得部(画像情報取得手段)
8 :地図情報データベース(地図情報格納手段)
9 :道路特徴情報取得演算部(道路特徴情報取得手段)
10 :画像情報認識演算部(画像情報認識手段)
17 :車両位置特定演算部(車両位置特定手段)
18 :車両位置推測演算部
101a:回転センサ(速度情報取得手段)
101 :走行速度導出部(速度情報取得手段)
102 :認識補正処理制御部(認識補正処理制御手段)
103 :自車位置認識補正部(自車位置認識補正手段)
G :画像情報
C :道路特徴情報
2: Imaging device 3: Image information acquisition unit (image information acquisition means)
8: Map information database (map information storage means)
9: Road feature information acquisition calculation unit (road feature information acquisition means)
10: Image information recognition calculation unit (image information recognition means)
17: Vehicle position specifying calculation unit (vehicle position specifying means)
18: Vehicle position
101: Traveling speed deriving unit (speed information acquiring means)
102: Recognition correction processing control unit (recognition correction processing control means)
103: Own vehicle position recognition correction unit (own vehicle position recognition correction means)
G: Image information C: Road feature information
Claims (7)
地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、
前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識手段と、を備え、
前記道路特徴情報取得手段により取得された前記道路特徴情報と、前記画像情報認識手段により認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識装置であって、
前記画像情報認識手段は、道路の路面に設けられたペイント表示を前記認識対象物として画像認識を行うに際して、単一フレームを対象として、当該単一フレームに含まれる前記認識対象物の画像認識を行う第一認識処理を実行し、当該第一認識処理により実線又は破線の区画線と認識された前記認識対象物に関して、連続する複数フレームを対象として、当該複数フレーム間に渡ってほぼ同一の位置に撮影された区画線を同一の区画線と認識すると共に、当該同一と認識された区画線に関して、破断部が認められる場合に当該区画線を破線と認識し、破断部が認められない場合に実線と認識する第二認識処理を実行するように構成されているとともに、
車両の走行速度情報を取得する速度情報取得手段と、
取得された前記走行速度情報が所定の値より低い場合に、前記画像情報認識手段による前記認識対象物の認識を停止する認識補正処理制御手段と、を備えた地物認識装置。 Image information acquisition means for sequentially capturing image information obtained by imaging at least a road surface by an imaging device mounted on a vehicle;
Road feature information acquisition means for acquiring road feature information related to features around the imaging position of the image information from map information;
Image information recognition means for performing recognition processing of the image information, and recognizing an image of a recognition object corresponding to the feature included in the image information ,
The feature for recognizing the feature based on the road feature information acquired by the road feature information acquisition means and the arrangement in the image information of the image of the recognition object recognized by the image information recognition means. A recognition device,
The image information recognizing means recognizes an image of the recognition object included in the single frame for a single frame when performing image recognition using the paint display provided on the road surface of the road as the recognition object. The first recognition process is performed, and the recognition target object recognized as a solid line or a broken lane line by the first recognition process is subjected to a plurality of consecutive frames and is substantially the same position between the plurality of frames. When the lane markings taken in the above are recognized as the same lane markings, and when the rupture portion is recognized as a broken line with respect to the lane markings recognized as the same, It is configured to execute a second recognition process that recognizes as a solid line,
A velocity information acquiring means for acquiring the traveling speed information of the vehicle,
When the traveling speed information obtained is lower than a predetermined value, the feature recognition apparatus and a recognition correction control means for stopping the recognition of the recognition target object by the image information recognizing unit.
前記画像情報が撮像された時点で前記位置情報取得手段により求められる車両の位置を、前記画像情報の撮像位置とする請求項1記載の地物認識装置。 At least a position information acquisition means for determining the approximate position of the vehicle based on positioning system position information obtained from the global positioning system,
The feature recognition apparatus according to claim 1, wherein a position of the vehicle obtained by the position information acquisition unit when the image information is captured is set as an imaging position of the image information.
前記認識対象物に予め定められた測定点について、前記画像情報に含まれている前記認識対象物についての前記測定点の画像認識を行い、
認識された前記測定点の画像認識結果と、予め求められている当該測定点の位置情報とに基づいて自車位置情報を更新補正する自車位置認識補正手段、
を備える自車位置認識装置。 The feature recognition apparatus according to claim 1 or 2 ,
Performing image recognition of the measurement points for the recognition object included in the image information for the measurement points predetermined for the recognition object,
Vehicle position recognition correction means for updating and correcting the vehicle position information based on the image recognition result of the recognized measurement point and the position information of the measurement point obtained in advance;
A vehicle position recognition device comprising:
前記地図情報格納手段から取得した自車両の進行方向の地図情報と、前記自車位置認識補正手段による更新補正後の自車位置情報とに基づいて、自車両の走行制御を行う車両制
御装置。 The host vehicle position recognition device according to claim 3 or 4 and map information storage means storing map information,
A vehicle control device that performs travel control of the host vehicle based on map information of the traveling direction of the host vehicle acquired from the map information storage unit and host vehicle position information after update correction by the host vehicle position recognition correction unit.
前記地図情報格納手段から取得した自車両の進行方向の地図情報と、前記自車位置認識補正手段による更新補正後の自車位置情報とに基づいて、自車両の進路案内を行うナビゲーション装置。 The vehicle position recognition device according to claim 3 or 4, and map information storage means storing map information,
A navigation device that provides route guidance for the host vehicle based on the map information of the traveling direction of the host vehicle acquired from the map information storage unit and the host vehicle position information after the update correction by the host vehicle position recognition correction unit.
地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得ステップと、
前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識ステップと、
前記道路特徴情報取得ステップで取得された前記道路特徴情報と、前記画像情報認識ステップで認識された前記認識対象物の画像の前記画像情報中の配置に基づいて、前記地物を認識する地物認識方法を実行するに、
前記画像情報認識ステップでは、道路の路面に設けられたペイント表示を前記認識対象物として画像認識を行うに際して、単一フレームを対象として、当該単一フレームに含まれる前記認識対象物の画像認識を行う第一認識処理を実行した後、当該第一認識処理により実線又は破線の区画線と認識された前記認識対象物に関して、連続する複数フレームを対象として、当該複数フレーム間に渡ってほぼ同一の位置に撮影された区画線を同一の区画線と認識すると共に、当該同一と認識された区画線に関して、破断部が認められる場合に当該区画線を破線と認識し、破断部が認められない場合に実線と認識する第二認識処理を実行するように構成されているとともに、
車両の走行速度情報を取得する速度情報取得ステップを実行し、
取得された前記走行速度情報が所定の値より低い場合に、前記画像情報認識ステップによる前記認識対象物の認識を停止する地物認識方法。 An image information acquisition step for sequentially capturing image information obtained by imaging at least the road surface of the road by an imaging device mounted on the vehicle;
Road feature information acquisition step for acquiring road feature information related to features around the imaging position of the image information from map information;
Recognizing the image information and recognizing an image of a recognition object corresponding to the feature included in the image information; and
A feature that recognizes the feature based on the road feature information acquired in the road feature information acquisition step and the arrangement in the image information of the image of the recognition object recognized in the image information recognition step. To run the recognition method,
In the image information recognition step, when performing the image recognition using the paint display provided on the road surface of the road as the recognition object, the image recognition of the recognition object included in the single frame is performed with respect to a single frame. After performing the first recognition process to be performed, with respect to the recognition target object recognized as a solid line or a broken lane line by the first recognition process, it is substantially the same across the plurality of frames for a plurality of consecutive frames. When a lane line photographed at a position is recognized as the same lane line, and when a broken portion is recognized with respect to the lane line recognized as the same, the lane line is recognized as a broken line and no broken portion is recognized Is configured to execute a second recognition process for recognizing a solid line,
Execute a speed information acquisition step of acquiring vehicle travel speed information;
A feature recognition method for stopping recognition of the recognition object by the image information recognition step when the acquired traveling speed information is lower than a predetermined value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006351619A JP4775658B2 (en) | 2006-12-27 | 2006-12-27 | Feature recognition device, vehicle position recognition device, navigation device, feature recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006351619A JP4775658B2 (en) | 2006-12-27 | 2006-12-27 | Feature recognition device, vehicle position recognition device, navigation device, feature recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008165326A JP2008165326A (en) | 2008-07-17 |
JP4775658B2 true JP4775658B2 (en) | 2011-09-21 |
Family
ID=39694792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006351619A Expired - Fee Related JP4775658B2 (en) | 2006-12-27 | 2006-12-27 | Feature recognition device, vehicle position recognition device, navigation device, feature recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4775658B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010151658A (en) * | 2008-12-25 | 2010-07-08 | Zhencheng Hu | Apparatus and method for measuring position of mobile object |
KR101609679B1 (en) * | 2009-03-31 | 2016-04-06 | 팅크웨어(주) | Apparatus for map matching of navigation using planar data of road and method thereof |
JP2012127896A (en) * | 2010-12-17 | 2012-07-05 | Kumamoto Univ | Mobile object position measurement device |
JP5679207B2 (en) * | 2011-10-11 | 2015-03-04 | アイシン・エィ・ダブリュ株式会社 | Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method |
JP5820843B2 (en) * | 2013-05-29 | 2015-11-24 | 富士重工業株式会社 | Ambient environment judgment device |
JP6485915B2 (en) * | 2015-10-28 | 2019-03-20 | 本田技研工業株式会社 | Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program |
JP6859927B2 (en) * | 2017-11-06 | 2021-04-14 | トヨタ自動車株式会社 | Vehicle position estimation device |
WO2020004817A1 (en) * | 2018-06-26 | 2020-01-02 | 에스케이텔레콤 주식회사 | Apparatus and method for detecting lane information, and computer-readable recording medium storing computer program programmed to execute same method |
CN111661059B (en) * | 2019-03-08 | 2022-07-08 | 虹软科技股份有限公司 | Method and system for monitoring distracted driving and electronic equipment |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3304687B2 (en) * | 1995-05-24 | 2002-07-22 | 日産自動車株式会社 | Vehicle lane recognition device, obstacle detection device, road departure notification device |
JP3352655B2 (en) * | 1999-09-22 | 2002-12-03 | 富士重工業株式会社 | Lane recognition device |
JP2003067752A (en) * | 2001-08-28 | 2003-03-07 | Yazaki Corp | Vehicle periphery monitoring device |
JP3945494B2 (en) * | 2004-05-11 | 2007-07-18 | トヨタ自動車株式会社 | Travel lane recognition device |
JP2006151014A (en) * | 2004-11-25 | 2006-06-15 | Denso Corp | Safety operation support system |
JP2006208223A (en) * | 2005-01-28 | 2006-08-10 | Aisin Aw Co Ltd | Vehicle position recognition device and vehicle position recognition method |
JP2006226824A (en) * | 2005-02-17 | 2006-08-31 | Toyota Motor Corp | Vehicle information reporting device |
JP2006012191A (en) * | 2005-09-01 | 2006-01-12 | Honda Motor Co Ltd | Lane marking recognition device for vehicle |
-
2006
- 2006-12-27 JP JP2006351619A patent/JP4775658B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008165326A (en) | 2008-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4321821B2 (en) | Image recognition apparatus and image recognition method | |
JP4557288B2 (en) | Image recognition device, image recognition method, position specifying device using the same, vehicle control device, and navigation device | |
JP2006208223A (en) | Vehicle position recognition device and vehicle position recognition method | |
CN101246010B (en) | Lane determining device, method, and program | |
JP4775658B2 (en) | Feature recognition device, vehicle position recognition device, navigation device, feature recognition method | |
JP4831434B2 (en) | Feature information collection device, feature information collection program, own vehicle position recognition device, and navigation device | |
CN111194459B (en) | Evaluation of autopilot functions and road recognition in different processing phases | |
JP4902575B2 (en) | Road sign recognition device and road sign recognition method | |
CN109791698B (en) | Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to a lane of a road surface | |
CN102208035A (en) | Image processing system and position measurement system | |
CN102208012A (en) | Scene matching reference data generation system and position measurement system | |
JP5141969B2 (en) | Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same | |
JP4761156B2 (en) | Feature position recognition apparatus and feature position recognition method | |
US20210180963A1 (en) | Onboard device | |
JP2007178271A (en) | Own position recognition system | |
JP4596566B2 (en) | Self-vehicle information recognition device and self-vehicle information recognition method | |
JP4831433B2 (en) | Own vehicle position recognition device, own vehicle position recognition program, and navigation device | |
JP4912495B2 (en) | Image recognition apparatus and method, and navigation apparatus | |
JP4789868B2 (en) | Image recognition apparatus and image recognition method, and self-position recognition apparatus and navigation apparatus using the same | |
JP2007241470A (en) | Vehicle map data update device | |
JP5071737B2 (en) | Lane determination device, lane determination program, and navigation device using the same | |
JP4817019B2 (en) | Own vehicle position recognition device and own vehicle position recognition program | |
WO2023276225A1 (en) | Driving assistance device and driving assistance method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110602 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4775658 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140708 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |