[go: up one dir, main page]

JP6688090B2 - Object recognition device and object recognition method - Google Patents

Object recognition device and object recognition method Download PDF

Info

Publication number
JP6688090B2
JP6688090B2 JP2016010994A JP2016010994A JP6688090B2 JP 6688090 B2 JP6688090 B2 JP 6688090B2 JP 2016010994 A JP2016010994 A JP 2016010994A JP 2016010994 A JP2016010994 A JP 2016010994A JP 6688090 B2 JP6688090 B2 JP 6688090B2
Authority
JP
Japan
Prior art keywords
recognition
vehicle
image
unit
road sign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016010994A
Other languages
Japanese (ja)
Other versions
JP2017130155A (en
Inventor
勝利 岡田
勝利 岡田
和也 伊集院
和也 伊集院
祐介 野村
祐介 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016010994A priority Critical patent/JP6688090B2/en
Publication of JP2017130155A publication Critical patent/JP2017130155A/en
Application granted granted Critical
Publication of JP6688090B2 publication Critical patent/JP6688090B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体認識装置および物体認識方法に関する。   The present invention relates to an object recognition device and an object recognition method.

従来、車両に設けられたカメラによって撮像された画像から物体を認識する物体認識装置がある。この種の装置として、複数種類の認識対象物の画像パターンを予め記憶しておき、画像全体からかかる画像パターンと類似する領域を探索することで認識対象物の種類を認識する装置がある(例えば、特許文献1参照)。   BACKGROUND ART Conventionally, there is an object recognition device that recognizes an object from an image captured by a camera provided in a vehicle. As this type of device, there is a device that pre-stores image patterns of a plurality of types of recognition target objects and recognizes the type of the recognition target object by searching the entire image for an area similar to the image pattern (for example, , Patent Document 1).

特開2012−27623号公報JP, 2012-27623, A

しかしながら、画像全体に対して認識対象物の種類毎に認識処理を実行する場合、処理量が嵩むことがある。   However, when the recognition process is performed on the entire image for each type of recognition target object, the processing amount may increase.

本発明は、上記に鑑みてなされたものであって、認識対象物の種類を効率的に認識することができる物体認識装置および物体認識方法を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide an object recognition device and an object recognition method capable of efficiently recognizing a type of a recognition target object.

上述した課題を解決し、目的を達成するために、本発明に係る物体認識装置は、領域抽出部と、認識部とを備える。領域抽出部は、車両に設けられた撮像装置によって撮像された画像から認識対象物の形状が存在する対象領域を抽出する。認識部は、画像の領域全体のうち、領域抽出部によって抽出された対象領域に対して選択的に認識対象物の認識処理を実行する。   In order to solve the above-mentioned problems and achieve the object, an object recognition device according to the present invention includes a region extraction unit and a recognition unit. The area extraction unit extracts a target area in which the shape of the recognition target object exists from the image captured by the imaging device provided in the vehicle. The recognition unit selectively performs recognition processing of the recognition target object on the target region extracted by the region extraction unit out of the entire region of the image.

本発明によれば、認識対象物を効率的に認識することができる。   According to the present invention, it is possible to efficiently recognize a recognition target object.

図1は、一般的な装置による物体認識方法を示す説明図である。FIG. 1 is an explanatory diagram showing an object recognition method by a general device. 図2は、実施形態に係る物体認識方法を示す説明図である。FIG. 2 is an explanatory diagram showing the object recognition method according to the embodiment. 図3は、実施形態に係る物体認識装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of the object recognition device according to the embodiment. 図4は、領域抽出部による対象領域の抽出処理を示す説明図である。FIG. 4 is an explanatory diagram showing the extraction processing of the target area by the area extraction unit. 図5は、辞書情報を示す説明図である。FIG. 5 is an explanatory diagram showing dictionary information. 図6は、認識順序の優先順位を含む優先順位情報を示す説明図である。FIG. 6 is an explanatory diagram showing priority order information including the priority order of the recognition order. 図7は、交差点における車両および進入禁止の位置関係を示す説明図である。FIG. 7 is an explanatory diagram showing a positional relationship between a vehicle and an entry prohibition at an intersection. 図8は、実施形態に係る物体認識装置が実行する認識処理の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure of recognition processing executed by the object recognition device according to the embodiment. 図9は、物体認識装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 9 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the object recognition device. 図10は、変形例に係る辞書情報を示す説明図である。FIG. 10 is an explanatory diagram showing dictionary information according to the modified example.

以下、添付図面を参照して、本願の開示する物体認識装置および物体認識方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of an object recognition device and an object recognition method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments described below.

実施形態に係る物体認識方法は、車両に設けられた撮像装置によって車両の前方を撮像した画像から認識対象物の形状を認識し、かかる形状が存在する領域に対して選択的に認識対象物の種類を認識するものである。   An object recognition method according to an embodiment recognizes a shape of a recognition target object from an image obtained by capturing an image of the front of the vehicle by an imaging device provided in the vehicle, and selectively recognizes the recognition target object in a region where the shape exists. It recognizes the type.

なお、認識対象物の認識は、車両前方を撮像した画像に限定されるものではなく、車両の後方や側方を撮像した画像から認識してもよい。また、撮像装置は、例えば、ドライブレコーダが備えるカメラ、スマートフォン等のモバイル機器に搭載されたカメラモジュール、デジタルカメラ等である。   It should be noted that recognition of the recognition target object is not limited to the image of the front of the vehicle and may be recognized from the image of the rear or the side of the vehicle. The imaging device is, for example, a camera included in the drive recorder, a camera module installed in a mobile device such as a smartphone, a digital camera, or the like.

また、認識対象物は、所定形状の静止物体であり、上述の道路標識の他には、例えば、飲食店等の看板等を含む。また、物体認識装置が搭載される車両は、例えば、自家乗用車やタクシー等の自動車、バイク、バス、トラック等である。   Further, the recognition target object is a stationary object having a predetermined shape, and includes, for example, a signboard of a restaurant or the like in addition to the above road signs. The vehicle equipped with the object recognition device is, for example, a car such as a private car or a taxi, a motorcycle, a bus, a truck, or the like.

以下では、まず、図1を参照して、撮像装置によって撮像された画像から一般的な手法で物体を認識する装置(以下、一般的な装置と記載)による物体認識方法について説明した後、図2を参照して、実施形態に係る物体認識方法について説明する。図1は、一般的な装置による物体認識方法を示す説明図である。図2は、実施形態に係る物体認識方法を示す説明図である。   In the following, first, with reference to FIG. 1, an object recognition method by an apparatus (hereinafter, referred to as a general apparatus) for recognizing an object by a general method from an image captured by an imaging apparatus will be described, and then a diagram will be described. The object recognition method according to the embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram showing an object recognition method by a general device. FIG. 2 is an explanatory diagram showing the object recognition method according to the embodiment.

なお、図1では、一般的な装置が、図1に(a)で示す、カメラによって撮像された車両前方の画像Pに含まれる40km速度制限Mを認識する場合について説明する。また、一般的な装置は、図1に(b)〜(d)で示す、進入禁止100、30km速度制限101、40km速度制限102の画像パターンを記憶しているものとする。   Note that, in FIG. 1, a case where a general device recognizes the 40 km speed limit M included in the image P in front of the vehicle captured by the camera shown in FIG. 1A will be described. Further, it is assumed that a general device stores the image patterns of the entry prohibition 100, the 30 km speed limit 101, and the 40 km speed limit 102 shown in (b) to (d) of FIG.

図1に(a)で示すように、一般的な装置は、まず、車両に設けられたカメラから車両前方を撮像した画像Pを取得する。続いて、例えば、パターンマッチングによって、画像P内から記憶した画像パターンと同じ道路標識が存在するかを探索する。   As shown in FIG. 1A, a general device first acquires an image P obtained by capturing the front of the vehicle from a camera provided in the vehicle. Then, for example, by pattern matching, it is searched from the image P whether the same road sign as the stored image pattern exists.

具体的には、図1に(b)で示すように、進入禁止100の画像パターンを使用して、画像全体(ハッチングされた領域)から、進入禁止の道路標識を探索する。そして、進入禁止100の画像パターンが発見されない場合、画像P内に進入禁止の道路標識は存在しないと判定する。   Specifically, as shown in (b) of FIG. 1, an image pattern of entry prohibition 100 is used to search for an entry prohibition road sign from the entire image (hatched area). Then, when the image pattern of the entry prohibition 100 is not found, it is determined that there is no entry prohibition road sign in the image P.

続いて、図1に(c)で示すように、30km速度制限101の画像パターンを使用して、同様に画像全体から、30km速度制限の道路標識を探索する。そして、30km速度制限101の画像パターンが発見されない場合、画像Pに30km速度制限の道路標識は存在しないと判定する。   Subsequently, as shown in FIG. 1C, the image pattern of the 30 km speed limit 101 is used to search the entire image for a road sign with the 30 km speed limit similarly. Then, when the image pattern of the 30 km speed limit 101 is not found, it is determined that the image P does not include the road sign of the 30 km speed limit.

続いて、図1に(d)で示すように、40km速度制限102の画像パターンを使用して、同様に画像全体から、40km速度制限Mの道路標識が存在するかを探索する。そして、40km速度制限102の画像パターンを発見した場合、画像Pに40km速度制限Mの道路標識が存在すると判定する。   Subsequently, as shown in (d) of FIG. 1, the image pattern of the 40 km speed limit 102 is used to search the entire image similarly for the presence of the road sign of the 40 km speed limit M. Then, when the image pattern of the 40 km speed limit 102 is found, it is determined that the image P includes the road sign of the 40 km speed limit M.

このように、一般的な装置による物体認識方法では、40km速度制限Mの道路標識を認識するまで、繰り返し画像全体を探索範囲としなければならず、処理量(ハッチングされた領域)が嵩むことがあった。   As described above, in the object recognition method using the general apparatus, the entire image must be repeatedly set as the search range until the road sign with the speed limit M of 40 km is recognized, which increases the processing amount (hatched area). there were.

そこで、図2に示すように、実施形態に係る物体認識方法では、まず、カメラから取得した画像Pから40km速度制限Mの外形である円形24が存在する領域を抽出することとする。そして、抽出した領域に対してのみ道路標識の種類を認識する認識処理を実行する。   Therefore, as shown in FIG. 2, in the object recognition method according to the embodiment, first, an area in which the circle 24, which is the outer shape of the 40 km speed limit M, exists is extracted from the image P acquired from the camera. Then, a recognition process for recognizing the type of road sign is performed only on the extracted region.

なお、物体認識方法を実行する物体認識装置は、図2に(a)〜(d)で示すように、円形24、進入禁止100a、30km速度制限101aおよび40km速度制限102aを記憶しているものとする。   The object recognition apparatus that executes the object recognition method stores a circle 24, an entry prohibition 100a, a 30 km speed limit 101a, and a 40 km speed limit 102a, as shown in (a) to (d) of FIG. And

また、円形24とは、進入禁止100、30km速度制限101および40km速度制限102(図1の(b)〜(d)参照)に共通する外形である。また、進入禁止100a、30km速度制限101aおよび40km速度制限102aは、進入禁止100、30km速度制限101および40km速度制限102から外形である円形24の周辺部分を除いた画像パターンである。   The circle 24 is an outer shape common to the entry prohibition 100, the 30 km speed limit 101, and the 40 km speed limit 102 (see (b) to (d) of FIG. 1). Further, the entry prohibition 100a, the 30km speed limit 101a, and the 40km speed limit 102a are image patterns obtained by removing the peripheral portion of the circle 24 which is the outer shape from the entry prohibition 100, the 30km speed limit 101 and the 40km speed limit 102.

以下から、実施形態に係る物体認識方法について具体的に説明する。図2に(a)で示すように、物体認識装置は、カメラから画像Pを取得すると、まず、円形24の画像パターンを使用して、画像P全体(ハッチングされた領域)から円形を探索する。   The object recognition method according to the embodiment will be specifically described below. As shown in (a) of FIG. 2, when the object recognition device acquires the image P from the camera, first, the image pattern of the circle 24 is used to search the entire image P (hatched area) for a circle. .

そして、図2に(b)で示すように、物体認識装置は、円形24の画像パターンを発見した場合、円形が存在する領域を対象領域31として抽出する。対象領域31とは、道路標識の種類を探索する対象となる範囲のことである。   Then, as shown in FIG. 2B, when the object recognition device finds the image pattern of the circle 24, it extracts the region where the circle exists as the target region 31. The target area 31 is a range to be searched for the type of road sign.

続いて、図2に(b)で示すように、進入禁止100aの画像パターンを使用して、抽出された対象領域31のみから、進入禁止の道路標識を探索する。そして、進入禁止100aの画像パターンが発見されない場合、画像Pに進入禁止の道路標識が存在しないと判定する。   Then, as shown in FIG. 2B, using the image pattern of the entry prohibition 100a, only the extracted target area 31 is searched for the entry prohibition road sign. Then, when the image pattern of the entry prohibition 100a is not found, it is determined that the entry prohibition road sign does not exist in the image P.

続いて、図2に(c)で示すように、30km速度制限101aの画像パターンを使用して、同様に対象領域31のみから、30km速度制限の道路標識を探索する。そして、30km速度制限101aの画像パターンが発見されない場合、画像Pに30km速度制限の道路標識が存在しないと判定する。   Subsequently, as shown in FIG. 2C, the image pattern of the 30 km speed limit 101a is used to search for the road sign with the 30 km speed limit similarly from only the target region 31. When the image pattern of the 30 km speed limit 101a is not found, it is determined that the image P does not include the road sign of the 30 km speed limit.

そして、図2に(d)で示すように、40km速度制限102aの画像パターンを使用して、同様に対象領域31のみから、40km速度制限Mの道路標識を探索する。そして、40km速度制限102aの画像パターンを発見した場合、画像Pに40km速度制限Mの道路標識が存在すると判定する。   Then, as shown in FIG. 2D, the image pattern of the 40 km speed limit 102a is used to search for the road sign of the 40 km speed limit M from the target area 31 in the same manner. Then, when an image pattern of the 40 km speed limit 102a is found, it is determined that the image P has a 40 km speed limit M road sign.

つまり、物体認識装置は、画像全体から円形24が存在する対象領域31を抽出することによって、対象領域31を集中的に探索することができるため、道路標識の種類を効率的に認識することができる。   In other words, the object recognition device can intensively search the target area 31 by extracting the target area 31 in which the circle 24 exists from the entire image, and thus the type of road sign can be efficiently recognized. it can.

なお、道路標識の形状および種類の認識は、画像パターンを用いたパターンマッチングに限定されるものではなく、例えば、道路標識の画像を機械学習することで作成される辞書情報を用いて道路標識の形状および種類を認識してもよい。以下では、かかる機械学習を用いた物体認識装置について説明することとする。   The recognition of the shape and type of the road sign is not limited to pattern matching using an image pattern. For example, the dictionary information created by machine learning the image of the road sign is used to identify the road sign. The shape and type may be recognized. Hereinafter, an object recognition device using such machine learning will be described.

次に、図3を参照して、実施形態に係る物体認識装置について説明する。図3は、実施形態に係る物体認識装置1の構成を示すブロック図である。図3に示すように、物体認識装置1は、カメラ2と、走行状態検出装置3と、車載装置4とに接続される。   Next, the object recognition device according to the embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the object recognition device 1 according to the embodiment. As shown in FIG. 3, the object recognition device 1 is connected to the camera 2, the traveling state detection device 3, and the in-vehicle device 4.

カメラ2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備える撮像装置であり、自車の前方を撮像する位置に設置される。そして、カメラ2によって撮像された画像は、物体認識装置1へ出力される。   The camera 2 is an image pickup device including an image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and is installed at a position where an image of the front of the vehicle is picked up. Then, the image captured by the camera 2 is output to the object recognition device 1.

走行状態検出装置3は、例えば、車速センサや、ナビゲーション装置であり、車両の走行状態を検出する。車速センサは、車両の車速パルス信号を計測することで車両の走行速度を検出し、かかる走行速度を示す車速情報として物体認識装置1へ出力する。   The traveling state detection device 3 is, for example, a vehicle speed sensor or a navigation device, and detects the traveling state of the vehicle. The vehicle speed sensor detects the traveling speed of the vehicle by measuring the vehicle speed pulse signal, and outputs it to the object recognition device 1 as vehicle speed information indicating the traveling speed.

また、ナビゲーション装置は、電子地図データである地図情報およびGPS(Global Positioning System)衛星から受信した車両の位置情報を物体認識装置1へ出力する。   The navigation device also outputs map information, which is electronic map data, and vehicle position information received from a GPS (Global Positioning System) satellite to the object recognition device 1.

車載装置4は、例えば、カメラ2によって撮像された画像を表示する車載のディスプレイであり、カメラ2の画像に物体認識装置1が認識した道路標識を囲む枠画像を重畳させて強調表示することができる。なお、車載装置4は、ディスプレイに限定されず、例えば、ドライブレコーダであってもよい。   The vehicle-mounted device 4 is, for example, a vehicle-mounted display that displays an image captured by the camera 2, and a frame image surrounding the road sign recognized by the object recognition device 1 may be superimposed on the image of the camera 2 and highlighted. it can. The in-vehicle device 4 is not limited to the display and may be, for example, a drive recorder.

車載装置4がドライブレコーダの場合、ドライブレコーダが備えるカメラによって撮像された画像を記録する際に、物体認識装置1が認識した道路標識の位置や種類を関連付けて記録する。   When the vehicle-mounted device 4 is a drive recorder, the position and type of the road sign recognized by the object recognition device 1 are recorded in association with each other when recording an image captured by a camera included in the drive recorder.

実施形態に係る物体認識装置1は、制御部10と、記憶部20とを備える。まず、記憶部20について説明する。記憶部20は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部であり、優先順位情報21、辞書情報22を記憶する。   The object recognition device 1 according to the embodiment includes a control unit 10 and a storage unit 20. First, the storage unit 20 will be described. The storage unit 20 is a storage unit configured by a storage device such as a non-volatile memory or a hard disk drive, and stores priority order information 21 and dictionary information 22.

優先順位情報21は、道路標識の種類の認識順序の優先順位に関する情報であり、後述する順序設定部14によって、優先順位情報21の中から車両の走行状態に応じて認識順序の優先順位が決定される。   The priority order information 21 is information regarding the priority order of the recognition order of the types of road signs, and the order setting unit 14 described later determines the priority order of the recognition order from the priority order information 21 according to the running state of the vehicle. To be done.

辞書情報22は、画像Pに写る物体が道路標識か否かを判定する基準となる情報であり、道路標識の形状を判定する基準となる形状情報22a、道路標識の種類を判定する基準となる種類情報22bを含む情報である。   The dictionary information 22 is information serving as a reference for determining whether or not the object appearing in the image P is a road sign, and is the shape information 22a serving as a reference for determining the shape of the road sign, and a reference for determining the type of the road sign. This is information including the type information 22b.

また、形状情報22aおよび種類情報22bは、機械学習によって予め作成されて記憶部20に記憶される。ここで、形状情報22aおよび種類情報22bの作成手順について、簡単に説明する。   The shape information 22a and the type information 22b are created in advance by machine learning and stored in the storage unit 20. Here, a procedure for creating the shape information 22a and the type information 22b will be briefly described.

まず、形状情報22aを作成する場合、所定形状(例えば、円形)の道路標識の画像と所定形状以外の物体の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数1000枚の画像)準備する。準備する画像のサイズは、例えば、36ピクセル×36ピクセルのサイズに統一する。   First, when the shape information 22a is created, a predetermined number (for example, several hundreds to several thousand images) of a road sign image of a predetermined shape (for example, a circle) and an image of an object other than the predetermined shape are used as learning data. prepare. The sizes of the images to be prepared are unified to, for example, 36 pixels × 36 pixels.

続いて、準備した各画像から、例えば、HOG(Histgram of Oriented Gradient)特徴量を抽出する。そして、上述の準備した画像を、抽出したHOG特徴量に基づいて、2次元平面上にプロットする。   Subsequently, for example, a HOG (Histgram of Oriented Gradient) feature amount is extracted from each prepared image. Then, the prepared image is plotted on a two-dimensional plane based on the extracted HOG feature amount.

続いて、例えば、SVM(Support Vector Machine)等の識別器によって、2次元平面上における所定形状の道路標識の画像と所定形状以外の物体の画像とを分離する分離線を生成する。   Then, for example, a discriminator such as an SVM (Support Vector Machine) generates a separation line that separates an image of a road sign having a predetermined shape and an image of an object other than the predetermined shape on a two-dimensional plane.

そして、かかる2次元平面の座標軸および識別器によって生成された分離線の情報が、画像Pに含まれる画像が所定形状の道路標識か否かの判定基準として使用される形状情報22aとなる。なお、準備した画像から抽出する特徴量は、HOG特徴量に限定されず、例えば、SIFT(Scale Invariant Feature Transform)特徴量であってもよい。また、用いる識別器は、SVMに限定されず、例えば、アダブースト(AdaBoost)等の識別器であってもよい。   The information of the coordinate axes of the two-dimensional plane and the separating line generated by the discriminator becomes the shape information 22a used as a criterion for determining whether or not the image included in the image P is a road sign having a predetermined shape. The feature amount extracted from the prepared image is not limited to the HOG feature amount, and may be, for example, a SIFT (Scale Invariant Feature Transform) feature amount. The discriminator used is not limited to SVM, and may be a discriminator such as AdaBoost.

また、種類情報22bを作成する場合、所定種類の道路標識の画像(例えば、40km速度制限)と、かかる種類の道路標識以外の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数1000枚の画像)準備する。   In addition, when the type information 22b is created, a predetermined number (for example, several hundred to several thousand) of images of a predetermined type of road sign (for example, 40 km speed limit) and images other than this type of road sign are used as learning data. Images) Get ready.

なお、準備した画像から抽出する特徴量および2次元平面を分離する線を生成する識別器は、上述の形状情報22aを生成する場合と同様である。そして、識別器によって、速度制限40kmの種類の道路標識の画像とそれ以外の画像とを2次元平面上において分離する分離線が生成される。   The feature quantity extracted from the prepared image and the classifier that generates the line that separates the two-dimensional plane are the same as those used when the shape information 22a is generated. Then, the discriminator generates a separation line that separates the image of the road sign of the speed limit of 40 km and the other images on the two-dimensional plane.

そして、かかる2次元平面の座標軸および識別器によって生成された分離線の情報が、画像Pに含まれる画像が所定種類の道路標識か否かの判定基準として使用される種類情報22bとなる。なお、種類情報22bに含まれる座標軸は、道路標識の種類によらず同一であり、分離線は、道路標識の種類に応じて異なる。   Then, the information of the coordinate axes of the two-dimensional plane and the separation line generated by the discriminator becomes the type information 22b used as a criterion for determining whether or not the image included in the image P is a predetermined type of road sign. The coordinate axes included in the type information 22b are the same regardless of the type of road sign, and the separating line differs depending on the type of road sign.

これにより、後述する領域抽出部13および認識部15は、辞書情報22である形状情報22aおよび種類情報22bを使用することによって、画像P内の36ピクセル×36ピクセル内の画像の道路標識の形状およびその種類を認識することができる。   Thereby, the area extracting unit 13 and the recognizing unit 15, which will be described later, by using the shape information 22a and the type information 22b that are the dictionary information 22, the shape of the road sign of the image in 36 pixels × 36 pixels in the image P. And its type can be recognized.

制御部10は、拡縮画像生成部11と、特徴抽出部12と、領域抽出部13と、順序設定部14と、認識部15と、出力部16とを備える。   The control unit 10 includes a scaled image generation unit 11, a feature extraction unit 12, a region extraction unit 13, an order setting unit 14, a recognition unit 15, and an output unit 16.

制御部10は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)を備えるマイクロコンピュータである。かかるCPUは、たとえば、ROMに予め記憶されたプログラムに従い、演算処理を行うことで、上述した拡縮画像生成部11、特徴抽出部12、領域抽出部13、順序設定部14、認識部15および出力部16として機能する。   The control unit 10 is, for example, a microcomputer including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory). The CPU performs arithmetic processing in accordance with a program stored in advance in the ROM, for example, so that the scaled image generation unit 11, the feature extraction unit 12, the region extraction unit 13, the order setting unit 14, the recognition unit 15, and the output described above. Functions as the unit 16.

拡縮画像生成部11は、カメラ2から入力される画像Pについて、それぞれ拡縮率が異なる複数の拡大画像および縮小画像(例えば、25枚の拡縮画像)を生成して、特徴抽出部12へ出力する。   The scaled-image generation unit 11 generates a plurality of scaled-up images and scaled-down images (for example, 25 scaled-up and scaled-down images) having different scaling rates for the image P input from the camera 2, and outputs the scaled-up and scaled-down images to the feature extraction unit 12. .

特徴抽出部12は、生成した拡縮画像から、例えば、HOG特徴量を抽出する。なお、特徴抽出部12によって抽出される特徴量は、形状情報22aの生成時に用いた特徴量(例えば、HOG特徴量)と統一する。そして、特徴抽出部12は、抽出した各拡縮画像の特徴量の情報を領域抽出部13へ出力する。   The feature extraction unit 12 extracts, for example, a HOG feature amount from the generated scaled image. The feature amount extracted by the feature extraction unit 12 is unified with the feature amount used when the shape information 22a is generated (for example, the HOG feature amount). Then, the feature extraction unit 12 outputs information on the extracted feature amount of each scaled image to the region extraction unit 13.

なお、特徴抽出部12による特徴量の抽出は、HOG特徴量に限定されず、例えば、ハフ(Hough)変換を用いてもよい。ハフ変換を用いる場合、後述する領域抽出部13は、パターンマッチングによって道路標識の形状を認識する。   The extraction of the feature amount by the feature extraction unit 12 is not limited to the HOG feature amount, and for example, Hough transform may be used. When the Hough transform is used, the area extraction unit 13 described later recognizes the shape of the road sign by pattern matching.

領域抽出部13は、特徴抽出部12によって抽出された特徴量の情報と、形状情報22aとに基づいて、認識する形状が存在する対象領域31を抽出する。ここで、図4を参照して、領域抽出部13による対象領域31の抽出処理について具体的に説明する。図4は、領域抽出部13による対象領域31の抽出処理を示す説明図である。   The area extracting unit 13 extracts the target area 31 in which the shape to be recognized exists based on the feature amount information extracted by the feature extracting unit 12 and the shape information 22a. Here, the extraction processing of the target area 31 by the area extracting unit 13 will be specifically described with reference to FIG. FIG. 4 is an explanatory diagram showing the extraction processing of the target area 31 by the area extracting unit 13.

図4に(a)で示すように、領域抽出部13は、まず、所定拡縮率の拡縮画像Rの領域全体に対して40km速度制限Mを探索するための複数の探索領域An(n=10〜N。以下、複数の探索領域Anをまとめて探索領域Aとも記載する)を設定する。   As shown in (a) of FIG. 4, the area extracting unit 13 firstly searches a plurality of search areas An (n = 10) for searching the 40 km speed limit M for the entire area of the enlarged / reduced image R having a predetermined enlargement / reduction rate. ˜N. Hereinafter, a plurality of search areas An are collectively described as search area A).

設定される探索領域Aのサイズは、例えば、36ピクセル×36ピクセルであり、形状情報22aを生成するために準備した画像のサイズと統一する。   The size of the set search area A is, for example, 36 pixels × 36 pixels, which is the same as the size of the image prepared for generating the shape information 22a.

そして、図4に(b)で示すように、領域抽出部13は、各探索領域Aから抽出される特徴量に基づいて、探索領域Aを形状情報22aに含まれる座標軸で形成される2次元平面上にプロットする。つまり、探索領域Aのサイズと形状情報22aを生成するために準備した画像のサイズとを揃えることで、かかる2次元平面上へのプロットが可能となる。なお、図4に(b)で示すグラフは、抽出する特徴量を表す縦軸および横軸で構成されるものとする。   Then, as shown in FIG. 4B, the area extracting unit 13 forms the search area A in two dimensions based on the coordinate axes included in the shape information 22a based on the feature amount extracted from each search area A. Plot on a plane. That is, by aligning the size of the search region A and the size of the image prepared for generating the shape information 22a, it is possible to plot on the two-dimensional plane. The graph shown in (b) of FIG. 4 is assumed to be composed of a vertical axis and a horizontal axis that represent the feature quantity to be extracted.

そして、領域抽出部13は、プロットされた探索領域Aが、形状情報22aの分離線Sによって分離された領域のうち、円形を示す領域40およびそれ以外の形状を示す領域41のいずれに位置するかを判定する。   Then, the region extraction unit 13 positions the plotted search region A in either the region 40 showing a circle or the region 41 showing a shape other than that among the regions separated by the separation line S of the shape information 22a. To determine.

そして、図4に(c)で示すように、領域抽出部13は、円形を示す領域40に位置する探索領域A21(図4の(b)参照)を円形24が存在する対象領域31として抽出する。   Then, as shown in (c) of FIG. 4, the area extracting unit 13 extracts the search area A21 (see (b) of FIG. 4) located in the area 40 showing a circle as the target area 31 in which the circle 24 exists. To do.

ここで、形状情報22aは、上述したように、36ピクセル×36ピクセル内の画像が円形であるか否かを判別するために使用される情報である。そして、画像Pにおける円形の道路標識は、自車両からの距離によってサイズが異なるため、サイズが36ピクセル×36ピクセルとは限らない。   Here, the shape information 22a is information used to determine whether or not the image within 36 pixels × 36 pixels is circular, as described above. The size of the circular road sign in the image P is not limited to 36 pixels × 36 pixels because the size varies depending on the distance from the vehicle.

このため、領域抽出部13は、画像Pから円形が存在する対象領域31を抽出することができない場合もあるが、拡縮画像生成部11から入力される拡縮率が異なる複数の拡縮画像を探索することによって、対象領域31を抽出することができる。   For this reason, although the area extraction unit 13 may not be able to extract the target area 31 in which a circle exists from the image P, the area extraction unit 13 searches for a plurality of scaled images having different scale rates input from the scaled image generation unit 11. As a result, the target area 31 can be extracted.

なお、図4の(a)で示す探索領域Aの位置や数は、理解を容易にするために一部を示しているに過ぎず、実際には、探索領域Aの一部の領域を重複させることで拡縮画像R内を隈無く探索できるように設定されている。   It should be noted that the position and number of the search area A shown in (a) of FIG. 4 only show a part for facilitating understanding, and actually, a part of the search area A overlaps. By doing so, it is set so that the enlarged / reduced image R can be searched for without exception.

そして、領域抽出部13は、抽出した対象領域31が存在する拡縮画像Rの拡縮率および拡縮画像R内での対象領域31の位置に関する情報を認識部15へ出力する。位置に関する情報とは、例えば、XY直交座標系に変換した拡縮画像Rにおける対象領域31が存在する位置のXY座標値である。   Then, the region extraction unit 13 outputs to the recognition unit 15 information regarding the enlargement / reduction ratio of the enlarged / reduced image R in which the extracted target region 31 exists and the position of the target region 31 in the enlarged / reduced image R. The information regarding the position is, for example, the XY coordinate value of the position where the target region 31 exists in the scaled image R converted into the XY orthogonal coordinate system.

順序設定部14は、車両の走行状態に基づいて道路標識の種類の認識順序の優先順位を設定する。具体的には、まず、順序設定部14は、カメラ2によって撮像された画像Pと、走行状態検出装置3から走行状態を示す走行状態情報とを取得する。   The order setting unit 14 sets the priority order of the recognition order of the types of road signs based on the traveling state of the vehicle. Specifically, first, the order setting unit 14 acquires the image P captured by the camera 2 and the traveling state information indicating the traveling state from the traveling state detection device 3.

また、順序設定部14は、たとえば、走行状態情報である車速情報に基づいて、車両の走行速度を取得する。また、走行状態情報である地図情報および位置情報に基づいて、車両の走行している道路の種別を示す道路情報を取得する。   Further, the order setting unit 14 acquires the traveling speed of the vehicle, for example, based on the vehicle speed information that is the traveling state information. Further, the road information indicating the type of road on which the vehicle is traveling is acquired based on the map information and the position information which are the traveling state information.

また、順序設定部14は、カメラ2から取得した画像Pに基づいて、車両が走行している道路の車線を区画する区画線を検出することで、車両が走行している車線や、かかる車線を逸脱したか否か等の情報を取得する。   In addition, the order setting unit 14 detects the lanes that divide the lanes of the road on which the vehicle is traveling based on the image P acquired from the camera 2 to detect the lanes in which the vehicle is traveling and the lanes in which the vehicle is traveling. Information such as whether or not the vehicle has deviated.

そして、順序設定部14は、取得した各種情報に基づいて、優先順位情報21の中から車両の走行状態に応じた道路標識の種類の認識順序の優先順位を選択する。そして、順序設定部14は、選択した認識順序の優先順位を示す情報を認識部15へ出力する。なお、優先順位情報21の具体例については、図6を参照して後述する。   Then, the order setting unit 14 selects the priority order of the recognition order of the types of road signs according to the traveling state of the vehicle from the priority order information 21 based on the acquired various information. Then, the order setting unit 14 outputs information indicating the priority order of the selected recognition order to the recognition unit 15. A specific example of the priority order information 21 will be described later with reference to FIG.

認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物である道路標識の種類の認識処理を実行する。具体的には、認識部15は、まず、領域抽出部13から対象領域31が存在する拡縮画像Rの拡縮率および拡縮画像R内での対象領域31の位置に関する情報に基づいて、対象領域31のサイズおよび位置を特定する。   The recognition unit 15 selectively performs the recognition process of the type of the road sign that is the recognition target object on the target region 31 extracted by the region extraction unit 13 in the entire region of the image P. Specifically, the recognition unit 15 firstly, based on the information regarding the scaling ratio of the scaled image R in which the target region 31 exists and the position of the target region 31 in the scaled image R from the region extraction unit 13, the target region 31. The size and location of the.

続いて、認識部15は、特定した対象領域31に対してのみ、辞書情報22に含まれる種類情報22bに基づいて、道路標識の種類を認識する認識処理を実行する。ここで、図5を参照して、かかる種類情報22bおよび形状情報22aを含む辞書情報22について具体的に説明する。   Subsequently, the recognition unit 15 executes a recognition process for recognizing the type of the road sign only for the specified target area 31 based on the type information 22b included in the dictionary information 22. Here, the dictionary information 22 including the type information 22b and the shape information 22a will be specifically described with reference to FIG.

図5は、辞書情報22を示す説明図である。図5に示すように、辞書情報22は、例えば、「形状」、「標識」、「名称」といった項目を含む。なお、図5に示す、辞書情報22は一例であり、これに限定されるものではない。   FIG. 5 is an explanatory diagram showing the dictionary information 22. As shown in FIG. 5, the dictionary information 22 includes items such as “shape”, “marker”, and “name”, for example. The dictionary information 22 shown in FIG. 5 is an example, and the present invention is not limited to this.

また、図5には、説明を容易にするため、道路標識の形状や標識の種類をシンボル画像として示しているが、実際には、図5に示した「形状」や「標識」を判定するための座標軸および分離線を示す情報が格納されている。   Further, in FIG. 5, the shape of the road sign and the type of the sign are shown as a symbol image for ease of explanation, but in reality, the “shape” and the “sign” shown in FIG. 5 are determined. The information indicating the coordinate axis and the separating line for is stored.

図5に示す「形状」は、形状情報22aであり、道路標識の形状を判定するための座標軸および分離線の情報である。「標識」は、種類情報22bであり、「形状」に対応する形状の道路標識の種類を認識するための座標軸および分離線の情報である。「名称」は、対応する「標識」の道路標識の名称を示す。   The "shape" shown in FIG. 5 is the shape information 22a, which is the information of the coordinate axis and the separating line for determining the shape of the road sign. The “sign” is the type information 22b, which is information about the coordinate axis and the separating line for recognizing the type of the road sign having the shape corresponding to the “shape”. “Name” indicates the name of the road sign of the corresponding “sign”.

つまり、認識部15は、特定した対象領域31の特徴量を抽出し、かかる特徴量に基づいて、種類情報22bに含まれる座標軸によって形成される2次元平面上に、対象領域31をプロットする。   That is, the recognition unit 15 extracts the feature amount of the specified target region 31, and plots the target region 31 on the two-dimensional plane formed by the coordinate axes included in the type information 22b based on the feature amount.

そして、認識部15は、2次元平面上に種類情報22bに含まれる各道路標識の種類の分離線を引くことで、対象領域31のプロット位置が、特定の道路標識の種類を示す領域およびそれ以外の物体を示す領域のいずれに位置するかを判定することで、道路標識の種類を認識する。   Then, the recognition unit 15 draws a separation line for each type of road signs included in the type information 22b on the two-dimensional plane, so that the plot position of the target area 31 indicates the area indicating the type of the specific road sign and that area. The type of the road sign is recognized by determining in which area the object other than is located.

このように、道路標識に共通する外形が存在する対象領域31に絞ることで、各道路標識の種類を認識する処理量を抑えることができるため、道路標識の種類を効率的に認識することができる。   In this way, by narrowing down to the target area 31 in which the outer shape common to the road signs exists, the processing amount for recognizing the type of each road sign can be suppressed, so that the type of road sign can be efficiently recognized. it can.

また、認識部15は、拡縮率が異なる対象領域31の拡縮画像を生成してもよい。そして、拡縮画像毎に特徴量を抽出し、道路標識の種類を認識する。この時に生成する拡縮画像の数は、上述の拡縮画像生成部11が生成する数より少ない数(例えば、3枚の拡縮画像)でよい。   The recognition unit 15 may also generate a scaled image of the target region 31 having a different scale rate. Then, the feature amount is extracted for each scaled image to recognize the type of road sign. The number of scaled images generated at this time may be smaller than the number generated by the scaled image generation unit 11 described above (for example, three scaled images).

これは、例えば、対象領域31の位置が何らかの原因でズレた場合に、道路標識の種類が認識されないことがあるためである。このため、対象領域31の拡縮画像を生成しておくことで、道路標識の種類の認識精度を向上することができる。   This is because, for example, if the position of the target area 31 is displaced for some reason, the type of road sign may not be recognized. Therefore, by generating a scaled image of the target area 31, it is possible to improve the recognition accuracy of the types of road signs.

また、認識部15は、順序設定部14から入力される認識順序の優先順位を示す情報に基づいて、道路標識の種類の認識順序の優先順位を変更する。ここで、認識部15による認識順序の優先順位について、図6を参照して具体的に説明する。   Further, the recognition unit 15 changes the priority order of the recognition order of the types of road signs, based on the information indicating the priority order of the recognition order input from the order setting unit 14. Here, the priority of the recognition order by the recognition unit 15 will be specifically described with reference to FIG.

図6は、認識順序の優先順位を含む優先順位情報21を示す説明図である。なお、図6は、一例であり、これに限定されるものではない。なお、認識部15は、図6に示す優先順位情報21のうち、順序設定部14によって選択された認識順序の優先順位に従う。   FIG. 6 is an explanatory diagram showing the priority order information 21 including the priority order of the recognition order. Note that FIG. 6 is an example, and the present invention is not limited to this. The recognition unit 15 follows the priority order of the recognition order selected by the order setting unit 14 in the priority order information 21 shown in FIG.

図6に示すように、優先順位情報21は、「道路」、「自車速」、「認識順序」といった項目を含む。「道路」は、車両が走行している道路の種別である。「自車速」は、車両の走行速度である。「認識順序」は、認識部15による道路標識の認識順序を示す。   As shown in FIG. 6, the priority order information 21 includes items such as “road”, “vehicle speed”, and “recognition order”. “Road” is the type of road on which the vehicle is traveling. The "vehicle speed" is the traveling speed of the vehicle. The “recognition order” indicates the order of recognition of road signs by the recognition unit 15.

つまり、認識部15は、自車両が走行している道路の種別や自車両の走行速度などの走行状態情報に基づいて道路標識の種類の認識順序の優先順位を変更する。具体的には、図6に示すように、認識部15は、順序設定部14が、自車両の走行している道路が高速道路であることを示す道路情報を取得すると、60km以上の速度制限の優先順位を上げた認識順序で道路標識の種類を認識する。   That is, the recognition unit 15 changes the priority order of the recognition order of the types of road signs based on the traveling state information such as the type of road on which the vehicle is traveling and the traveling speed of the vehicle. Specifically, as illustrated in FIG. 6, when the order setting unit 14 acquires road information indicating that the road on which the vehicle is traveling is a highway, the recognition unit 15 sets a speed limit of 60 km or more. The types of road signs are recognized in the recognition order in which the priority of is increased.

また、自車両が走行している道路が一般道であることを示す道路情報を取得した場合は、60km以下の速度制限の優先順位を上げる。つまり、走行する道路の種別に応じて存在する可能性が高い種類の道路標識に絞ることで処理量を低減することができる。   In addition, when the road information indicating that the road on which the vehicle is traveling is a general road is acquired, the priority of the speed limit of 60 km or less is increased. That is, the processing amount can be reduced by narrowing down to the types of road signs that are likely to exist according to the type of road on which the vehicle travels.

また、認識部15は、順序設定部14が、自車両が高速道路を時速80kmで走行していることを示す車速情報を取得すると、80km速度制限をまず始めに認識する。そして認識部15は、80km速度制限に近い、70km速度制限、60km速度制限、進入禁止の順に認識していく。   Further, when the order setting unit 14 acquires the vehicle speed information indicating that the own vehicle is traveling on the highway at a speed of 80 km / h, the recognition unit 15 first recognizes the 80 km speed limit. Then, the recognition unit 15 recognizes the speed limit of 70 km, the speed limit of 60 km, the speed limit of 60 km, and the entry prohibition in the order close to the speed limit of 80 km.

これは、運転者の特性上、速度制限に近い速度で走行する場合が多いためである。例えば、普段から速度制限より10km程度遅く運転するような運転者であれば、このような特性を考慮して、走行速度より10km速い速度制限を優先して認識するようにしてもよい。   This is because the characteristics of the driver often cause the vehicle to travel at a speed close to the speed limit. For example, a driver who normally drives about 10 km slower than the speed limit may preferentially recognize the speed limit 10 km faster than the traveling speed in consideration of such characteristics.

このように、車両の走行速度を利用することで、存在する可能性の高い速度制限の種類から始められるため、より効率的に認識処理を実行することができる。   In this way, by using the traveling speed of the vehicle, it is possible to start from the type of speed limitation that is likely to exist, so that the recognition process can be executed more efficiently.

したがって、認識部15は、車両の走行状態に基づいて、認識順序の優先順位を変更することで、道路標識の種類を認識する認識処理の回数を抑えられるため、より効率的に道路標識を認識することができる。   Therefore, the recognition unit 15 can reduce the number of times of recognition processing for recognizing the type of road sign by changing the priority order of the recognition order based on the traveling state of the vehicle, and thus recognize the road sign more efficiently. can do.

また、認識部15は、例えば、カメラ2から所定間隔で連続して入力される画像(以下、フレーム画像と記載)において、1フレーム前の時刻のフレーム画像の認識結果である速度制限の種類を優先して認識してもよい。   Further, for example, in the image (hereinafter, referred to as a frame image) continuously input from the camera 2 at a predetermined interval, the recognition unit 15 determines the type of speed limitation which is the recognition result of the frame image at the time one frame before. You may preferentially recognize.

この場合、認識部15は、かかる認識結果を記憶部20に記憶し、次の時刻のフレーム画像において、順序設定部14が記憶した認識結果を取得することで、優先順位を変更する。   In this case, the recognition unit 15 changes the priority order by storing the recognition result in the storage unit 20 and acquiring the recognition result stored in the order setting unit 14 in the frame image at the next time.

また、図6に示すように、認識部15は、順序設定部14が、自車両が交差点や分岐点へ接近していることを示す道路情報を取得した場合、進入禁止の道路標識を優先して認識するようにする。   In addition, as shown in FIG. 6, when the order setting unit 14 acquires road information indicating that the vehicle is approaching an intersection or a branch point, the recognition unit 15 gives priority to a road sign prohibiting entry. To recognize.

なお、交差点や分岐点において進入禁止が設けられる位置に応じて進入禁止の優先順位を変更するようにしてもよい。かかる場合について図7を参照して、具体的に説明する。   In addition, the priority order of the entry prohibition may be changed according to the position where the entry prohibition is provided at the intersection or the branch point. Such a case will be specifically described with reference to FIG. 7.

図7は、交差点における車両および進入禁止の位置関係を示す図である。なお、図7には、実施形態に係る物体認識装置1を搭載した車両Cが、進入禁止M1、M2が存在する交差点へ接近する場面を一例として示す。   FIG. 7 is a diagram showing a positional relationship between a vehicle and an entry prohibition at an intersection. Note that FIG. 7 shows an example of a scene in which a vehicle C equipped with the object recognition device 1 according to the embodiment approaches an intersection where entry prohibitions M1 and M2 exist.

また、図7には、車両Cが走行する車線50および対向車線51を示し、車両Cから見て、車線50側の交差点手前に左折を禁止する進入禁止M1を、対向車線51側の交差点奥に右折を禁止する進入禁止M2を示している。   In addition, FIG. 7 shows a lane 50 and an oncoming lane 51 on which the vehicle C is traveling. When viewed from the vehicle C, an entry prohibition M1 that prohibits a left turn before the intersection on the lane 50 side is shown at the back of the intersection on the opposite lane 51 side. The entry prohibition M2 for prohibiting a right turn is shown in FIG.

かかる場合において、車両Cの運転者が、進入禁止M1を見落として誤って左折してしまう可能性は高いため、認識部15は、領域抽出部13によって車線50側から円形が存在する対象領域31が抽出された場合、進入禁止の優先順位を上げる。   In such a case, there is a high possibility that the driver of the vehicle C overlooks the entry prohibition M1 and turns to the left by mistake. Therefore, the recognition unit 15 causes the region extraction unit 13 to detect the target region 31 in which a circle exists from the lane 50 side. If is extracted, the priority of entry prohibition is raised.

一方で、車両Cの運転者が、進入禁止M2を見落としたとしても、わざわざ対向車線51を横断して進入禁止M2の道路へ右折する可能性は低いにも関わらず、進入禁止M2についても優先順位を上げてしまうと処理量が嵩むおそれがある。   On the other hand, even if the driver of the vehicle C overlooks the entry prohibition M2, it is unlikely that the driver crosses the oncoming lane 51 and turns right into the entry prohibition M2 road, but the entry prohibition M2 is also prioritized. If the rank is raised, the processing amount may increase.

そこで、認識部15は、領域抽出部13によって対向車線51側から円形が存在する対象領域31が抽出された場合、進入禁止の優先順位を下げることとする。これにより、不要な認識処理によって、処理量が嵩むのを抑えることができる。   Therefore, when the area extraction unit 13 extracts the target area 31 in which a circle exists from the oncoming lane 51 side, the recognition unit 15 lowers the priority level of the entry prohibition. As a result, it is possible to suppress an increase in processing amount due to unnecessary recognition processing.

なお、対象領域31の位置が、車線50側であるか対向車線51側であるかの判定は、順序設定部14が取得する区画線の情報に基づいて、画像内におけるかかる区画線と対象領域31との位置関係を特定することで判定することができる。   The determination whether the position of the target area 31 is on the lane 50 side or on the opposite lane 51 side is based on the information on the lane markings acquired by the order setting unit 14 and the lane markings and the target area in the image. It can be determined by specifying the positional relationship with 31.

なお、図7の状況において、順序設定部14が、車両Cが対向車線51を横断して右折することを示す走行状態情報を取得した場合、進入禁止の優先順位を上げてもよい。かかる走行状態情報としては、例えば、車両Cが中央区画線52を逸脱したか否かの判定情報や、車両Cと進入禁止M2との距離の情報がある。   In addition, in the situation of FIG. 7, when the order setting unit 14 acquires the traveling state information indicating that the vehicle C crosses the oncoming lane 51 and turns right, the priority order of entry prohibition may be increased. Such traveling state information includes, for example, determination information on whether or not the vehicle C has deviated from the central lane marking 52, and information on the distance between the vehicle C and the entry prohibition M2.

つまり、認識部15は、順序設定部14がカメラ2の画像に基づき車両Cと進入禁止M2との距離が所定距離以下となったことを示す情報を取得した場合、進入禁止M2の優先順位を上げるようにする。   That is, when the order setting unit 14 acquires information indicating that the distance between the vehicle C and the entry prohibition M2 is equal to or less than the predetermined distance based on the image of the camera 2, the recognition unit 15 determines the priority of the entry prohibition M2. Try to raise.

つまり、認識部15は、車両Cの走行に伴って変化する車両Cと道路標識との距離に基づいて、進入禁止M2の優先順位を変更する。これにより、不要な認識処理を低減しつつ必要な場合のみ認識処理の優先順位を上げられるため、より効率的に認識処理を実行することができる。そして、認識部15は、認識結果を出力部16へ出力する。   That is, the recognition unit 15 changes the priority of the entry prohibition M2 based on the distance between the vehicle C and the road sign that changes as the vehicle C travels. As a result, the priority of the recognition processing can be increased only when necessary while reducing the unnecessary recognition processing, so that the recognition processing can be executed more efficiently. Then, the recognition unit 15 outputs the recognition result to the output unit 16.

出力部16は、車載装置4の形態に応じて認識部15の認識結果を示す情報を変換して出力する。例えば、車載装置4がディスプレイの場合、認識した道路標識を囲む枠画像を生成し、カメラ2の画像とかかる枠画像とを重畳した合成画像を出力する。   The output unit 16 converts and outputs the information indicating the recognition result of the recognition unit 15 according to the form of the in-vehicle device 4. For example, when the vehicle-mounted device 4 is a display, a frame image surrounding the recognized road sign is generated, and a composite image in which the image of the camera 2 and the frame image are superimposed is output.

また、出力部16は、車載装置4が、ドライブレコーダの場合、カメラ2の画像と認識した道路標識の位置や種類とを関連付けた走行履歴情報を出力する。そして、ドライブレコーダがかかる走行履歴情報を記録することで、事後的に認識結果を確認することができる。   Further, when the vehicle-mounted device 4 is a drive recorder, the output unit 16 outputs the traveling history information in which the image of the camera 2 is associated with the position and type of the recognized road sign. Then, the drive recorder records the traveling history information, so that the recognition result can be confirmed ex post facto.

次に、実施形態に係る物体認識装置1が実行する認識処理の処理手順について、図8を用いて説明する。図8は、実施形態に係る物体認識装置1が実行する認識処理の処理手順を示すフローチャートである。   Next, the processing procedure of the recognition processing executed by the object recognition device 1 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a processing procedure of recognition processing executed by the object recognition device 1 according to the embodiment.

図8に示すように、拡縮画像生成部11は、カメラ2によって撮像された画像Pを取得し、かかる画像Pの拡縮画像を生成する(ステップS101)。つづいて、特徴抽出部12は、各拡縮画像から、例えば、HOG特徴量を用いて特徴量を抽出する(ステップS102)。   As shown in FIG. 8, the scaled image generation unit 11 acquires the image P captured by the camera 2 and generates a scaled image of the image P (step S101). Subsequently, the feature extraction unit 12 extracts the feature amount from each scaled image using, for example, the HOG feature amount (step S102).

つづいて、領域抽出部13は、特徴抽出部12が抽出した特徴量と、形状情報22aとに基づいて、認識対象物の形状が存在する対象領域を抽出する(ステップS103)。つづいて、認識部15は、種類情報22bに基づいて、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物の認識処理を実行し(ステップS104)、処理を終了する。   Subsequently, the area extraction unit 13 extracts a target area in which the shape of the recognition target object exists based on the feature amount extracted by the feature extraction unit 12 and the shape information 22a (step S103). Subsequently, the recognition unit 15 selectively performs recognition processing of the recognition target object on the target region 31 extracted by the region extraction unit 13 in the entire region of the image P based on the type information 22b ( (Step S104), the process ends.

また、実施形態に係る物体認識装置1は、図9に一例として示す構成のコンピュータ200で実現することができる。図9は、物体認識装置1の機能を実現するコンピュータの一例を示すハードウェア構成図である。   Further, the object recognition device 1 according to the embodiment can be realized by the computer 200 having the configuration illustrated in FIG. 9 as an example. FIG. 9 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the object recognition device 1.

コンピュータ200は、CPU(Central Processing Unit)210と、ROM(Read Only Memory)220と、RAM(Random Access Memory)230と、HDD(Hard Disk Drive)240とを備える。また、コンピュータ200は、メディアインターフェイス(I/F)250と、通信インターフェイス(I/F)260と、入出力インターフェイス(I/F)270とを備える。   The computer 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a RAM (Random Access Memory) 230, and an HDD (Hard Disk Drive) 240. The computer 200 also includes a media interface (I / F) 250, a communication interface (I / F) 260, and an input / output interface (I / F) 270.

なお、コンピュータ200は、SSD(Solid State Drive)を備え、かかるSSDがHDD240の一部または全ての機能を実行するようにしてもよい。また、HDD240に代えてSSDを設けることとしてもよい。   The computer 200 may include an SSD (Solid State Drive), and the SSD may execute some or all functions of the HDD 240. An SSD may be provided instead of the HDD 240.

CPU210は、ROM220およびHDD240の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM220は、コンピュータ200の起動時にCPU210によって実行されるブートプログラムや、コンピュータ200のハードウェアに依存するプログラムなどを格納する。HDD240は、CPU210によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。   The CPU 210 operates based on a program stored in at least one of the ROM 220 and the HDD 240, and controls each unit. The ROM 220 stores a boot program executed by the CPU 210 when the computer 200 starts up, a program dependent on the hardware of the computer 200, and the like. The HDD 240 stores programs executed by the CPU 210, data used by the programs, and the like.

メディアI/F250は、記憶媒体280に格納されたプログラムやデータを読み取り、RAM230を介してCPU210に提供する。CPU210は、かかるプログラムを、メディアI/F250を介して記憶媒体280からRAM230上にロードし、ロードしたプログラムを実行する。あるいは、CPU210は、かかるデータを用いてプログラムを実行する。記憶媒体280は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。   The media I / F 250 reads a program or data stored in the storage medium 280 and provides it to the CPU 210 via the RAM 230. The CPU 210 loads the program from the storage medium 280 onto the RAM 230 via the medium I / F 250 and executes the loaded program. Alternatively, the CPU 210 executes the program using such data. The storage medium 280 is, for example, a magneto-optical recording medium such as a DVD (Digital Versatile Disc), an SD card, or a USB memory.

通信I/F260は、ネットワーク290を介して他の機器からデータを受信してCPU210に送り、CPU210が生成したデータを、ネットワーク290を介して他の機器へ送信する。あるいは、通信I/F260は、ネットワーク290を介して他の機器からプログラムを受信してCPU210に送り、CPU210がかかるプログラムを実行する。   The communication I / F 260 receives data from another device via the network 290, sends the data to the CPU 210, and transmits the data generated by the CPU 210 to the other device via the network 290. Alternatively, communication I / F 260 receives a program from another device via network 290, sends the program to CPU 210, and CPU 210 executes the program.

CPU210は、入出力I/F270を介して、ディスプレイ等の車載装置4を制御する。CPU210は、入出力I/F270を介して、カメラ2と、走行状態検出装置3からデータを取得する。また、CPU210は、生成したデータを入出力I/F270を介して車載装置4に出力する。   The CPU 210 controls the vehicle-mounted device 4 such as a display via the input / output I / F 270. The CPU 210 acquires data from the camera 2 and the traveling state detection device 3 via the input / output I / F 270. Further, the CPU 210 outputs the generated data to the in-vehicle device 4 via the input / output I / F 270.

例えば、コンピュータ200が物体認識装置1として機能する場合、コンピュータ200のCPU210は、RAM230上にロードされたプログラムを実行することにより、拡縮画像生成部11、特徴抽出部12、領域抽出部13、順序設定部14、認識部15および出力部16の各機能を実現する。   For example, when the computer 200 functions as the object recognition device 1, the CPU 210 of the computer 200 executes the program loaded in the RAM 230 to execute the enlarged / reduced image generation unit 11, the feature extraction unit 12, the region extraction unit 13, and the order. The respective functions of the setting unit 14, the recognition unit 15, and the output unit 16 are realized.

コンピュータ200のCPU210は、例えばこれらのプログラムを記憶媒体280から読み取って実行するが、他の例として、他の装置からネットワーク290を介してこれらのプログラムを取得してもよい。また、HDD240は、記憶部20が記憶する優先順位情報21、辞書情報22を記憶することができる。   The CPU 210 of the computer 200 reads, for example, these programs from the storage medium 280 and executes the programs, but as another example, the programs may be acquired from another device via the network 290. Further, the HDD 240 can store the priority order information 21 and the dictionary information 22 stored in the storage unit 20.

上述してきたように、実施形態に係る物体認識装置1は、領域抽出部13と、認識部15とを備える。領域抽出部13は、車両に設けられたカメラ2によって撮像された画像から、特徴量抽出部12によって抽出された特徴量に基づいて、認識対象物の形状が存在する対象領域31を抽出する。認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物の認識処理を実行する。   As described above, the object recognition device 1 according to the embodiment includes the area extraction unit 13 and the recognition unit 15. The area extraction unit 13 extracts the target area 31 in which the shape of the recognition target object exists from the image captured by the camera 2 provided in the vehicle, based on the feature amount extracted by the feature amount extraction unit 12. The recognition unit 15 selectively executes the recognition process of the recognition target object on the target region 31 extracted by the region extraction unit 13 in the entire region of the image P.

これにより、実施形態に係る物体認識装置1は、認識対象物の種類を効率的に認識することができる。   Thereby, the object recognition device 1 according to the embodiment can efficiently recognize the type of the recognition target object.

なお、上述の実施例では、道路標識を認識対象物の一例として示したが、これに限定されるものではない。ここで、図10を参照して、変形例に係る辞書情報22について説明する。図10は、変形例に係る辞書情報22の説明図である。   In addition, although the road sign is shown as an example of the recognition target object in the above-described embodiment, the present invention is not limited to this. Here, the dictionary information 22 according to the modification will be described with reference to FIG. 10. FIG. 10 is an explanatory diagram of the dictionary information 22 according to the modification.

一般に、道路の周辺に存在する飲食店等は、運転者へ店舗の存在を示すために、所定形状の看板が道路の近傍に設置されていたり、また、形状についても特定の文字を模した看板等もあり、かかる看板によって店舗を認識可能である場合が多い。   Generally, restaurants and the like that exist around the road have a signboard of a predetermined shape installed near the road to show the existence of the shop to the driver, or a signboard that imitates a specific character for the shape. In many cases, the sign can be used to identify the store.

そこで、かかる看板の画像を学習データとして、機械学習することで、図10に示す特定の店舗の看板の特徴を示す辞書情報22が生成される。そして、領域抽出部13は、かかる看板の形状が存在する対象領域31を抽出する。   Therefore, machine learning is performed using the image of the signboard as learning data to generate the dictionary information 22 showing the characteristics of the signboard of the specific store shown in FIG. 10. Then, the area extracting unit 13 extracts the target area 31 in which the shape of the signboard exists.

続いて、認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に看板の内容(種類)を認識する認識処理を実行する。これにより、物体認識装置1は、認識対象物が看板等であっても、認識処理を効率的に実行することができる。   Subsequently, the recognition unit 15 performs a recognition process of selectively recognizing the content (type) of the signboard with respect to the target region 31 extracted by the region extraction unit 13 in the entire region of the image P. Thereby, the object recognition device 1 can efficiently perform the recognition process even when the recognition target object is a signboard or the like.

また、実施形態の変形例に係る物体認識装置1によれば、例えば、図10に示すような一般的な矩形の看板であっても、看板の内容に特徴があれば、かかる看板の店舗を「○○寿司」として認識することができる。   Further, according to the object recognition device 1 according to the modified example of the embodiment, for example, even if a general rectangular signboard as shown in FIG. It can be recognized as "XX Sushi".

また、特定の文字、例えば「X」を模したような特徴的な形状であれば、看板の形状を認識することで、看板の内容の認識処理を簡便しても特定の店舗として「Xカレー」を認識することができる。   In addition, if the shape of the signboard has a characteristic shape imitating a specific character, for example, “X”, even if the recognition process of the content of the signboard is simplified, the “X curry Can be recognized.

なお、上述した対象領域31の領域は、外形に接するような矩形の領域(図4参照)に限定されるものではなく、例えば、道路標識の円形から所定距離外側の矩形の領域であってもよい。また、対象領域31の形状も、矩形に限定されず、円形や、認識対象物の形状と同じ形状であってもよい。   The area of the target area 31 described above is not limited to a rectangular area (see FIG. 4) that is in contact with the outer shape, and may be, for example, a rectangular area outside a circle of a road sign by a predetermined distance. Good. Further, the shape of the target area 31 is not limited to a rectangle, and may be a circle or the same shape as the shape of the recognition target object.

また、上記では、物体認識装置1と車載装置4とは別の装置であるものとして説明したが、これらを一体化してもよい。すなわち、上述した物体認識装置1と車載装置4との双方の機能を一つの装置が備えていてもよい。   Further, in the above description, the object recognition device 1 and the in-vehicle device 4 are described as different devices, but they may be integrated. That is, one device may have both the functions of the object recognition device 1 and the in-vehicle device 4 described above.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the present invention are not limited to the particular details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and their equivalents.

1 物体認識装置
2 カメラ
11 拡縮画像生成部
12 特徴抽出部
13 領域抽出部
15 認識部
31 対象領域
1 Object Recognition Device 2 Camera 11 Scaled Image Generation Unit 12 Feature Extraction Unit 13 Region Extraction Unit 15 Recognition Unit 31 Target Region

Claims (7)

車両に設けられた撮像装置によって撮像された画像から認識対象物となる道路標識の形状が存在する対象領域を抽出する領域抽出部と、
前記画像の領域全体のうち、前記領域抽出部によって抽出された前記対象領域に対して選択的に前記認識対象物の認識処理を実行する認識部と、を備え
前記認識部は、
前記車両の走行状態を示す走行状態情報を取得し、前記走行状態情報に基づいて前記道路標識の認識順序の優先順位を変更するとともに、前記道路標識の外形が円形かつ、当該道路標識が対向車線側に位置する場合、進入禁止の前記優先順位を下げること
を特徴とする物体認識装置。
A region extraction unit that extracts a target region in which the shape of a road sign that is a recognition target is present from an image captured by an imaging device provided in a vehicle,
A recognition unit that selectively performs the recognition process of the recognition target object on the target region extracted by the region extraction unit in the entire region of the image ,
The recognition unit is
Acquiring traveling state information indicating the traveling state of the vehicle, changing the priority order of the recognition order of the road signs based on the traveling state information, the outer shape of the road sign is circular, and the road sign is an oncoming lane. An object recognition device, characterized in that when it is located on the side, the priority of the entry prohibition is lowered .
前記領域抽出部は、
前記認識対象物となる道路標識と同様の前記外形が存在する前記対象領域を抽出すること
を特徴とする請求項1に記載の物体認識装置。
The area extraction unit,
Object recognition apparatus according to claim 1, characterized in that to extract the target region in which the outer shape similar to road signs to be the recognition target object is present.
前記道路標識の種類に対応する当該道路標識の特徴を示す種類情報を記憶する記憶部をさらに備え、
前記認識部は、
前記記憶部に記憶された前記種類情報に基づいて、前記道路標識の種類を認識すること
を特徴とする請求項2に記載の物体認識装置。
Further comprising a storage unit that stores type information indicating the characteristics of the road sign corresponding to the type of the road sign,
The recognition unit is
The object recognition device according to claim 2, wherein the type of the road sign is recognized based on the type information stored in the storage unit.
前記認識部は、
前記走行状態情報として前記車両の走行速度を示す車速情報を取得すること
を特徴とする請求項1〜3のいずれか一つに記載の物体認識装置。
The recognition unit is
The object recognition device according to any one of claims 1 to 3, wherein vehicle speed information indicating a traveling speed of the vehicle is acquired as the traveling state information.
前記認識部は、
前記走行状態情報として前記車両が走行する道路の種別を示す道路情報を取得すること
を特徴とする請求項1〜4のいずれか一つに記載の物体認識装置。
The recognition unit is
The object recognition device according to claim 1, wherein road information indicating a type of a road on which the vehicle is traveling is acquired as the traveling state information.
前記認識部は、
前記車両の走行に伴って変化する前記車両と前記道路標識との距離に基づいて、進入禁止の前記優先順位を変更すること
を特徴とする請求項のいずれか一つに記載の物体認識装置。
The recognition unit is
Based on the distance between the road signs and the vehicle that varies with the running of the vehicle, the object according to any one of claims 1 to 5, characterized in that to change the priority of the entry prohibition Recognition device.
領域抽出部が、車両に設けられた撮像装置によって撮像された画像から認識対象物となる道路標識の形状が存在する対象領域を抽出する工程と、
認識部が、前記画像の領域全体のうち、前記領域抽出部によって抽出された前記対象領域に対して選択的に前記認識対象物の認識処理を実行する工程と、
前記認識部が、前記車両の走行状態を示す走行状態情報を取得し、前記走行状態情報に基づいて前記道路標識の認識順序の優先順位を変更するとともに、前記道路標識の外形が円形かつ、当該道路標識が対向車線側に位置する場合、進入禁止の前記優先順位を下げる工程と
を含むことを特徴とする物体認識方法。
A step of extracting a target area in which the shape of the road sign , which is a recognition target, exists from the image captured by the image capturing device provided in the vehicle;
A step of selectively recognizing the recognition target object with respect to the target area extracted by the area extracting section in the entire area of the image;
The recognition unit acquires running state information indicating a running state of the vehicle, changes the priority order of the recognition order of the road signs based on the running state information, and the outer shape of the road sign is circular, When the road sign is located on the side of the oncoming lane, the step of lowering the priority of the entry prohibition is included.
JP2016010994A 2016-01-22 2016-01-22 Object recognition device and object recognition method Active JP6688090B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016010994A JP6688090B2 (en) 2016-01-22 2016-01-22 Object recognition device and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016010994A JP6688090B2 (en) 2016-01-22 2016-01-22 Object recognition device and object recognition method

Publications (2)

Publication Number Publication Date
JP2017130155A JP2017130155A (en) 2017-07-27
JP6688090B2 true JP6688090B2 (en) 2020-04-28

Family

ID=59395698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016010994A Active JP6688090B2 (en) 2016-01-22 2016-01-22 Object recognition device and object recognition method

Country Status (1)

Country Link
JP (1) JP6688090B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10762396B2 (en) 2017-12-05 2020-09-01 Utac, Llc Multiple stage image based object detection and recognition
EP3584742A1 (en) * 2018-06-19 2019-12-25 KPIT Technologies Ltd. System and method for traffic sign recognition
JP7322411B2 (en) * 2019-01-24 2023-08-08 カシオ計算機株式会社 Image classification device, image classification method and program
CN109886210B (en) * 2019-02-25 2022-07-19 百度在线网络技术(北京)有限公司 Traffic image recognition method and device, computer equipment and medium
JP7063849B2 (en) * 2019-06-20 2022-05-09 矢崎総業株式会社 Drive recorder
JP7243478B2 (en) * 2019-06-24 2023-03-22 トヨタ自動車株式会社 Vehicle information recording device
JP7126095B2 (en) * 2019-09-24 2022-08-26 Jfeスチール株式会社 Intrusion detection device and intrusion detection method
JP6997471B2 (en) * 2020-03-09 2022-01-17 ニューラルポケット株式会社 Information processing system, information processing device, terminal device, server device, program, or method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4859760B2 (en) * 2007-06-06 2012-01-25 株式会社日立製作所 Car navigation apparatus, road sign recognition method and program
CN103020623B (en) * 2011-09-23 2016-04-06 株式会社理光 Method for traffic sign detection and road traffic sign detection equipment
JP2015191281A (en) * 2014-03-27 2015-11-02 株式会社Jvcケンウッド road sign display device

Also Published As

Publication number Publication date
JP2017130155A (en) 2017-07-27

Similar Documents

Publication Publication Date Title
JP6688090B2 (en) Object recognition device and object recognition method
US11486727B2 (en) Map generation device, map generation method, and map generation computer program
CN109584578B (en) Method and device for recognizing a driving lane
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
US9171204B2 (en) Method of perspective correction for devanagari text
US9633436B2 (en) Systems and methods for multi-dimensional object detection
EP3171295B1 (en) Method for processing image and computer-readable non-transitory recording medium storing program
CN108073950A (en) Recognition methods, identification device, identifier generation method and identifier generating means
US20130195315A1 (en) Identifying regions of text to merge in a natural image or video frame
US8836812B2 (en) Image processing device, image processing method, and image processing program
US20220219700A1 (en) Apparatus, method, and computer program for generating map
JP2021165913A (en) Road area correction device, road area correction method, and computer program for road area correction
WO2023179030A1 (en) Road boundary detection method and apparatus, and electronic device, storage medium and computer program product
KR102564856B1 (en) Method and apparatus of detecting road line
JP5962442B2 (en) Sign recognition system, sign recognition method, and sign recognition program
CN110827340B (en) Map updating method, device and storage medium
CN110942668B (en) Image processing system, image processing method, and image processing apparatus
JP5327241B2 (en) Object identification device
US20220058416A1 (en) Printed character recognition
US20240119740A1 (en) Method and apparatus with lane line determination
JP4820771B2 (en) Sign object recognition device, sign object recognition method, and sign object recognition program
CN114782927B (en) Obstacle detection method, obstacle detection device, electronic device, and storage medium
KR101655204B1 (en) Apparatus for image processing using 3dimension graphic model and method thereof
WO2020071132A1 (en) Camera device
KR20220043316A (en) License plate detection apparatus and method using image warping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200403

R150 Certificate of patent or registration of utility model

Ref document number: 6688090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250