JP6688090B2 - Object recognition device and object recognition method - Google Patents
Object recognition device and object recognition method Download PDFInfo
- Publication number
- JP6688090B2 JP6688090B2 JP2016010994A JP2016010994A JP6688090B2 JP 6688090 B2 JP6688090 B2 JP 6688090B2 JP 2016010994 A JP2016010994 A JP 2016010994A JP 2016010994 A JP2016010994 A JP 2016010994A JP 6688090 B2 JP6688090 B2 JP 6688090B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- vehicle
- image
- unit
- road sign
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、物体認識装置および物体認識方法に関する。 The present invention relates to an object recognition device and an object recognition method.
従来、車両に設けられたカメラによって撮像された画像から物体を認識する物体認識装置がある。この種の装置として、複数種類の認識対象物の画像パターンを予め記憶しておき、画像全体からかかる画像パターンと類似する領域を探索することで認識対象物の種類を認識する装置がある(例えば、特許文献1参照)。 BACKGROUND ART Conventionally, there is an object recognition device that recognizes an object from an image captured by a camera provided in a vehicle. As this type of device, there is a device that pre-stores image patterns of a plurality of types of recognition target objects and recognizes the type of the recognition target object by searching the entire image for an area similar to the image pattern (for example, , Patent Document 1).
しかしながら、画像全体に対して認識対象物の種類毎に認識処理を実行する場合、処理量が嵩むことがある。 However, when the recognition process is performed on the entire image for each type of recognition target object, the processing amount may increase.
本発明は、上記に鑑みてなされたものであって、認識対象物の種類を効率的に認識することができる物体認識装置および物体認識方法を提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide an object recognition device and an object recognition method capable of efficiently recognizing a type of a recognition target object.
上述した課題を解決し、目的を達成するために、本発明に係る物体認識装置は、領域抽出部と、認識部とを備える。領域抽出部は、車両に設けられた撮像装置によって撮像された画像から認識対象物の形状が存在する対象領域を抽出する。認識部は、画像の領域全体のうち、領域抽出部によって抽出された対象領域に対して選択的に認識対象物の認識処理を実行する。 In order to solve the above-mentioned problems and achieve the object, an object recognition device according to the present invention includes a region extraction unit and a recognition unit. The area extraction unit extracts a target area in which the shape of the recognition target object exists from the image captured by the imaging device provided in the vehicle. The recognition unit selectively performs recognition processing of the recognition target object on the target region extracted by the region extraction unit out of the entire region of the image.
本発明によれば、認識対象物を効率的に認識することができる。 According to the present invention, it is possible to efficiently recognize a recognition target object.
以下、添付図面を参照して、本願の開示する物体認識装置および物体認識方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of an object recognition device and an object recognition method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments described below.
実施形態に係る物体認識方法は、車両に設けられた撮像装置によって車両の前方を撮像した画像から認識対象物の形状を認識し、かかる形状が存在する領域に対して選択的に認識対象物の種類を認識するものである。 An object recognition method according to an embodiment recognizes a shape of a recognition target object from an image obtained by capturing an image of the front of the vehicle by an imaging device provided in the vehicle, and selectively recognizes the recognition target object in a region where the shape exists. It recognizes the type.
なお、認識対象物の認識は、車両前方を撮像した画像に限定されるものではなく、車両の後方や側方を撮像した画像から認識してもよい。また、撮像装置は、例えば、ドライブレコーダが備えるカメラ、スマートフォン等のモバイル機器に搭載されたカメラモジュール、デジタルカメラ等である。 It should be noted that recognition of the recognition target object is not limited to the image of the front of the vehicle and may be recognized from the image of the rear or the side of the vehicle. The imaging device is, for example, a camera included in the drive recorder, a camera module installed in a mobile device such as a smartphone, a digital camera, or the like.
また、認識対象物は、所定形状の静止物体であり、上述の道路標識の他には、例えば、飲食店等の看板等を含む。また、物体認識装置が搭載される車両は、例えば、自家乗用車やタクシー等の自動車、バイク、バス、トラック等である。 Further, the recognition target object is a stationary object having a predetermined shape, and includes, for example, a signboard of a restaurant or the like in addition to the above road signs. The vehicle equipped with the object recognition device is, for example, a car such as a private car or a taxi, a motorcycle, a bus, a truck, or the like.
以下では、まず、図1を参照して、撮像装置によって撮像された画像から一般的な手法で物体を認識する装置(以下、一般的な装置と記載)による物体認識方法について説明した後、図2を参照して、実施形態に係る物体認識方法について説明する。図1は、一般的な装置による物体認識方法を示す説明図である。図2は、実施形態に係る物体認識方法を示す説明図である。 In the following, first, with reference to FIG. 1, an object recognition method by an apparatus (hereinafter, referred to as a general apparatus) for recognizing an object by a general method from an image captured by an imaging apparatus will be described, and then a diagram will be described. The object recognition method according to the embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram showing an object recognition method by a general device. FIG. 2 is an explanatory diagram showing the object recognition method according to the embodiment.
なお、図1では、一般的な装置が、図1に(a)で示す、カメラによって撮像された車両前方の画像Pに含まれる40km速度制限Mを認識する場合について説明する。また、一般的な装置は、図1に(b)〜(d)で示す、進入禁止100、30km速度制限101、40km速度制限102の画像パターンを記憶しているものとする。
Note that, in FIG. 1, a case where a general device recognizes the 40 km speed limit M included in the image P in front of the vehicle captured by the camera shown in FIG. 1A will be described. Further, it is assumed that a general device stores the image patterns of the
図1に(a)で示すように、一般的な装置は、まず、車両に設けられたカメラから車両前方を撮像した画像Pを取得する。続いて、例えば、パターンマッチングによって、画像P内から記憶した画像パターンと同じ道路標識が存在するかを探索する。 As shown in FIG. 1A, a general device first acquires an image P obtained by capturing the front of the vehicle from a camera provided in the vehicle. Then, for example, by pattern matching, it is searched from the image P whether the same road sign as the stored image pattern exists.
具体的には、図1に(b)で示すように、進入禁止100の画像パターンを使用して、画像全体(ハッチングされた領域)から、進入禁止の道路標識を探索する。そして、進入禁止100の画像パターンが発見されない場合、画像P内に進入禁止の道路標識は存在しないと判定する。
Specifically, as shown in (b) of FIG. 1, an image pattern of
続いて、図1に(c)で示すように、30km速度制限101の画像パターンを使用して、同様に画像全体から、30km速度制限の道路標識を探索する。そして、30km速度制限101の画像パターンが発見されない場合、画像Pに30km速度制限の道路標識は存在しないと判定する。
Subsequently, as shown in FIG. 1C, the image pattern of the 30
続いて、図1に(d)で示すように、40km速度制限102の画像パターンを使用して、同様に画像全体から、40km速度制限Mの道路標識が存在するかを探索する。そして、40km速度制限102の画像パターンを発見した場合、画像Pに40km速度制限Mの道路標識が存在すると判定する。
Subsequently, as shown in (d) of FIG. 1, the image pattern of the 40
このように、一般的な装置による物体認識方法では、40km速度制限Mの道路標識を認識するまで、繰り返し画像全体を探索範囲としなければならず、処理量(ハッチングされた領域)が嵩むことがあった。 As described above, in the object recognition method using the general apparatus, the entire image must be repeatedly set as the search range until the road sign with the speed limit M of 40 km is recognized, which increases the processing amount (hatched area). there were.
そこで、図2に示すように、実施形態に係る物体認識方法では、まず、カメラから取得した画像Pから40km速度制限Mの外形である円形24が存在する領域を抽出することとする。そして、抽出した領域に対してのみ道路標識の種類を認識する認識処理を実行する。
Therefore, as shown in FIG. 2, in the object recognition method according to the embodiment, first, an area in which the
なお、物体認識方法を実行する物体認識装置は、図2に(a)〜(d)で示すように、円形24、進入禁止100a、30km速度制限101aおよび40km速度制限102aを記憶しているものとする。
The object recognition apparatus that executes the object recognition method stores a
また、円形24とは、進入禁止100、30km速度制限101および40km速度制限102(図1の(b)〜(d)参照)に共通する外形である。また、進入禁止100a、30km速度制限101aおよび40km速度制限102aは、進入禁止100、30km速度制限101および40km速度制限102から外形である円形24の周辺部分を除いた画像パターンである。
The
以下から、実施形態に係る物体認識方法について具体的に説明する。図2に(a)で示すように、物体認識装置は、カメラから画像Pを取得すると、まず、円形24の画像パターンを使用して、画像P全体(ハッチングされた領域)から円形を探索する。
The object recognition method according to the embodiment will be specifically described below. As shown in (a) of FIG. 2, when the object recognition device acquires the image P from the camera, first, the image pattern of the
そして、図2に(b)で示すように、物体認識装置は、円形24の画像パターンを発見した場合、円形が存在する領域を対象領域31として抽出する。対象領域31とは、道路標識の種類を探索する対象となる範囲のことである。
Then, as shown in FIG. 2B, when the object recognition device finds the image pattern of the
続いて、図2に(b)で示すように、進入禁止100aの画像パターンを使用して、抽出された対象領域31のみから、進入禁止の道路標識を探索する。そして、進入禁止100aの画像パターンが発見されない場合、画像Pに進入禁止の道路標識が存在しないと判定する。
Then, as shown in FIG. 2B, using the image pattern of the
続いて、図2に(c)で示すように、30km速度制限101aの画像パターンを使用して、同様に対象領域31のみから、30km速度制限の道路標識を探索する。そして、30km速度制限101aの画像パターンが発見されない場合、画像Pに30km速度制限の道路標識が存在しないと判定する。
Subsequently, as shown in FIG. 2C, the image pattern of the 30
そして、図2に(d)で示すように、40km速度制限102aの画像パターンを使用して、同様に対象領域31のみから、40km速度制限Mの道路標識を探索する。そして、40km速度制限102aの画像パターンを発見した場合、画像Pに40km速度制限Mの道路標識が存在すると判定する。
Then, as shown in FIG. 2D, the image pattern of the 40
つまり、物体認識装置は、画像全体から円形24が存在する対象領域31を抽出することによって、対象領域31を集中的に探索することができるため、道路標識の種類を効率的に認識することができる。
In other words, the object recognition device can intensively search the
なお、道路標識の形状および種類の認識は、画像パターンを用いたパターンマッチングに限定されるものではなく、例えば、道路標識の画像を機械学習することで作成される辞書情報を用いて道路標識の形状および種類を認識してもよい。以下では、かかる機械学習を用いた物体認識装置について説明することとする。 The recognition of the shape and type of the road sign is not limited to pattern matching using an image pattern. For example, the dictionary information created by machine learning the image of the road sign is used to identify the road sign. The shape and type may be recognized. Hereinafter, an object recognition device using such machine learning will be described.
次に、図3を参照して、実施形態に係る物体認識装置について説明する。図3は、実施形態に係る物体認識装置1の構成を示すブロック図である。図3に示すように、物体認識装置1は、カメラ2と、走行状態検出装置3と、車載装置4とに接続される。
Next, the object recognition device according to the embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the
カメラ2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備える撮像装置であり、自車の前方を撮像する位置に設置される。そして、カメラ2によって撮像された画像は、物体認識装置1へ出力される。
The
走行状態検出装置3は、例えば、車速センサや、ナビゲーション装置であり、車両の走行状態を検出する。車速センサは、車両の車速パルス信号を計測することで車両の走行速度を検出し、かかる走行速度を示す車速情報として物体認識装置1へ出力する。
The traveling
また、ナビゲーション装置は、電子地図データである地図情報およびGPS(Global Positioning System)衛星から受信した車両の位置情報を物体認識装置1へ出力する。
The navigation device also outputs map information, which is electronic map data, and vehicle position information received from a GPS (Global Positioning System) satellite to the
車載装置4は、例えば、カメラ2によって撮像された画像を表示する車載のディスプレイであり、カメラ2の画像に物体認識装置1が認識した道路標識を囲む枠画像を重畳させて強調表示することができる。なお、車載装置4は、ディスプレイに限定されず、例えば、ドライブレコーダであってもよい。
The vehicle-mounted device 4 is, for example, a vehicle-mounted display that displays an image captured by the
車載装置4がドライブレコーダの場合、ドライブレコーダが備えるカメラによって撮像された画像を記録する際に、物体認識装置1が認識した道路標識の位置や種類を関連付けて記録する。
When the vehicle-mounted device 4 is a drive recorder, the position and type of the road sign recognized by the
実施形態に係る物体認識装置1は、制御部10と、記憶部20とを備える。まず、記憶部20について説明する。記憶部20は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部であり、優先順位情報21、辞書情報22を記憶する。
The
優先順位情報21は、道路標識の種類の認識順序の優先順位に関する情報であり、後述する順序設定部14によって、優先順位情報21の中から車両の走行状態に応じて認識順序の優先順位が決定される。
The
辞書情報22は、画像Pに写る物体が道路標識か否かを判定する基準となる情報であり、道路標識の形状を判定する基準となる形状情報22a、道路標識の種類を判定する基準となる種類情報22bを含む情報である。
The
また、形状情報22aおよび種類情報22bは、機械学習によって予め作成されて記憶部20に記憶される。ここで、形状情報22aおよび種類情報22bの作成手順について、簡単に説明する。
The shape information 22a and the type information 22b are created in advance by machine learning and stored in the
まず、形状情報22aを作成する場合、所定形状(例えば、円形)の道路標識の画像と所定形状以外の物体の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数1000枚の画像)準備する。準備する画像のサイズは、例えば、36ピクセル×36ピクセルのサイズに統一する。 First, when the shape information 22a is created, a predetermined number (for example, several hundreds to several thousand images) of a road sign image of a predetermined shape (for example, a circle) and an image of an object other than the predetermined shape are used as learning data. prepare. The sizes of the images to be prepared are unified to, for example, 36 pixels × 36 pixels.
続いて、準備した各画像から、例えば、HOG(Histgram of Oriented Gradient)特徴量を抽出する。そして、上述の準備した画像を、抽出したHOG特徴量に基づいて、2次元平面上にプロットする。 Subsequently, for example, a HOG (Histgram of Oriented Gradient) feature amount is extracted from each prepared image. Then, the prepared image is plotted on a two-dimensional plane based on the extracted HOG feature amount.
続いて、例えば、SVM(Support Vector Machine)等の識別器によって、2次元平面上における所定形状の道路標識の画像と所定形状以外の物体の画像とを分離する分離線を生成する。 Then, for example, a discriminator such as an SVM (Support Vector Machine) generates a separation line that separates an image of a road sign having a predetermined shape and an image of an object other than the predetermined shape on a two-dimensional plane.
そして、かかる2次元平面の座標軸および識別器によって生成された分離線の情報が、画像Pに含まれる画像が所定形状の道路標識か否かの判定基準として使用される形状情報22aとなる。なお、準備した画像から抽出する特徴量は、HOG特徴量に限定されず、例えば、SIFT(Scale Invariant Feature Transform)特徴量であってもよい。また、用いる識別器は、SVMに限定されず、例えば、アダブースト(AdaBoost)等の識別器であってもよい。 The information of the coordinate axes of the two-dimensional plane and the separating line generated by the discriminator becomes the shape information 22a used as a criterion for determining whether or not the image included in the image P is a road sign having a predetermined shape. The feature amount extracted from the prepared image is not limited to the HOG feature amount, and may be, for example, a SIFT (Scale Invariant Feature Transform) feature amount. The discriminator used is not limited to SVM, and may be a discriminator such as AdaBoost.
また、種類情報22bを作成する場合、所定種類の道路標識の画像(例えば、40km速度制限)と、かかる種類の道路標識以外の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数1000枚の画像)準備する。 In addition, when the type information 22b is created, a predetermined number (for example, several hundred to several thousand) of images of a predetermined type of road sign (for example, 40 km speed limit) and images other than this type of road sign are used as learning data. Images) Get ready.
なお、準備した画像から抽出する特徴量および2次元平面を分離する線を生成する識別器は、上述の形状情報22aを生成する場合と同様である。そして、識別器によって、速度制限40kmの種類の道路標識の画像とそれ以外の画像とを2次元平面上において分離する分離線が生成される。 The feature quantity extracted from the prepared image and the classifier that generates the line that separates the two-dimensional plane are the same as those used when the shape information 22a is generated. Then, the discriminator generates a separation line that separates the image of the road sign of the speed limit of 40 km and the other images on the two-dimensional plane.
そして、かかる2次元平面の座標軸および識別器によって生成された分離線の情報が、画像Pに含まれる画像が所定種類の道路標識か否かの判定基準として使用される種類情報22bとなる。なお、種類情報22bに含まれる座標軸は、道路標識の種類によらず同一であり、分離線は、道路標識の種類に応じて異なる。 Then, the information of the coordinate axes of the two-dimensional plane and the separation line generated by the discriminator becomes the type information 22b used as a criterion for determining whether or not the image included in the image P is a predetermined type of road sign. The coordinate axes included in the type information 22b are the same regardless of the type of road sign, and the separating line differs depending on the type of road sign.
これにより、後述する領域抽出部13および認識部15は、辞書情報22である形状情報22aおよび種類情報22bを使用することによって、画像P内の36ピクセル×36ピクセル内の画像の道路標識の形状およびその種類を認識することができる。
Thereby, the
制御部10は、拡縮画像生成部11と、特徴抽出部12と、領域抽出部13と、順序設定部14と、認識部15と、出力部16とを備える。
The
制御部10は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)を備えるマイクロコンピュータである。かかるCPUは、たとえば、ROMに予め記憶されたプログラムに従い、演算処理を行うことで、上述した拡縮画像生成部11、特徴抽出部12、領域抽出部13、順序設定部14、認識部15および出力部16として機能する。
The
拡縮画像生成部11は、カメラ2から入力される画像Pについて、それぞれ拡縮率が異なる複数の拡大画像および縮小画像(例えば、25枚の拡縮画像)を生成して、特徴抽出部12へ出力する。
The scaled-
特徴抽出部12は、生成した拡縮画像から、例えば、HOG特徴量を抽出する。なお、特徴抽出部12によって抽出される特徴量は、形状情報22aの生成時に用いた特徴量(例えば、HOG特徴量)と統一する。そして、特徴抽出部12は、抽出した各拡縮画像の特徴量の情報を領域抽出部13へ出力する。
The
なお、特徴抽出部12による特徴量の抽出は、HOG特徴量に限定されず、例えば、ハフ(Hough)変換を用いてもよい。ハフ変換を用いる場合、後述する領域抽出部13は、パターンマッチングによって道路標識の形状を認識する。
The extraction of the feature amount by the
領域抽出部13は、特徴抽出部12によって抽出された特徴量の情報と、形状情報22aとに基づいて、認識する形状が存在する対象領域31を抽出する。ここで、図4を参照して、領域抽出部13による対象領域31の抽出処理について具体的に説明する。図4は、領域抽出部13による対象領域31の抽出処理を示す説明図である。
The
図4に(a)で示すように、領域抽出部13は、まず、所定拡縮率の拡縮画像Rの領域全体に対して40km速度制限Mを探索するための複数の探索領域An(n=10〜N。以下、複数の探索領域Anをまとめて探索領域Aとも記載する)を設定する。
As shown in (a) of FIG. 4, the
設定される探索領域Aのサイズは、例えば、36ピクセル×36ピクセルであり、形状情報22aを生成するために準備した画像のサイズと統一する。 The size of the set search area A is, for example, 36 pixels × 36 pixels, which is the same as the size of the image prepared for generating the shape information 22a.
そして、図4に(b)で示すように、領域抽出部13は、各探索領域Aから抽出される特徴量に基づいて、探索領域Aを形状情報22aに含まれる座標軸で形成される2次元平面上にプロットする。つまり、探索領域Aのサイズと形状情報22aを生成するために準備した画像のサイズとを揃えることで、かかる2次元平面上へのプロットが可能となる。なお、図4に(b)で示すグラフは、抽出する特徴量を表す縦軸および横軸で構成されるものとする。
Then, as shown in FIG. 4B, the
そして、領域抽出部13は、プロットされた探索領域Aが、形状情報22aの分離線Sによって分離された領域のうち、円形を示す領域40およびそれ以外の形状を示す領域41のいずれに位置するかを判定する。
Then, the
そして、図4に(c)で示すように、領域抽出部13は、円形を示す領域40に位置する探索領域A21(図4の(b)参照)を円形24が存在する対象領域31として抽出する。
Then, as shown in (c) of FIG. 4, the
ここで、形状情報22aは、上述したように、36ピクセル×36ピクセル内の画像が円形であるか否かを判別するために使用される情報である。そして、画像Pにおける円形の道路標識は、自車両からの距離によってサイズが異なるため、サイズが36ピクセル×36ピクセルとは限らない。 Here, the shape information 22a is information used to determine whether or not the image within 36 pixels × 36 pixels is circular, as described above. The size of the circular road sign in the image P is not limited to 36 pixels × 36 pixels because the size varies depending on the distance from the vehicle.
このため、領域抽出部13は、画像Pから円形が存在する対象領域31を抽出することができない場合もあるが、拡縮画像生成部11から入力される拡縮率が異なる複数の拡縮画像を探索することによって、対象領域31を抽出することができる。
For this reason, although the
なお、図4の(a)で示す探索領域Aの位置や数は、理解を容易にするために一部を示しているに過ぎず、実際には、探索領域Aの一部の領域を重複させることで拡縮画像R内を隈無く探索できるように設定されている。 It should be noted that the position and number of the search area A shown in (a) of FIG. 4 only show a part for facilitating understanding, and actually, a part of the search area A overlaps. By doing so, it is set so that the enlarged / reduced image R can be searched for without exception.
そして、領域抽出部13は、抽出した対象領域31が存在する拡縮画像Rの拡縮率および拡縮画像R内での対象領域31の位置に関する情報を認識部15へ出力する。位置に関する情報とは、例えば、XY直交座標系に変換した拡縮画像Rにおける対象領域31が存在する位置のXY座標値である。
Then, the
順序設定部14は、車両の走行状態に基づいて道路標識の種類の認識順序の優先順位を設定する。具体的には、まず、順序設定部14は、カメラ2によって撮像された画像Pと、走行状態検出装置3から走行状態を示す走行状態情報とを取得する。
The
また、順序設定部14は、たとえば、走行状態情報である車速情報に基づいて、車両の走行速度を取得する。また、走行状態情報である地図情報および位置情報に基づいて、車両の走行している道路の種別を示す道路情報を取得する。
Further, the
また、順序設定部14は、カメラ2から取得した画像Pに基づいて、車両が走行している道路の車線を区画する区画線を検出することで、車両が走行している車線や、かかる車線を逸脱したか否か等の情報を取得する。
In addition, the
そして、順序設定部14は、取得した各種情報に基づいて、優先順位情報21の中から車両の走行状態に応じた道路標識の種類の認識順序の優先順位を選択する。そして、順序設定部14は、選択した認識順序の優先順位を示す情報を認識部15へ出力する。なお、優先順位情報21の具体例については、図6を参照して後述する。
Then, the
認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物である道路標識の種類の認識処理を実行する。具体的には、認識部15は、まず、領域抽出部13から対象領域31が存在する拡縮画像Rの拡縮率および拡縮画像R内での対象領域31の位置に関する情報に基づいて、対象領域31のサイズおよび位置を特定する。
The
続いて、認識部15は、特定した対象領域31に対してのみ、辞書情報22に含まれる種類情報22bに基づいて、道路標識の種類を認識する認識処理を実行する。ここで、図5を参照して、かかる種類情報22bおよび形状情報22aを含む辞書情報22について具体的に説明する。
Subsequently, the
図5は、辞書情報22を示す説明図である。図5に示すように、辞書情報22は、例えば、「形状」、「標識」、「名称」といった項目を含む。なお、図5に示す、辞書情報22は一例であり、これに限定されるものではない。
FIG. 5 is an explanatory diagram showing the
また、図5には、説明を容易にするため、道路標識の形状や標識の種類をシンボル画像として示しているが、実際には、図5に示した「形状」や「標識」を判定するための座標軸および分離線を示す情報が格納されている。 Further, in FIG. 5, the shape of the road sign and the type of the sign are shown as a symbol image for ease of explanation, but in reality, the “shape” and the “sign” shown in FIG. 5 are determined. The information indicating the coordinate axis and the separating line for is stored.
図5に示す「形状」は、形状情報22aであり、道路標識の形状を判定するための座標軸および分離線の情報である。「標識」は、種類情報22bであり、「形状」に対応する形状の道路標識の種類を認識するための座標軸および分離線の情報である。「名称」は、対応する「標識」の道路標識の名称を示す。 The "shape" shown in FIG. 5 is the shape information 22a, which is the information of the coordinate axis and the separating line for determining the shape of the road sign. The “sign” is the type information 22b, which is information about the coordinate axis and the separating line for recognizing the type of the road sign having the shape corresponding to the “shape”. “Name” indicates the name of the road sign of the corresponding “sign”.
つまり、認識部15は、特定した対象領域31の特徴量を抽出し、かかる特徴量に基づいて、種類情報22bに含まれる座標軸によって形成される2次元平面上に、対象領域31をプロットする。
That is, the
そして、認識部15は、2次元平面上に種類情報22bに含まれる各道路標識の種類の分離線を引くことで、対象領域31のプロット位置が、特定の道路標識の種類を示す領域およびそれ以外の物体を示す領域のいずれに位置するかを判定することで、道路標識の種類を認識する。
Then, the
このように、道路標識に共通する外形が存在する対象領域31に絞ることで、各道路標識の種類を認識する処理量を抑えることができるため、道路標識の種類を効率的に認識することができる。
In this way, by narrowing down to the
また、認識部15は、拡縮率が異なる対象領域31の拡縮画像を生成してもよい。そして、拡縮画像毎に特徴量を抽出し、道路標識の種類を認識する。この時に生成する拡縮画像の数は、上述の拡縮画像生成部11が生成する数より少ない数(例えば、3枚の拡縮画像)でよい。
The
これは、例えば、対象領域31の位置が何らかの原因でズレた場合に、道路標識の種類が認識されないことがあるためである。このため、対象領域31の拡縮画像を生成しておくことで、道路標識の種類の認識精度を向上することができる。
This is because, for example, if the position of the
また、認識部15は、順序設定部14から入力される認識順序の優先順位を示す情報に基づいて、道路標識の種類の認識順序の優先順位を変更する。ここで、認識部15による認識順序の優先順位について、図6を参照して具体的に説明する。
Further, the
図6は、認識順序の優先順位を含む優先順位情報21を示す説明図である。なお、図6は、一例であり、これに限定されるものではない。なお、認識部15は、図6に示す優先順位情報21のうち、順序設定部14によって選択された認識順序の優先順位に従う。
FIG. 6 is an explanatory diagram showing the
図6に示すように、優先順位情報21は、「道路」、「自車速」、「認識順序」といった項目を含む。「道路」は、車両が走行している道路の種別である。「自車速」は、車両の走行速度である。「認識順序」は、認識部15による道路標識の認識順序を示す。
As shown in FIG. 6, the
つまり、認識部15は、自車両が走行している道路の種別や自車両の走行速度などの走行状態情報に基づいて道路標識の種類の認識順序の優先順位を変更する。具体的には、図6に示すように、認識部15は、順序設定部14が、自車両の走行している道路が高速道路であることを示す道路情報を取得すると、60km以上の速度制限の優先順位を上げた認識順序で道路標識の種類を認識する。
That is, the
また、自車両が走行している道路が一般道であることを示す道路情報を取得した場合は、60km以下の速度制限の優先順位を上げる。つまり、走行する道路の種別に応じて存在する可能性が高い種類の道路標識に絞ることで処理量を低減することができる。 In addition, when the road information indicating that the road on which the vehicle is traveling is a general road is acquired, the priority of the speed limit of 60 km or less is increased. That is, the processing amount can be reduced by narrowing down to the types of road signs that are likely to exist according to the type of road on which the vehicle travels.
また、認識部15は、順序設定部14が、自車両が高速道路を時速80kmで走行していることを示す車速情報を取得すると、80km速度制限をまず始めに認識する。そして認識部15は、80km速度制限に近い、70km速度制限、60km速度制限、進入禁止の順に認識していく。
Further, when the
これは、運転者の特性上、速度制限に近い速度で走行する場合が多いためである。例えば、普段から速度制限より10km程度遅く運転するような運転者であれば、このような特性を考慮して、走行速度より10km速い速度制限を優先して認識するようにしてもよい。
This is because the characteristics of the driver often cause the vehicle to travel at a speed close to the speed limit. For example, a driver who normally drives about 10 km slower than the speed limit may preferentially recognize the
このように、車両の走行速度を利用することで、存在する可能性の高い速度制限の種類から始められるため、より効率的に認識処理を実行することができる。 In this way, by using the traveling speed of the vehicle, it is possible to start from the type of speed limitation that is likely to exist, so that the recognition process can be executed more efficiently.
したがって、認識部15は、車両の走行状態に基づいて、認識順序の優先順位を変更することで、道路標識の種類を認識する認識処理の回数を抑えられるため、より効率的に道路標識を認識することができる。
Therefore, the
また、認識部15は、例えば、カメラ2から所定間隔で連続して入力される画像(以下、フレーム画像と記載)において、1フレーム前の時刻のフレーム画像の認識結果である速度制限の種類を優先して認識してもよい。
Further, for example, in the image (hereinafter, referred to as a frame image) continuously input from the
この場合、認識部15は、かかる認識結果を記憶部20に記憶し、次の時刻のフレーム画像において、順序設定部14が記憶した認識結果を取得することで、優先順位を変更する。
In this case, the
また、図6に示すように、認識部15は、順序設定部14が、自車両が交差点や分岐点へ接近していることを示す道路情報を取得した場合、進入禁止の道路標識を優先して認識するようにする。
In addition, as shown in FIG. 6, when the
なお、交差点や分岐点において進入禁止が設けられる位置に応じて進入禁止の優先順位を変更するようにしてもよい。かかる場合について図7を参照して、具体的に説明する。 In addition, the priority order of the entry prohibition may be changed according to the position where the entry prohibition is provided at the intersection or the branch point. Such a case will be specifically described with reference to FIG. 7.
図7は、交差点における車両および進入禁止の位置関係を示す図である。なお、図7には、実施形態に係る物体認識装置1を搭載した車両Cが、進入禁止M1、M2が存在する交差点へ接近する場面を一例として示す。
FIG. 7 is a diagram showing a positional relationship between a vehicle and an entry prohibition at an intersection. Note that FIG. 7 shows an example of a scene in which a vehicle C equipped with the
また、図7には、車両Cが走行する車線50および対向車線51を示し、車両Cから見て、車線50側の交差点手前に左折を禁止する進入禁止M1を、対向車線51側の交差点奥に右折を禁止する進入禁止M2を示している。
In addition, FIG. 7 shows a
かかる場合において、車両Cの運転者が、進入禁止M1を見落として誤って左折してしまう可能性は高いため、認識部15は、領域抽出部13によって車線50側から円形が存在する対象領域31が抽出された場合、進入禁止の優先順位を上げる。
In such a case, there is a high possibility that the driver of the vehicle C overlooks the entry prohibition M1 and turns to the left by mistake. Therefore, the
一方で、車両Cの運転者が、進入禁止M2を見落としたとしても、わざわざ対向車線51を横断して進入禁止M2の道路へ右折する可能性は低いにも関わらず、進入禁止M2についても優先順位を上げてしまうと処理量が嵩むおそれがある。
On the other hand, even if the driver of the vehicle C overlooks the entry prohibition M2, it is unlikely that the driver crosses the oncoming
そこで、認識部15は、領域抽出部13によって対向車線51側から円形が存在する対象領域31が抽出された場合、進入禁止の優先順位を下げることとする。これにより、不要な認識処理によって、処理量が嵩むのを抑えることができる。
Therefore, when the
なお、対象領域31の位置が、車線50側であるか対向車線51側であるかの判定は、順序設定部14が取得する区画線の情報に基づいて、画像内におけるかかる区画線と対象領域31との位置関係を特定することで判定することができる。
The determination whether the position of the
なお、図7の状況において、順序設定部14が、車両Cが対向車線51を横断して右折することを示す走行状態情報を取得した場合、進入禁止の優先順位を上げてもよい。かかる走行状態情報としては、例えば、車両Cが中央区画線52を逸脱したか否かの判定情報や、車両Cと進入禁止M2との距離の情報がある。
In addition, in the situation of FIG. 7, when the
つまり、認識部15は、順序設定部14がカメラ2の画像に基づき車両Cと進入禁止M2との距離が所定距離以下となったことを示す情報を取得した場合、進入禁止M2の優先順位を上げるようにする。
That is, when the
つまり、認識部15は、車両Cの走行に伴って変化する車両Cと道路標識との距離に基づいて、進入禁止M2の優先順位を変更する。これにより、不要な認識処理を低減しつつ必要な場合のみ認識処理の優先順位を上げられるため、より効率的に認識処理を実行することができる。そして、認識部15は、認識結果を出力部16へ出力する。
That is, the
出力部16は、車載装置4の形態に応じて認識部15の認識結果を示す情報を変換して出力する。例えば、車載装置4がディスプレイの場合、認識した道路標識を囲む枠画像を生成し、カメラ2の画像とかかる枠画像とを重畳した合成画像を出力する。
The
また、出力部16は、車載装置4が、ドライブレコーダの場合、カメラ2の画像と認識した道路標識の位置や種類とを関連付けた走行履歴情報を出力する。そして、ドライブレコーダがかかる走行履歴情報を記録することで、事後的に認識結果を確認することができる。
Further, when the vehicle-mounted device 4 is a drive recorder, the
次に、実施形態に係る物体認識装置1が実行する認識処理の処理手順について、図8を用いて説明する。図8は、実施形態に係る物体認識装置1が実行する認識処理の処理手順を示すフローチャートである。
Next, the processing procedure of the recognition processing executed by the
図8に示すように、拡縮画像生成部11は、カメラ2によって撮像された画像Pを取得し、かかる画像Pの拡縮画像を生成する(ステップS101)。つづいて、特徴抽出部12は、各拡縮画像から、例えば、HOG特徴量を用いて特徴量を抽出する(ステップS102)。
As shown in FIG. 8, the scaled
つづいて、領域抽出部13は、特徴抽出部12が抽出した特徴量と、形状情報22aとに基づいて、認識対象物の形状が存在する対象領域を抽出する(ステップS103)。つづいて、認識部15は、種類情報22bに基づいて、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物の認識処理を実行し(ステップS104)、処理を終了する。
Subsequently, the
また、実施形態に係る物体認識装置1は、図9に一例として示す構成のコンピュータ200で実現することができる。図9は、物体認識装置1の機能を実現するコンピュータの一例を示すハードウェア構成図である。
Further, the
コンピュータ200は、CPU(Central Processing Unit)210と、ROM(Read Only Memory)220と、RAM(Random Access Memory)230と、HDD(Hard Disk Drive)240とを備える。また、コンピュータ200は、メディアインターフェイス(I/F)250と、通信インターフェイス(I/F)260と、入出力インターフェイス(I/F)270とを備える。
The
なお、コンピュータ200は、SSD(Solid State Drive)を備え、かかるSSDがHDD240の一部または全ての機能を実行するようにしてもよい。また、HDD240に代えてSSDを設けることとしてもよい。
The
CPU210は、ROM220およびHDD240の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM220は、コンピュータ200の起動時にCPU210によって実行されるブートプログラムや、コンピュータ200のハードウェアに依存するプログラムなどを格納する。HDD240は、CPU210によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。
The
メディアI/F250は、記憶媒体280に格納されたプログラムやデータを読み取り、RAM230を介してCPU210に提供する。CPU210は、かかるプログラムを、メディアI/F250を介して記憶媒体280からRAM230上にロードし、ロードしたプログラムを実行する。あるいは、CPU210は、かかるデータを用いてプログラムを実行する。記憶媒体280は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。
The media I /
通信I/F260は、ネットワーク290を介して他の機器からデータを受信してCPU210に送り、CPU210が生成したデータを、ネットワーク290を介して他の機器へ送信する。あるいは、通信I/F260は、ネットワーク290を介して他の機器からプログラムを受信してCPU210に送り、CPU210がかかるプログラムを実行する。
The communication I / F 260 receives data from another device via the
CPU210は、入出力I/F270を介して、ディスプレイ等の車載装置4を制御する。CPU210は、入出力I/F270を介して、カメラ2と、走行状態検出装置3からデータを取得する。また、CPU210は、生成したデータを入出力I/F270を介して車載装置4に出力する。
The
例えば、コンピュータ200が物体認識装置1として機能する場合、コンピュータ200のCPU210は、RAM230上にロードされたプログラムを実行することにより、拡縮画像生成部11、特徴抽出部12、領域抽出部13、順序設定部14、認識部15および出力部16の各機能を実現する。
For example, when the
コンピュータ200のCPU210は、例えばこれらのプログラムを記憶媒体280から読み取って実行するが、他の例として、他の装置からネットワーク290を介してこれらのプログラムを取得してもよい。また、HDD240は、記憶部20が記憶する優先順位情報21、辞書情報22を記憶することができる。
The
上述してきたように、実施形態に係る物体認識装置1は、領域抽出部13と、認識部15とを備える。領域抽出部13は、車両に設けられたカメラ2によって撮像された画像から、特徴量抽出部12によって抽出された特徴量に基づいて、認識対象物の形状が存在する対象領域31を抽出する。認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物の認識処理を実行する。
As described above, the
これにより、実施形態に係る物体認識装置1は、認識対象物の種類を効率的に認識することができる。
Thereby, the
なお、上述の実施例では、道路標識を認識対象物の一例として示したが、これに限定されるものではない。ここで、図10を参照して、変形例に係る辞書情報22について説明する。図10は、変形例に係る辞書情報22の説明図である。
In addition, although the road sign is shown as an example of the recognition target object in the above-described embodiment, the present invention is not limited to this. Here, the
一般に、道路の周辺に存在する飲食店等は、運転者へ店舗の存在を示すために、所定形状の看板が道路の近傍に設置されていたり、また、形状についても特定の文字を模した看板等もあり、かかる看板によって店舗を認識可能である場合が多い。 Generally, restaurants and the like that exist around the road have a signboard of a predetermined shape installed near the road to show the existence of the shop to the driver, or a signboard that imitates a specific character for the shape. In many cases, the sign can be used to identify the store.
そこで、かかる看板の画像を学習データとして、機械学習することで、図10に示す特定の店舗の看板の特徴を示す辞書情報22が生成される。そして、領域抽出部13は、かかる看板の形状が存在する対象領域31を抽出する。
Therefore, machine learning is performed using the image of the signboard as learning data to generate the
続いて、認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に看板の内容(種類)を認識する認識処理を実行する。これにより、物体認識装置1は、認識対象物が看板等であっても、認識処理を効率的に実行することができる。
Subsequently, the
また、実施形態の変形例に係る物体認識装置1によれば、例えば、図10に示すような一般的な矩形の看板であっても、看板の内容に特徴があれば、かかる看板の店舗を「○○寿司」として認識することができる。
Further, according to the
また、特定の文字、例えば「X」を模したような特徴的な形状であれば、看板の形状を認識することで、看板の内容の認識処理を簡便しても特定の店舗として「Xカレー」を認識することができる。 In addition, if the shape of the signboard has a characteristic shape imitating a specific character, for example, “X”, even if the recognition process of the content of the signboard is simplified, the “X curry Can be recognized.
なお、上述した対象領域31の領域は、外形に接するような矩形の領域(図4参照)に限定されるものではなく、例えば、道路標識の円形から所定距離外側の矩形の領域であってもよい。また、対象領域31の形状も、矩形に限定されず、円形や、認識対象物の形状と同じ形状であってもよい。
The area of the
また、上記では、物体認識装置1と車載装置4とは別の装置であるものとして説明したが、これらを一体化してもよい。すなわち、上述した物体認識装置1と車載装置4との双方の機能を一つの装置が備えていてもよい。
Further, in the above description, the
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the present invention are not limited to the particular details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and their equivalents.
1 物体認識装置
2 カメラ
11 拡縮画像生成部
12 特徴抽出部
13 領域抽出部
15 認識部
31 対象領域
1
Claims (7)
前記画像の領域全体のうち、前記領域抽出部によって抽出された前記対象領域に対して選択的に前記認識対象物の認識処理を実行する認識部と、を備え、
前記認識部は、
前記車両の走行状態を示す走行状態情報を取得し、前記走行状態情報に基づいて前記道路標識の認識順序の優先順位を変更するとともに、前記道路標識の外形が円形かつ、当該道路標識が対向車線側に位置する場合、進入禁止の前記優先順位を下げること
を特徴とする物体認識装置。 A region extraction unit that extracts a target region in which the shape of a road sign that is a recognition target is present from an image captured by an imaging device provided in a vehicle,
A recognition unit that selectively performs the recognition process of the recognition target object on the target region extracted by the region extraction unit in the entire region of the image ,
The recognition unit is
Acquiring traveling state information indicating the traveling state of the vehicle, changing the priority order of the recognition order of the road signs based on the traveling state information, the outer shape of the road sign is circular, and the road sign is an oncoming lane. An object recognition device, characterized in that when it is located on the side, the priority of the entry prohibition is lowered .
前記認識対象物となる道路標識と同様の前記外形が存在する前記対象領域を抽出すること
を特徴とする請求項1に記載の物体認識装置。 The area extraction unit,
Object recognition apparatus according to claim 1, characterized in that to extract the target region in which the outer shape similar to road signs to be the recognition target object is present.
前記認識部は、
前記記憶部に記憶された前記種類情報に基づいて、前記道路標識の種類を認識すること
を特徴とする請求項2に記載の物体認識装置。 Further comprising a storage unit that stores type information indicating the characteristics of the road sign corresponding to the type of the road sign,
The recognition unit is
The object recognition device according to claim 2, wherein the type of the road sign is recognized based on the type information stored in the storage unit.
前記走行状態情報として前記車両の走行速度を示す車速情報を取得すること
を特徴とする請求項1〜3のいずれか一つに記載の物体認識装置。 The recognition unit is
The object recognition device according to any one of claims 1 to 3, wherein vehicle speed information indicating a traveling speed of the vehicle is acquired as the traveling state information.
前記走行状態情報として前記車両が走行する道路の種別を示す道路情報を取得すること
を特徴とする請求項1〜4のいずれか一つに記載の物体認識装置。 The recognition unit is
The object recognition device according to claim 1, wherein road information indicating a type of a road on which the vehicle is traveling is acquired as the traveling state information.
前記車両の走行に伴って変化する前記車両と前記道路標識との距離に基づいて、進入禁止の前記優先順位を変更すること
を特徴とする請求項1〜5のいずれか一つに記載の物体認識装置。 The recognition unit is
Based on the distance between the road signs and the vehicle that varies with the running of the vehicle, the object according to any one of claims 1 to 5, characterized in that to change the priority of the entry prohibition Recognition device.
認識部が、前記画像の領域全体のうち、前記領域抽出部によって抽出された前記対象領域に対して選択的に前記認識対象物の認識処理を実行する工程と、
前記認識部が、前記車両の走行状態を示す走行状態情報を取得し、前記走行状態情報に基づいて前記道路標識の認識順序の優先順位を変更するとともに、前記道路標識の外形が円形かつ、当該道路標識が対向車線側に位置する場合、進入禁止の前記優先順位を下げる工程と
を含むことを特徴とする物体認識方法。 A step of extracting a target area in which the shape of the road sign , which is a recognition target, exists from the image captured by the image capturing device provided in the vehicle;
A step of selectively recognizing the recognition target object with respect to the target area extracted by the area extracting section in the entire area of the image;
The recognition unit acquires running state information indicating a running state of the vehicle, changes the priority order of the recognition order of the road signs based on the running state information, and the outer shape of the road sign is circular, When the road sign is located on the side of the oncoming lane, the step of lowering the priority of the entry prohibition is included.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016010994A JP6688090B2 (en) | 2016-01-22 | 2016-01-22 | Object recognition device and object recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016010994A JP6688090B2 (en) | 2016-01-22 | 2016-01-22 | Object recognition device and object recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017130155A JP2017130155A (en) | 2017-07-27 |
JP6688090B2 true JP6688090B2 (en) | 2020-04-28 |
Family
ID=59395698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016010994A Active JP6688090B2 (en) | 2016-01-22 | 2016-01-22 | Object recognition device and object recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6688090B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10762396B2 (en) | 2017-12-05 | 2020-09-01 | Utac, Llc | Multiple stage image based object detection and recognition |
EP3584742A1 (en) * | 2018-06-19 | 2019-12-25 | KPIT Technologies Ltd. | System and method for traffic sign recognition |
JP7322411B2 (en) * | 2019-01-24 | 2023-08-08 | カシオ計算機株式会社 | Image classification device, image classification method and program |
CN109886210B (en) * | 2019-02-25 | 2022-07-19 | 百度在线网络技术(北京)有限公司 | Traffic image recognition method and device, computer equipment and medium |
JP7063849B2 (en) * | 2019-06-20 | 2022-05-09 | 矢崎総業株式会社 | Drive recorder |
JP7243478B2 (en) * | 2019-06-24 | 2023-03-22 | トヨタ自動車株式会社 | Vehicle information recording device |
JP7126095B2 (en) * | 2019-09-24 | 2022-08-26 | Jfeスチール株式会社 | Intrusion detection device and intrusion detection method |
JP6997471B2 (en) * | 2020-03-09 | 2022-01-17 | ニューラルポケット株式会社 | Information processing system, information processing device, terminal device, server device, program, or method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4859760B2 (en) * | 2007-06-06 | 2012-01-25 | 株式会社日立製作所 | Car navigation apparatus, road sign recognition method and program |
CN103020623B (en) * | 2011-09-23 | 2016-04-06 | 株式会社理光 | Method for traffic sign detection and road traffic sign detection equipment |
JP2015191281A (en) * | 2014-03-27 | 2015-11-02 | 株式会社Jvcケンウッド | road sign display device |
-
2016
- 2016-01-22 JP JP2016010994A patent/JP6688090B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017130155A (en) | 2017-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6688090B2 (en) | Object recognition device and object recognition method | |
US11486727B2 (en) | Map generation device, map generation method, and map generation computer program | |
CN109584578B (en) | Method and device for recognizing a driving lane | |
US11670087B2 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
US9171204B2 (en) | Method of perspective correction for devanagari text | |
US9633436B2 (en) | Systems and methods for multi-dimensional object detection | |
EP3171295B1 (en) | Method for processing image and computer-readable non-transitory recording medium storing program | |
CN108073950A (en) | Recognition methods, identification device, identifier generation method and identifier generating means | |
US20130195315A1 (en) | Identifying regions of text to merge in a natural image or video frame | |
US8836812B2 (en) | Image processing device, image processing method, and image processing program | |
US20220219700A1 (en) | Apparatus, method, and computer program for generating map | |
JP2021165913A (en) | Road area correction device, road area correction method, and computer program for road area correction | |
WO2023179030A1 (en) | Road boundary detection method and apparatus, and electronic device, storage medium and computer program product | |
KR102564856B1 (en) | Method and apparatus of detecting road line | |
JP5962442B2 (en) | Sign recognition system, sign recognition method, and sign recognition program | |
CN110827340B (en) | Map updating method, device and storage medium | |
CN110942668B (en) | Image processing system, image processing method, and image processing apparatus | |
JP5327241B2 (en) | Object identification device | |
US20220058416A1 (en) | Printed character recognition | |
US20240119740A1 (en) | Method and apparatus with lane line determination | |
JP4820771B2 (en) | Sign object recognition device, sign object recognition method, and sign object recognition program | |
CN114782927B (en) | Obstacle detection method, obstacle detection device, electronic device, and storage medium | |
KR101655204B1 (en) | Apparatus for image processing using 3dimension graphic model and method thereof | |
WO2020071132A1 (en) | Camera device | |
KR20220043316A (en) | License plate detection apparatus and method using image warping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6688090 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |