JP6458239B1 - Image recognition system - Google Patents
Image recognition system Download PDFInfo
- Publication number
- JP6458239B1 JP6458239B1 JP2017164759A JP2017164759A JP6458239B1 JP 6458239 B1 JP6458239 B1 JP 6458239B1 JP 2017164759 A JP2017164759 A JP 2017164759A JP 2017164759 A JP2017164759 A JP 2017164759A JP 6458239 B1 JP6458239 B1 JP 6458239B1
- Authority
- JP
- Japan
- Prior art keywords
- product tag
- information
- product
- processing unit
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
【課題】
店舗などに陳列されている商品を特定するための画像認識システムを提供することを目的とする。
【解決手段】
商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,商品タグ特定処理部は,画像情報の明度情報を用いて商品タグ領域を特定し,商品タグ内情報特定処理部は,特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,特定したブロックに対してOCR認識処理を実行し,OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。
【選択図】 図1【Task】
An object of the present invention is to provide an image recognition system for specifying a product displayed in a store or the like.
[Solution]
A product tag specifying processing unit for specifying a product tag area in image information showing a display shelf for displaying a product, and a product for specifying information described in the product tag by performing OCR recognition processing in the specified product tag area And an in-tag information specifying processing unit, the product tag specifying processing unit specifies a product tag region using the brightness information of the image information, and the in-product tag information specifying processing unit specifies the specified product tag region. The box is specified by binarizing and labeling processing is performed, among the identified boxes, the boxes satisfying the predetermined condition are identified as blocks, the OCR recognition processing is executed on the identified blocks, and the OCR recognition is performed. This is an image recognition system that specifies the tax-excluded price and tax-included price by executing the logical consistency judgment process for the two price information specified by .
[Selection] Figure 1
Description
本発明は,店舗などに陳列されている商品を特定するための画像認識システムに関する。 The present invention relates to an image recognition system for specifying a product displayed in a store or the like.
小売業界においては,商品の陳列状況が商品の販売に影響することが知られている。そのため,商品の製造会社,販売会社としては,自社または他社のどのような商品が店舗に陳列されているのかを把握することで,自社商品の開発戦略,販売戦略につなげることができる。 In the retail industry, it is known that the display status of products affects the sales of products. For this reason, as a product manufacturer and sales company, it is possible to connect to the development strategy and sales strategy of their own products by grasping what products of their own or other companies are displayed in the store.
一方,その実現のためには,店頭に陳列されている商品の正確な特定が重要である。そこで,店舗の陳列棚を撮影し,その画像情報から陳列されている商品を,人間が手作業で特定をすることが考えられる。この場合,ほぼ正確に商品を特定することができる。しかし,商品の陳列状況を継続的に把握するためには,一定期間ごとにその陳列状況を把握しなければならないが,店舗の陳列棚を撮影した画像情報から毎回,人間が商品を特定するのは負担が大きく,また非効率である。 On the other hand, in order to achieve this, it is important to accurately identify the products displayed in stores. Therefore, it is conceivable that a store display shelf is photographed, and a product displayed on the basis of the image information is manually specified by a human. In this case, the product can be specified almost accurately. However, in order to keep track of the display status of products, it is necessary to monitor the display status at regular intervals. Humans specify products every time from image information of store shelves. Is burdensome and inefficient.
そこで店舗の陳列棚を撮影した画像情報から,そこに陳列されている商品を自動的に特定し,商品の陳列状況を把握することが求められる。たとえば商品ごとの標本画像をもとに,店舗の陳列棚を撮影した画像に対して画像認識技術を用いる方法がある。これらの従来技術として,たとえば,下記特許文献1乃至特許文献3に示すような技術を用いて,商品の陳列状況を管理するシステムが存在する。 Therefore, it is required to automatically identify the products displayed on the display information of the store shelves and grasp the display status of the products. For example, there is a method of using an image recognition technique for an image obtained by photographing a display shelf of a store based on a sample image for each product. As these conventional techniques, for example, there is a system that manages the display status of products using techniques as shown in Patent Documents 1 to 3 below.
特許文献1の発明は,商品をどの陳列棚に陳列すべきかが知識のない者にもできるように支援するシステムである。そのため,実際に陳列されている商品を把握することはできない。また特許文献2は,商品の陳列を支援する棚割支援システムにおいて,商品画像の入力を支援するシステムである。しかし特許文献2のシステムでは,棚割支援システムを利用する際の商品画像の入力を支援するのみであって,このシステムを用いたとしても,実際に陳列されている商品を把握することはできない。 The invention of Patent Document 1 is a system that supports a person who has no knowledge on which display shelf a product should be displayed. For this reason, it is impossible to grasp the products that are actually displayed. Patent Document 2 is a system that supports the input of product images in a shelf allocation support system that supports the display of products. However, the system of Patent Document 2 only supports the input of product images when using the shelf allocation support system, and even if this system is used, the products actually displayed cannot be grasped. .
特許文献3は,陳列棚に空き空間がある場合に,その空き空間に陳列すべき商品を特定したり,陳列棚に陳列すべき商品を置き間違えた場合にそれを通知する発明である。この発明でも,商品と,陳列棚に陳列されている商品との画像マッチング処理を行って,陳列棚に陳列されている商品を特定しているが,認識精度が低いのが実情である。 Patent Document 3 is an invention that, when there is a vacant space in a display shelf, specifies a product to be displayed in the vacant space, or notifies the user when a product to be displayed in the display shelf is misplaced. Even in this invention, the image matching process between the product and the product displayed on the display shelf is performed to identify the product displayed on the display shelf, but the reality is that the recognition accuracy is low.
陳列棚を撮影した画像に対して,商品の標本画像をもとに画像認識技術を用いる場合,その画像認識の精度や処理負荷が問題となる。たとえば,陳列棚が設置されている店舗では,照明の状態が均一ではなく,標本画像の照明との差が大きいと,画像認識の精度が低下する。そのため,陳列棚を撮影した画像から,そこに陳列されている商品を特定することは容易ではない場合がある。また,画像認識には大きな処理負荷が発生するので,多大なリソースが必要となってしまう。そのため,投下資本が大きくなってしまう。 When using an image recognition technique based on a sample image of a product for an image obtained by photographing a display shelf, the accuracy and processing load of the image recognition become a problem. For example, in a store where display shelves are installed, the illumination state is not uniform, and if the difference from the illumination of the sample image is large, the accuracy of image recognition decreases. For this reason, it may not be easy to specify the products displayed on the display shelf from the captured image. In addition, since a large processing load is generated in image recognition, a great amount of resources are required. As a result, invested capital increases.
本発明者は,陳列棚を撮影した画像に写っている商品を識別するための一つの方法として,その商品の価格等を表示するための商品タグに着目し,陳列されている商品を精度よく特定することができる画像認識システムを発明した。また,陳列棚に写っている商品を認識するとともに,商品タグに記載されている情報を認識し,それらを照合することで,陳列されている商品を精度よく特定することができる画像認識システムを発明した。 The inventor pays attention to the product tag for displaying the price of the product as one method for identifying the product shown in the image of the display shelf, and accurately displays the displayed product. Invented an image recognition system that can be specified. In addition, an image recognition system that can accurately identify the displayed product by recognizing the product on the display shelf, recognizing the information on the product tag, and collating them. Invented.
第1の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ特定処理部は,前記画像情報の明度情報を用いて商品タグ領域を特定し,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,前記特定したブロックに対して前記OCR認識処理を実行し,前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。
The first invention is described in the product tag by performing a OCR recognition process in the product tag identification processing unit that identifies the product tag region in the image information in which the display shelf displaying the product is reflected, and the identified product tag region A product tag information specifying processing unit for specifying the information that has been processed, wherein the product tag specifying processing unit specifies a product tag region using lightness information of the image information, and the product tag information The identification processing unit binarizes the identified product tag area and identifies a box by performing a labeling process, identifies a box satisfying a predetermined condition among the identified boxes as a block, and identifies the identified block the running OCR recognition process, the two price information identified by the OCR recognition process by executing the logical consistency of the determination process with respect to, tax To determine the rating and the price including tax, is an image recognition system.
本発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。 By using the image recognition system of the present invention, the information written on the product tag can be recognized with high accuracy, so that the product displayed correspondingly can be specified with high accuracy.
第2の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ特定処理部は,前記画像情報の明度情報を横方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,商品タグの上辺位置,下辺位置を特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,立ち上がりから所定距離内にある立ち下がりをペアとして商品タグの左辺位置,右辺位置を特定する,画像認識システムである。
According to a second aspect of the present invention, a product tag identification processing unit for identifying a product tag area in image information showing a display shelf for displaying a product, and an OCR recognition process on a part or all of the identified product tag area And an in-product tag information specifying processing unit for specifying information described in the product tag in the product tag specifying processing unit, the rise of a histogram obtained by integrating the brightness information of the image information in the horizontal direction, By specifying the falling edge, the upper side position and the lower side position of the product tag are specified, and the rising edge and falling edge of the histogram obtained by integrating the brightness information of the image information in the vertical direction are specified, and within a predetermined distance from the rising edge. This is an image recognition system that identifies the position of the left side and the right side of a product tag with a pair of falling edges .
第1の発明と同様に,本発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。
商品タグに表記されている情報を精度よく認識するためには,商品タグ領域をできるだけ正確に特定する必要がある。一般的に,商品タグの地の色は白色が多いので,陳列棚を撮影した場合,商品タグの部分が明るくなっている。この点に着目し,これらの発明のように,画像情報の明度情報を,縦方向,横方向にそれぞれ積算することで商品タグ領域を精度よく特定することができる。
As in the first aspect of the invention, by using the image recognition system of the present invention, the information written on the product tag can be recognized with high accuracy, so that the product displayed correspondingly can be specified with high accuracy. it can.
In order to accurately recognize the information written on the product tag, it is necessary to specify the product tag area as accurately as possible. Generally, since the color of the ground of the product tag is mostly white, when the display shelf is photographed, the product tag portion is bright. Focusing on this point, as in these inventions, the product tag region can be specified with high accuracy by integrating the brightness information of the image information in the vertical and horizontal directions.
第3の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ特定処理部は,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がりのうち,ペアを形成できなかった立ち上がりについてその右側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち下がりのうち,ペアを形成できなかった立ち下がりについてその左側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定する,画像認識システムである。
According to a third aspect of the present invention, a product tag identification processing unit that identifies a product tag area in image information in which display shelves displaying products are shown, and an OCR recognition process is performed on a part or all of the identified product tag area. And an in-product tag information specifying processing unit for specifying information described in the product tag in the product tag, wherein the product tag specifying processing unit has a rising edge of a histogram obtained by integrating the brightness information of the image information in the vertical direction. Of the rises that could not form a pair, if there is no tag area within a predetermined distance on the right side of the rise, it is identified as a product tag area, and among the falling edges of the histogram obtained by integrating the brightness information of the image information in the vertical direction, identifying a product tag area if there is no tag area within distance predetermined to the left about the fall could not be formed a pair, image The recognition system.
第1の発明と同様に,本発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。
商品タグは,その一部が重なって取り付けられている場合もある。その場合,明度情報の積算によるヒストグラムでは,連続して立ち上がりまたは立ち下がりとなる。そこで,本発明の処理を実行することで,重なって取り付けられている商品タグについての商品タグ領域を特定することができる。
As in the first aspect of the invention, by using the image recognition system of the present invention, the information written on the product tag can be recognized with high accuracy, so that the product displayed correspondingly can be specified with high accuracy. it can.
In some cases, the product tag is attached with a part of it overlapped. In this case, the histogram obtained by integrating the brightness information continuously rises or falls. Therefore, by executing the processing of the present invention, it is possible to specify the product tag region for the product tag attached in an overlapping manner.
第4の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域において二値化処理を実行し,前記二値化処理した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,画像認識システムである。
According to a fourth aspect of the present invention, a product tag specifying processing unit for specifying a product tag area in image information showing a display shelf for displaying a product, and an OCR recognition process in the specified product tag area are described on the product tag. A product tag internal information specification processing unit for specifying the specified information, and the product tag internal information specification processing unit executes binarization processing in the specified product tag region, and performs the binarization By performing a labeling process on the processed image information, consecutive pixels are grouped to specify a box, and among the specified boxes, adjacent boxes having a predetermined similarity are merged and specified as a block. The image recognition system executes the OCR recognition process by estimating the block having the highest height among the identified blocks as a price region .
第1の発明と同様に,これらの発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。As with the first invention, by using the image recognition system of these inventions, the information written on the product tag can be recognized with high accuracy, so that the product displayed correspondingly can be specified with high accuracy. Can do.
商品タグに表記されている情報を認識するためには,商品タグ領域のすべてに対してOCR認識処理を実行してもよいが,その場合,ノイズ等が多く検出されてしまい,精度の悪化につながる。また処理時間も多くなる。そこで,商品タグ領域の一部分のみにOCR認識処理を実行することが好ましい。本発明の処理を特定したブロックに対してOCR認識処理を実行することで,その認識精度を向上させることができる。また,価格が商品の購入者にとってもっとも重要であるので,もっとも高さが高いブロックは価格領域であることが多い。そこでこのブロックを価格領域と推定してOCR認識処理を実行することで,精度よく価格を認識することができる。In order to recognize the information written on the product tag, OCR recognition processing may be executed for all of the product tag areas. However, in that case, a lot of noise or the like is detected, resulting in deterioration of accuracy. Connected. Also, the processing time increases. Therefore, it is preferable to execute the OCR recognition process only on a part of the product tag area. The recognition accuracy can be improved by executing the OCR recognition process on the block for which the process of the present invention is specified. In addition, since the price is most important for the purchaser of the product, the block with the highest height is often the price area. Therefore, the price can be recognized with high accuracy by estimating the block as a price region and executing the OCR recognition process.
第5の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ内情報特定処理部は,前記OCR認識処理によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。
According to a fifth aspect of the present invention, a product tag specifying processing unit for specifying a product tag area in image information showing a display shelf for displaying a product and an OCR recognition process in the specified product tag area are described on the product tag. A product tag internal information specifying processing unit for specifying the information that has been processed, and the product tag internal information specifying processing unit, as the price information recognized as a tax-excluded price by the OCR recognition processing, This is an image recognition system for identifying the price information and the tax-inclusive price by executing the judgment process of the magnitude and / or tax rate consistency of the recognized price information .
第1の発明と同様に,これらの発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。As with the first invention, by using the image recognition system of these inventions, the information written on the product tag can be recognized with high accuracy, so that the product displayed correspondingly can be specified with high accuracy. Can do.
商品タグには一般的に,税抜価格と税込価格が表記されている。そこで税抜価格,税込価格としてそれぞれ認識した価格の論理的整合性が成立しているかを判定することで,さらに精度を向上させることができる。In general, the product tag includes a tax-excluded price and a tax-included price. Therefore, the accuracy can be further improved by determining whether the logical consistency of the prices recognized as the tax-excluded price and the tax-included price is established.
第6の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ内情報特定処理部は,前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。
According to a sixth aspect of the present invention, a product tag specifying processing unit for specifying a product tag area in image information showing a display shelf for displaying a product, and performing OCR recognition processing on a part or all of the specified product tag area In-product tag information specifying processing unit for specifying information described in the product tag in the product tag, the in-product tag information specifying processing unit performs logical processing on the two price information specified by the OCR recognition processing . This is an image recognition system that identifies the tax-excluded price and the tax-included price by executing the process of determining the physical consistency.
第1の発明と同様に,これらの発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。As with the first invention, by using the image recognition system of these inventions, the information written on the product tag can be recognized with high accuracy, so that the product displayed correspondingly can be specified with high accuracy. Can do.
第9の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域における商品識別情報を特定する商品タグ認識処理部と,前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部と,前記特定した商品タグ領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部と,を有しており,前記認識結果照合処理部は,前記陳列商品認識処理部における認識処理により,類似性の高いフェイスが並んでいる区画を一群とし,各棚段における各群に,前記商品タグ認識処理部による商品タグの認識結果を対応づける,画像認識システムである。
According to a ninth aspect of the present invention, there is provided a product tag recognition processing unit for specifying product identification information in a product tag area in image information in which display shelves displaying products are shown, and product identification information of products displayed in the image information. A recognition result for comparing the identified display product recognition processing unit, the product identification information in the specified product tag area, and the product identification information of the specified displayed product and checking whether the recognition results match. A recognition processing unit, and the recognition result verification processing unit takes a group of sections in which faces having high similarity are lined up by a recognition process in the display product recognition processing unit, and each group in each shelf An image recognition system for associating product tag recognition results by the product tag recognition processing unit with each other.
本発明によって,陳列棚に写っている商品を認識した結果と,商品タグに表記されている情報の認識結果とを照合することができる。これによって,陳列されている商品を精度よく特定することができる。
また,本発明を用いることで,陳列されている商品の認識結果と,商品タグの認識結果とを対応づけることができる。
According to the present invention, the result of recognizing the product shown on the display shelf can be collated with the recognition result of the information written on the product tag. As a result, it is possible to accurately identify the displayed product.
Further, by using the present invention, it is possible to associate the recognition result of the displayed product with the recognition result of the product tag.
上述の発明において,前記画像認識システムは,さらに,前記陳列棚を撮影した画像情報に対して台形補正処理を実行する撮影画像情報正置化処理部,を有しており,前記撮影画像情報正置化処理部は,第1の画像情報と,第2の画像情報との対応関係に基づいて,前記第1の画像情報における台形補正処理で用いた頂点を,前記第2の画像情報に射影し,前記射影した頂点に基づいて前記第2の画像情報の台形補正処理を実行する,画像認識システムのように構成することができる。
In the above-described invention, the image recognition system further includes a photographed image information alignment processing unit that performs a keystone correction process on the image information obtained by photographing the display shelf.置化processing unit includes a first image information, based on the correspondence between the second image information, the vertices used in the keystone correction process in the first image information, projected to the second image information In addition, it can be configured as an image recognition system that executes a trapezoidal correction process of the second image information based on the projected vertex.
撮影した画像情報は,正面から撮影した画像情報にはならないことも多い。撮影した画像情報そのものから処理を実行した場合,その精度は低くなる。そのため,台形補正処理を行い,正置化することが好ましい。そこで,台形補正処理の基準となる頂点を担当者が特定しなければならないが,それは負担が大きい。本発明を用いることで,台形補正処理の基準となる頂点を自動的に特定することができ,担当者の作業負担を軽減できる。
Photographed image information, it is also often not be the image information taken from the front. When processing is performed from the captured image information itself, the accuracy is low. For this reason, it is preferable to perform trapezoidal correction processing to make it in-place. Therefore, the person in charge has to specify the vertex that is the standard for the trapezoidal correction process, which is a heavy burden. By using the present invention, it is possible to automatically specify a vertex as a reference for trapezoidal correction processing, and to reduce the work load on the person in charge.
上述の発明において,前記画像認識システムは,さらに,前記撮影画像情報正置化処理部において台形補正処理を実行した前記画像情報において,商品タグ配置領域を特定する位置特定処理部と,前記特定した商品タグ配置領域において台形補正処理を実行する商品タグ配置領域正置化処理部と,を有する画像認識システムのように構成することができる。
In the above-described invention, the image recognition system further includes a position specifying processing unit that specifies a product tag placement region in the image information that has been subjected to the trapezoidal correction process in the captured image information normalization processing unit, and the specified It can be configured as an image recognition system having a product tag placement area alignment processing unit that performs trapezoidal correction processing in the product tag placement area.
陳列棚の面が垂直であるのに対し,商品タグの面は,垂直面よりも上向き(顧客向き)に取り付けられていることが多い。これは,顧客が商品タグを視認しやすくするためである。そのため,商品タグ配置領域を正置化処理することで,商品タグ領域をより精度高く特定することができる。これは,たとえば明度情報(画像情報を色相,明度,彩度の2次元情報に分解したときにおける明度の量の情報)におけるヒストグラムの立ち上がり,立ち下がりが急峻になるためである。また,本発明によって,商品タグ領域におけるOCR認識処理の精度を向上させることができる。 Whereas the display shelf surface is vertical, the product tag surface is often mounted upward (towards customers) than the vertical surface. This is to make it easier for the customer to visually recognize the product tag. Therefore, the product tag area can be specified with higher accuracy by performing the normalization processing on the product tag arrangement area. This is because, for example, the rise and fall of the histogram in the lightness information (information on the amount of light when the image information is decomposed into two-dimensional information of hue, lightness, and saturation) is steep. Further, according to the present invention, it is possible to improve the accuracy of the OCR recognition process in the product tag area.
上述の発明において,前記商品タグ配置領域正置化処理部は,前記商品タグ配置領域においてエッジ検出を行い,垂直方向の角度の所定条件を充足する直線群を検出し,前記検出した直線群のうち,少なくとも2本の直線を特定し,前記特定した2本の直線を用いて台形補正処理を実行する,画像認識システムのように構成することができる。 In the above-described invention, the product tag placement area alignment processing unit performs edge detection in the product tag placement area, detects a straight line group that satisfies a predetermined condition of a vertical angle, and detects the detected straight line group. Of these, at least two straight lines can be specified, and a trapezoidal correction process can be performed using the two specified straight lines.
本発明の処理を実行することで,台形補正処理に用いるための傾き角度を特定できるので,商品タグ配置領域の台形補正処理を実行することができる。 By executing the process of the present invention, the inclination angle for use in the trapezoid correction process can be specified, so that the trapezoid correction process for the product tag placement area can be executed.
第1の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ特定処理部は,前記画像情報の明度情報を用いて商品タグ領域を特定し,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,前記特定したブロックに対して前記OCR認識処理を実行し,前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識プログラムである。
The image recognition system of the first invention can be realized by reading the image recognition program of the present invention into a computer and executing it. That is, the product tag specifying processing unit for specifying the product tag area in the image information in which the display shelf displaying the product is displayed, and the OCR recognition process is performed on the specified product tag area, and the product tag is indicated. An image recognition program that functions as an in-product tag information specifying processing unit that specifies information, wherein the product tag specifying processing unit specifies a product tag area using lightness information of the image information, and includes in the product tag The information identification processing unit identifies the box by binarizing the identified product tag area and performing a labeling process, identifies the boxes satisfying a predetermined condition among the identified boxes as a block, and identifies the identified executing the OCR recognition process for a block, the two price information identified by the OCR recognition process, logical By executing the determining process of compatibility, specifying the tax price and price including tax, an image recognition program.
第2の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ特定処理部は,前記画像情報の明度情報を横方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,商品タグの上辺位置,下辺位置を特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,立ち上がりから所定距離内にある立ち下がりをペアとして商品タグの左辺位置,右辺位置を特定する,画像認識プログラムである。
第3の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ特定処理部は,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がりのうち,ペアを形成できなかった立ち上がりについてその右側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち下がりのうち,ペアを形成できなかった立ち下がりについてその左側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定する,画像認識プログラムである。
The image recognition system of the second invention can be realized by reading the image recognition program of the present invention into a computer and executing it. That is, the computer uses a product tag specifying processing unit for specifying a product tag area in image information showing a display shelf displaying products, and performs OCR recognition processing on a part or all of the specified product tag area. An image recognition program for functioning as an in-product tag information specifying processing unit for specifying information described in a product tag by performing integration of brightness information of the image information in a horizontal direction. By specifying the rising and falling edges of the histogram, the top and bottom positions of the product tag are specified, and the rising and falling edges of the histogram obtained by integrating the brightness information of the image information in the vertical direction are specified. left position of the product tag falling as a pair is within a predetermined distance from, it identifies the right position, an image recognition program That.
The image recognition system according to the third aspect of the invention can be realized by causing the computer to read and execute the image recognition program of the present invention. That is, the computer uses a product tag specifying processing unit for specifying a product tag area in image information showing a display shelf displaying products, and performs OCR recognition processing on a part or all of the specified product tag area. An image recognition program that functions as an in-product tag information identification processing unit that identifies information described in a product tag by performing integration of brightness information of the image information in a vertical direction. Among the rising edges of the histogram, the rising edge that could not form a pair is identified as a product tag area if there is no tag area within a predetermined distance on the right side of the rising edge, and the brightness information of the image information is integrated vertically. Among the falling edges, the falling edge that could not form a pair is within a predetermined distance on the left side. Identifying a product tag area Without area, an image recognition program.
第4の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域において二値化処理を実行し,前記二値化処理した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,画像認識プログラムである。
第5の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ内情報特定処理部は,前記OCR認識処理によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識プログラムである。
The image recognition system according to the fourth aspect of the invention can be realized by causing the computer to read and execute the image recognition program of the present invention. That is, the product tag specifying processing unit for specifying the product tag region in the image information in which the display shelf displaying the product is shown, and the product tag by performing OCR recognition processing in the specified product tag region An image recognition program that functions as an in-product tag information specifying processing unit that specifies information described in the item, wherein the in-product tag information specifying processing unit executes binarization processing in the specified product tag area , By performing a labeling process on the binarized image information, a box is specified by grouping consecutive pixels, and adjacent boxes having a predetermined similarity are merged among the specified boxes. Block as a block, and among the identified blocks, the block with the highest height is estimated as the price range and OCR recognition is performed. Processing is executed, an image recognition program.
The image recognition system according to the fifth aspect of the invention can be realized by causing the computer to read and execute the image recognition program of the present invention. That is, the product tag specifying processing unit for specifying the product tag region in the image information in which the display shelf displaying the product is shown, and the product tag by performing OCR recognition processing in the specified product tag region An image recognition program that functions as an in-product tag information specifying processing unit that specifies information described in the item, wherein the in-product tag information specifying processing unit recognizes price information as a tax-excluded price by the OCR recognition processing. The image recognition program identifies the price and tax-excluded price information by executing the process of determining the size of the price and / or the consistency of the tax rate for the price information recognized as the tax-included price .
第6の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ内情報特定処理部は,前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識プログラムである。
The image recognition system according to the sixth aspect of the present invention can be realized by causing the computer to read and execute the image recognition program of the present invention. That is, the computer uses a product tag specifying processing unit for specifying a product tag area in image information showing a display shelf displaying products, and performs OCR recognition processing on a part or all of the specified product tag area. An image recognition program that functions as an in-product tag information specifying processing unit that specifies information described in a product tag by performing the two operations specified by the OCR recognition processing . This is an image recognition program that identifies the price without tax and the price with tax by executing logical consistency judgment processing for price information.
第9の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域における商品識別情報を特定する商品タグ認識処理部,前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部,前記特定した商品タグの領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部,として機能させる画像認識プログラムであって,前記認識結果照合処理部は,前記陳列商品認識処理部における認識処理により,類似性の高いフェイスが並んでいる区画を一群とし,各棚段における各群に,前記商品タグ認識処理部による商品タグの認識結果を対応づける,画像認識プログラムである。
The image recognition system according to the ninth aspect of the present invention can be realized by causing the computer to read and execute the image recognition program of the present invention. That is, the computer uses a product tag recognition processing unit for specifying product identification information in the product tag area in the image information in which the display shelf displaying the product is shown, and the product identification information of the product displayed in the image information A display product recognition processing unit for identifying the product, a product identification information in the region of the identified product tag and a product identification information of the identified product to be identified, and a recognition for verifying whether the recognition results match An image recognition program that functions as a result collation processing unit , wherein the recognition result collation processing unit is a group of sections in which faces having high similarity are arranged by a recognition process in the display merchandise recognition processing unit. An image recognition program for associating a product tag recognition result by the product tag recognition processing unit with each group in a stage .
本発明の画像認識システムを用いることによって,陳列棚に陳列されている商品を精度よく特定することができる。 By using the image recognition system of the present invention, the products displayed on the display shelf can be accurately identified.
本発明の画像認識システム1のシステム構成の一例を図1に示す。画像認識システム1は,管理端末2と撮影画像情報入力端末4とを用いる。 An example of the system configuration of the image recognition system 1 of the present invention is shown in FIG. The image recognition system 1 uses a management terminal 2 and a captured image information input terminal 4.
管理端末2は,画像認識システム1を運営する企業等の組織が利用するコンピュータである。また,撮影画像情報入力端末4は,店舗の陳列棚を撮影した画像情報の入力を行う端末である。 The management terminal 2 is a computer used by an organization such as a company that operates the image recognition system 1. The photographed image information input terminal 4 is a terminal for inputting image information obtained by photographing a display shelf in a store.
画像認識システム1における管理端末2,撮影画像情報入力端末4は,コンピュータを用いて実現される。図2にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。 The management terminal 2 and the captured image information input terminal 4 in the image recognition system 1 are realized using a computer. FIG. 2 schematically shows an example of the hardware configuration of the computer. The computer is capable of inputting information, such as an arithmetic device 70 such as a CPU for executing arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk for storing information, a display device 72 such as a display for displaying information, and the like. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 that transmits and receives processing results of the arithmetic device 70 and information stored in the storage device 71 via a network such as the Internet or a LAN.
コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 When the computer includes a touch panel display, the display device 72 and the input device 73 may be configured integrally. The touch panel display is often used in, for example, a portable communication terminal such as a tablet computer or a smartphone, but is not limited thereto.
タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is an apparatus in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display using a predetermined input device (such as a touch panel pen) or a finger.
撮影画像情報入力端末4は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。撮影画像情報入力端末4として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。 The photographed image information input terminal 4 may include a photographing device such as a camera in addition to the above devices. As the photographed image information input terminal 4, a portable communication terminal such as a mobile phone, a smartphone, or a tablet computer can be used.
本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。たとえば正置化処理を省略することもできる。その場合,正置化処理をしていない画像情報に対する処理を実行することができる。 Each means in the present invention is only logically distinguished in function, and may be physically or virtually the same area. The processing order of each means of the present invention can be changed as appropriate. Further, a part of the processing may be omitted. For example, the in-place processing can be omitted. In this case, it is possible to execute processing for image information that has not been subjected to normalization processing.
画像認識システム1における管理端末2は,撮影画像情報入力端末4とネットワークを介して情報の送受信が可能である。 The management terminal 2 in the image recognition system 1 can transmit / receive information to / from the captured image information input terminal 4 via the network.
画像認識システム1は,撮影画像情報入力受付処理部20と,撮影画像情報記憶部21と,撮影画像情報正置化処理部22と,位置特定処理部23と,商品タグ配置領域切出処理部24と,商品タグ配置領域正置化処理部25と,商品タグ特定処理部26と,商品タグ内情報特定処理部27とを有する。 The image recognition system 1 includes a photographed image information input reception processing unit 20, a photographed image information storage unit 21, a photographed image information regularization processing unit 22, a position specifying processing unit 23, and a product tag arrangement area extraction processing unit. 24, a product tag arrangement area regularization processing unit 25, a product tag identification processing unit 26, and an in-product tag information identification processing unit 27.
撮影画像情報入力受付処理部20は,撮影画像情報入力端末4で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,後述する撮影画像情報記憶部21に記憶させる。撮影画像情報入力端末4からは,撮影画像情報のほか,撮影日時,店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。 The photographed image information input acceptance processing unit 20 accepts input of image information (photographed image information) of a store display shelf photographed by the photographed image information input terminal 4 and stores it in a photographed image information storage unit 21 described later. From the photographed image information input terminal 4, in addition to the photographed image information, it is preferable to accept input together with photographing date and time, store identification information such as a store name, image information identification information for identifying image information, and the like.
撮影画像情報記憶部21は,撮影画像情報入力受付処理部20で受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報などを対応づけて記憶する。撮影画像情報とは,台形補正処理を実行する対象となる画像情報であればよく,一つの陳列棚を複数枚で撮影した場合に,それが一つの画像情報として合成された画像情報も含まれる。また,歪み補正処理が実行された後の画像情報も撮影画像情報に含まれる。 The photographed image information storage unit 21 stores the photographed image information received by the photographed image information input acceptance processing unit 20, the photographing date and time, the store identification information, the image information identification information, and the like in association with each other. The captured image information only needs to be image information to be subjected to trapezoidal correction processing, and includes image information that is synthesized as a single image information when a single display shelf is captured in multiple sheets. . Also, the image information after the distortion correction processing is executed is included in the captured image information.
撮影画像情報正置化処理部22は,撮影画像情報記憶部21に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。台形補正処理は,撮影画像情報に写っている陳列棚の棚段が水平に,そこに陳列されている商品に対する商品タグが垂直になるように行う補正処理である。 The captured image information normalization processing unit 22 generates correct image information obtained by performing trapezoidal correction processing on the captured image information stored in the captured image information storage unit 21 so as to be aligned. The trapezoidal correction process is a correction process performed so that the shelf of the display shelf shown in the photographed image information is horizontal and the product tag for the product displayed there is vertical.
撮影画像情報正置化処理部22が実行する台形補正処理は,撮影画像情報において4頂点の指定の入力を受け付け,その各頂点を用いて台形補正処理を実行する。指定を受け付ける4頂点としては,陳列棚の棚段の4頂点であってもよいし,陳列棚の棚位置の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。4頂点としては任意の4点を指定できる。 The trapezoid correction process executed by the captured image information normalization processing unit 22 receives input of designation of four vertices in the captured image information, and executes the trapezoid correction process using each vertex. The four vertices that accept the designation may be the four vertices of the shelf of the display shelf or the four vertices of the shelf position of the display shelf. Further, it may be the four vertices of a group of two or three shelves. Any four points can be designated as the four vertices.
図7および図8に正置化処理がされた撮影画像情報(正置画像情報)の一例を示す。図7は,陳列棚として,ビールなどの飲料用缶の商品を,上下2段の棚段に陳列をしている正置画像情報である。図8は,歯ブラシなどの商品を陳列棚に吊す態様で陳列する吊し棚であって,上下2段に商品を陳列している正置画像情報である。 FIG. 7 and FIG. 8 show an example of photographed image information (orientated image information) subjected to the in-place processing. FIG. 7 shows in-place image information in which beverage cans such as beer are displayed on the upper and lower shelves as display shelves. FIG. 8 is a hanging shelf that displays a product such as a toothbrush in a manner in which the product is suspended from the display shelf, and shows the in-place image information in which the product is displayed in two upper and lower stages.
位置特定処理部23は,撮影画像情報正置化処理部22において撮影画像情報に対して台形補正処理を実行した正置画像情報のうち,商品タグが取り付けられる可能性のある領域(商品タグ配置領域)を特定する。すなわち,撮影画像情報および正置画像情報には陳列棚が写っているが,陳列棚には,商品が陳列される棚段の領域と,そこに陳列される商品に対する商品タグが取り付けられる可能性のある商品タグ配置領域とがある。そのため,正置画像情報から商品タグ配置領域を特定する。商品タグ配置領域の特定としては,管理端末2の操作者が手動で商品タグ配置領域を指定し,それを位置特定処理部23が受け付けてもよいし,初回に手動で入力を受け付けた商品タグ配置領域の情報に基づいて,二回目以降は自動で商品タグ配置領域を特定してもよい。 The position specifying processing unit 23 is an area (product tag arrangement) in which the product tag may be attached in the in-place image information obtained by performing the trapezoidal correction process on the captured image information in the captured image information alignment processing unit 22. Area). In other words, the display shelf is shown in the photographed image information and the in-place image information, but there is a possibility that the shelf area where the product is displayed and the product tag for the product displayed there are attached to the display shelf. There are some product tag placement areas. Therefore, the product tag placement area is specified from the in-place image information. For specifying the product tag placement area, the operator of the management terminal 2 may manually specify the product tag placement area, which may be received by the position specification processing unit 23, or the product tag that has been manually input for the first time. Based on the information of the arrangement area, the product tag arrangement area may be automatically specified after the second time.
図9に,図7の正置画像情報に対して商品タグ配置領域の指定の入力を受け付けた状態を模式的に示す。また,図10に,図8の正置画像情報に対して商品タグ配置領域の指定の入力を受け付けた状態を模式的に示す。 FIG. 9 schematically shows a state where an input for specifying a product tag arrangement area is received for the in-place image information of FIG. FIG. 10 schematically shows a state in which an input for specifying a product tag placement area is received for the in-place image information of FIG.
商品タグ配置領域切出処理部24は,位置特定処理部23で特定した商品タグ配置領域の画像情報を商品タグ配置領域画像情報として切り出す。商品タグ配置領域切出処理部24は,実際に,画像情報として切り出してもよいし,実際には画像情報としては切り出さずに,仮想的に切り出すのでもよい。画像情報を仮想的に切り出すとは,特定した領域,たとえば商品タグ配置領域の範囲を処理対象として処理を実行させることをいう。 The product tag arrangement area extraction processing unit 24 extracts the image information of the product tag arrangement area specified by the position specification processing unit 23 as the product tag arrangement area image information. The product tag arrangement area cutout processing unit 24 may actually cut out as image information, or may cut out virtually without cutting out as image information. Virtually cutting out image information means that processing is executed with a specified region, for example, a range of a product tag placement region as a processing target.
商品タグ配置領域正置化処理部25は,商品タグ配置領域切出処理部24において切り出した商品タグ配置領域画像情報を正置化する台形補正処理を実行する。陳列棚の面が垂直であるのに対し,商品タグの面は,顧客から見やすいように,垂直面よりも上向きをしていることが多い。そこで商品タグ配置領域の画像情報を正置化することで,認識精度を向上させる。図11に,図9の商品タグ配置領域の画像情報に対して,正置化した商品タグ配置領域の画像情報の一例を示す。図11(a)が図9における上の棚段の商品タグ配置領域の画像情報を正置化した商品タグ配置領域の画像情報であり,図11(b)が図9における下の棚段の商品タグ配置領域の画像情報を正置化した商品タグ配置領域の画像情報である。 The product tag placement area corrector processing unit 25 executes a trapezoidal correction process for normalizing the product tag placement region image information cut out by the product tag placement region cutout processor 24. While the display shelf surface is vertical, the product tag surface is often facing upwards from the vertical surface so that it can be easily seen by customers. Therefore, the recognition accuracy is improved by arranging the image information in the product tag placement area. FIG. 11 shows an example of the image information of the product tag arrangement area that has been placed in place with respect to the image information of the product tag arrangement area of FIG. FIG. 11A is the image information of the product tag arrangement area in which the image information of the product tag arrangement area of the upper shelf in FIG. 9 is arranged, and FIG. 11B is the image information of the lower shelf in FIG. It is the image information of the product tag arrangement area obtained by arranging the image information of the product tag arrangement area.
商品タグ配置領域正置化処理部25は,以下のような処理を実行することで,商品タグ配置領域の画像情報を正置化する。すなわち,商品タグ配置領域の画像情報において,エッジ検出を行い,左右の両端に近い箇所で,一定の長さ以上の垂直に近い輪郭線(たとえば70度から110度のように,垂直(90度)から所定範囲の角度内の輪郭線)を特定する。なお,左右の両端に近い箇所の輪郭線を抽出することが好ましいが,それに限定しない。図9の商品タグ配置領域の画像情報の場合,図12に示すように,L1乃至L4をそれぞれ特定する。図12(a)が図9における上の棚段の商品タグ配置領域であり,図12(b)が図9における下の棚段の商品タグ配置領域である。なお,特定する輪郭線L1乃至L4は,実際に商品タグ配置領域の画像情報に描画するわけではない。そして図12(a)のL1,L2,図12(b)のL3,L4が,それぞれ垂直線となるように,商品タグ配置領域の画像情報に対する台形補正処理をそれぞれ実行する。このような処理を実行することで,商品タグ配置領域の画像情報を正置化し,図11に示す正置化した商品タグ配置領域の画像情報を得られる。なお,商品タグ配置領域正置化処理部25の処理を実行することで,商品タグ特定処理部26,商品タグ内情報特定処理部27の精度を向上させることができることから,その処理を実行することが好ましいが,省略することもできる。その場合,商品タグ特定処理部26,商品タグ内情報特定処理部27は,商品タグ配置領域切出処理部24で切り出した商品タグ配置領域に対して実行することとなる。 The product tag placement area regularization processing unit 25 performs the following processing to regularize the image information of the product tag placement area. That is, edge detection is performed in the image information of the product tag placement region, and a vertical outline (for example, 70 degrees to 110 degrees, vertical (90 degrees), for example, 70 degrees to 110 degrees at a position near the left and right ends. ) To an outline within an angle within a predetermined range. In addition, although it is preferable to extract the contour line of the location near both the left and right ends, the present invention is not limited to this. In the case of the image information of the product tag arrangement area in FIG. 9, L1 to L4 are specified as shown in FIG. 12A shows the product tag placement area on the upper shelf in FIG. 9, and FIG. 12B shows the product tag placement area on the lower shelf in FIG. Note that the contour lines L1 to L4 to be specified are not actually drawn on the image information of the product tag arrangement area. Then, trapezoidal correction processing is performed on the image information of the product tag placement area so that L1 and L2 in FIG. 12A and L3 and L4 in FIG. By executing such processing, the image information of the product tag placement area is placed in the correct position, and the image information of the placed product tag placement area shown in FIG. 11 can be obtained. In addition, since the accuracy of the product tag identification processing unit 26 and the in-product tag information identification processing unit 27 can be improved by executing the processing of the product tag arrangement area alignment processing unit 25, the processing is executed. Although preferred, it can be omitted. In this case, the product tag identification processing unit 26 and the in-product tag information identification processing unit 27 are executed for the product tag arrangement area cut out by the product tag arrangement area extraction processing unit 24.
商品タグ特定処理部26は,正置化した商品タグ配置領域画像情報から,各商品タグの領域(商品タグ領域)を特定する。商品タグ領域の特定処理には,主に2種類の方法を用いることができる。第1の方法は,輪郭線に基づいて商品タグ領域を特定する方法であり,第2の方法は,全体の明暗の分布などの全体的な特徴を,商品タグのテンプレートの画像情報とマッチングすることで商品タグ領域を特定する方法である。第1の方法,第2の方法以外の方法を用いることもできる。 The product tag specification processing unit 26 specifies the region (product tag region) of each product tag from the product tag placement region image information that has been placed in a normal position. Two types of methods can be mainly used for the product tag area specifying process. The first method is a method of specifying a product tag area based on the contour line, and the second method is to match the overall characteristics such as the overall light and dark distribution with the image information of the template of the product tag. In this way, the product tag area is specified. Methods other than the first method and the second method can also be used.
第1の方法は,商品タグの地の色(背景色)が白色が多い(背景より明るい)ことを利用する方法である。すなわち,まず正置化した商品タグ配置領域の画像情報のうち,画像情報の明度情報を横方向に積算したヒストグラムを生成する。そしてヒストグラムの立ち上がり,立ち下がり位置を特定し,商品タグの上辺位置A,下辺位置Bを特定する。この処理を模式的に示すのが図13である。立ち上がりとは,ヒストグラムにおいて,黒から白の方向に急峻(あらかじめ定められた比率以上)に増加する箇所であり,立ち下がりとは,ヒストグラムにおいて,白から黒の方向に急峻に減少する箇所である。 The first method uses the fact that the background color of the product tag is much white (brighter than the background). That is, first, a histogram is generated by integrating the brightness information of the image information in the horizontal direction out of the image information of the product tag placement area that has been placed in a normal position. Then, the rising and falling positions of the histogram are specified, and the upper side position A and the lower side position B of the product tag are specified. This process is schematically shown in FIG. A rising edge is a point that increases steeply (over a predetermined ratio) from black to white in the histogram, and a falling edge is a point that sharply decreases from white to black in the histogram. .
そして,正置化した商品タグ配置領域の画像情報のうち,上辺位置A,下辺位置Bの間を切り出し,正置化した商品タグ配置領域画像情報の明度情報を縦方向に積算したヒストグラムを生成する。そして,ヒストグラムの立ち上がり,立ち下がり位置を特定し,立ち上がりとその右の所定の距離範囲にある立ち下がりとをペアとし,それぞれを左辺位置,右辺位置として,商品タグ領域を特定する。そして,ペアを形成できなかった立ち上がりについてはその右側に,ペアを形成できなかった立ち下がりについてはその左側に,あらかじめ定めた距離内に商品タグ領域がなければ,商品タグ領域として特定をする。この処理を模式的に示すのが図14である。 Then, between the image information of the placed product tag placement area, a portion between the upper side position A and the lower side position B is cut out, and a histogram in which the brightness information of the placed product tag placement area image information is vertically integrated is generated. To do. Then, the rising and falling positions of the histogram are specified, and the product tag area is specified with the rising and the falling in the predetermined distance range on the right as a pair, and the left side position and the right side position respectively. If the product tag region does not exist within a predetermined distance, the product tag region is specified on the right side of the rise when the pair could not be formed and on the left side of the fall where the pair could not be formed. FIG. 14 schematically shows this processing.
また第1の方法により,図11の正置化した商品タグ配置領域の画像情報から,商品タグ領域を特定した状態を図15に示す。上辺位置A,下辺位置B,左辺位置(立ち上がり)U,右辺位置(立ち下がり)Dのそれぞれで構成される矩形領域が,特定された商品タグの領域である。 FIG. 15 shows a state in which the product tag region is specified from the image information of the product tag placement region in FIG. A rectangular area constituted by the upper side position A, the lower side position B, the left side position (rising edge) U, and the right side position (falling edge) D is the specified product tag area.
第2の方法は,いわゆるテンプレートマッチングである。すなわち,テンプレートとして,商品タグの画像情報をあらかじめ登録しておき,テンプレートと,正置化した商品タグ配置領域の画像情報とのマッチングをすることで,商品タグ領域を特定する。 The second method is so-called template matching. That is, image information of a product tag is registered in advance as a template, and the product tag region is specified by matching the template with image information of the product tag placement region that has been placed in place.
商品タグには,税抜価格,税込価格,商品識別情報(商品名など),メーカー名,定格などが含まれる。そのため,テンプレートとなる商品タグの画像情報に,商品名など商品識別情報や価格の具体的な数字,文字を含めるとその部分も含めて画像マッチング処理の判定対象となるため,その部分をモザイク化,削除等することで,判定対象から中立化や除外してあることが好ましい。中立化とは,どんな入力について高い点,低い点を配点しないことであり,除外とは,画像マッチング処理の際に,その部分をマッチングの対象から除外することである。 The product tag includes a tax-excluded price, a tax-included price, product identification information (product name, etc.), manufacturer name, rating, and the like. Therefore, if product identification information such as the product name, specific numbers and characters of the price are included in the image information of the product tag that is the template, that part is also included in the image matching process, and that part is mosaicked. It is preferable to neutralize or exclude from the determination target by deleting. Neutralization means not assigning a high point or a low point for any input, and exclusion means that the part is excluded from the matching target in the image matching process.
商品タグ内情報特定処理部27は,商品タグ特定処理部26で特定した商品タグ領域に記載されている情報をOCR認識などにより特定する処理を実行する。OCR認識をする場合には,商品タグ領域として特定した領域のすべてまたは一部について行うことができる。商品タグ領域として特定したすべての領域に行うとノイズなどにより誤認識が発生する可能性が高いので,OCR認識をする対象領域を限定することが好ましい。この場合,商品タグ特定処理部26で用いた第1の方法,第2の方法にそれぞれ対応した処理を実行する。 The in-product tag information specification processing unit 27 executes processing for specifying information described in the product tag area specified by the product tag specification processing unit 26 by OCR recognition or the like. When performing OCR recognition, it can be performed for all or part of the area specified as the product tag area. Since it is highly possible that erroneous recognition will occur due to noise or the like if it is performed on all the areas specified as the product tag areas, it is preferable to limit the target areas for OCR recognition. In this case, processing corresponding to each of the first method and the second method used in the product tag identification processing unit 26 is executed.
商品タグ特定処理部26で第1の方法を用いた場合,特定した商品タグ領域において,まず二値化処理を行う。そして,二値化した画像情報においてラベリング処理を実行する。ラベリング処理とは,二値画像情報において,白または黒が連続した画素に同一の番号(識別情報)を割り振る処理を実行することで,連続する画素同士を一つの島(グループ)化する処理である。そしてラベリング処理によって検出した島を含む矩形領域(ボックス)を生成し,ボックスの高さ,幅,ベースラインを求める。ボックスを生成する際には,同一番号にラベリングされた領域を囲む最小の,垂直,水平の線分で囲まれた長方形を生成することが好ましいが,それに限定しない。なおボックスを生成する際に,あらかじめ定めた閾値となる高さ,幅を充足しない島はノイズとしてボックスを生成せず,そのまま処理対象から除去する。たとえば高さが小さすぎる島は横罫線や画像上のゴミの可能性があり,幅が広すぎる島はロゴなどの可能性があり,これらはノイズとして除去をする。 When the product tag identification processing unit 26 uses the first method, binarization processing is first performed in the identified product tag area. Then, a labeling process is executed on the binarized image information. The labeling process is a process of assigning the same number (identification information) to pixels in which white or black continues in binary image information, thereby forming consecutive islands into one island (group). is there. Then, a rectangular area (box) including islands detected by the labeling process is generated, and the height, width, and baseline of the box are obtained. When generating a box, it is preferable to generate a rectangle surrounded by vertical, horizontal line segments surrounding an area labeled with the same number, but this is not restrictive. When a box is generated, islands that do not satisfy the predetermined threshold height and width are not generated as noise but are removed from the processing target as they are. For example, islands that are too small can be horizontal ruled lines or dust on the image, while islands that are too wide can be logos, which are removed as noise.
商品タグで使用される文字は,一般的にはゴシック体など太字が多い。そのため,画像情報に多少のピンぼけがある場合でも,一つの文字列を形成する文字群は,ベースラインと高さがそろった島として検出することができる。 The characters used in product tags are generally bold, such as Gothic. Therefore, even if there is a slight blur in the image information, a character group forming one character string can be detected as an island having a baseline and a height.
そして商品タグ内情報特定処理部27は,所定の類似性を有する隣接したボックス同士を併合し,ブロックを構成する。すなわち,ベースラインと高さが所定範囲内で一致し,高さおよび幅が一定の閾値の範囲内にある連続するボックスを併合し,ブロックを構成する。この際に,併合するブロックの間にある小さいボックスなどもまとめて一つのブロックとして構成する。これによって,濁点,半濁点,ハイフンなども一つのブロックに取り込まれることとなる。ブロックは,OCR認識の対象となる領域である。そして,ブロックのうち,高さがもっとも高いブロックを価格領域(税抜価格領域)と推定し,OCR認識を行う。また,ほかのブロックについても同様に,OCR認識を行う。以上のような処理を実行することで,商品タグ領域において複数行にわたって自由にレイアウトされた原稿に対応したOCR認識を行うよりも精度よく,文字認識処理を実行することができる。この処理を模式的に示すのが図16乃至図18である。図16は二値化した画像情報であり,図17はボックス(破線で示す領域)を生成した状態を示す図である。また図18はブロック(破線で示す領域)を生成した状態を示す図である。 The in-product tag information identification processing unit 27 merges adjacent boxes having a predetermined similarity to form a block. That is, a block is formed by merging consecutive boxes whose base line and height are within a predetermined range and whose height and width are within a certain threshold range. At this time, small boxes and the like between the blocks to be merged are collectively configured as one block. As a result, a muddy point, a semi-turbid point, a hyphen, and the like are also included in one block. A block is an area to be subjected to OCR recognition. Then, the block having the highest height among the blocks is estimated as a price area (a price area excluding tax), and OCR recognition is performed. Similarly, OCR recognition is performed for other blocks. By executing the processing as described above, it is possible to execute the character recognition processing with higher accuracy than when performing OCR recognition corresponding to a document freely laid out over a plurality of lines in the product tag area. FIG. 16 to FIG. 18 schematically show this processing. FIG. 16 shows binarized image information, and FIG. 17 shows a state in which a box (area indicated by a broken line) is generated. FIG. 18 is a diagram showing a state in which blocks (areas indicated by broken lines) are generated.
以上のようにして商品タグ内情報特定処理部27は,商品タグに記載した情報を文字認識することができる。 As described above, the in-product tag information identification processing unit 27 can perform character recognition on the information described in the product tag.
商品タグ特定処理部26で第2の方法を用いた場合,テンプレートとした商品タグの画像情報に,あらかじめ税抜価格,税込価格,メーカー名,商品名などの商品識別情報,定格が表記されるそれぞれの文字枠の位置,大きさ(高さ,幅)が設定されている。そのため,商品タグ特定処理部26で特定した商品タグ領域から,該当箇所の画像情報を切り出し,OCR認識処理を実行する。この際に,価格,メーカー名,商品名などの商品識別情報,定格によって使用される文字種別(たとえば数字,ローマ字,記号,文字列など)を制約条件として定めておくことで,OCR認識処理の精度を向上させることができる。 When the second method is used in the product tag identification processing unit 26, product identification information such as a tax-excluded price, a tax-included price, a manufacturer name, a product name, and a rating are described in advance in the image information of the product tag as a template. The position and size (height and width) of each character frame are set. Therefore, the image information of the corresponding part is cut out from the product tag area specified by the product tag specification processing unit 26, and the OCR recognition process is executed. At this time, the product identification information such as price, manufacturer name, product name, etc., and the character type used by the rating (for example, numbers, Roman letters, symbols, character strings, etc.) are defined as constraints, so that the OCR recognition process can be performed. Accuracy can be improved.
さらに商品タグ内情報特定処理部27は,読み取った情報の整合性を確認する処理を実行する。整合性確認処理としては,辞書照合による整合性の確認処理,ロジカルチェックの2種類を行うことが好ましい。 Further, the in-product tag information identification processing unit 27 executes processing for confirming the consistency of the read information. As the consistency check process, it is preferable to perform two types of consistency check process by dictionary collation and logical check.
辞書照合による整合性の確認処理は,たとえば以下のように実行する。画像認識システム1には,陳列棚に陳列される可能性のある商品の商品名などの商品識別情報と,それに対応するコード情報(たとえばJANコード)とを対応づけて記憶する商品辞書(図示せず)を備えている。そして,商品タグ内情報特定処理部27で認識した価格を示す領域から読み取った文字列以外の文字列と,商品辞書に登録されたすべての商品名などの商品識別情報との編集距離(レーベンシュタイン距離)を求める。そして求めた編集距離のうち,最小の編集距離が一つであるならば,その編集距離の商品名などの商品識別情報を最終候補とする。そして最終候補となった商品名などの商品識別情報の文字列の長さに対して,許容できる編集距離をあらかじめ定めておき,許容できる編集距離内であれば商品名などの商品識別情報を同定する。許容できる編集距離を超えていれば,読み取った文字列は未確定とする。また,最小の編集距離が複数ある場合には,読み取った文字列は未確定とする。 Consistency confirmation processing by dictionary collation is executed as follows, for example. The image recognition system 1 includes a product dictionary (not shown) that stores product identification information such as product names of products that may be displayed on display shelves and corresponding code information (for example, JAN code) in association with each other. )). Then, the edit distance (Levenshtein) between the character string other than the character string read from the area indicating the price recognized by the in-product tag information identification processing unit 27 and the product identification information such as all the product names registered in the product dictionary. Find the distance. If the minimum editing distance is one of the obtained editing distances, the product identification information such as the product name of the editing distance is set as the final candidate. An allowable edit distance is determined in advance for the length of the character string of the product identification information such as the product name that is the final candidate, and the product identification information such as the product name is identified if it is within the allowable edit distance. To do. If the allowable edit distance is exceeded, the read character string is unconfirmed. If there are multiple minimum edit distances, the read character string is unconfirmed.
編集距離とは,二つの文字列がどの程度異なっているかを示す距離の一種であって,具体的には,一文字の挿入,削除,置換によって,一方の文字列をもう一方の文字列に変形するのに必要な手順の最小回数である。図19に商品タグに表記された商品名,OCR認識の結果,商品辞書に記憶する商品名のうち編集距離が最小の商品名,編集距離の一例を示す。また,図20に,最終候補の文字数ごとの確定してよい編集距離の対応関係の表を示す。なお,本明細書では編集距離を用いて処理をする場合を説明するが,編集距離の算出において置換の距離を短くする処理を行った距離関数であってもよい。この距離関数には,二つの文字列がどの程度異なっているかを示す距離を算出する関数であって,上述の編集距離も含まれる。 Edit distance is a type of distance that indicates how different two character strings are. Specifically, one character string is transformed into the other by inserting, deleting, or replacing one character. This is the minimum number of steps required to do this. FIG. 19 shows an example of the product name written on the product tag, the result of OCR recognition, and the product name with the shortest edit distance and the edit distance among the product names stored in the product dictionary. FIG. 20 shows a table of correspondence relationships of edit distances that can be determined for each number of characters of the final candidate. In this specification, the case where processing is performed using the edit distance will be described, but a distance function obtained by performing processing for shortening the replacement distance in the calculation of the edit distance may be used. This distance function is a function for calculating a distance indicating how different two character strings are, and includes the above-described editing distance.
そして,上記の最小の編集距離の商品名などの商品識別情報を求めた後,OCR認識結果から商品名などの商品識別情報の該当部分を除いた文字列に対し,別に備える定格辞書(図示せず)に記憶する各定格との編集距離,メーカー名辞書(図示せず)に記憶する各メーカー名との編集距離をそれぞれ求める。たとえば図19における「のどごし 生 350ml」の例では,「350ml」の部分に対し,定格の辞書における「350ml」と編集距離0で一致し,定格部分の文字列であることを同定する。同様に,メーカー名についても編集距離を求め,最小の編集距離にある文字列をメーカー名であることを同定する。そしてOCR認識結果から定格部分,メーカー名部分の各文字列を取り除いて,取り除いた残りの文字列に対し,商品名辞書における最短の編集距離にある文字列を求め,許容できる編集距離であるか否かを判定する。許容できる編集距離内であれば,商品名などの商品識別情報,メーカー名,定格を確定する。このような処理をすることで,商品名などの商品識別情報に定格,メーカー名が含まれる場合にも適切に確定をすることができる。なお,定格辞書とは,陳列棚に陳列される可能性のある商品の定格(容量など)を記憶する辞書である。メーカー名辞書とは,陳列棚に陳列される可能性のある商品のメーカー名を記憶する辞書である。 After obtaining the product identification information such as the product name of the minimum editing distance, a rating dictionary (not shown) is provided separately for the character string obtained by excluding the corresponding part of the product identification information such as the product name from the OCR recognition result. Edit distance to each rating stored in (1) and edit distance to each manufacturer name stored in a manufacturer name dictionary (not shown). For example, in the example of “350 ml” in FIG. 19, the “350 ml” portion matches “350 ml” in the rated dictionary with an edit distance of 0, and the character string of the rated portion is identified. Similarly, the edit distance is obtained for the manufacturer name, and the character string at the minimum edit distance is identified as the manufacturer name. Then, remove the character strings of the rated part and the manufacturer name part from the OCR recognition result, find the character string at the shortest edit distance in the product name dictionary for the removed character string, and confirm that the edit distance is acceptable. Determine whether or not. If it is within the allowable edit distance, the product identification information such as the product name, the manufacturer name, and the rating are determined. By performing such processing, it is possible to appropriately determine even when the product identification information such as the product name includes the rating and the manufacturer name. The rating dictionary is a dictionary that stores ratings (capacity, etc.) of products that may be displayed on the display shelf. The manufacturer name dictionary is a dictionary that stores manufacturer names of products that may be displayed on the display shelf.
認識結果を利用者に示し,選択してもらうための表示を行う際には,確定した文字列,未確定の文字列については,それぞれが特定可能な方法で表示が行われているとよい。たとえば確定した文字列と未確定の文字列との色を分ける,確定の文字列および/または未確定の文字列には確定または未確定を示す情報を付するなどがある。未確定の文字列については,最小の編集距離となった商品名などの商品識別情報の候補が複数ある場合には,各候補を表示してもよい。 When displaying the recognition result to the user for selection, the confirmed character string and the unconfirmed character string may be displayed in a manner that allows each to be identified. For example, the colors of the confirmed character string and the unconfirmed character string are separated, and information indicating confirmation or unconfirmed is attached to the confirmed character string and / or the unconfirmed character string. With respect to an undetermined character string, if there are a plurality of candidates for product identification information such as a product name having the minimum edit distance, each candidate may be displayed.
商品タグ内情報特定処理部27におけるロジカルチェック(認識した情報の論理的整合性の判定処理)は以下のように行うことができる。たとえば価格領域として2つの価格を読み取った場合,一つは税抜価格,一つは税込価格となるが,税抜価格が税込価格よりも高くなっている場合には,それらを逆転して認識させる。また,税抜価格に消費税率を乗算して得た値が税込価格とは一致しない場合には,いずれかまたは双方に誤認識があるとする。さらに,商品名などの商品識別情報を認識した場合には,その商品または商品カテゴリの通常の価格帯に収まっているか,を判定する。また,商品名などの商品識別情報,メーカー名,定格の対応関係が一致しているかを判定してもよい。 The logical check (determination process of the logical consistency of recognized information) in the product tag internal information identification processing unit 27 can be performed as follows. For example, when two prices are read as price areas, one is a tax-excluded price and one is a tax-included price. However, if the tax-excluded price is higher than the tax-included price, they are reversed and recognized. Let In addition, if the value obtained by multiplying the tax-excluded price by the consumption tax rate does not match the tax-included price, it is assumed that either or both are misrecognized. Further, when product identification information such as a product name is recognized, it is determined whether the product or product category falls within the normal price range. Further, it may be determined whether the correspondence relationship between the product identification information such as the product name, the manufacturer name, and the rating is the same.
以上のように商品タグ内の情報の整合性を確認することで,撮影画像情報に写っている商品タグに含まれる情報を確定することができる。このように確定した情報は,たとえば表形式で出力をすることができる。 As described above, by confirming the consistency of information in the product tag, it is possible to determine information included in the product tag shown in the photographed image information. The information thus determined can be output in a table format, for example.
つぎに本発明の画像認識システム1の処理プロセスの一例を図3乃至図6のフローチャートを用いて説明する。 Next, an example of the processing process of the image recognition system 1 of the present invention will be described with reference to the flowcharts of FIGS.
店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末4から入力され,管理端末2の撮影画像情報入力受付処理部20でその入力を受け付ける(S100)。図21および図22に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部20は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部21に記憶させる。 The photographed image information obtained by photographing the display shelf of the store is input from the photographed image information input terminal 4, and the input is received by the photographed image information input reception processing unit 20 of the management terminal 2 (S100). 21 and 22 show an example of photographed image information. Also, input of image information identification information such as shooting date / time, store identification information, and shooting image information is accepted. Then, the photographed image information input acceptance processing unit 20 stores the photographed image information, the photographing date and time, the store identification information, and the image information identification information of the photographed image information, which are accepted, in the photographed image information storage unit 21 in association with each other.
管理端末2において所定の操作入力を受け付けると,正置画像情報正置化処理部は,撮影画像情報記憶部21に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S110)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図7および図8である。 When the management terminal 2 receives a predetermined operation input, the in-place image information normalization processing unit extracts the photographic image information stored in the photographic image information storage unit 21, and is a shelf that is a vertex for performing trapezoid correction processing. The input of 4 points of the position (the position of the display shelf) is received, and the keystone correction process is executed (S110). An example of the captured image information (rectified image information) that has been subjected to the trapezoidal correction process in this way is shown in FIGS.
そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,位置特定処理部23は,商品タグ配置領域を特定する(S120)。すなわち,正置画像情報における商品タグ配置領域の入力を受け付ける。図9および図10が,商品タグ配置領域が特定された状態を示す図である。そして,商品タグ配置領域切出処理部24はS120で特定した商品タグ配置領域の画像情報を切り出し(S130),商品タグ配置領域正置化処理部25が台形補正処理を実行することで,商品タグ配置領域の画像情報に対する正置化処理を実行する(S140)。 And the position specific process part 23 specifies a goods tag arrangement | positioning area | region by accepting predetermined operation input in the management terminal 2 with respect to in-place image information (S120). That is, the input of the product tag arrangement area in the in-place image information is accepted. FIG. 9 and FIG. 10 are views showing a state in which the product tag placement area is specified. Then, the product tag placement area cutout processing unit 24 cuts out the image information of the product tag placement area specified in S120 (S130), and the product tag placement area corrective processing unit 25 executes the trapezoidal correction process, so that the product tag placement process is performed. Alignment processing is executed for the image information in the tag placement area (S140).
商品タグ配置領域の画像情報に対する正置化処理としては,まず,商品タグ配置領域の画像情報においてエッジ検出を行う。そして,検出したエッジのうち,一定の長さ以上であって,垂直から所定範囲の角度内にある輪郭線を特定する(S200)。そして,特定した輪郭線のうち,もっとも左および右にある輪郭線を特定する(S210)。このように特定した輪郭線の一例を図12に示す。そして,特定した輪郭線(図12(a)のL1,L2,図12(b)のL3,L4)が,それぞれ垂直線となるように,商品タグ配置領域の画像情報に対する台形補正処理を実行する(S220)。このような処理を実行することで,商品タグ配置領域の画像情報を正置化し,図11に示す正置化した商品タグ配置領域の画像情報を得られる。 As the normalization processing for the image information in the product tag placement area, first, edge detection is performed on the image information in the product tag placement area. Then, among the detected edges, a contour line that is not less than a certain length and is within a predetermined range of angle from the vertical is identified (S200). Then, the leftmost and rightmost contour lines are identified among the identified contour lines (S210). An example of the contour line thus identified is shown in FIG. Then, a trapezoid correction process is performed on the image information of the product tag placement area so that the identified contour lines (L1, L2 in FIG. 12A, L3, L4 in FIG. 12B) are vertical lines, respectively. (S220). By executing such processing, the image information of the product tag placement area is placed in the correct position, and the image information of the placed product tag placement area shown in FIG. 11 can be obtained.
S140において商品タグ配置領域の画像情報の正置化処理が終了すると,商品タグ特定処理部26が,第1の方法または第2の方法により,商品タグ配置領域の画像情報から,個々の商品タグ領域を特定する(S150)。 When the normalization processing of the image information in the product tag placement area is completed in S140, the product tag identification processing unit 26 uses the first method or the second method to determine the individual product tag from the image information in the product tag placement area. An area is specified (S150).
第1の方法の場合には,正置化した商品タグ配置領域の画像情報のうち,画像情報の明度情報を横方向に積算したヒストグラムを生成し(S300),ヒストグラムの立ち上がり,立ち下がり位置を特定する。そして,特定したヒストグラムの立ち上がりを商品タグの上辺位置A,ヒストグラムの立ち下がり位置を商品タグの下辺位置Bとして特定する(S310)。 In the case of the first method, a histogram in which the brightness information of the image information is integrated in the horizontal direction is generated from the image information in the product tag placement area that has been placed in the normal direction (S300), and the rising and falling positions of the histogram are determined. Identify. Then, the rising edge of the identified histogram is specified as the upper side position A of the product tag, and the falling position of the histogram is specified as the lower side position B of the product tag (S310).
つぎに,正置化した商品タグ配置領域の画像情報のうち,上辺位置A,下辺位置Bの間を切り出し,正置化した商品タグ配置領域の画像情報の明度情報を縦方向に積算したヒストグラムを生成する(S320)。 Next, a histogram obtained by cutting out between the upper side position A and the lower side position B from the image information of the product tag placement area that has been placed in a normal position and integrating the brightness information of the image information in the product tag placement area that has been placed in the vertical direction. Is generated (S320).
生成したヒストグラムにおいて立ち上がり位置U,立ち下がり位置Dを特定し,立ち上がり位置U(左辺位置)とその右の所定の距離範囲にある立ち下がり位置D(右辺位置)とをペアとして特定し,商品タグ領域として特定する(S330)。 The rising position U and the falling position D are specified in the generated histogram, the rising position U (left side position) and the falling position D (right side position) within a predetermined distance range to the right are specified as a pair, and the product tag The area is specified (S330).
ペアを形成できなかった立ち上がり位置Uについてはその右側に,ペアを形成できなかった立ち下がり位置Dについてはその左側に,あらかじめ定めた距離内に商品タグ領域がなければ,商品タグ領域として特定をする(S340)。 If there is no product tag area within a predetermined distance on the right side of the rising position U where the pair could not be formed and on the left side of the falling position D where the pair could not be formed, the product tag area is specified. (S340).
以上のような処理によって,それぞれの商品タグ領域を特定した状態が図15である。 FIG. 15 shows a state in which each product tag area is specified by the processing as described above.
また第2の方法を用いる場合には,商品タグ特定処理部26は,あらかじめ登録しているテンプレートの商品タグの画像情報と,正置化した商品タグ配置領域の画像情報との画像マッチング処理を実行することで,商品タグ領域を特定する。 When the second method is used, the product tag identification processing unit 26 performs an image matching process between the image information of the product tag of the template registered in advance and the image information of the product tag placement area that has been placed in order. By executing, the product tag area is specified.
以上のようにして商品タグ特定処理部26が商品タグ領域を特定すると,商品タグ内情報特定処理部27が,商品タグ内における情報を特定する(S160)。 When the product tag identification processing unit 26 identifies the product tag area as described above, the in-product tag information identification processing unit 27 identifies information in the product tag (S160).
商品タグ内情報特定処理部27における第1の方法は,特定した商品タグ領域について二値化処理することで,二値化した画像情報とする(S400)。そして,二値化した画像情報におけるラベリング処理により,ボックスを特定する(S410)。なお,あらかじめ定めた閾値となる高さ,幅を充足しない島はノイズとしてボックスを生成せず,そのまま処理対象から除去する。 The first method in the in-product tag information specifying processing unit 27 binarizes the specified product tag area to obtain binarized image information (S400). Then, the box is specified by the labeling process in the binarized image information (S410). Note that islands that do not satisfy the predetermined threshold height and width do not generate a box as noise and are directly removed from the processing target.
そして生成したボックスの高さ,幅,ベースラインを求め,ベースラインと高さが所定範囲内で一致し,高さおよび幅が一定の閾値の範囲内にある隣接するボックスを特定することで,特定したボックスを併合し,ブロックを構成する(S420)。そしてブロックのうち,高さがもっとも高いブロックを価格領域(税抜価格領域)と推定し,OCR認識を行う(S430)。OCR認識の結果,価格情報を得られなければ(数値の文字列を認識できなければ)(S440),高さが次に高いブロックを価格領域(税抜価格領域)と推定し,同様にOCR認識を行う。 Then, the height, width, and baseline of the generated box are obtained, and by identifying adjacent boxes that match the baseline and height within a predetermined range, and the height and width are within a certain threshold range, The identified boxes are merged to form a block (S420). Of the blocks, the block with the highest height is estimated as a price area (a price area excluding tax), and OCR recognition is performed (S430). If price information cannot be obtained as a result of OCR recognition (if a numeric character string cannot be recognized) (S440), the block with the next highest height is estimated as the price area (tax-excluded price area), and similarly OCR Recognize.
なおS430のOCR認識においては,価格に用いる「数字」,「コンマ」等の価格表示を構成する文字認識を制約条件として付加することで価格の読み取り精度を向上することができる。 In the OCR recognition of S430, the accuracy of price reading can be improved by adding character recognition that constitutes the price display such as “number” and “comma” used for the price as a constraint.
このように価格領域(税抜価格領域)と推定したブロックから価格情報をOCR認識により取得すると(S440),S430で価格領域(税抜価格領域)と推定して取得した価格情報以外のブロックを特定し(S450),特定した各ブロックに対してOCR認識を行う(S460)。このOCR認識については,2種類のOCR認識処理を行うことが好ましい。すなわち,通常の標準的なOCR認識処理と,価格表示を構成する文字認識を制約条件として付加したOCR認識処理である。 As described above, when price information is acquired from the block estimated as the price area (tax-excluded price area) by OCR recognition (S440), blocks other than the price information acquired by estimating the price area (tax-excluded price area) in S430 are obtained. Identification (S450), and OCR recognition is performed for each identified block (S460). For this OCR recognition, it is preferable to perform two types of OCR recognition processing. That is, a normal standard OCR recognition process and an OCR recognition process in which character recognition constituting price display is added as a constraint.
S450で特定したブロックには,価格領域(税込価格領域)のブロックと,メーカー名,商品名などの商品識別情報,定格などの情報の領域のブロックが含まれる。そして各ブロックについて2種類のOCR認識処理を実行する。メーカー名,商品名などの商品識別情報,定格などの情報の領域のブロックについては,標準的なOCR認識処理では文字列を認識し,制約条件を付したOCR認識処理では多くはエラーを含む文字列となる。この場合,2つの認識処理の認識結果が所定値以上相違するかを判定し,相違する場合には,標準的なOCR認識処理で実行した文字列を認識結果とし,価格領域(税込価格領域)のブロック以外のブロックであると判定する。一方,価格領域(税込価格領域)のブロックについては,標準的なOCR認識処理では価格情報の文字列を認識し,制約条件を付したOCR認識処理でも価格情報の文字列を認識する。この場合,2つの認識処理の認識結果が所定値以上相違するかを判定し,相違しない場合には,価格領域(税込価格領域)のブロックであると判定し,制約条件を付加した認識処理による文字列を認識結果の価格情報とする。 The blocks specified in S450 include a price area block (including tax price area), a product identification information such as a manufacturer name and a product name, and an information area block such as a rating. Then, two types of OCR recognition processing are executed for each block. For the block of information areas such as product identification information such as manufacturer name, product name, and rating, the standard OCR recognition process recognizes character strings, and the OCR recognition process with constraints often includes characters that contain errors. It becomes a column. In this case, it is determined whether the recognition results of the two recognition processes are different from each other by a predetermined value or more. If they are different, the character string executed in the standard OCR recognition process is used as the recognition result, and the price area (price area including tax) It is determined that the block is other than this block. On the other hand, for the price area (tax-included price area) block, the character string of price information is recognized in the standard OCR recognition process, and the character string of price information is also recognized in the OCR recognition process with constraints. In this case, it is determined whether the recognition results of the two recognition processes are different from each other by a predetermined value or more. If they are not different, it is determined that the block is a price area (tax-included price area), and the restriction process is added. The character string is used as price information of the recognition result.
以上のようにして商品タグ内情報特定処理部27は,商品タグに記載した情報を文字認識することができる。 As described above, the in-product tag information identification processing unit 27 can perform character recognition on the information described in the product tag.
なお,商品タグ特定処理部26で第2の方法を用いた場合には,テンプレートとした商品タグには,あらかじめ税抜価格,税込価格,メーカー名,商品名などの商品識別情報,定格がそれぞれ表記される文字枠の位置,サイズが設定されている。そのため,商品タグ特定処理部26で特定した商品タグ領域から,該当箇所の画像情報を切り出し,OCR認識処理を実行すればよい。 When the second method is used in the product tag identification processing unit 26, the product tag used as a template has product identification information such as a tax-excluded price, a tax-included price, a manufacturer name, a product name, and a rating in advance. The position and size of the character frame to be displayed are set. Therefore, it is only necessary to cut out the image information of the corresponding part from the product tag area specified by the product tag specification processing unit 26 and execute the OCR recognition process.
そして商品タグ内情報特定処理部27は,特定した商品名等との辞書照合処理を実行する(S470)。すなわち,読み取った文字列と,商品辞書における各商品名などの商品識別情報との編集距離を求め,最小の編集距離の商品名などの商品識別情報を特定し,それがあらかじめ定めた所定距離内であれば商品名などの商品識別情報として同定する。そして,読み取った文字列から最短の編集距離の商品名部分を取り除き,残りの部分文字列に対し,定格辞書における各定格との編集距離を求め,最小の編集距離が所定距離内であるかを判定して,所定距離内にあればその部分を定格の文字列として同定する。同様に,読み取った文字列から最小の編集距離の商品名部分と定格部分を取り除き,残りの部分文字列に対し,メーカー名辞書における各メーカー名との編集距離を求め,最小の編集距離が所定距離内であるかを判定して,所定距離内にあればその部分をメーカー名の文字列として同定する。 Then, the in-product tag information specifying unit 27 executes a dictionary matching process with the specified product name or the like (S470). That is, the edit distance between the read character string and the product identification information such as each product name in the product dictionary is obtained, and the product identification information such as the product name of the minimum editing distance is specified, and it is within a predetermined distance. If so, it is identified as product identification information such as a product name. Then, the product name portion with the shortest edit distance is removed from the read character string, and the edit distance with each rating in the rating dictionary is obtained for the remaining partial character strings, and whether the minimum edit distance is within the predetermined distance. If it is within the predetermined distance, the portion is identified as a rated character string. Similarly, the product name part and the rated part with the minimum editing distance are removed from the read character string, and the editing distance with each manufacturer name in the manufacturer name dictionary is obtained for the remaining partial character string, and the minimum editing distance is determined as the predetermined distance. It is determined whether it is within the distance, and if it is within the predetermined distance, that portion is identified as a character string of the manufacturer name.
さらに,商品タグ内情報特定処理部27は,文字認識した文字列に対するロジカルチェックの処理を実行する(S480)。すなわち文字認識した文字列が論理的に矛盾しないか,などを判定する。 Further, the in-product tag information identification processing unit 27 executes a logical check process for the character string that has been character-recognized (S480). That is, it is determined whether the character strings recognized as characters are logically consistent.
ロジカルチェックの結果,矛盾がないようであれば,それぞれ認識した文字列について,税抜価格,税込価格,商品名などの商品識別情報,メーカー,定格を特定し,それらを,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報と対応づけて所定の記憶領域に記憶,出力をする。たとえば表形式で出力をする。 If there is no contradiction as a result of the logical check, specify the product identification information, manufacturer, and rating such as tax-excluded price, tax-included price, product name, etc. for each recognized character string, and identify them with the shooting date and time, store identification The information is stored and output in a predetermined storage area in association with the image information identification information of the captured image information. For example, output in tabular form.
実施例1においては,撮影画像情報から商品タグに記載される情報を読み取る場合を説明したが,さらに,陳列棚に陳列する商品の画像認識と対応づけるようにしてもよい。すなわち,陳列棚に陳列する商品の商品名などの商品識別情報を,商品タグに記載される情報からも特定し,それらを照合するようにしてもよい。 In the first embodiment, the case where the information described in the product tag is read from the photographed image information has been described. However, it may be associated with the image recognition of the product displayed on the display shelf. That is, the product identification information such as the product name of the product to be displayed on the display shelf may be specified from the information described in the product tag and collated.
この場合,実施例1の画像認識システム1は,本実施例2における画像認識システム1の一部の機能を構成する。実施例2における画像認識システム1は,撮影画像情報入力受付処理部20と,撮影画像情報記憶部21と,撮影画像情報記憶部21と,撮影画像情報正置化処理部22と,位置特定処理部23と,商品タグ認識処理部28と,陳列商品認識処理部29と,標本画像情報記憶部30と,商品識別情報記憶部31と,整合性判定処理部32と,認識結果照合処理部33とを有する。図23に,実施例2における画像認識システム1のシステム構成の一例を示す。また,図24に商品タグ認識処理部28の構成の一例を,図25に陳列商品認識処理部29の構成の一例を示す。 In this case, the image recognition system 1 according to the first embodiment constitutes a part of the functions of the image recognition system 1 according to the second embodiment. The image recognition system 1 according to the second embodiment includes a captured image information input reception processing unit 20, a captured image information storage unit 21, a captured image information storage unit 21, a captured image information alignment processing unit 22, and a position specifying process. Unit 23, product tag recognition processing unit 28, display product recognition processing unit 29, sample image information storage unit 30, product identification information storage unit 31, consistency determination processing unit 32, and recognition result matching processing unit 33. And have. FIG. 23 shows an example of the system configuration of the image recognition system 1 in the second embodiment. FIG. 24 shows an example of the configuration of the product tag recognition processing unit 28, and FIG. 25 shows an example of the configuration of the display product recognition processing unit 29.
画像認識システム1における管理端末2は,撮影画像情報入力端末4とネットワークを介して情報の送受信が可能である。 The management terminal 2 in the image recognition system 1 can transmit / receive information to / from the captured image information input terminal 4 via the network.
撮影画像情報入力受付処理部20,撮影画像情報記憶部21,撮影画像情報正置化処理部22は,実施例1と同様である。 The captured image information input acceptance processing unit 20, the captured image information storage unit 21, and the captured image information normalization processing unit 22 are the same as those in the first embodiment.
位置特定処理部23は,実施例1における位置特定処理部23の機能に加え,棚段の領域(棚段領域)を特定する。すなわち,撮影画像情報および正置画像情報に写っている陳列棚のうち,商品が陳列される棚段領域と,そこに陳列される商品に対する商品タグが取り付けられている商品タグ配置領域とがある。そのため,正置画像情報から商品タグ配置領域と棚段領域とを特定する。商品タグ配置領域,棚段領域の特定としては,管理端末2の操作者が手動で商品タグ配置領域,棚段領域を指定し,それを位置特定処理部23が受け付けてもよいし,初回に手動で入力を受け付けた商品タグ配置領域,棚段領域の情報に基づいて,二回目以降は自動で商品タグ配置領域,棚段領域を特定してもよい。 In addition to the function of the position specification processing unit 23 in the first embodiment, the position specification processing unit 23 specifies a shelf area (shelf stage area). That is, among the display shelves shown in the photographed image information and the in-place image information, there are a shelf area where products are displayed and a product tag placement area where product tags for the products displayed there are attached. . Therefore, the product tag placement area and the shelf area are specified from the in-place image information. For specifying the product tag placement area and the shelf area, the operator of the management terminal 2 may manually specify the product tag placement area and the shelf area, and the position identification processing unit 23 may accept them. The product tag placement area and the shelf area may be automatically specified after the second time based on the information of the product tag placement area and the shelf area that have been manually input.
商品タグ認識処理部28は,商品タグの認識処理を実行する。すなわち,実施例1の画像認識システム1における商品タグ配置領域切出処理部24,商品タグ配置領域正置化処理部25,商品タグ特定処理部26,商品タグ内情報特定処理部27の各処理を実行する。各処理部における処理は,実施例1の画像認識システム1の場合と同様である。 The product tag recognition processing unit 28 executes product tag recognition processing. That is, each process of the product tag arrangement area extraction processing unit 24, the product tag arrangement area regularization processing unit 25, the product tag identification processing unit 26, and the in-product tag information identification processing unit 27 in the image recognition system 1 of the first embodiment. Execute. The processing in each processing unit is the same as in the case of the image recognition system 1 of the first embodiment.
陳列商品認識処理部29は,撮影画像情報に写っている陳列棚における棚段に陳列されている商品を認識する処理を実行する。陳列商品認識処理部29は,棚段領域切出処理部291とフェイス特定処理部292と商品識別情報特定処理部293と棚段画像マッチング処理部294とを有する。 The display merchandise recognition processing unit 29 executes a process of recognizing the merchandise displayed on the shelves in the display shelves shown in the photographed image information. The display product recognition processing unit 29 includes a shelf area extraction processing unit 291, a face identification processing unit 292, a product identification information identification processing unit 293, and a shelf image matching processing unit 294.
棚段領域切出処理部291は,位置特定処理部23で特定した棚段の領域の画像情報を棚段領域画像情報として切り出す。棚段領域切出処理部291は,実際に,画像情報として切り出してもよいし,実際には画像情報としては切り出さずに,仮想的に切り出すのでもよい。なお,陳列棚に棚段が複数ある場合には,それぞれが棚段領域画像情報として切り出される。 The shelf area extraction processing unit 291 extracts the image information of the shelf area specified by the position specification processing unit 23 as the shelf area image information. The shelf area cutout processing unit 291 may actually cut out as image information, or may cut out virtually without cutting out as image information. When there are a plurality of shelves on the display shelf, each is cut out as shelf area image information.
フェイス特定処理部292は,正置画像情報における棚段領域における棚段ごとに,商品が置かれているフェイス(商品が置かれている領域)を特定する。フェイス特定処理部292は,初回のフェイスの特定処理と,二回目以降のフェイスの特定処理とに分かれる。 The face identification processing unit 292 identifies the face on which the product is placed (the region on which the product is placed) for each shelf in the shelf area in the in-place image information. The face identification processing unit 292 is divided into an initial face identification process and a second and subsequent face identification process.
フェイス特定処理部292における初回のフェイスの特定処理は,位置特定処理部23で特定した棚段の座標で構成される領域(好ましくは矩形領域)の範囲内において,商品が置かれている領域(フェイス)を特定する。具体的には,商品と商品との間に生じる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスの領域を特定する。フェイスの特定処理としては,商品のカテゴリや商品の形態によって,任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイスに対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイスの位置の入力を受け付けるのでもよい。特定したフェイスを構成する領域の座標は,正置画像情報におけるフェイスの領域の座標に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報とを対応づけて管理する。またフェイスの領域を示す座標としては,矩形領域を特定するために必要な頂点の座標であり,たとえば4点,または右上と左下,左上と右下の2点の座標でよい。 The first face identification processing in the face identification processing unit 292 is an area where products are placed within a range (preferably a rectangular area) composed of shelf coordinates identified by the position identification processing unit 23 (preferably a rectangular area). Face). Specifically, the narrow and narrow shadows that occur between products are specified, the image repeat pattern is specified, the top edge of the package is specified, the product width is the same, and so on. The face area is specified by specifying the position. As the face identification processing, any method can be adopted depending on the product category and the product form, and the method is not limited to the above. Moreover, you may receive the correction input by a person in charge with respect to the face identified automatically. Furthermore, an input of the face position from the person in charge may be accepted. The coordinates of the area constituting the identified face are the shooting area information, the store information, the image information identification information of the captured image information, the image identification information of the in-place image information, the face, and the coordinates of the face area in the in-place image information. The face identification information for identification is associated and managed. The coordinates indicating the face area are the coordinates of the vertices necessary for specifying the rectangular area. For example, the coordinates may be four points, or the coordinates of two points, upper right and lower left, upper left and lower right.
フェイス特定処理部292における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とする。 In the face identification processing for the second time and thereafter in the face identification processing unit 292, the coordinates of the area of the face specified by the previous (N-1th) in-place image information for the same shelf of the same display shelf are the current ( The coordinates of the face area specified by the (Nth) position image information are used.
フェイスの領域の座標は,棚段の位置の座標と同様に,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。 The coordinates of the face area are relative coordinates with reference to a predetermined position in the image information (for example, the vertex C1 at the upper left of the display shelf) such as a display shelf in the in-place image information, similarly to the coordinates of the shelf position.
商品識別情報特定処理部293は,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報を特定する。商品識別情報としては,商品名のほか,その商品に対して割り当てられているJANコードなどがあるが,それに限定されない。商品を識別することができる情報であればいかなるものでもよい。 The product identification information specifying processing unit 293 specifies the product identification information of the product displayed on the face for each shelf of the display shelf. The product identification information includes, in addition to the product name, a JAN code assigned to the product, but is not limited thereto. Any information can be used as long as it can identify the product.
商品識別情報特定処理部293は,以下のような処理を実行する。すなわち,フェイスごとに,フェイスの画像情報と,後述する標本画像情報記憶部30に記憶する商品の標本画像情報とマッチングすることで,そのフェイスに表示されている商品の商品識別情報を特定する。具体的には,まず,処理対象となるフェイスの座標で構成される領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報との類似性を判定し,その類似性がもっとも高い標本画像情報に対応する商品識別情報を,上記座標で構成されるフェイスに表示されている商品の商品識別情報として特定をする。 The product identification information specifying processing unit 293 executes the following processing. That is, for each face, the product identification information of the product displayed on the face is specified by matching the image information of the face with the sample image information of the product stored in the sample image information storage unit 30 described later. Specifically, first, the similarity between the image information of the area formed by the coordinates of the face to be processed and the sample image information stored in the sample image information storage unit 30 is determined, and the similarity is the highest. The product identification information corresponding to the sample image information is specified as the product identification information of the product displayed on the face constituted by the coordinates.
ここでフェイスの画像情報と標本画像情報との類似性を判定するには,以下のような処理を行う。まず,商品識別情報特定処理部293における商品識別情報の特定処理の前までの処理において,正置画像情報の棚段におけるフェイスの領域の画像情報と,標本画像情報との方向が同じ(横転や倒立していない)となっており,また,それぞれの画像情報の大きさがおおよそ同じとなっている(所定範囲以上で画像情報の大きさが異なる場合には,類似性の判定の前にそれぞれの画像情報の大きさが所定範囲内となるようにサイズ合わせをしておく)。そして,フェイスの画像情報と,標本画像情報との類似性は,フェイスの画像情報の画像特徴量(たとえば局所特徴量)に基づく特徴点と,標本画像情報との画像特徴量(たとえば局所特徴量)に基づく特徴点を,それぞれ抽出する。そして,フェイスの画像情報の特徴点と,標本画像情報の特徴点とでもっとも類似性が高いペアを検出し,それぞれで対応する点の座標の差を求める。そして,差の平均値を求める。差の平均値は,フェイスの画像情報と,標本画像情報との全体の平均移動量を示している。そして,すべての特徴点のペアの座標差を平均の座標差と比較し,外れ度合いの大きなペアを除外する。そして,残った対応点の数で類似性を順位付ける。 Here, in order to determine the similarity between the face image information and the sample image information, the following processing is performed. First, in the process before the product identification information specifying process in the product identification information specifying processing unit 293, the image information of the face area in the shelf of the in-place image information and the sample image information have the same direction (the rollover or In addition, the size of each image information is approximately the same (if the size of the image information is different within a predetermined range, before each similarity determination, The image information is adjusted so that the size of the image information is within a predetermined range). The similarity between the face image information and the sample image information is determined by the image feature amount (for example, local feature amount) between the feature point based on the image feature amount (for example, local feature amount) of the face image information and the sample image information. ) Based on each feature point. Then, a pair having the highest similarity between the feature point of the face image information and the feature point of the sample image information is detected, and the difference between the coordinates of the corresponding points is obtained. Then, the average value of the differences is obtained. The average value of the difference indicates the total average movement amount between the face image information and the sample image information. Then, the coordinate differences of all feature point pairs are compared with the average coordinate difference, and pairs with a large degree of deviation are excluded. Then, the similarity is ranked by the number of remaining corresponding points.
以上のような方法でフェイスの画像情報と,標本画像情報との類似性を算出できる。また,その精度を向上させるため,さらに,色ヒストグラム同士のEMD(Earth Movers Distance)を求め,類似性の尺度としてもよい。これによって,撮影された画像情報の明度情報等の環境変化に比較的強い類似性の比較を行うことができ,高精度で特定をすることができる。なお,類似性の判定は,上述に限定をするものではない。特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The similarity between the face image information and the sample image information can be calculated by the method as described above. Further, in order to improve the accuracy, an EMD (Earth Moves Distance) between color histograms may be obtained and used as a measure of similarity. As a result, it is possible to compare comparatively strong similarities to environmental changes such as brightness information of photographed image information, and to specify with high accuracy. Note that the similarity determination is not limited to the above. The identified product identification information is associated with the shooting date / time information, the store information, the image information identification information of the captured image information, the image identification information of the in-place image information, and the face identification information for identifying the face. 31.
以上のようにして特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The product identification information specified as described above is associated with shooting date / time information, store information, image information identification information of captured image information, image identification information of in-place image information, and face identification information for identifying a face. Store in the product identification information storage unit 31.
棚段画像マッチング処理部294は,前回(N−1回目)の正置画像情報における棚段の領域の画像情報と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づいて,その類似性が高ければその棚段における各フェイスの商品識別情報は同一と判定する。この類似性の判定処理は,上述のように,前回(N−1回目)の正置画像情報における棚段の領域の画像情報の画像特徴量と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づく類似性の判定でもよいし,色ヒストグラム同士のEMDを用いたものであってもよい。また,それらに限定するものではない。そして,商品識別情報特定処理部293におけるフェイス単位ごとの特定処理ではなく,商品識別情報特定処理部293に,N回目の正置画像情報におけるその棚段における各フェイスの商品識別情報を,N−1回目の同一の棚段における各フェイスの商品識別情報と同一として,商品識別情報記憶部31に記憶させる。これによって,あまり商品の動きがない棚段や逆にきわめて短いサイクルで管理される棚段など,変化がほとんど生じない棚段についての処理を省略することができる。なお,棚段画像マッチング処理部294による処理は設けなくてもよい。 The shelf image matching processing unit 294 includes image information on the shelf area in the previous (N-1) th in-place image information, and image information on the shelf area in the current (Nth) in-place image information. If the similarity is high, the product identification information of each face on the shelf is determined to be the same. As described above, this similarity determination processing is performed in the image feature amount of the image information of the shelf area in the previous (N-1) th in-place image information and the current (Nth) in-place image information. Similarity determination based on image information of a shelf area may be used, or EMD between color histograms may be used. Moreover, it is not limited to them. Then, instead of the identification process for each face unit in the merchandise identification information identification processing unit 293, the merchandise identification information identification processing unit 293 stores the merchandise identification information of each face on the shelf in the N-th in-place image information as N- The product identification information storage unit 31 stores the same as the product identification information of each face in the same first shelf. As a result, it is possible to omit processing for a shelf that hardly changes, such as a shelf that does not move much or a shelf that is managed in a very short cycle. Note that the processing by the shelf image matching processing unit 294 may not be provided.
標本画像情報記憶部30は,正置画像情報に写っている陳列棚の棚段における各フェイスの商品がどの商品であるかを識別するための標本画像情報を記憶する。標本画像情報は,陳列棚に陳列される可能性のある商品を,上下,左右,斜めなど複数の角度から撮影をした画像情報である。図28に標本画像情報記憶部30に記憶される標本画像情報の一例を示す。図28では,標本画像情報として,缶ビールをさまざまな角度から撮影をした場合を示しているが,缶ビールに限られない。標本画像情報記憶部30は,標本画像情報と,商品識別情報とを対応付けて記憶する。 The sample image information storage unit 30 stores sample image information for identifying which product is the product of each face in the shelf of the display shelf shown in the in-place image information. The sample image information is image information obtained by photographing a product that may be displayed on a display shelf from a plurality of angles such as up and down, left and right, and diagonally. FIG. 28 shows an example of sample image information stored in the sample image information storage unit 30. FIG. 28 shows the case where canned beer is photographed from various angles as sample image information, but is not limited to canned beer. The sample image information storage unit 30 stores sample image information and product identification information in association with each other.
なお,標本画像情報記憶部30には,標本画像情報とともに,または標本画像情報に代えて,標本画像情報から抽出された,類似性の算出に必要となる情報,たとえば画像特徴量とその位置のペアの情報を記憶していてもよい。標本画像情報には,類似性の算出に必要となる情報も含むとする。この場合,商品識別情報特定処理部293は,フェイスの領域の画像情報と,標本画像情報とのマッチング処理を行う際に,標本画像情報について毎回,画像特徴量を算出せずともよくなり,計算時間を短縮することができる。 The specimen image information storage unit 30 stores information necessary for calculation of similarity extracted from the specimen image information together with the specimen image information or in place of the specimen image information, for example, image feature amounts and their positions. Pair information may be stored. The sample image information includes information necessary for calculating similarity. In this case, the product identification information specifying processing unit 293 does not have to calculate the image feature amount every time for the sample image information when performing the matching process between the image information of the face area and the sample image information. Time can be shortened.
商品識別情報記憶部31は,陳列棚の棚段の各フェイスに表示されている商品の商品識別情報を記憶する。たとえば,商品識別情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The product identification information storage unit 31 stores product identification information of products displayed on each face of the shelf of the display shelf. For example, in association with product identification information, product identification in association with shooting date / time information, store information, image information identification information of captured image information, image identification information of in-place image information, face identification information for identifying a face The information is stored in the information storage unit 31.
整合性判定処理部32は,商品タグ認識処理部28による商品タグに表示される情報の認識結果と,陳列商品認識処理部29による商品(商品識別情報)の認識結果について,各棚や各棚段に含まれている可能性の高い商品かどうかの整合性を判定する。たとえば,商品タグに表示される情報の認識結果,または商品の認識結果において,定格が350mlの商品と認識しているが,その商品の陳列棚または棚段には500mlの商品が陳列されていること定められている場合には,同一の商品名の定格を「500ml」に変更する。陳列棚または棚段に載置される商品については,あらかじめ設定されており,撮影画像情報記憶部21に記憶する撮影画像情報に対応づけられていることが好ましい。 The consistency determination processing unit 32 determines each shelf and each shelf about the recognition result of the information displayed on the product tag by the product tag recognition processing unit 28 and the recognition result of the product (product identification information) by the display product recognition processing unit 29. The consistency of whether or not the product is likely to be included in the column is determined. For example, in the recognition result of the information displayed on the product tag or the recognition result of the product, the product is recognized as a product with a rating of 350 ml, but a product of 500 ml is displayed on the display shelf or shelf of the product. If so, the rating of the same product name is changed to “500 ml”. The products placed on the display shelf or the shelf are preferably set in advance and are associated with the photographed image information stored in the photographed image information storage unit 21.
認識結果照合処理部33は,陳列商品認識処理部29において認識したフェイスごとの商品の商品識別情報と,商品タグ認識処理部28において認識した商品の情報(商品識別情報)とを突合し,認識結果が一致しているかを照合する。 The recognition result verification processing unit 33 matches the product identification information of the product for each face recognized by the display product recognition processing unit 29 with the product information (product identification information) recognized by the product tag recognition processing unit 28, and the recognition result. Checks if they match.
具体的には,まず陳列商品認識処理部29による認識処理の結果,類似性の高いフェイスが並んでいる区画を一群として,一つの棚段に何群あるかを特定する。また,それぞれの群の棚段の左右位置がどこかを特定する。そして,各群と左右位置が一致している,商品タグ認識処理部28による商品タグの認識結果の情報を,各群に対応づける。 Specifically, first, as a result of the recognition processing by the display merchandise recognition processing unit 29, the number of sections in which faces having high similarity are arranged as one group, and how many groups exist on one shelf is specified. Also, specify where the left and right positions of the shelves of each group are. And the information of the recognition result of the product tag by the product tag recognition process part 28 by which the left-right position corresponds with each group is matched with each group.
フェイスによる群と商品タグとが対応づけている場合,以下の処理を実行する。まず,商品タグ認識処理部28による商品タグの認識の結果,読み取った商品名(商品識別情報)を,尤度付きの候補商品リストに変換をする。この場合,商品A1である確率をp1,商品A2である確率をp2といったように確率に対応させて変換をする。なお,商品タグの認識結果から,メーカー名や定格情報が得られている場合には,そのメーカーの商品,その定格が存在する商品の尤度を高く設定する。また,商品タグの認識結果から価格情報が得られている場合には,その価格帯を売価としてもつ商品の尤度を高くする。さらに,税抜価格と税込価格の2つの価格が読み取られ,それらの間の比率がちょうど消費税の有無に一致しているなど,ロジカルチェックと一致している場合には,尤度を一層,高く設定する。加えて,このとき,陳列棚の棚段に陳列されている商品のジャンルなどがわかっている場合には,それらのジャンルに属する商品の尤度を高くまたは低く設定する。 When the group by face and the product tag are associated, the following processing is executed. First, as a result of product tag recognition by the product tag recognition processing unit 28, the read product name (product identification information) is converted into a candidate product list with likelihood. In this case, conversion is performed in correspondence with the probability such that the probability of the product A1 is p1, and the probability of the product A2 is p2. When the manufacturer name and rating information are obtained from the recognition result of the product tag, the likelihood of the product of the manufacturer and the product having the rating is set high. Further, when price information is obtained from the recognition result of the product tag, the likelihood of the product having the price range as the selling price is increased. In addition, if two prices, the tax-excluded price and the tax-included price, are read and the ratio between them is exactly the same as the presence or absence of the consumption tax, and the logical check matches, the likelihood is further increased. Set high. In addition, at this time, when the genres of the products displayed on the shelves of the display shelf are known, the likelihood of the products belonging to those genres is set to be high or low.
そして陳列商品認識処理部29による認識の結果,認識した商品の情報についても,同様に,画像類似性の程度に基づいて,尤度付きの候補商品リストを与える。この場合,商品B1である確率をPb1,商品B2である確率をPb2といったように確率に対応させて変換をする。 As a result of the recognition by the display merchandise recognition processing unit 29, a candidate merchandise list with likelihood is similarly given to the information of the recognized merchandise based on the degree of image similarity. In this case, conversion is performed in correspondence with the probability such that the probability of the product B1 is Pb1, and the probability of the product B2 is Pb2.
そして,商品タグの認識結果による商品A1,A2などの各候補商品のリストと,陳列商品認識処理部29の認識結果による商品B1,B2などの各候補商品のリストとを比較し,商品が両方に現れる(ケース1),A群のみに現れる(ケース2),B群のみに現れる(ケース3)のいずれかに分類をし,ケース1についてはそれぞれのA群,B群の商品の尤度を合成した,いずれよりも高い尤度とする。また,ケース2,ケース3については,商品タグ認識処理部28による商品タグの認識結果の精度と,陳列商品認識処理部29による商品情報の認識結果の精度の総意を反映させた合成関数を適用することで,最終的な尤度付きの候補商品リストを生成する。 Then, the list of candidate products such as products A1 and A2 based on the recognition result of the product tag is compared with the list of candidate products such as products B1 and B2 based on the recognition result of the display product recognition processing unit 29. (Case 1), appearing only in group A (case 2), appearing only in group B (case 3), and for case 1, the likelihood of the products in each group A and group B Is a higher likelihood than any of the above. For cases 2 and 3, a composite function reflecting the accuracy of the product tag recognition result by the product tag recognition processing unit 28 and the accuracy of the product information recognition result by the display product recognition processing unit 29 is applied. By doing so, a final candidate commodity list with likelihood is generated.
以上のように最終的な尤度付きの候補商品リストを生成することで,候補となる商品を順位づけて特定することができるので,たとえば最上位(1位)の候補となる商品を商品として確定してもよいし,1位から所定順位までの候補となる商品を表示させ,目視の判断結果の選択入力を受け付けてもよい。 By generating a final candidate product list with likelihood as described above, the candidate products can be ranked and specified. For example, the top (first) candidate product is used as the product. You may confirm, the goods which become a candidate from the 1st place to a predetermined order may be displayed, and selection input of a visual judgment result may be received.
そして,確定した商品について,再度,読み取られた価格の尤度を算出する。すなわち,税抜価格と税込価格の比率,商品の売価の範囲内か,同商品の頻出価格との一致性または乖離性を判定し,価格の尤度を決定する。そして,この尤度があらかじめ定められた閾値よりも高ければその価格を自動的に確定し,低ければその旨を表示に反映させ,選択による入力を受け付けてもよい。 Then, the likelihood of the read price is calculated again for the confirmed product. That is, the likelihood of the price is determined by determining the ratio between the price excluding tax and the price including tax, the range of the selling price of the product, and the coincidence or divergence with the frequent price of the product. If the likelihood is higher than a predetermined threshold value, the price may be automatically determined, and if the likelihood is lower, the fact may be reflected in the display and an input by selection may be accepted.
つぎに本実施例2における画像認識システム1の処理プロセスの一例を図26のフローチャートを用いて説明する。なお,実施例1と同様の処理は説明を省略する。 Next, an example of the processing process of the image recognition system 1 in the second embodiment will be described with reference to the flowchart of FIG. Note that the description of the same processing as in the first embodiment is omitted.
店舗の陳列棚が撮影された撮影画像情報(図21,図22)は,撮影画像情報入力端末4から入力され,管理端末2の撮影画像情報入力受付処理部20でその入力を受け付ける(S100)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部20は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部21に記憶させる。 The captured image information (FIGS. 21 and 22) obtained by photographing the store shelves in the store is input from the captured image information input terminal 4 and received by the captured image information input reception processing unit 20 of the management terminal 2 (S100). . Also, input of image information identification information such as shooting date / time, store identification information, and shooting image information is accepted. Then, the photographed image information input acceptance processing unit 20 stores the photographed image information, the photographing date and time, the store identification information, and the image information identification information of the photographed image information, which are accepted, in the photographed image information storage unit 21 in association with each other.
管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部22は,撮影画像情報記憶部21に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S110)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図7,図8である。 When the management terminal 2 accepts a predetermined operation input, the photographed image information normalization processing unit 22 extracts the photographed image information stored in the photographed image information storage unit 21 and is a shelf that is a vertex for performing trapezoid correction processing. The input of 4 points of the position (the position of the display shelf) is received, and the keystone correction process is executed (S110). An example of the captured image information (normal image information) on which the trapezoid correction processing is executed in this way is shown in FIGS.
そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,位置特定処理部23は,棚段領域および商品タグ配置領域を特定する(S120)。すなわち,正置画像情報における棚段領域,商品タグ配置領域の入力を受け付ける。図29および図30が,棚段領域および商品タグ配置領域が特定された状態を示す図である。 Then, by accepting a predetermined operation input in the management terminal 2 for the in-place image information, the position specification processing unit 23 specifies the shelf area and the product tag placement area (S120). That is, the input of the shelf area and the product tag arrangement area in the in-place image information is accepted. FIG. 29 and FIG. 30 are diagrams showing a state in which the shelf area and the product tag placement area are specified.
以上のようにして,棚段領域,商品タグ配置領域を特定すると,棚段領域における陳列商品の認識処理を陳列商品認識処理部29が,商品タグ配置領域における商品タグ認識処理を商品タグ認識処理部28がそれぞれ実行する。なお陳列商品認識処理部29における陳列商品の認識処理,商品タグ認識処理部28による商品タグ認識処理は,並行して行ってもよいし,異なるタイミングで行ってもよい。 As described above, when the shelf region and the product tag placement area are specified, the display product recognition processing unit 29 performs the display product recognition process in the shelf region, and the product tag recognition process in the product tag placement region. Each unit 28 executes. Note that the display product recognition processing in the display product recognition processing unit 29 and the product tag recognition processing by the product tag recognition processing unit 28 may be performed in parallel or at different timings.
商品タグ認識処理部28における商品タグ認識処理(S130乃至S160)は,実施例1と同様である。すなわち,商品タグ認識処理部28における商品タグ配置領域切出処理部24はS120で特定した商品タグ配置領域の画像情報を切り出し(S130),商品タグ配置領域正置化処理部25が台形補正処理を実行することで,正置化処理を実行する(S140)。 The product tag recognition process (S130 to S160) in the product tag recognition processing unit 28 is the same as that in the first embodiment. That is, the product tag placement area extraction processing unit 24 in the product tag recognition processing unit 28 cuts out image information of the product tag placement area specified in S120 (S130), and the product tag placement area alignment processing unit 25 performs the keystone correction process. Is executed to execute the normalization process (S140).
S140において商品タグ配置領域の正置化処理が終了すると,商品タグ認識処理部28における商品タグ特定処理部26が,正置化した商品タグ配置領域の画像情報から,個々の商品タグ領域を特定する(S150)。 When the normalization processing of the product tag placement area is completed in S140, the product tag identification processing section 26 in the product tag recognition processing section 28 identifies individual product tag areas from the image information of the placed product tag placement area. (S150).
商品タグ特定処理部26が商品タグ領域を特定すると,商品タグ内情報特定処理部27が,商品タグ内における情報を特定する(S160)。この特定によって,商品タグに記載した情報,たとえば税抜価格,税込価格,商品名(商品識別情報),定格などの情報を文字認識することができる。 When the product tag specification processing unit 26 specifies the product tag area, the product tag internal information specification processing unit 27 specifies information in the product tag (S160). By this specification, it is possible to character-recognize information described in the product tag, such as information including tax-excluded price, tax-included price, product name (product identification information), and rating.
つぎに陳列商品認識処理部29による陳列商品の認識処理を説明する。 Next, display product recognition processing by the display product recognition processing unit 29 will be described.
棚段領域切出処理部291は,S120で入力を受け付けた棚段の領域に基づいて,正置画像情報から棚段領域の画像情報を切り出す(S170)。そして,棚段領域画像情報における棚段ごとに,フェイスを特定する処理を実行する(S180)。具体的には,棚段領域における棚段について,4点の座標で構成される矩形領域の範囲内において,商品と商品との間に生ずる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスを特定する。特定したフェイスには,フェイスを識別するためのフェイス識別情報を付す。そして,特定した各フェイスの座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイスを識別するためのフェイス識別情報と対応付けて記憶させる。なお,フェイスの座標は4点を記憶せずとも,矩形領域を特定可能な2点であってもよい。 The shelf area extraction processing unit 291 extracts the image information of the shelf area from the in-place image information based on the shelf area received in S120 (S170). Then, a process for specifying a face is executed for each shelf in the shelf area image information (S180). Specifically, for the shelves in the shelf area, identify the narrow and narrow shadow that occurs between the products within the rectangular area consisting of the coordinates of the four points. The face is specified by specifying a step on the upper side of the package, specifying a separation position based on constraints such as the same product width, and the like. Face identification information for identifying the face is attached to the specified face. The coordinates of each identified face are stored in association with the shooting date and time, the store identification information, the image information identification information of the photographed image information, the image information identification information of the in-place image information, and the face identification information for identifying the face. Let The coordinates of the face may be two points that can specify a rectangular area without storing four points.
以上のように正置画像情報の棚段位置領域画像情報における各棚段の各フェイスを特定すると,商品識別情報特定処理部293は,フェイスごとに,標本画像情報記憶部30に記憶する標本画像情報とマッチング処理を実行し,そのフェイスに表示されている商品の商品識別情報を特定する(S190)。すなわち,ある棚段のフェイスの矩形領域(この領域のフェイスのフェイス識別情報をXとする)における画像情報と,標本画像情報記憶部30に記憶する各標本画像情報とから,それぞれの画像特徴量を算出し,特徴点のペアを求めることで,類似性を判定する。そして,もっとも類似性の高い標本画像情報を特定し,そのときの類似性があらかじめ定められた閾値以上であれば,その標本画像情報に対応する商品識別情報を標本画像情報記憶部30に基づいて特定する。そして,特定した商品識別情報を,そのフェイス識別情報Xのフェイスに表示されている商品の商品識別情報とする。そして商品識別情報特定処理部293は,特定した商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて商品識別情報記憶部31に記憶する(S200)。 As described above, when each face of each shelf in the shelf position area image information of the in-place image information is specified, the product identification information specifying processing unit 293 stores the sample image stored in the sample image information storage unit 30 for each face. The information and the matching process are executed, and the product identification information of the product displayed on the face is specified (S190). That is, each image feature amount is determined from image information in a rectangular area of a face of a certain shelf (face identification information of the face of this area is X) and each sample image information stored in the sample image information storage unit 30. Is calculated, and similarity is determined by obtaining a pair of feature points. Then, the sample image information with the highest similarity is specified, and if the similarity at that time is equal to or greater than a predetermined threshold, the product identification information corresponding to the sample image information is based on the sample image information storage unit 30. Identify. Then, the specified product identification information is set as product identification information of the product displayed on the face of the face identification information X. Then, the product identification information identification processing unit 293 associates the identified product identification information with the shooting date and time, the store identification information, the image information identification information of the captured image information, the image information identification information of the in-place image information, and the face identification information. It memorize | stores in the merchandise identification information storage part 31 (S200).
なお,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイスについては,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。また,特定した商品識別情報の修正処理についても同様に,入力を受け付けてもよい。 In addition, the product identification information of all faces cannot be specified. Therefore, for a face that has not been specified, input of product identification information is accepted, and the product identification information for which input has been accepted is taken as shooting date / time, store identification information, image information identification information of captured image information, and image information of in-place image information. The product identification information storage unit 31 stores the identification information and the face identification information in association with each other. Similarly, an input may be received for the correction processing of the specified product identification information.
以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。 By performing the processing as described above, it is possible to specify the product identification information of the products displayed on the shelf of the display shelf shown in the captured image information.
このように商品タグ認識処理部28による商品タグの認識結果,陳列商品認識処理部29による陳列商品の認識結果,整合性判定処理部32が各棚,各棚段に含まれている可能性の高い商品かどうかの整合性を判定する(S210)。たとえば,商品タグの認識結果,または商品の認識結果において,定格が350mlの商品と認識しているが,その商品の陳列棚または棚段には500mlの商品が陳列されていること定められている場合には,同一の商品名の定格を「500ml」に変更する。 Thus, the product tag recognition result by the product tag recognition processing unit 28, the display result of the display product recognition by the display product recognition processing unit 29, and the possibility that the consistency determination processing unit 32 may be included in each shelf and each shelf. The consistency of whether the product is high is determined (S210). For example, the product tag recognition result or the product recognition result recognizes that the product has a rating of 350 ml, but the product display shelf or shelf has a 500 ml product displayed. In this case, the rating of the same product name is changed to “500 ml”.
また,認識結果照合処理部33は,陳列商品認識処理部29において認識したフェイスごとの商品の商品識別情報と,商品タグ認識処理部28において認識した商品の情報(商品識別情報)とを突合し,認識結果が一致しているかを照合する(S220)。 The recognition result matching processing unit 33 matches the product identification information of the product for each face recognized by the display product recognition processing unit 29 with the product information (product identification information) recognized by the product tag recognition processing unit 28, It is checked whether the recognition results match (S220).
すなわち,認識結果照合処理部33は,陳列商品認識処理部29による認識処理の結果,類似性の高いフェイスが並んでいる区画を一群として,一つの棚段に何群あるかを特定する。また,それぞれの群の棚段の左右位置がどこかを特定する。そして,各群と左右位置が一致している,商品タグ認識処理部28による商品タグの認識結果の情報を,群に対応づける。 That is, the recognition result collation processing unit 33 specifies the number of groups on one shelf as a group of sections in which faces having high similarity are arranged as a result of the recognition process by the display merchandise recognition processing unit 29. Also, specify where the left and right positions of the shelves of each group are. And the information of the recognition result of the product tag by the product tag recognition process part 28 by which the left-right position corresponds with each group is matched with a group.
このようにフェイスによる群と商品タグとの対応付け後,商品識別情報記憶部31に記憶するフェイスまたは群に対応する商品識別情報(商品名)と,商品タグ認識処理部28による商品タグの認識結果とを比較し,それらの認識結果が一致するかを特定し,また読み取った価格を確定する。 In this way, after associating the group with the product tag by the face, the product identification information (product name) corresponding to the face or group stored in the product identification information storage unit 31 and the product tag recognition by the product tag recognition processing unit 28. Compare the results with each other, identify whether the recognition results match, and determine the read price.
以上のような処理によって,陳列棚に陳列されている商品を画像認識処理によって認識した結果と,商品タグによる文字認識処理によって認識した結果とを比較して照合することができる。 Through the processing described above, the result of recognizing the product displayed on the display shelf by the image recognition processing can be compared with the result recognized by the character recognition processing by the product tag.
上述した実施例1,実施例2では,4点を指定することで台形補正処理を実行することとしたが,その基準となる頂点を毎回,指定して入力することは負担が大きい。そこで,台形補正処理の基準となる頂点を自動的に特定するように構成してもよい。この場合の処理を説明する。 In the first and second embodiments described above, the trapezoid correction process is executed by designating four points. However, it is burdensome to designate and input a vertex as a reference every time. Therefore, a configuration may be adopted in which a vertex serving as a reference for trapezoid correction processing is automatically specified. Processing in this case will be described.
この場合の撮影画像情報正置化処理部22は,初回の台形補正処理と,二回目以降の台形補正処理とに分かれる。なお,初回とは一回目のほか,頂点を自動的に特定する際のずれを修正するため,任意のタイミングで手動で行う場合も含まれる。二回目以降とは初回以外である。 In this case, the captured image information normalization processing unit 22 is divided into an initial trapezoid correction process and a second and subsequent trapezoid correction processes. In addition to the first time, the first time includes a case where it is manually performed at an arbitrary timing in order to correct a deviation when automatically specifying the vertex. The second and subsequent times are other than the first time.
撮影画像情報正置化処理部22における初回の台形補正処理は,実施例1と同様に,陳列棚の長方形の領域の4頂点の指定の入力を受け付ける。陳列棚の長方形の領域の4頂点としては,陳列棚の棚位置の4頂点であってもよいし,棚段の4頂点や商品タグを取り付ける領域の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。ここで指定を受け付けた4頂点は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。そして撮影画像情報正置化処理部22は,指定を受け付けた4頂点の座標に基づいて,撮影画像情報に対して台形補正処理を実行し,正置画像情報とする。 The first trapezoid correction process in the captured image information normalization processing unit 22 accepts input of designation of four vertices of the rectangular area of the display shelf, as in the first embodiment. The four vertices of the rectangular area of the display shelf may be the four vertices of the shelf position of the display shelf, the four vertices of the shelf stage, or the four vertices of the area to which the product tag is attached. Further, it may be the four vertices of a group of two or three shelves. The four vertices that have received the designation are stored in association with the image information identification information of the shooting date / time information, the store information, and the shot image information. Then, the captured image information normalization processing unit 22 performs trapezoidal correction processing on the captured image information based on the coordinates of the four vertices that have received the designation, thereby obtaining the in-place image information.
撮影画像情報は,一定期間ごとに,同じような領域を同じような角度で撮影がされることが望ましい。しかし完全に同じ領域を同じ角度で撮影をすることはできない。そこで,撮影画像情報正置化処理部22は,二回目以降の台形補正処理を以下のように実行をする。 It is desirable that the photographed image information is photographed in the same region at the same angle for every fixed period. However, it is not possible to photograph the same area at the same angle. Therefore, the captured image information normalization processing unit 22 executes the second and subsequent trapezoidal correction processes as follows.
まず,撮影画像情報正置化処理部22は,N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標を,前回の処理の際に記憶した情報から特定する。N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標は,撮影画像情報に対応する店舗識別情報,画像識別情報,撮影日時情報などに基づいて特定をする。そして,N−1回目の撮影画像情報に対して,特定をした4頂点の頂点座標を含む所定の大きさの矩形領域,たとえば棚段の幅の1/5程度の正方形を特徴量採取領域220として設定をする。N−1回目の撮影画像情報に対して,特徴量採取領域220を設定した状態の一例を図31に示す。特徴量採取領域220は,頂点座標を含む矩形領域であればよい。一方,陳列棚の背景同士がマッチングをしてしまうと,撮影位置が少しずれるだけで背景が大きくずれてしまう。そこで,特徴量採取領域220は,なるべく陳列棚の内側を多く含む位置に設定することが好ましい。つまり,頂点座標は,特徴量採取領域220において,特徴量採取領域220の中心点よりも陳列棚の外側方向に位置していることが好ましい。 First, the captured image information normalization processing unit 22 uses the vertex coordinates of the (N-1) th captured image information obtained by capturing the same (substantially the same) area corresponding to the Nth captured image information in the previous processing. Specify from the stored information. The vertex coordinates of the (N-1) th imaged image information obtained by imaging the same (substantially the same) area corresponding to the Nth imaged image information are stored in store identification information, image identification information, imaged date / time information, etc. corresponding to the imaged image information. Identify based on. Then, with respect to the (N-1) th captured image information, a rectangular area having a predetermined size including the identified vertex coordinates of the four vertices, for example, a square having a width of about 1/5 of the shelf width is used as the feature amount collection area 220. Set as. An example of a state in which the feature amount collection area 220 is set for the (N-1) th captured image information is shown in FIG. The feature amount collection region 220 may be a rectangular region including vertex coordinates. On the other hand, if the backgrounds of the display shelves match each other, the background will be greatly displaced by only a slight shift in the shooting position. Therefore, it is preferable to set the feature amount collection region 220 at a position including as much inside the display shelf as possible. That is, it is preferable that the vertex coordinates are located in the outer side of the display shelf in the feature amount collection region 220 than the center point of the feature amount collection region 220.
たとえば,頂点座標の4点は左上,右上,左下,右下に位置する。そして,特徴量採取領域220の矩形領域を縦横の中心でそれぞれ2分割した合計4領域に分割すると,左上の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち左上の領域に位置するように特徴量採取領域220を設定する。同様に,右上の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち右上の領域に位置するように特徴量採取領域220を設定し,左下の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち左下の領域に位置するように特徴量採取領域220を設定し,右下の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち右下の領域に位置するように特徴量採取領域220を設定する。これによって,頂点座標は,特徴量採取領域220において,特徴量採取領域220の中心点よりも陳列棚の外側方向に位置することとなる。 For example, the four vertex coordinates are located at the upper left, upper right, lower left, and lower right. Then, when the rectangular area of the feature quantity collection area 220 is divided into a total of 4 areas each divided into two at the vertical and horizontal centers, in the feature quantity collection area 220 including the upper left vertex coordinates, the vertex coordinates are the upper left areas of the rectangular areas. The feature amount collection area 220 is set so as to be located at. Similarly, in the feature quantity collection area 220 including the upper right vertex coordinates, the feature quantity collection area 220 is set so that the vertex coordinates are located in the upper right area of the rectangular area, and the feature quantity collection including the lower left vertex coordinates is performed. In the area 220, the feature quantity collection area 220 is set so that the vertex coordinates are located in the lower left area of the rectangular area. In the feature quantity collection area 220 including the lower right vertex coordinates, the vertex coordinates of the rectangular area are The feature amount collection area 220 is set so as to be located in the lower right area. As a result, the vertex coordinates are located outside the display shelf in the feature amount collection region 220 from the center point of the feature amount collection region 220.
つぎに,撮影画像情報正置化処理部22は,N回目の撮影画像情報において,N−1回目の撮影画像情報に設定した特徴量採取領域220を内包し,N−1回目の撮影画像情報の特徴量採取領域220以上の大きさの特徴量採取領域221を設定する。N回目の撮影画像情報に設定する特徴量採取領域221は,短辺の1/2の大きさは超えない。さらに,撮影画像情報よりも外側に出る場合には,その範囲をトリミングする。N回目の撮影画像情報に対して特徴量採取領域221を設定した状態の一例を図32に示す。 Next, the captured image information normalization processing unit 22 includes the feature amount collection region 220 set in the N−1th captured image information in the Nth captured image information, and the N−1th captured image information. The feature amount collection region 221 having a size larger than the feature amount collection region 220 is set. The feature amount collection area 221 set in the Nth captured image information does not exceed half the short side. Further, if the image information is outside the captured image information, the range is trimmed. FIG. 32 shows an example of a state in which the feature amount collection area 221 is set for the Nth captured image information.
そして撮影画像情報正置化処理部22は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域220において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域221において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。 Then, the captured image information normalization processing unit 22 collects local feature amounts in each feature amount collection region 220 set for the (N-1) th captured image information, and extracts feature points and their coordinates based on the local feature amounts. Memorize the set. In addition, in each feature amount collection area 221 set for the Nth captured image information, a local feature amount is collected, and a feature point based on the local feature amount and a set of coordinates thereof are stored.
撮影画像情報正置化処理部22は,N−1回目の撮影画像情報の特徴量採取領域220における特徴点の局所特徴量と,N−1回目の撮影画像情報の特徴量採取領域220に対応する位置にあるN回目の撮影画像情報の特徴量採取領域221における特徴点の局所特徴量とを比較する。そして,N−1回目の撮影画像情報の各特徴点の各局所特徴量にもっとも近い,N回目の撮影画像情報の各局所特徴量の特徴点を特定する。そしてもっとも近い局所特徴量同士の特徴点をペアとし,ペアとなる局所特徴量による特徴点の座標を対応づける。なお,この際に,局所特徴量同士の近さ(類似性)があらかじめ定められた閾値未満のペアは除外をする。これによって,N−1回目の特徴量採取領域220における局所特徴量の特徴点と,N回目の特徴量採取領域221におけるもっとも近い局所特徴量の特徴点同士のペアを特定できる。N−1回目の特徴量採取領域220の局所特徴量の特徴点と,N回目の特徴量採取領域221の局所特徴量の特徴点とのペアの関係を図33に示す。図33では,N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域221における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をCで示している。 The captured image information normalization processing unit 22 corresponds to the local feature amount of the feature point in the feature amount collection region 220 of the (N-1) th captured image information and the feature amount collection region 220 of the N-1th captured image information. The local feature amount of the feature point in the feature amount collection region 221 of the Nth captured image information at the position to be compared is compared. Then, the feature point of each local feature amount of the N-th captured image information that is closest to each local feature amount of each feature point of the N-1th captured image information is specified. Then, the feature points of the nearest local feature values are paired, and the feature point coordinates by the paired local feature values are associated. At this time, pairs whose local feature quantities are close (similarity) less than a predetermined threshold are excluded. This makes it possible to identify a pair of feature points of the local feature amount in the (N-1) th feature amount collection region 220 and a feature point of the closest local feature amount in the Nth feature amount collection region 221. FIG. 33 shows a pair relationship between the feature points of the local feature amount of the N-1th feature amount collection region 220 and the feature points of the local feature amount of the Nth feature amount collection region 221. In FIG. 33, a point group of feature points based on local feature amounts in the N-1th feature amount collection region 220 is A, and a point group of feature points based on local feature amounts in the Nth feature amount collection region 221 is B, N−. The vertex used for the first trapezoid correction process is indicated by C.
N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群Aの座標と,点群Aに対応するN回目の特徴量採取領域221における局所特徴量による特徴点の点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(アフィン変換)を求める。関数Fは,サンプリング推定を反復する,ロバスト推定の一種であるOpenCVのRANSACを利用するなどの方法があるが,それらに限定しない。なお,射影の関係にある関係線からずれが大きいペアは処理対象から除外をする。 The coordinates of the point group A of feature points based on local feature amounts in the (N-1) th feature amount collection region 220 and the point group B of feature points based on local feature amounts in the Nth feature amount collection region 221 corresponding to the point group A And a function F (affine transformation) for projecting the point group A to the point group B is obtained. The function F includes, but is not limited to, a method of repeating sampling estimation and using Ransac of OpenCV which is a kind of robust estimation. It should be noted that a pair having a large deviation from the relationship line in the projection relationship is excluded from the processing target.
撮影画像情報正置化処理部22において関数Fを求めたのち,撮影画像情報正置化処理部22は,N−1回目の台形補正処理で用いた頂点Cの座標を,関数Fに基づいてN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する。これを模式的に示すのが図34である。 After obtaining the function F in the captured image information normalization processing unit 22, the captured image information normalization processing unit 22 determines the coordinates of the vertex C used in the N−1th trapezoid correction processing based on the function F. The image information is projected onto the Nth captured image information and specified as the coordinates of the vertex D for the Nth trapezoidal correction process. This is schematically shown in FIG.
以上の処理を各特徴量採取領域220,221に対して行うことで,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定する。そして,撮影画像情報正置化処理部22は,特定した4頂点に基づいて,N回目の撮影画像情報に対する台形補正処理を実行して正置化し,正置画像情報を生成し,記憶する。この際に,撮影画像情報正置化処理部22は,正置画像情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報と対応づけて記憶をさせる。特定したN回目の撮影画像情報に対応する頂点の座標は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。 By performing the above processing on the feature amount collection regions 220 and 221, the four vertices of the shelf position for the trapezoid correction processing in the Nth captured image information are specified. Then, the captured image information normalization processing unit 22 performs trapezoidal correction processing on the Nth captured image information based on the identified four vertices to generate the correct image information and store it. At this time, the photographed image information normalization processing unit 22 corresponds to the photographed date and time information, the store information, the image information identification information of the photographed image information, and the image identification information of the regular image information in association with the regular image information. Let me remember. The coordinates of the vertex corresponding to the specified Nth captured image information are stored in association with the image information identification information of the captured date / time information, the store information, and the captured image information.
なお,撮影画像情報正置化処理部22における台形補正処理で用いる頂点の特定処理は,本発明のように陳列棚を撮影した画像情報から商品を特定する場合に限らず,同一の撮影対象物を撮影した複数の画像情報を正置化し,正置画像情報を生成する画像認識システム1にも適用することができる。これによって,同一の撮影対象物を撮影した複数の画像情報について,それぞれ正置化して,その撮影対象物の正置画像情報を生成することができる。 Note that the vertex specifying process used in the trapezoidal correction process in the captured image information normalization processing unit 22 is not limited to the case of specifying the product from the image information obtained by capturing the display shelf as in the present invention, but the same object to be captured. The present invention can also be applied to the image recognition system 1 that corrects a plurality of pieces of image information obtained by photographing the image and generates the in-place image information. As a result, a plurality of pieces of image information obtained by photographing the same object to be photographed can be arranged in order to generate in-place image information of the object to be photographed.
また,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定するため,上述では,N−1回目の撮影画像情報における特徴量採取領域220での局所特徴量による特徴点の点群Aと,N回目の撮影画像情報における特徴量採取領域221での局所特徴量による特徴点の点群Bとを用いて関数Fを求め,N−1回目の台形補正処理で用いた頂点Cの座標を,関数FによりN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する処理を説明した。しかし,かかる処理では,N−1回目の撮影画像情報と,N回目の撮影画像情報とにおいて,類似する画像情報の対応点の座標(位置)を見つければよいので,上記の方法にするものではなく,画像情報内の箇所を特定するタイプの特徴量であればいかなるものであってもよい。たとえば,画像情報内における尖った箇所,ハイライトのポイントなどがある。本明細書では,局所特徴量などの,画像情報内の箇所を特定する特徴量を画像特徴量(位置特定型画像特徴量)という。なお,本明細書の説明では,画像特徴量として,上述のように局所特徴量を用いる場合を説明する。 In addition, in order to specify the four vertices of the shelf position for the trapezoid correction process in the N-th captured image information, the feature points based on the local feature amounts in the feature amount collection region 220 in the N-1th captured image information are described above. The function F is obtained by using the point group A and the point group B of the feature points based on the local feature amounts in the feature amount collection area 221 in the N-th captured image information, and used in the N-1th trapezoid correction process. The process of projecting the coordinates of the vertex C onto the Nth captured image information by the function F and specifying the coordinates as the vertex D for the Nth trapezoid correction process has been described. However, in this process, it is only necessary to find the coordinates (positions) of corresponding points of similar image information in the (N-1) th captured image information and the Nth captured image information. However, any type of feature amount that identifies a location in the image information may be used. For example, there are sharp points in image information, highlight points, and the like. In this specification, a feature quantity that identifies a location in image information, such as a local feature quantity, is referred to as an image feature quantity (position-specific image feature quantity). In the description of the present specification, a case where the local feature amount is used as the image feature amount as described above will be described.
つぎに,実施例3における台形補正処理を行うための頂点の特定処理を説明する。この場合,任意の陳列棚を撮影した撮影画像情報において台形補正処理を行うための頂点がすでに特定されており,所定期間(たとえば一週間)経過後に,同一の陳列棚について,同じような領域を同じような角度で撮影した撮影画像情報について行う場合を説明する。 Next, a vertex specifying process for performing the trapezoidal correction process in the third embodiment will be described. In this case, the vertex for performing the trapezoidal correction process has already been specified in the captured image information obtained by photographing an arbitrary display shelf, and a similar area is defined for the same display shelf after a predetermined period (for example, one week) has elapsed. A case will be described in which captured image information is captured at the same angle.
店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末4から入力され,管理端末2の撮影画像情報入力受付処理部20でその入力を受け付ける。図35に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部20は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報を対応づけて撮影画像情報記憶部21に記憶させる。 The photographed image information obtained by photographing the display shelf of the store is input from the photographed image information input terminal 4, and the input is received by the photographed image information input reception processing unit 20 of the management terminal 2. FIG. 35 shows an example of photographed image information. Also, input of image information identification information such as shooting date / time, store identification information, and shooting image information is accepted. Then, the photographed image information input acceptance processing unit 20 stores the photographed image information, the photographing date and time, the store identification information, and the image information identification information that have received the input in association with each other in the photographed image information storage unit 21.
管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部22は撮影画像情報記憶部21に記憶する撮影画像情報を抽出し,台形補正処理を実行するための,棚位置の頂点D(D1乃至D4)を特定する処理を実行する。 When the management terminal 2 accepts a predetermined operation input, the photographed image information normalization processing unit 22 extracts the photographed image information stored in the photographed image information storage unit 21 and sets the shelf position for executing the trapezoid correction process. A process of specifying the vertex D (D1 to D4) is executed.
今回(N回目)の撮影画像情報(図35)に対応する同じまたはほぼ同じ領域を撮影した前回(N−1回目)の撮影画像情報(図36)の頂点座標(たとえば頂点座標C1乃至C4とする)を特定する。前回の撮影画像情報の頂点座標は,撮影日時,店舗識別情報,撮影画像情報の画像識別情報などに基づいて特定をすればよい。 Vertex coordinates (for example, vertex coordinates C1 to C4) of the previous (N-1) th imaged image information (FIG. 36) in which the same or substantially the same area corresponding to the current (Nth) imaged image information (FIG. 35) is imaged. Identify). The vertex coordinates of the previous photographed image information may be specified based on the photographing date / time, the store identification information, the image identification information of the photographed image information, and the like.
撮影画像情報正置化処理部22は,撮影画像情報記憶部21からN−1回目の撮影画像情報を抽出し,それぞれの頂点C1乃至C4について,頂点を一つずつ含む所定の大きさの矩形領域を特徴量採取領域220として,N−1回目の撮影画像情報に設定する。N−1回目の撮影画像情報に特徴量採取領域220を設定した状態を図36に示す。 The captured image information normalization processing unit 22 extracts the (N-1) th captured image information from the captured image information storage unit 21, and for each vertex C1 to C4, a rectangle having a predetermined size including one vertex. The region is set as the feature amount collection region 220 in the (N-1) th captured image information. FIG. 36 shows a state where the feature amount collection area 220 is set in the (N-1) th captured image information.
また,撮影画像情報正置化処理部22は,撮影画像情報記憶部21からN回目の撮影画像情報(図35)を抽出し,N−1回目の特徴量採取領域220よりも広い範囲の特徴量採取領域221を,N回目の撮影画像情報に設定する。N回目の撮影画像情報に特徴量採取領域221を設定した状態を図37に示す。N回目の撮影画像情報におけるそれぞれの特徴量採取領域221は,N−1回目の特徴量採取領域220を一つずつ含む。図37では,N回目の特徴量採取領域221に,N−1回目の特徴量採取領域220を示すことで,その包含関係を示している。 The captured image information normalization processing unit 22 extracts the Nth captured image information (FIG. 35) from the captured image information storage unit 21, and features in a wider range than the N−1th feature amount collection region 220. The quantity collection area 221 is set to the Nth captured image information. FIG. 37 shows a state in which the feature amount collection area 221 is set in the Nth captured image information. Each feature amount collection region 221 in the Nth captured image information includes one (N−1) th feature amount collection region 220. In FIG. 37, the inclusion relationship is shown by indicating the (N-1) th feature value collection region 220 in the Nth feature value collection region 221.
そして撮影画像情報正置化処理部22は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域220において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域221において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。 The captured image information normalization processing unit 22 collects local feature amounts in each feature amount collection region 220 set for the (N-1) th captured image information, and sets feature points and coordinates based on the local feature amounts. Remember. In addition, local feature amounts are collected in each feature amount collection region 221 set for the Nth captured image information, and feature points and coordinate sets based on the local feature amounts are stored.
撮影画像情報正置化処理部22は,N−1回目の撮影画像情報の特徴量採取領域220での各特徴点の各局所特徴量にもっとも近いN回目の撮影画像情報の特徴量採取領域221での局所特徴量の特徴点を特定し,それらをペアとなる局所特徴量の特徴点として,それぞれの座標を対応付ける。図33に示すのがN−1回目のN−1回目の特徴量採取領域220と,N回目の特徴量採取領域221とのペアの関係である。 The captured image information normalization processing unit 22 includes the feature amount collection region 221 of the Nth captured image information that is closest to each local feature amount of each feature point in the feature amount collection region 220 of the (N-1) th captured image information. The feature points of the local feature quantity in are identified, and the coordinates are associated with them as the feature points of the local feature quantity as a pair. FIG. 33 shows a pair relationship between the (N−1) th (N−1) th feature amount collection region 220 and the Nth feature amount collection region 221.
そして,N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域221における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をC(C1乃至C4)とすると,撮影画像情報正置化処理部22は,点群Aと点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(アフィン変換)を求める。 A point group of feature points based on the local feature amount in the N-1th feature amount collection region 220 is A, a point group of feature points based on the local feature amount in the Nth feature amount collection region 221 is B, and the N-1th time point. If the vertex used in the trapezoidal correction process is C (C1 to C4), the captured image information normalization processing unit 22 converts the point group A into the point group B based on the coordinates of the point group A and the point group B. A function F (affine transformation) to be projected onto is obtained.
そして撮影画像情報正置化処理部22は,N−1回目の台形補正処理で用いた頂点C(C1乃至C4)の座標を,求めた関数Fに基づいて射影し,N回目の台形補正処理のための頂点D(D1乃至D4)の座標として特定する。 Then, the captured image information normalization processing unit 22 projects the coordinates of the vertex C (C1 to C4) used in the (N-1) th trapezoid correction process based on the obtained function F, and the Nth trapezoid correction process. Is specified as the coordinates of the vertex D (D1 to D4).
以上の処理を各特徴量採取領域220,221に対して行うことで,N回目の台形補正処理のための4頂点D(D1乃至D4)が自動的に特定できる。特定したN回目の頂点D(D1乃至D4)の座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報に対応づけて記憶させる。特定された頂点D1乃至D4を示すのが図38である。 By performing the above processing on the feature amount collection regions 220 and 221, the four vertices D (D1 to D4) for the Nth trapezoid correction processing can be automatically specified. The coordinates of the identified Nth vertex D (D1 to D4) are stored in association with the image information identification information of the shooting date / time, the store identification information, and the captured image information. FIG. 38 shows the identified vertices D1 to D4.
以上のようにして,N回目の撮影画像情報に対する台形補正処理のための棚位置の頂点D(D1乃至D4)を特定すると,撮影画像情報正置化処理部22は,頂点D(D1乃至D4)に基づいて,N回目の撮影画像情報に対して台形補正処理を実行する。 As described above, when the vertex D (D1 to D4) of the shelf position for the trapezoidal correction process for the Nth captured image information is specified, the captured image information normalization processing unit 22 determines the vertex D (D1 to D4). ) To perform trapezoidal correction processing on the Nth captured image information.
以上のような処理を実行することで,二回目以降の台形補正処理について,台形補正処理で用いる4頂点を指定せずとも,対応する頂点を自動的に特定することができるようになり,担当者の負担を軽減することができる。 By executing the above process, the corresponding vertices can be automatically identified without specifying the four vertices used in the trapezoid correction process for the second and subsequent trapezoid correction processes. The burden on the user can be reduced.
さらに実施例2のフェイス特定処理部292におけるフェイスの特定処理の変形例を説明する。本実施例では,実施例2のフェイスの特定処理を初回の処理として,二回目以降のフェイスの特定処理として,自動的にフェイスを特定する処理を行うようにしてもよい。この場合の処理を説明する。 Furthermore, a modification of the face specifying process in the face specifying processor 292 of the second embodiment will be described. In the present embodiment, the face specifying process of the second embodiment may be the first process, and the face specifying process may be automatically performed as the second and subsequent face specifying processes. Processing in this case will be described.
なお,初回とは一回目のほか,自動的に特定する際のずれを修正するため,任意のタイミングで実施例2の処理を行う場合も含まれる。二回目以降とは初回以外である。 In addition to the first time, the first time includes a case where the processing of the second embodiment is performed at an arbitrary timing in order to correct a shift in automatic identification. The second and subsequent times are other than the first time.
フェイス特定処理部292は,実施例2の処理と同様の処理を初回のフェイスの特定処理として実行する。そして,フェイス特定処理部292における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を抽出し,その座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とする。 The face identification processing unit 292 executes the same process as that of the second embodiment as the first face identification process. Then, the face identification processing for the second and subsequent times in the face identification processing unit 292 is performed by determining the coordinates of the area of the face identified by the previous (N−1) th in-place image information for the same shelf of the same display shelf. The extracted coordinates are used as the coordinates of the face area specified by the current (Nth) in-place image information.
フェイスの領域の座標は,棚段の位置の座標と同様に,正置画像情報における,陳列棚内での所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。 The coordinates of the face area are relative coordinates based on a predetermined position (for example, the vertex C1 at the upper left of the display shelf) in the display shelf in the in-place image information, similarly to the coordinates of the position of the shelf.
さらに実施例2の変形例として,商品識別情報特定処理部293における,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報を特定する処理として,実施例2の処理を初回の商品識別情報の特定処理とし,二回目以降の商品識別情報の特定処理として,以下のような処理を実行する。 Further, as a modification of the second embodiment, the processing of the second embodiment is performed for the first time as processing for specifying the product identification information of the product displayed on the face for each shelf of the display shelf in the product identification information specifying processing unit 293. The following processing is executed as the product identification information specifying process for the second and subsequent product identification information specifying processes.
商品識別情報特定処理部293は,N回目の正置画像情報におけるフェイスの商品識別情報の特定処理は,まず処理対象となるフェイスのフェイス識別情報を特定する。特定したフェイス識別情報をXとする。そして,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,フェイス識別情報Xに対応する位置にあるN−1回目の正置画像情報における領域の画像情報とを比較する。類似性の判定については,色ヒストグラム同士のEMDを求め,類似性の尺度とすることが好ましいが,それに限定するものではない。その類似性が一定の閾値以上であれば,N−1回目の正置画像情報におけるその領域のフェイスに対応する商品識別情報を商品識別情報記憶部31から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報とする。これによって,処理対象となるN回目の正置画像情報におけるフェイス識別情報Xの商品識別情報を特定できる。もし類似性が一定の閾値未満であれば,初回の場合と同様に,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報として特定をする。 The product identification information identification processing unit 293 first identifies the face identification information of the face to be processed in the identification processing of the product identification information of the face in the N-th in-place image information. Let X denote the identified face identification information. Then, the image information of the area of the face identification information X in the Nth position image information is compared with the image information of the area in the (N−1) th position image information at a position corresponding to the face identification information X. Regarding the determination of similarity, it is preferable to obtain EMD between color histograms and use it as a measure of similarity, but it is not limited thereto. If the similarity is equal to or greater than a certain threshold, the product identification information corresponding to the face of the area in the N−1th in-place image information is extracted from the product identification information storage unit 31, and the N-th in-place image information Product identification information of the face identification information X. Thereby, the product identification information of the face identification information X in the Nth position image information to be processed can be specified. If the similarity is less than a certain threshold, the image information of the area of the face identification information X in the N-th in-place image information and the sample image information stored in the sample image information storage unit 30 are the same as in the first case. And the product identification information having the highest similarity and having the highest similarity is specified as the product identification information of the face of the face identification information X in the Nth position image information.
なお,N−1回目の正置画像情報におけるフェイスの領域の画像情報との比較において,対応するフェイスの位置との比較のみならず,所定範囲のフェイスを比較対象として含めてもよい。たとえばN回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と比較する場合,比較対象としては,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,その領域から所定範囲にあるフェイスの領域,たとえばその左右方向に一または複数離隔している位置にあるフェイス,上下の棚段に位置するフェイスの領域も含めてもよい。さらに,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,フェイス識別情報X−2,X−1,X,X+1,X+2のように,複数の隣接するフェイスの領域を含めてもよい。 In comparison with the face area image information in the (N-1) th in-place image information, not only a comparison with the corresponding face position but also a face within a predetermined range may be included as a comparison target. For example, when comparing with the image information of the area of face identification information X in the N-th position image information, the comparison object includes the area of face identification information X in the N−1-th position image information and the area. An area of a face within a predetermined range, for example, a face located at a position spaced one or more in the left-right direction, and an area of a face located on upper and lower shelves may be included. Further, in addition to the area of face identification information X in the N-1th in-place image information, a plurality of adjacent face areas such as face identification information X-2, X-1, X, X + 1, and X + 2 are included. May be.
この場合,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,N−1回目の正置画像情報における,比較対象となる範囲のフェイスの範囲の領域のそれぞれの画像情報とを比較し,もっとも類似性が高いN−1回目の正置画像情報のフェイス識別情報を特定する。なお,類似性は,類似性は一定の閾値以上であることを条件としてもよい。そして特定したN−1回目の正置画像情報のフェイス識別情報に対応する商品識別情報を商品識別情報記憶部31から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報とする。この処理を模式的に示すのが図27である。図27(a)は前回(N−1回目)の正置画像情報であり,図27(b)は今回(N回目)の正置画像情報である。そして,N回目の正置画像情報の棚段1の各フェイスの領域の画像情報と,N−1回目の正置画像情報の棚段1の各フェイスの領域の画像情報とをそれぞれ比較することで類似性を判定し,もっとも類似性が高いN−1回目の正置画像情報の棚段1のフェイスの商品識別情報を,N回目の正置画像情報の棚段1のフェイスの商品識別情報として特定をすることを示す。図27では,N回目の正置画像情報のフェイスに対応する位置にあるN−1回目の正置画像情報のフェイスに加え,その左右2つずつのフェイスとの比較を行う場合を示している。なお同一棚段のみならず,上下の棚段のフェイス位置の画像情報との比較を行ってもよい。たとえば図27の場合,N回目の正置画像情報の棚段2の中心のフェイス位置の商品識別情報を特定する際に,N−1回目の正置画像情報の棚段2の中心およびその左右2つずつのフェイスの領域の画像情報と比較するのみならず,N−1回目の正置画像情報の棚段1の中心およびその左右2つずつのフェイスの領域の画像情報,N−1回目の正置画像情報の棚段3の中心およびその左右2つずつのフェイスの領域の画像情報と類似性の比較を行ってもよい。 In this case, the image information of the area of the face identification information X in the Nth position image information, and the image information of the area of the face range of the range to be compared in the N−1th position image information, And the face identification information of the N-1th in-place image information with the highest similarity is specified. Note that the similarity may be a condition that the similarity is equal to or greater than a certain threshold. Then, the product identification information corresponding to the identified face identification information of the N-1th in-place image information is extracted from the product identification information storage unit 31, and the product identification information of the face identification information X in the N-th in-position image information To do. This process is schematically shown in FIG. FIG. 27A shows the previous (N-1th) in-place image information, and FIG. 27B shows the current (N-th) in-place image information. Then, the image information of each face area of the shelf 1 of the N-th position image information is compared with the image information of each face area of the shelf 1 of the N-1th position image information, respectively. And the product identification information of the face of shelf 1 in the N-1th in-place image information with the highest similarity is the product identification information of the face in shelf 1 of the N-th in-place image information. To identify as. FIG. 27 shows a case where comparison is made between two faces on the left and right sides in addition to the face of the N−1th position image information at the position corresponding to the face of the Nth position image information. . In addition, you may compare with the image information of the face position of not only the same shelf but an upper and lower shelf. For example, in the case of FIG. 27, when specifying the product identification information of the face position at the center of the shelf 2 of the N-th position image information, the center of the shelf 2 of the N-th position image information and its left and right In addition to comparison with the image information of the face area of each two faces, the image information of the center area of the shelf 1 of the N-1th in-place image information and the face areas of the two left and right sides, the (N-1) th time. Similarity may be compared with the image information of the center of the shelf 3 of the in-place image information and the two face areas on the left and right.
N−1回目の正置画像情報のフェイスの画像情報との比較の結果,類似性が閾値を充足しないなどによって商品識別情報を特定できなかった場合には,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報として特定をする。この場合の類似性の判定処理は,初回の商品識別情報の特定処理と同様に行える。 If the product identification information cannot be specified due to the similarity not satisfying the threshold value as a result of the comparison with the face image information of the N-1th position image information, the face in the Nth position image information The image information in the region of the identification information X is compared with the sample image information stored in the sample image information storage unit 30, and the product identification information having the highest similarity that is equal to or higher than a predetermined threshold is represented by N It is specified as the product identification information of the face of the face identification information X in the second in-place image information. The similarity determination process in this case can be performed in the same manner as the initial product identification information specifying process.
以上のようにして特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The product identification information specified as described above is associated with shooting date / time information, store information, image information identification information of captured image information, image identification information of in-place image information, and face identification information for identifying a face. Store in the product identification information storage unit 31.
なお本発明の画像認識システム1の実施例1乃至実施例5において,各処理部における処理対象となる画像情報については,それぞれ前処理として正置化処理などが実行されていることで精度を向上させることができ,上述の各実施例ではその場合を説明した。しかし,必ずしも処理対象となる画像情報について正置化処理が実行されている必要はなく,その場合は,各処理部における処理対象となるのは,正置化処理が実行されていない場合の画像情報である。たとえば,位置特定処理部23,商品タグ配置領域切出処理部24,商品タグ配置領域正置化処理部25,商品タグ特定処理部26,商品タグ内情報特定処理部27,商品タグ認識処理部28,陳列商品認識処理部29,棚段領域切出処理部291,フェイス特定処理部292,商品識別情報特定処理部293,棚段画像マッチング処理部294において,正置化処理が実行されていない画像情報を処理対象としてもよい。この場合,正置化処理が実行されていなくても,商品を陳列した陳列棚が写っている画像情報に対する処理を実行すればよい。なお,商品を陳列した陳列棚が写っている画像情報には,正置化処理をした画像情報,正置化処理をしていない画像情報の双方が含まれる。 In the first to fifth embodiments of the image recognition system 1 according to the present invention, the accuracy of the image information to be processed in each processing unit is improved by executing a normalization process or the like as a pre-process. In the above-described embodiments, such a case has been described. However, it is not always necessary to perform the normalization process on the image information to be processed. In this case, the processing target in each processing unit is an image when the normalization process is not performed. Information. For example, the position specification processing unit 23, the product tag placement area extraction processing unit 24, the product tag placement area correct processing unit 25, the product tag specification processing unit 26, the product tag internal information specification processing unit 27, and the product tag recognition processing unit 28. In the display product recognition processing unit 29, the shelf area extraction processing unit 291, the face identification processing unit 292, the product identification information identification processing unit 293, and the shelf image matching processing unit 294, the alignment processing is not executed. Image information may be processed. In this case, it is only necessary to execute processing for image information in which display shelves displaying products are displayed even if the normalization processing is not executed. Note that the image information showing the display shelves displaying the merchandise includes both the image information subjected to the normalization process and the image information not subjected to the normalization process.
本発明の画像認識システム1を用いることによって,陳列棚に陳列されている商品を精度よく特定することができる。 By using the image recognition system 1 of the present invention, it is possible to accurately specify the products displayed on the display shelf.
1:画像認識システム
2:管理端末
4:撮影画像情報入力端末
20:撮影画像情報入力受付処理部
21:撮影画像情報記憶部
22:撮影画像情報正置化処理部
23:位置特定処理部
24:商品タグ配置領域切出処理部
25:商品タグ配置領域正置化処理部
26:商品タグ特定処理部
27:商品タグ内情報特定処理部
28:商品タグ認識処理部
29:陳列商品認識処理部
30:標本画像情報記憶部
31:商品識別情報記憶部
32:整合性判定処理部
33:認識結果照合処理部
220:N−1回目の画像情報における特徴量採取領域
221:N回目の画像情報における特徴量採取領域
291:棚段領域切出処理部
292:フェイス特定処理部
293:商品識別情報特定処理部
294:棚段画像マッチング処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
1: Image recognition system 2: Management terminal 4: Captured image information input terminal 20: Captured image information input reception processing unit 21: Captured image information storage unit 22: Captured image information alignment processing unit 23: Position specifying processing unit 24: Product tag placement area cutout processing unit 25: Product tag placement region alignment processing unit 26: Product tag specification processing unit 27: Product tag information specification processing unit 28: Product tag recognition processing unit 29: Displayed product recognition processing unit 30 : Sample image information storage unit 31: Product identification information storage unit 32: Consistency determination processing unit 33: Recognition result collation processing unit 220: Feature amount collection region 221 in the N-1th image information Feature in the Nth image information Quantity collection area 291: shelf area extraction processing unit 292: face identification processing section 293: product identification information identification processing section 294: shelf image matching processing section 70: arithmetic device 71: storage device 7 : Display device 73: input device 74: communication device
Claims (19)
前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ特定処理部は,
前記画像情報の明度情報を用いて商品タグ領域を特定し,
前記商品タグ内情報特定処理部は,
前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,
特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,
前記特定したブロックに対して前記OCR認識処理を実行し,
前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識システム。 A product tag identification processing unit for identifying a product tag area in image information in which display shelves displaying products are shown;
An in-product tag information specifying processing unit for specifying information described in the product tag by performing OCR recognition processing in the specified product tag area,
The product tag identification processing unit
Identify the product tag area using the brightness information of the image information,
The product tag information identification processing unit
The box is specified by binarizing the specified product tag area and performing a labeling process,
Among the identified boxes, identify the boxes that satisfy the specified condition as blocks,
Performing the OCR recognition process on the identified block;
The tax-excluded price and the tax-included price are specified by executing a logical consistency determination process for the two price information specified by the OCR recognition process .
An image recognition system characterized by that.
前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ特定処理部は,
前記画像情報の明度情報を横方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,商品タグの上辺位置,下辺位置を特定し,
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,立ち上がりから所定距離内にある立ち下がりをペアとして商品タグの左辺位置,右辺位置を特定する,
ことを特徴とする画像認識システム。 A product tag identification processing unit for identifying a product tag area in image information in which display shelves displaying products are shown;
An in-product tag information specifying processing unit for specifying information described in the product tag by performing OCR recognition processing in a part or all of the specified product tag area,
The product tag identification processing unit
By specifying the rise and fall of the histogram obtained by integrating the lightness information of the image information in the horizontal direction, the upper side position and the lower side position of the product tag are specified,
By specifying the rise and fall of the histogram obtained by integrating the brightness information of the image information in the vertical direction, the left side position and the right side position of the product tag are specified as a pair of the fall within a predetermined distance from the rise.
An image recognition system characterized by that.
前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ特定処理部は,
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がりのうち,ペアを形成できなかった立ち上がりについてその右側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定し,
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち下がりのうち,ペアを形成できなかった立ち下がりについてその左側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定する,
ことを特徴とする画像認識システム。 A product tag identification processing unit for identifying a product tag area in image information in which display shelves displaying products are shown;
An in-product tag information specifying processing unit for specifying information described in the product tag by performing OCR recognition processing in a part or all of the specified product tag area,
The product tag identification processing unit
Among the rises of the histogram obtained by integrating the brightness information of the image information in the vertical direction, if there is no tag area within a predetermined distance on the right side of the rise that could not form a pair, the product information is specified as a product tag area.
Among the falling edges of the histogram obtained by integrating the brightness information of the image information in the vertical direction, if there is no tag area within a predetermined distance on the left side of the falling edge that could not form a pair, it is specified as a product tag area.
An image recognition system characterized by that.
前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ内情報特定処理部は,
前記特定した商品タグ領域において二値化処理を実行し,
前記二値化処理した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,
前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,
前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,
ことを特徴とする画像認識システム。 A product tag identification processing unit for identifying a product tag area in image information in which display shelves displaying products are shown;
An in-product tag information specifying processing unit for specifying information described in the product tag by performing OCR recognition processing in the specified product tag area,
The product tag information identification processing unit
Execute binarization processing in the specified product tag area,
By performing a labeling process on the binarized image information, a box is specified by grouping consecutive pixels,
Among the specified boxes, adjacent boxes having a predetermined similarity are merged and specified as a block,
Of the identified blocks, the block with the highest height is estimated as a price region, and OCR recognition processing is executed.
An image recognition system characterized by that.
前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ内情報特定処理部は,
前記OCR認識処理によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識システム。 A product tag identification processing unit for identifying a product tag area in image information in which display shelves displaying products are shown;
An in-product tag information specifying processing unit for specifying information described in the product tag by performing OCR recognition processing in the specified product tag area,
The product tag information identification processing unit
By executing the OCR recognition process for the price information recognized as the price excluding tax and the price information recognized as the price including tax, the process of determining the size of the price and / or the consistency of the tax rate is executed, thereby the price excluding tax and tax included. Identify the price,
An image recognition system characterized by that.
前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ内情報特定処理部は,
前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識システム。 A product tag identification processing unit for identifying a product tag area in image information in which display shelves displaying products are shown;
An in-product tag information specifying processing unit for specifying information described in the product tag by performing OCR recognition processing in a part or all of the specified product tag area,
The product tag information identification processing unit
The tax-excluded price and the tax-included price are specified by executing a logical consistency determination process for the two price information specified by the OCR recognition process .
An image recognition system characterized by that.
前記特定した商品タグ領域において二値化処理を実行し,
前記二値化処理した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,
前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,
前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,
ことを特徴とする請求項1または請求項6に記載の画像認識システム。 The product tag information identification processing unit
Execute binarization processing in the specified product tag area,
By performing the labeling process in the binarization processing image information, to identify the box by grouping pixels to the consecutive
Among the specified boxes, adjacent boxes having a predetermined similarity are merged and specified as a block,
Of the identified blocks, the block with the highest height is estimated as a price region, and OCR recognition processing is executed.
The image recognition system according to claim 1 , wherein the image recognition system is an image recognition system.
前記OCR認識処理によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする請求項1,請求項6または請求項7のいずれかに記載の画像認識システム。 The product tag information identification processing unit
By executing the OCR recognition process for the price information recognized as the price excluding tax and the price information recognized as the price including tax, the process of determining the size of the price and / or the consistency of the tax rate is executed, thereby the price excluding tax and tax included. Identify the price,
The image recognition system according to claim 1, wherein the image recognition system is one of the following.
前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部と,
前記特定した商品タグ領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部と,を有しており,
前記認識結果照合処理部は,
前記陳列商品認識処理部における認識処理により,類似性の高いフェイスが並んでいる区画を一群とし,各棚段における各群に,前記商品タグ認識処理部による商品タグの認識結果を対応づける,
ことを特徴とする画像認識システム。 A product tag recognition processing unit for specifying product identification information in a product tag area in image information in which display shelves displaying products are shown;
A display product recognition processing unit for specifying product identification information of a product displayed in the image information;
Comprises a product identification information in the product tag regions above specified, by comparing the product identification information of merchandise displayed and the specific, the recognition result collation processing section for collating whether recognition result matches, the And
The recognition result matching processing unit
By the recognition processing in the display product recognition processing unit, a group of highly similar faces are grouped together, and the product tag recognition result by the product tag recognition processing unit is associated with each group in each shelf.
An image recognition system characterized by that.
前記陳列棚を撮影した画像情報に対して台形補正処理を実行する撮影画像情報正置化処理部,を有しており,
前記撮影画像情報正置化処理部は,
第1の画像情報と,第2の画像情報との対応関係に基づいて,前記第1の画像情報における台形補正処理で用いた頂点を,前記第2の画像情報に射影し,
前記射影した頂点に基づいて前記第2の画像情報の台形補正処理を実行する,
ことを特徴とする請求項1から請求項9のいずれかに記載の画像認識システム。 The image recognition system further includes:
A captured image information alignment processing unit that performs trapezoidal correction processing on image information obtained by capturing the display shelf,
The photographed image information normalization processing unit
A first image information, based on the correspondence between the second image information, the vertices used in the keystone correction process in the first image information, projected to the second image information,
Executing a trapezoidal correction process of the second image information based on the projected vertex;
The image recognition system according to any one of claims 1 to 9 , wherein
前記撮影画像情報正置化処理部において台形補正処理を実行した前記画像情報において,商品タグ配置領域を特定する位置特定処理部と,
前記特定した商品タグ配置領域において台形補正処理を実行する商品タグ配置領域正置化処理部と,
を有することを特徴とする請求項10に記載の画像認識システム。 The image recognition system further includes:
A position specifying processing unit for specifying a product tag placement area in the image information in which the trapezoidal correction processing is performed in the captured image information normalization processing unit;
A product tag placement area alignment processing unit for performing trapezoidal correction processing in the specified product tag placement area;
The image recognition system according to claim 10 , further comprising:
前記商品タグ配置領域においてエッジ検出を行い,垂直方向の角度の所定条件を充足する直線群を検出し,
前記検出した直線群のうち,少なくとも2本の直線を特定し,
前記特定した2本の直線を用いて台形補正処理を実行する,
ことを特徴とする請求項11に記載の画像認識システム。 The product tag placement area alignment processing unit
Edge detection is performed in the product tag placement area, and a group of straight lines satisfying a predetermined condition of the angle in the vertical direction is detected,
Identify at least two straight lines from the detected straight line group,
The trapezoid correction process is executed using the two identified straight lines.
The image recognition system according to claim 11 .
商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部,
前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ特定処理部は,
前記画像情報の明度情報を用いて商品タグ領域を特定し,
前記商品タグ内情報特定処理部は,
前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,
特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,
前記特定したブロックに対して前記OCR認識処理を実行し,
前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識プログラム。 Computer
A product tag specifying processing unit for specifying a product tag area in image information showing a display shelf for displaying products,
An image recognition program that functions as an in-product tag information identification processing unit that identifies information described in a product tag by performing OCR recognition processing in the identified product tag area,
The product tag identification processing unit
Identify the product tag area using the brightness information of the image information,
The product tag information identification processing unit
The box is specified by binarizing the specified product tag area and performing a labeling process,
Among the identified boxes, identify the boxes that satisfy the specified condition as blocks,
Performing the OCR recognition process on the identified block;
The tax-excluded price and the tax-included price are specified by executing a logical consistency determination process for the two price information specified by the OCR recognition process .
An image recognition program characterized by that.
商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,
前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ特定処理部は,
前記画像情報の明度情報を横方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,商品タグの上辺位置,下辺位置を特定し,
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,立ち上がりから所定距離内にある立ち下がりをペアとして商品タグの左辺位置,右辺位置を特定する,
ことを特徴とする画像認識プログラム。 Computer
A product tag specifying processing unit for specifying a product tag area in image information showing a display shelf displaying a product,
An image recognition program that functions as an in-product tag information specifying processing unit that specifies information described in a product tag by performing OCR recognition processing in a part or all of the specified product tag area,
The product tag identification processing unit
By specifying the rise and fall of the histogram obtained by integrating the lightness information of the image information in the horizontal direction, the upper side position and the lower side position of the product tag are specified,
By specifying the rise and fall of the histogram obtained by integrating the brightness information of the image information in the vertical direction, the left side position and the right side position of the product tag are specified as a pair of the fall within a predetermined distance from the rise.
An image recognition program characterized by that.
商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,
前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ特定処理部は,
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がりのうち,ペアを形成できなかった立ち上がりについてその右側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定し,
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち下がりのうち,ペアを形成できなかった立ち下がりについてその左側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定する,
ことを特徴とする画像認識プログラム。 Computer
A product tag specifying processing unit for specifying a product tag area in image information showing a display shelf displaying a product,
An image recognition program that functions as an in-product tag information specifying processing unit that specifies information described in a product tag by performing OCR recognition processing in a part or all of the specified product tag area,
The product tag identification processing unit
Among the rises of the histogram obtained by integrating the brightness information of the image information in the vertical direction, if there is no tag area within a predetermined distance on the right side of the rise that could not form a pair, the product information is specified as a product tag area.
Among the falling edges of the histogram obtained by integrating the brightness information of the image information in the vertical direction, if there is no tag area within a predetermined distance on the left side of the falling edge that could not form a pair, it is specified as a product tag area.
An image recognition program characterized by that.
商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,
前記特定した商品タグの領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ内情報特定処理部は,
前記特定した商品タグ領域において二値化処理を実行し,
前記二値化処理した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,
前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,
前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,
ことを特徴とする画像認識プログラム。 Computer
A product tag specifying processing unit for specifying a product tag area in image information showing a display shelf displaying a product,
An image recognition program that functions as an in-product tag information identification processing unit that identifies information described in a product tag by performing OCR recognition processing in the identified product tag area,
The product tag information identification processing unit
Execute binarization processing in the specified product tag area,
By performing a labeling process on the binarized image information, a box is specified by grouping consecutive pixels,
Among the specified boxes, adjacent boxes having a predetermined similarity are merged and specified as a block,
Of the identified blocks, the block with the highest height is estimated as a price region, and OCR recognition processing is executed.
An image recognition program characterized by that.
商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,
前記特定した商品タグの領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ内情報特定処理部は,
前記OCR認識処理によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識プログラム。 Computer
A product tag specifying processing unit for specifying a product tag area in image information showing a display shelf displaying a product,
An image recognition program that functions as an in-product tag information identification processing unit that identifies information described in a product tag by performing OCR recognition processing in the identified product tag area,
The product tag information identification processing unit
By executing the OCR recognition process for the price information recognized as the price excluding tax and the price information recognized as the price including tax, the process of determining the size of the price and / or the consistency of the tax rate is executed, thereby the price excluding tax and tax included. Identify the price,
An image recognition program characterized by that.
商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,
前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ内情報特定処理部は,
前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識プログラム。 Computer
A product tag specifying processing unit for specifying a product tag area in image information showing a display shelf displaying a product,
An image recognition program that functions as an in-product tag information specifying processing unit that specifies information described in a product tag by performing OCR recognition processing in a part or all of the specified product tag area,
The product tag information identification processing unit
The tax-excluded price and the tax-included price are specified by executing a logical consistency determination process for the two price information specified by the OCR recognition process .
An image recognition program characterized by that.
商品を陳列している陳列棚が写っている画像情報における商品タグの領域における商品識別情報を特定する商品タグ認識処理部,
前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部,
前記特定した商品タグの領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部,として機能させる画像認識プログラムであって,
前記認識結果照合処理部は,
前記陳列商品認識処理部における認識処理により,類似性の高いフェイスが並んでいる区画を一群とし,各棚段における各群に,前記商品タグ認識処理部による商品タグの認識結果を対応づける,
ことを特徴とする画像認識プログラム。 Computer
A product tag recognition processing unit for specifying product identification information in a product tag area in image information in which display shelves displaying products are shown;
A display product recognition processing unit for specifying product identification information of a product displayed in the image information;
An image that functions as a recognition result matching processing unit that compares the product identification information in the region of the specified product tag with the product identification information of the specified displayed product and checks whether the recognition results match. A recognition program,
The recognition result matching processing unit
By the recognition processing in the display product recognition processing unit, a group of highly similar faces are grouped together, and the product tag recognition result by the product tag recognition processing unit is associated with each group in each shelf.
An image recognition program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017164759A JP6458239B1 (en) | 2017-08-29 | 2017-08-29 | Image recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017164759A JP6458239B1 (en) | 2017-08-29 | 2017-08-29 | Image recognition system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018194877A Division JP6831951B2 (en) | 2018-10-16 | 2018-10-16 | Image recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6458239B1 true JP6458239B1 (en) | 2019-01-30 |
JP2019045909A JP2019045909A (en) | 2019-03-22 |
Family
ID=65228872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017164759A Active JP6458239B1 (en) | 2017-08-29 | 2017-08-29 | Image recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6458239B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020170265A (en) * | 2019-04-01 | 2020-10-15 | 株式会社マーケットヴィジョン | Image processing system |
KR20200128015A (en) * | 2019-04-30 | 2020-11-11 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Certificate recognition method and device, electronic device, computer-readable storage medium |
CN111985517A (en) * | 2019-05-22 | 2020-11-24 | 东芝泰格有限公司 | Information processing device, article identification device, and article identification system |
CN113962263A (en) * | 2021-10-22 | 2022-01-21 | 上海汉时信息科技有限公司 | A method and system for detecting commodities |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020198054A (en) * | 2019-06-05 | 2020-12-10 | 日本ユニシス株式会社 | Program, information processing system, information processing device, and information processing method |
WO2021060032A1 (en) * | 2019-09-25 | 2021-04-01 | 日本電気株式会社 | Image processing device, image processing method, and program |
JP6810302B1 (en) * | 2020-07-29 | 2021-01-06 | ファーストアカウンティング株式会社 | Data processing equipment, data processing methods and programs |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08339421A (en) * | 1995-06-13 | 1996-12-24 | Kobe Steel Ltd | Character area determining method for image |
JP3299873B2 (en) * | 1995-11-06 | 2002-07-08 | シャープ株式会社 | Image processing apparatus and image processing method |
JP5675194B2 (en) * | 2010-07-15 | 2015-02-25 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2012053711A (en) * | 2010-09-01 | 2012-03-15 | Toshiba Tec Corp | Information processor, store system and program |
JP6705075B2 (en) * | 2014-10-01 | 2020-06-03 | 株式会社マーケットヴィジョン | Product display information collection system |
-
2017
- 2017-08-29 JP JP2017164759A patent/JP6458239B1/en active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020170265A (en) * | 2019-04-01 | 2020-10-15 | 株式会社マーケットヴィジョン | Image processing system |
KR20200128015A (en) * | 2019-04-30 | 2020-11-11 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Certificate recognition method and device, electronic device, computer-readable storage medium |
JP2021524948A (en) * | 2019-04-30 | 2021-09-16 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Certification document recognition methods and devices, electronic devices and computer-readable storage media |
KR102435365B1 (en) * | 2019-04-30 | 2022-08-23 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Certificate recognition method and apparatus, electronic device, computer readable storage medium |
CN111985517A (en) * | 2019-05-22 | 2020-11-24 | 东芝泰格有限公司 | Information processing device, article identification device, and article identification system |
CN113962263A (en) * | 2021-10-22 | 2022-01-21 | 上海汉时信息科技有限公司 | A method and system for detecting commodities |
Also Published As
Publication number | Publication date |
---|---|
JP2019045909A (en) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6458239B1 (en) | Image recognition system | |
JP6831951B2 (en) | Image recognition system | |
JP6569532B2 (en) | Management system, list creation device, list creation method, management method, and management program | |
JP6651169B2 (en) | Display status judgment system | |
CN107403128B (en) | Article identification method and device | |
JP6885563B2 (en) | Display status judgment system | |
JP6278276B2 (en) | Object identification device, object identification method, and program | |
CN105448001A (en) | Commodity registration device | |
JP6579456B1 (en) | Search target information narrowing system | |
JP7437837B2 (en) | OCR-based document analysis system and method using virtual cells | |
JP2018139062A (en) | Commodity information acquisition system | |
JP7231165B2 (en) | Verification system | |
JP6628336B2 (en) | Information processing system | |
CN107403179B (en) | Registration method and device for article packaging information | |
JP6670511B2 (en) | Product information acquisition system | |
JP7449505B2 (en) | information processing system | |
JP6941331B2 (en) | Image recognition system | |
JP2021119475A (en) | Narrowing down processing system | |
JP6890849B2 (en) | Information processing system | |
JP7328642B1 (en) | Information processing system | |
JP7343115B1 (en) | information processing system | |
JP7592252B1 (en) | Information Processing System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6458239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |