[go: up one dir, main page]

JPH07249123A - Item identification system - Google Patents

Item identification system

Info

Publication number
JPH07249123A
JPH07249123A JP6064643A JP6464394A JPH07249123A JP H07249123 A JPH07249123 A JP H07249123A JP 6064643 A JP6064643 A JP 6064643A JP 6464394 A JP6464394 A JP 6464394A JP H07249123 A JPH07249123 A JP H07249123A
Authority
JP
Japan
Prior art keywords
article
area
image
tablet
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6064643A
Other languages
Japanese (ja)
Other versions
JP2879127B2 (en
Inventor
Kenji Wakamatsu
健司 若松
Hiroshi Tomiyasu
寛 冨安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Group Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP6064643A priority Critical patent/JP2879127B2/en
Publication of JPH07249123A publication Critical patent/JPH07249123A/en
Application granted granted Critical
Publication of JP2879127B2 publication Critical patent/JP2879127B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 (修正有) 【目的】 選別された錠剤が指定された銘柄と一致する
かどうかを自動的に判定できるようにする。更に、錠剤
が供給されたときの位置や姿勢に関係なく、精度良く同
定できるようにする 【構成】 カメラ1により錠剤をカラー撮影し、その画
像をグレイ画像に変換し、更に画像内の錠剤領域を一定
の位置と方向に補正し、その画像から特徴ベクトルを抽
出する。この特徴ベクトルとしては、画像の濃淡値ベク
トルを用いる。この特徴ベクトルと辞書ファイル110
に格納されている指定された銘柄の参照ベクトルとの距
離を求め、この距離の大小によって、その錠剤が指定さ
れた銘柄のものであると判断する。位置及び方向の補正
では、動的2値化処理法を用いて、錠剤のグレー画像を
分割した各小領域ごとにコントラスト評価値に対する閾
値を決定し、この閾値を用いて各小領域を2値化するこ
とにより、錠剤表面に記された識別コードの領域を抽出
し、錠剤の方向を補正する。
(57) [Summary] (Correction) [Purpose] To be able to automatically judge whether the selected tablets match the designated brand. Furthermore, it enables accurate identification regardless of the position and orientation when the tablet is supplied. [Configuration] The camera 1 captures a color image of the tablet, converts the image into a gray image, and further the tablet area in the image Is corrected to a fixed position and direction, and a feature vector is extracted from the image. The gray value vector of the image is used as this feature vector. This feature vector and dictionary file 110
The distance from the reference vector of the designated brand stored in is calculated, and it is determined that the tablet belongs to the designated brand based on the magnitude of this distance. In the position and direction correction, a dynamic binarization method is used to determine a threshold value for the contrast evaluation value for each small area obtained by dividing the gray image of the tablet, and this small threshold value is used to binarize each small area. As a result, the area of the identification code written on the tablet surface is extracted and the direction of the tablet is corrected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理・識別技術を
用いて物品の同定を行う物品同定システムに関わり、特
に、医薬品の錠剤やカプセル剤(以下、単に錠剤とい
う)の自動包装機において、入力された名柄に対し選別
された錠剤が正しいかどうかを検査するための錠剤同定
に好適な物品同定システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an article identification system for identifying an article using image processing / identification technology, and particularly in an automatic packaging machine for pharmaceutical tablets and capsules (hereinafter simply referred to as tablets). The present invention relates to an article identification system suitable for tablet identification for inspecting whether a selected tablet is correct for an input name pattern.

【0002】[0002]

【従来の技術】現在、多くの総合病院で、指定した銘柄
の複数の錠剤を自動的に分包紙内に包装する自動錠剤包
装機が用いられている。自動錠剤包装機においては、オ
ペレータが端末から入力した複数の錠剤銘柄情報を受け
て、装置内のダブレットケースから該当する錠剤を搬送
し、同一の分包紙内に包装する処理を行っている。一般
的な自動錠剤包装機については、例えば、「清野 敏
一、折井 孝男他:調剤業務への電算機の利用−自動調
剤包装機への監査システムの試み、第8回医療情報連合
大会論文集、565−568、1988」において論じ
られている。
2. Description of the Related Art At present, in many general hospitals, an automatic tablet packing machine for automatically packing a plurality of tablets of a designated brand in a packaging paper is used. The automatic tablet packing machine receives a plurality of tablet brand information inputted by the operator from the terminal, carries the corresponding tablets from the doublet case in the apparatus, and performs a process of packing the tablets in the same packaging paper. For general automatic tablet packaging machines, see, for example, “Toshikazu Seino, Takao Orii, et al .: Use of a computer for dispensing operations-Trial of an audit system for automatic dispensing packaging machines, Proc. Of the 8th Medical Information Union Conference. , 565-568, 1988 ".

【0003】このような自動錠剤包装機を用いた薬剤シ
ステムを病院に導入することで、これまでの薬剤師の手
を介して行われていた錠剤の包装が自動化され、大幅な
待ち時間の短縮が可能となり、医療の高品質化を図るこ
とができる。
By introducing a drug system using such an automatic tablet packing machine into a hospital, the tablet packing which has been performed by a pharmacist until now is automated, and the waiting time is greatly shortened. It becomes possible and the quality of medical treatment can be improved.

【0004】[0004]

【発明が解決しようとする課題】上記自動錠剤包装機で
は、タブレットケースから指定された錠剤を取り出す処
理、及び、取り出した錠剤を包装する位置まで搬送する
処理に機械的な動作を含む。そのため、錠剤の取り出し
誤りや欠損が起こる可能性がある。また、タブレットケ
ースへの錠剤の補給は人間が行うが、その際に補給すべ
き銘柄を間違う可能性もある。しかし、このような機械
的又は人為的誤りがあったとしても、最終的に患者に提
供される分包中には、指定された名柄の錠剤が間違いな
く入っている必要がある。そのため、従来自動錠剤包装
機を運用する際には、包装後の錠剤が指定された銘柄か
どうか、薬剤師が目視で同定検査を行っていた。
In the above automatic tablet packing machine, a mechanical operation is included in the process of taking out a specified tablet from the tablet case and the process of carrying the taken-out tablet to a position for packaging. Therefore, there is a possibility that the tablets may be taken out incorrectly or missing. In addition, although the human beings supply the tablets to the tablet case, there is a possibility that the brand to be supplied at that time may be wrong. However, even if there is such a mechanical or human error, it is necessary for the package to be finally provided to the patient to definitely contain the tablet of the designated name. Therefore, conventionally, when operating an automatic tablet packaging machine, a pharmacist has visually performed an identification test to determine whether the packaged tablet is a designated brand.

【0005】そのため、同定検査の手間が面倒であり、
検査に時間がかかるという問題があった。また、包装後
に検査するため、間違った錠剤の包装が発見された場合
には、その包装を破り、再度正しい錠剤の包装を作らな
ければならない、という面倒があった。
Therefore, the labor of the identification test is troublesome,
There was a problem that the inspection took time. Further, since the inspection is performed after the packaging, if the wrong packaging of tablets is found, the packaging has to be broken and the packaging of correct tablets has to be made again.

【0006】従って、本発明の目的は、自動錠剤包装機
の運用において、選別された錠剤が指定された銘柄と一
致するかどうかを自動的に判定し、それにより、自動錠
剤包装機から常に指定通りの錠剤の入った正しい包装が
出てくるようにすることにある。
Therefore, it is an object of the present invention to automatically determine whether or not a selected tablet matches a designated brand in the operation of the automatic tablet packing machine, and thereby, the automatic tablet packing machine always specifies the selected tablet. The goal is to get the correct packaging out of the street tablets.

【0007】また、より一般化された本発明の目的は、
多カテゴリーの物品群中から指定されたカテゴリーの物
品を選別するような用途において、選別された物品が指
定されたカテゴリーのものであるか否かを確認するため
の同定検査を、画像処理・識別技術を用いて自動的且つ
正確に行えるようにすることにある。
The more general purpose of the present invention is to
In applications such as selecting items in a specified category from a multi-category item group, an identification test is performed to confirm whether the selected item belongs to the specified category. It is to be able to do it automatically and accurately using technology.

【0008】さらに、本発明の副なる目的は、選別され
た物品が画像処理装置に供給された際にその姿勢や位置
がどのようになっていても、正確な同定結果が得られる
ようにすることにある。
Further, a secondary object of the present invention is to enable an accurate identification result to be obtained regardless of the posture and position of the sorted article when it is supplied to the image processing apparatus. Especially.

【0009】[0009]

【課題を解決するための手段】本発明に係る物品同定シ
ステムは、物品の画像を入力する画像入力手段と、物品
のカテゴリーを入力するカテゴリー入力手段と、入力さ
れた画像内の物品領域を一定の位置及び方向に補正する
位置・向き補正手段と、位置及び方向の補正された画像
の濃淡値ベクトルを特徴ベクトルとして抽出する特徴抽
出手段と、抽出した特徴ベクトルと予め用意した入力カ
テゴリーの参照ベクトルとの距離を求め、この距離が予
め定めた許容値内にあるか否かにより、入力された物品
が入力カテゴリーに係るものか否かを判定する同定手段
とを備える。
SUMMARY OF THE INVENTION An article identification system according to the present invention comprises an image input means for inputting an image of an article, a category input means for inputting a category of an article, and a constant article area in the input image. Position / orientation correction means for correcting the position and direction of the image, feature extraction means for extracting the gray value vector of the image for which the position and direction has been corrected as a feature vector, and the extracted feature vector and a reference vector of an input category prepared in advance. And an identification unit that determines whether or not the input article is related to the input category by determining the distance between the input item and the distance.

【0010】ここで、物品領域の位置及び方向を補正す
る際には、位置と方向の少なくとも一方の補正におい
て、物品領域内に存在する所定の印の領域が利用され
る。例えば、好適な実施例では、錠剤を撮影した画像内
で錠剤領域の方向を補正するために、錠剤表面に存在す
る識別コードの領域が利用される。即ち、識別コード領
域が一定方向を向くように錠剤領域の方向補正を行な
う。
Here, when correcting the position and direction of the article area, a predetermined mark area existing in the article area is used in the correction of at least one of the position and the direction. For example, in the preferred embodiment, the area of the identification code present on the tablet surface is utilized to correct the orientation of the tablet area within the image taken of the tablet. That is, the direction of the tablet area is corrected so that the identification code area faces a certain direction.

【0011】上記所定印領域を位置又は方向の補正に利
用する際には、所定印領域を物品領域内から抽出する必
要があるが、その抽出処理では動的2値化処理法を用い
ることができる。
When the predetermined stamp area is used for correcting the position or direction, it is necessary to extract the predetermined stamp area from the article area. In the extraction processing, the dynamic binarization method is used. it can.

【0012】動的2値化処理法とは、対象となる画像を
複数の小領域に分割し、この小領域毎に2値化の閾値を
設定して2値化を行なう処理法である。
The dynamic binarization processing method is a processing method in which a target image is divided into a plurality of small areas and a binarization threshold value is set for each of these small areas to perform binarization.

【0013】上記動的2値化処理法を用いて物品領域内
から所定印領域を抽出する際には、コントラスト評価値
を用いることができる。コントラスト評価値とは、画像
内の各場所のコントラストの程度を表した数値である。
The contrast evaluation value can be used when the predetermined mark area is extracted from the article area by using the dynamic binarization method. The contrast evaluation value is a numerical value representing the degree of contrast at each place in the image.

【0014】更に、上記コントラスト評価値を用いて所
定印領域を抽出するための閾値を設定する際には、コン
トラスト評価値の出現頻度に基づくゼロ点法を用いるこ
とができる。ゼロ点法とはこの明細書で独自に用いる用
語であるが、例えば、コントラスト評価値に対する場合
であれば、そのコントラスト評価値の出現頻度を小さい
方からスキャンして、出現頻度が最初にゼロとなった点
のコントラスト評価値を閾値として設定するような方法
である。
Further, when the threshold value for extracting the predetermined mark area is set using the contrast evaluation value, the zero point method based on the appearance frequency of the contrast evaluation value can be used. The zero point method is a term uniquely used in this specification, but for example, in the case of a contrast evaluation value, the frequency of appearance of the contrast evaluation value is scanned from the smallest and the appearance frequency is initially zero. This is a method of setting the contrast evaluation value at the point of failure as a threshold.

【0015】[0015]

【作用】本発明においては、カメラ等で物品(例えば、
錠剤)を撮影した画像とその物品のカテゴリー(例え
ば、錠剤の銘柄)とがシステムに入力される。すると、
まず、画像内での物品領域が一定の位置と方向とに補正
され、次いで、補正後の画像から物品の特徴ベクトルが
抽出される。この特徴ベクトルには、画像内の濃淡値を
要素とする濃淡値ベクトルが用いられる。この特徴ベク
トルと予め用意した参照ベクトルとから両者の距離が求
められ、この距離が予め定めた許容値内にあるかどうか
で、入力したカテゴリーと物品とが対応するかどうかが
判定される。
In the present invention, an article (for example,
An image of the tablet) and the category of the article (eg, tablet brand) are input to the system. Then,
First, the article region in the image is corrected to a fixed position and direction, and then the feature vector of the article is extracted from the corrected image. A gray value vector having gray values in the image as elements is used as the feature vector. The distance between the feature vector and the reference vector prepared in advance is obtained, and it is determined whether or not the input category corresponds to the article depending on whether or not the distance is within a predetermined allowable value.

【0016】上記のような処理を行うことにより、物品
の同定検査を人の目視によらず、自動的に行うことが可
能になる。しかも、画像内での物品の位置・向きが常に
一定に補正されるため、画像撮影の際にカメラに対する
錠剤の厳密な位置・向きの調整が不要になる。
By carrying out the above-mentioned processing, it becomes possible to automatically carry out the identification inspection of the article without the visual inspection of a person. Moreover, since the position / orientation of the article in the image is constantly corrected, it is not necessary to strictly adjust the position / orientation of the tablet with respect to the camera when the image is captured.

【0017】更に、物品の位置補正又は方向補正におい
ては、物品内の所定の印が利用されるため、物品の外形
形状に様々な種類があっても、その外形形状毎に異なる
補正処理を用意しなくても、1種類の共通の処理アルゴ
リズムで或程度の物品種類に対して対応できる。
Further, since a predetermined mark in the article is used in the position correction or the direction correction of the article, even if there are various types of the outer shape of the article, different correction processing is prepared for each outer shape. Even if it does not, one kind of common processing algorithm can cope with a certain kind of article.

【0018】例えば、好適な実施例では、錠剤の方向補
正を行なうために錠剤表面の識別コードを利用してい
る。錠剤には様々な外形形状が存在するが、一般的に
は、いずれの錠剤もその中央部に識別コードの文字列が
記されている。従って、その識別コードを頼りに方向を
決めれば、大体どのような錠剤も方向補正が可能であ
る。この様に、錠剤以外の物品でも、画像的な特徴をも
つ何等かの印を利用することにより、その物品の位置や
方向を共通の処理アルゴリズムで補正することができ
る。
For example, in the preferred embodiment, an identification code on the tablet surface is utilized to effect tablet orientation correction. Although there are various outer shapes of tablets, generally, each tablet has an identification code character string written in the center thereof. Therefore, if the direction is determined by relying on the identification code, the direction of almost any tablet can be corrected. In this way, even for articles other than tablets, the position and direction of the article can be corrected by a common processing algorithm by using some mark having an image feature.

【0019】上記所定印を物品領域から抽出する際に動
的2値化処理法を用いると、印以外の余計な領域を除去
して印だけを巧く抽出することが容易になる。特に、物
品の表面が平面でなく曲面である場合や、物品表面が異
なる色やトーンで彩色されている場合には、表面自体の
濃淡が場所によって相違するため、そのような表面から
印だけを抽出するには、動的2値化処理法によって場所
の異なる小領域ごとに固有の2値化閾値を設定すること
が有効となる。
If a dynamic binarization method is used when extracting the predetermined mark from the article area, it becomes easy to remove unnecessary areas other than the mark and extract only the mark skillfully. In particular, if the surface of the article is not a flat surface but a curved surface, or if the surface of the article is colored with different colors or tones, the shade of the surface itself will differ depending on the location. In order to extract, it is effective to set a unique binarization threshold for each small area at a different location by the dynamic binarization processing method.

【0020】また、上記所定印を抽出する際にコントラ
スト評価値を用いると、肉眼で識別し易い種類の印を抽
出することが容易となる。即ち、人間が物を見てその形
状や模様を把握する場合、その把握に最も寄与する一つ
の画像的要素はコントラストである。そのため、コント
ラスト評価値を画像処理に用いれば、人間がその物品を
見て把握するであろう物品の構成要素を巧く抽出するこ
とが容易になる。その結果、特に人間が意図的に印を記
すような物品(例えば、識別コードを記した錠剤)から
その印を抽出しようとする場合には、その印は肉眼で把
握し易いように物品表面に対して大きいコントラストを
有している筈であるから、そうした印の抽出が良好に行
なえるようになる。
Further, if the contrast evaluation value is used when extracting the predetermined mark, it becomes easy to extract a mark of a type that can be easily identified by the naked eye. That is, when a person looks at an object and grasps its shape or pattern, one of the image-like elements that most contributes to the grasping is the contrast. Therefore, if the contrast evaluation value is used for the image processing, it becomes easy to skillfully extract the constituent elements of the article that a person will see and grasp the article. As a result, especially when a person intentionally tries to extract the mark from an article on which the mark is intentionally written (for example, a tablet with an identification code), the mark should be placed on the surface of the article so that it is easy to grasp with the naked eye. On the other hand, since it should have a large contrast, such marks can be extracted well.

【0021】更に、上記所定印の抽出のための閾値設定
において、コントラスト評価の出現頻度に基づくゼロ点
方を用いた場合には、特に、錠剤のように印以外の表面
領域のコントラストが、印の領域に比較して極めて小さ
い物品については、印の抽出が一層容易となる。錠剤以
外の物品でも、表面の凹凸が格別に激しいとか、トーン
の大きく異なる複数の色彩で細かく塗り分けられている
といった事情がなければ(多くの物品はそうであろ
う)、ゼロ点法の適用により良好な結果が期待できる。
Further, when the zero point method based on the appearance frequency of the contrast evaluation is used in the threshold setting for extracting the predetermined mark, the contrast of the surface area other than the mark such as a tablet is For articles that are extremely small compared to the area of, the extraction of the mark becomes easier. Even for articles other than tablets, the zero point method is applied unless there are circumstances where the surface irregularities are extremely severe or there are multiple colors that are greatly different in tone (this is true for many articles). Better results can be expected.

【0022】[0022]

【実施例】以下、本発明の実施例を図面により詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0023】図1は、本発明の一実施例に係る錠剤同定
システムの機能構成を示す。
FIG. 1 shows a functional configuration of a tablet identification system according to an embodiment of the present invention.

【0024】この錠剤同定システムは、NTSCテレビ
カメラ1を外部機器として備えたコンピュータ100上
で動作する。コンピュータ100は、画像入力部10
1、名柄入力部102、逆γ補正部103、RGBグレ
イ変換部104、位置・向き補正手段105、特徴抽出
部106、学習部107、散布度算出部108、同定部
109及び辞書ファイル110を備える。
This tablet identification system operates on a computer 100 equipped with the NTSC TV camera 1 as an external device. The computer 100 includes an image input unit 10
1, name pattern input unit 102, inverse γ correction unit 103, RGB gray conversion unit 104, position / orientation correction unit 105, feature extraction unit 106, learning unit 107, dispersion degree calculation unit 108, identification unit 109, and dictionary file 110. Prepare

【0025】本システムの動作は大きく学習フェーズと
同定フェーズに分けることができる。以下、(A)学習
フェーズと(B)同定フェーズに分けて、各部の機能及
び動作を述べる。
The operation of this system can be roughly divided into a learning phase and an identification phase. Hereinafter, the functions and operations of each unit will be described separately for (A) learning phase and (B) identification phase.

【0026】(A)学習フェーズ 本システムは、その運用に入る前の初期化または準備と
して、まず学習フェーズを経てなければならない。学習
フェーズにおいては、同定対象となる錠剤の各銘柄につ
いて、複数個のサンプルと正確な銘柄名とが入力され、
これに基づいて各銘柄の参照ベクトルと散布度とが計算
され、参照ベクトルファイル10として保存される。
(A) Learning Phase The system must first go through a learning phase as initialization or preparation before starting its operation. In the learning phase, for each brand of tablets to be identified, multiple samples and accurate brand names are entered,
Based on this, the reference vector and the degree of dispersion of each brand are calculated and stored as the reference vector file 10.

【0027】まず画像入力部101が、NTSCテレビ
カメラ1で無地の黒い背景に設置した錠剤を撮影したカ
ラーアナログ画像を入力し、これをRGBディジタル画
像に変換する。また、銘柄入力部102が、当該錠剤の
銘柄名をシステム内に入力する。
First, the image input section 101 inputs a color analog image obtained by photographing a tablet placed on a plain black background by the NTSC television camera 1, and converts it into an RGB digital image. Further, the brand input unit 102 inputs the brand name of the tablet into the system.

【0028】次に、逆γ補正部103が、RGBの各プ
レーンに施されたγ補正の影響を取り除き、カメラ1の
入出力特性が実質的に線形となるように、逆γ補正を行
う。この時、γの値として例えば2.2を用いる。これ
は、NTSCテレビカメラ1は通常、γ=2.2のγ補
正を撮影画像に施すよう構成されているからである。こ
の逆γ補正を行うことで、画像中の錠剤領域と背景領域
(黒地)のコントラストが大きくなり、以後の処理を有
効に行うことができる。
Next, the inverse γ correction unit 103 removes the influence of the γ correction applied to each of the RGB planes, and performs the inverse γ correction so that the input / output characteristic of the camera 1 becomes substantially linear. At this time, for example, 2.2 is used as the value of γ. This is because the NTSC television camera 1 is usually configured to perform γ correction of γ = 2.2 on a captured image. By performing this inverse γ correction, the contrast between the tablet region and the background region (black background) in the image is increased, and the subsequent processing can be effectively performed.

【0029】次に、RGBグレイ変換部104が、RG
B成分の中のG成分の濃淡値をそのまま用いて、RGB
画像を濃淡成分のみのグレイ画像に変換する。ここでG
成分を用いる理由は、一般にテレビカメラにおいて、G
成分は他の2つの成分に比べてダイナミックレンジが広
いため、圧倒的に白色の多い錠剤において、微妙な白色
の違いを濃淡に反映することができると考えられるから
からである。なお、RGB画像からグレイ画像に変換す
ることで、以下の処理量を3分の1に削減することがで
きる。
Next, the RGB gray conversion unit 104 causes the RG
Using the grayscale value of the G component of the B component as it is, RGB
Converts the image to a gray image with only grayscale components. Where G
The reason for using a component is that G
This is because the components have a wider dynamic range than the other two components, and thus it is considered that a subtle difference in white can be reflected in the light and shade in a tablet having an overwhelmingly large amount of white. By converting an RGB image into a gray image, the following processing amount can be reduced to 1/3.

【0030】次に、位置・向き補正部105が、画像中
の錠剤の位置と向きを、同一名柄であれば常に同一の位
置及び方向となるような処理を行う。図2は、この位置
・向き補正の詳細な処理フローを示す。
Next, the position / orientation correction unit 105 performs processing so that the position and orientation of the tablet in the image will always be the same position and orientation if they have the same name. FIG. 2 shows a detailed processing flow of this position / orientation correction.

【0031】図2に示すように、まず、グレイ画像に対
し、所定の閾値を用いて画像全体の2値化処理を行い、
錠剤の領域のみを抽出する(ステップ201)。この
時、2値化の閾値を選択する手法として、例えば、判別
基準に基づく大津氏の方法を用いる。この手法は、背景
領域と錠剤領域の2領域に明確に領域分割できるような
画像に対して非常に有効な手法である。詳細について
は、「大津展之:判別および最小2乗基準に基づく自動
閾値選定法、電子通信学会論文誌Vol.J63−D
No.4、pp.349−356、1980」において
論じられている。
As shown in FIG. 2, first, the gray image is binarized by using a predetermined threshold value,
Only the tablet area is extracted (step 201). At this time, for example, Otsu's method based on the discrimination criterion is used as a method of selecting the binarization threshold value. This method is a very effective method for an image that can be clearly divided into two areas, a background area and a tablet area. For details, see “Nobuyuki Otsu: Automatic Threshold Selection Method Based on Discrimination and Least Squares Criterion, IEICE Transactions Vol. J63-D”.
No. 4, pp. 349-356, 1980 ".

【0032】次に、2値化画像中の錠剤領域の重心を求
め、重心を画像中心に移動する(ステップ202)。続
いて、錠剤領域内において、そのグレイ画像を2値化す
ることにより、錠剤表面に印刷又は印刻された識別番号
コードの領域を抽出する(ステップ203)。この時の
2値化の手法には、動的2値化処理法を用いる。動的2
値化処理法とは、2値化の対象となる濃淡画像を複数の
方形領域(方形でなくてもよい)に分割し、各方形領域
ごとに2値化閾値を決定する手法である。詳細について
は「塩昭夫:情景中文字の検出のための動的2値化処理
法、電子情報通信学会論文誌Vol.J71−D N
o.5、pp.863−873、1988」を参照され
たい。
Next, the center of gravity of the tablet area in the binarized image is obtained, and the center of gravity is moved to the center of the image (step 202). Then, the gray image is binarized in the tablet area to extract the area of the identification number code printed or stamped on the tablet surface (step 203). A dynamic binarization processing method is used as the binarization method at this time. Dynamic 2
The binarization processing method is a method in which a grayscale image to be binarized is divided into a plurality of rectangular regions (not necessarily rectangular) and a binarization threshold value is determined for each rectangular region. For details, see “Akio Shio: Dynamic Binarization Method for Detecting Characters in Scenes, IEICE Transactions Vol. J71-DN.
o. 5, pp. 863-873, 1988 ".

【0033】この動的2値化処理法は、以下のような理
由から、錠剤の識別コード領域の抽出に非常に適してい
る。即ち、錠剤の表面は一般に平面ではなく曲面となっ
ており、識別コードはその曲面に印刷又は印刻されてい
る。このような錠剤表面を撮影した場合、その中央部の
ように高い場所は比較的明るく(階調値が大きく)映
り、周縁部分のような場所は比較的暗く(階調値が小さ
く)映る。このように、錠剤の表面は場所によって異な
る濃淡で映ることになるが、識別コードはこの濃淡の異
なる領域に亘って印刷されていたり、あるいは明るい中
央部に印刷されていたりする。このような錠剤表面の画
像に対して、一つの閾値で画像全体を2値化する静的な
2値化処理法を適用すると、識別コードと共に暗い周縁
部も抽出してしまったり、明るい部分にある識別コード
を抽出できなかったりする不具合が生じる。これに対
し、動的2値化処理法によれば、各方形領域毎に適切な
閾値を設定することができるため、識別コード領域だけ
を良好に抽出することが可能となる。
This dynamic binarization method is very suitable for extraction of the identification code area of the tablet for the following reasons. That is, the surface of the tablet is generally a curved surface rather than a flat surface, and the identification code is printed or stamped on the curved surface. When the surface of such a tablet is photographed, a high place such as the central portion appears relatively bright (a large gradation value), and a place such as a peripheral portion appears relatively dark (a small gradation value). As described above, the surface of the tablet is displayed in different shades depending on the place, and the identification code is printed over the different shade areas or in the bright central portion. When a static binarization method that binarizes the entire image with a single threshold value is applied to such an image of the tablet surface, the dark peripheral part is extracted together with the identification code, or the dark part is extracted. There arises a problem that a certain identification code cannot be extracted. On the other hand, according to the dynamic binarization processing method, an appropriate threshold value can be set for each rectangular area, and therefore only the identification code area can be satisfactorily extracted.

【0034】動的2値化処理法では、各方形領域におい
て、画素毎のコントラスト評価値(コントラストの大小
を示す指標)を求め、コントラスト評価値にする閾値を
2値化の閾値をとして設定する。この閾値を自動的に設
定するために、この明細書で「ゼロ点法」と呼ぶ手法を
用いる。
In the dynamic binarization processing method, a contrast evaluation value (index indicating the magnitude of contrast) for each pixel is obtained in each rectangular area, and a threshold value for the contrast evaluation value is set as the binarization threshold value. . In order to automatically set this threshold, a method called "zero point method" is used in this specification.

【0035】このゼロ点法について説明する。ゼロ点法
では、まず、錠剤領域内の各方形領域において、各画素
のコントラスト評価値を計算し、それらコントラスト評
価値の出現頻度を求める。すると、個々の方形領域につ
いて例えば図3のヒストグラムに示すようなコントラス
ト評価値の出現頻度分布が得られる。
The zero point method will be described. In the zero-point method, first, the contrast evaluation value of each pixel is calculated in each square area in the tablet area, and the appearance frequency of these contrast evaluation values is obtained. Then, the appearance frequency distribution of the contrast evaluation values as shown in the histogram of FIG. 3 is obtained for each rectangular area.

【0036】このような出現頻度分布に基づいて、次
に、識別コードと錠剤表面とを分離するためのコントラ
スト評価値に対する閾値を次のようにして決定する。即
ち、コントラスト評価値の小さい(コントラストが小さ
い)方からその出現頻度値をスキャンして行き、出現頻
度が最初にゼロとなった点のコントラストの評価値をも
って、これを閾値と決定する。図3の例では、閾値=
0.175となる。
Based on such appearance frequency distribution, next, a threshold value for the contrast evaluation value for separating the identification code and the tablet surface is determined as follows. That is, the appearance frequency value is scanned from the one having the smaller contrast evaluation value (the contrast is smaller), and the evaluation value of the contrast at the point where the appearance frequency becomes zero first is determined as the threshold value. In the example of FIG. 3, threshold =
It becomes 0.175.

【0037】このゼロ点法によれば、錠剤領域から識別
コード領域を良好に抽出することができる。その理由は
次の通りである。一般に、錠剤領域の中で、識別コード
領域以外の錠剤の単なる表面の領域(以下、表面領域と
いう)は、識別コード領域に比較して非常に低いコント
ラストをもっている(つまり、コントラスト評価値が非
常に小さい)。そのため、錠剤領域におけるコントラス
ト評価値の出現頻度分布を調べてみると、図3に例示し
たように、コントラスト評価値の非常に小さい範囲に、
表面領域によって形成された一つの大きい分布の山が現
れる。そして、この山から離れたコントラスト評価値の
より大きい範囲に、識別コード領域による比較的間ばら
な分布の凹凸が形成される。従って、ゼロ点法を用いる
と、表面領域による大きな山のエッジが閾値と決定され
るため、この閾値よりコントラスト評価値の大きい範囲
にある識別コード領域だけが良好に抽出できることにな
る。
According to this zero point method, the identification code area can be satisfactorily extracted from the tablet area. The reason is as follows. Generally, in the tablet area, the area of the mere surface of the tablet other than the identification code area (hereinafter referred to as the surface area) has a very low contrast as compared with the identification code area (that is, the contrast evaluation value is very high). small). Therefore, when the appearance frequency distribution of the contrast evaluation value in the tablet area is examined, as shown in FIG.
One large distribution peak formed by the surface area appears. Then, unevenness having a relatively sparse distribution due to the identification code region is formed in a range where the contrast evaluation value is farther away from the mountain. Therefore, if the zero point method is used, the edge of a large mountain due to the surface area is determined as the threshold value, and therefore only the identification code area in the range where the contrast evaluation value is larger than this threshold value can be satisfactorily extracted.

【0038】以上のようにして識別コード領域を抽出し
た後、次に、抽出した識別コード領域の2次モーメント
を求め、この2次モーメントが最大となる方向を画像の
X軸と一致するように、アフィン変換によって画像全体
を回転させる(ステップ204)。
After the identification code area has been extracted as described above, the second moment of the extracted identification code area is then obtained, and the direction in which the second moment becomes maximum coincides with the X axis of the image. , The entire image is rotated by affine transformation (step 204).

【0039】こうして錠剤領域の位置と方向を補正する
ことにより、後述する同定の精度が向上する。錠剤の外
観形状の特徴は位置及び方向に依存するからである。ま
た、同一の錠剤であれば常に同じ位置及び方向になるた
め、撮影する際のカメラ1に対する錠剤の厳密な位置・
向きの調整が不要となる。
By correcting the position and direction of the tablet area in this manner, the identification accuracy described later is improved. This is because the appearance characteristics of tablets depend on the position and the direction. In addition, since the same tablet always has the same position and direction, the exact position of the tablet with respect to the camera 1 at the time of shooting
No need to adjust orientation.

【0040】再び図1を参照して、次に、特徴抽出部1
06が、位置・向き補正されたグレイ画像から錠剤の特
徴ベクトルを抽出する処理を行う。図4はこの特徴抽出
の詳細な処理フローを示す。また、図5〜図7は、特徴
抽出の処理を段階を追って説明するための画像例を示
す。
Referring again to FIG. 1, next, the feature extraction unit 1
06 performs processing for extracting the feature vector of the tablet from the position / orientation-corrected gray image. FIG. 4 shows a detailed processing flow of this feature extraction. In addition, FIGS. 5 to 7 show image examples for explaining the process of feature extraction step by step.

【0041】まず、図5に示すような位置・向き補正さ
れたグレイ画像400から、図6に示すように錠剤領域
の全体または一部を含む所定サイズの矩形領域500を
切出す(図4、ステップ301)。ここで、矩形領域5
00のサイズは、予め種々の銘柄の錠剤について特徴抽
出を行なってみた結果に基づき、最も精度の良い特徴抽
出ができるサイズとして、統計的手法により決定された
ものである。
First, as shown in FIG. 6, a rectangular area 500 of a predetermined size is cut out from the gray image 400 whose position and orientation are corrected as shown in FIG. 5 (FIG. 4, FIG. 4). Step 301). Here, the rectangular area 5
The size of 00 is determined by a statistical method as a size that enables the most accurate feature extraction based on the result of performing feature extraction on tablets of various brands in advance.

【0042】次に、図7に示すように、この矩形領域5
00を任意のサイズN×Mの小区画600に分割する
(ステップ302)。ここで、小区画600のサイズN
×Mはコンピュータの処理能力に比例して決定される。
Next, as shown in FIG. 7, the rectangular area 5
00 is divided into small sections 600 of arbitrary size N × M (step 302). Here, the size N of the small section 600
× M is determined in proportion to the processing capacity of the computer.

【0043】次に、各小区画600毎に、その全画素の
濃淡値から代表値を算出する(ステップ303)。この
代表値には、例えば中央値を用いる。中央値は錠剤領域
と背景のように明らかに濃淡値の分布が偏る場合でも、
その分布全体を良く反映することができるからである。
この後、各小区画600の代表値を要素とする濃淡値ベ
クトルを特徴ベクトルとして抽出する(ステップ30
4)。
Next, for each small section 600, a representative value is calculated from the gray values of all the pixels (step 303). The median is used as the representative value, for example. Even if the distribution of gray values is obviously biased like the tablet area and the background, the median value is
This is because the entire distribution can be well reflected.
Then, a grayscale value vector having the representative value of each small section 600 as an element is extracted as a feature vector (step 30).
4).

【0044】学習フェーズでは、同定対象となる錠剤の
種々の銘柄の多数の学習サンプルが本システムに供給さ
れて、各学習サンプルに対して以上の撮影から特徴抽出
までの処理が行なわれる。
In the learning phase, a large number of learning samples of various brands of tablets to be identified are supplied to this system, and the above-described processing from photographing to feature extraction is performed on each learning sample.

【0045】再び図1を参照して、学習部107では、
各銘柄について、その銘柄の多数の学習サンプルから抽
出した全濃淡値ベクトルに対し主成分分析を施し、固有
値及び固有ベクトルを得る。そして、固有値に基づき寄
与率を求め、寄与率の高いほうから数個の主成分を選択
し、上記固有ベクトルを用いて、上記全濃淡値ベクトル
を主成分ベクトルに変換する。このように、主成分分析
の結果に基づき有意な特徴を選択することにより、特徴
ベクトルの次元圧縮が図れ、以後の処理量を削減するこ
とができる。次に、得られた上記主成分ベクトルを各銘
柄毎に平均して参照ベクトルとし、この参照ベクトルを
銘柄入力部102から入力された銘柄の参照ベクトルと
して辞書ファイル110に格納する。更に、各銘柄の固
有ベクトルも辞書ファイル110に格納される。
Referring again to FIG. 1, in the learning section 107,
For each issue, principal component analysis is performed on the total gray value vector extracted from many learning samples of that issue to obtain the eigenvalue and the eigenvector. Then, the contribution ratio is calculated based on the eigenvalue, several principal components are selected from the one having the highest contribution ratio, and the above-mentioned eigenvector is used to convert the above all gray value vector into the principal component vector. As described above, by selecting a significant feature based on the result of the principal component analysis, the dimension of the feature vector can be reduced, and the amount of processing thereafter can be reduced. Next, the obtained main component vector is averaged for each issue to be a reference vector, and this reference vector is stored in the dictionary file 110 as a reference vector of the issue input from the issue input unit 102. Further, the eigenvector of each issue is also stored in the dictionary file 110.

【0046】散布度算出部108は、各銘柄毎に、参照
ベクトルと多数の学習サンプルの主成分ベクトルとの間
の距離の分布から、その平均を0とした場合のその標準
偏差σを求める。ここで、参照ベクトルに対する学習サ
ンプルの距離の分布は例えば図8に示すようになってい
る。このような距離分布の標準偏差を各銘柄毎に求め、
これを銘柄入力部102から入力された銘柄の散布度と
して辞書ファイル110に格納する。
From the distribution of the distance between the reference vector and the principal component vectors of a large number of learning samples, the dispersion degree calculation unit 108 obtains the standard deviation σ when the average is 0, for each issue. Here, the distribution of the distance of the learning sample with respect to the reference vector is as shown in FIG. 8, for example. The standard deviation of such distance distribution is calculated for each stock,
This is stored in the dictionary file 110 as the dispersion degree of the brand input from the brand input unit 102.

【0047】以下、辞書ファイル110に格納された全
銘柄の参照ベクトルと散布度を総称して辞書と呼ぶ。
Hereinafter, the reference vectors and the degree of dispersion of all brands stored in the dictionary file 110 are collectively called a dictionary.

【0048】(B)同定フェーズ このフェースでは、対応しているか否か分らない錠剤と
名柄について、その対応の正否が検査される。即ち、学
習フェーズで作成された辞書を用いて、システムに供給
された錠剤とその銘柄とが対応しているかどうかの同定
検査が行なわれる。ここでは、同定対象となる錠剤と銘
柄名とがシステムに入力される。
(B) Identification Phase In this face, the correctness of the correspondence is inspected for the tablet and the name pattern which are not known whether they correspond. That is, using the dictionary created in the learning phase, an identification test is performed to determine whether or not the tablets supplied to the system correspond to their brands. Here, the tablet to be identified and the brand name are input to the system.

【0049】図1を参照して、まず、入力された錠剤に
ついて、学習フェーズと同様にカメラ撮影及び銘柄名の
入力から始って、画像入力部101から特徴抽出部10
6に至る一連の画像処理が行なわれ、濃淡値ベクトルが
抽出される。
Referring to FIG. 1, first, with respect to the input tablets, starting from the camera photographing and the input of the brand name as in the learning phase, the image input section 101 to the feature extraction section 10 are started.
A series of image processing up to 6 is performed and the gray value vector is extracted.

【0050】次に、同定部109が、上記学習フェーズ
で得られた固有ベクトルを用いて、濃淡値ベクトルを主
成分ベクトルに変換する。次に、この主成分ベクトルと
入力された銘柄に対応する参照ベクトルとの間の距離を
計算する。この時、距離関数にはユークリッド距離、類
似度などを用いる。一般的な距離関数については、例え
ば、「舟久保登:視覚パターンの処理と認識、啓学出版
発行、1990」に記載されている。
Next, the identification unit 109 uses the eigenvector obtained in the learning phase to convert the grayscale value vector into a principal component vector. Next, the distance between this principal component vector and the reference vector corresponding to the input brand is calculated. At this time, Euclidean distance, similarity, etc. are used for the distance function. A general distance function is described, for example, in “Noboru Funakubo: Visual Pattern Processing and Recognition, published by Keigaku Shuppan, 1990”.

【0051】ところで、本実施例では、基本となる特徴
ベクトルとして濃淡値ベクトルを用いるため、距離計算
の処理は、参照画像と同定対象画像とを重ね合わせてそ
の一致の度合いを算出していることにほかならない。こ
のような特徴ベクトルは従来のパタン識別システムにお
いてはほとんど用いられることがなかったが、画像情報
を最大限活用できることから、大カテゴリーを処理対象
にする場合には有効である。
By the way, in the present embodiment, since the gray value vector is used as the basic feature vector, the distance calculation process is performed by superimposing the reference image and the identification target image to calculate the degree of coincidence. It is none other than. Such a feature vector has hardly been used in the conventional pattern identification system, but it is effective when a large category is to be processed because it can maximize the use of image information.

【0052】更に、同定部109は、こうして得た距離
を、入力された銘柄に対応する散布度(標準偏差)σか
ら定まる許容値r・σと比較し、この距離が許容値r・
σ内にある場合は、当該錠剤が入力された銘柄に対応す
る錠剤であると判定し、そうでない場合は対応しない別
銘柄の錠剤であると判定し、その判定結果を出力する。
この結果は、自動錠剤包装機において、同定した錠剤を
包装するか、包装せずに排出又は元のタブレットへ戻す
かの選択に利用することが望ましい。或いは、同定結果
に関わらず全ての錠剤を包装することとするが、その包
装紙面に同定結果を印刷するようにし、後に薬剤師がチ
ェックするようにしてもよい。
Further, the identification unit 109 compares the distance thus obtained with an allowable value r.sigma. Determined from the dispersion degree (standard deviation) .sigma.
If it is within σ, it is determined that the tablet is a tablet that corresponds to the input brand, and if not, it is determined that it is a tablet of another brand that does not correspond, and the determination result is output.
It is desirable to utilize this result in the automatic tablet packing machine for selecting whether to pack the identified tablet, discharge it without packing, or return it to the original tablet. Alternatively, all tablets are packaged regardless of the identification result, but the identification result may be printed on the surface of the packaging paper and checked by the pharmacist later.

【0053】ここで、許容値r・σを決める係数rはユ
ーザが任意に設定できるようになっている。例えば、r
=1.0のように許容値が小さい場合、同定の基準は厳
しくなり、銘柄に対応しない錠剤を容易にはじくことが
できるが、実際には対応する錠剤であっても、錠剤表面
のキズ、欠損、その他の理由で参照ベクトルとの距離が
大きい時には、対応しない錠剤と判定され、はじかれて
しまう。逆にr=3.0のように許容値が大きい場合に
は上記の例とは逆の結果が生じる。このように許容値に
よって、本システムのふるまいには大きく異なる。その
ため、例えば安全性を重視して多少でも異なる錠剤はは
じくというように、目的によってユーザが適当な許容値
を設定する必要がある。
Here, the coefficient r which determines the allowable value r · σ can be arbitrarily set by the user. For example, r
= 1.0, the identification standard becomes strict and tablets that do not correspond to the brand can be easily repelled. However, even in the case of tablets that actually correspond, scratches on the tablet surface, When the distance from the reference vector is large due to a lack or other reasons, it is determined that the tablet does not correspond and is repelled. On the contrary, when the allowable value is large such as r = 3.0, the result opposite to the above example is produced. In this way, the behavior of this system varies greatly depending on the allowable value. Therefore, it is necessary for the user to set an appropriate allowable value depending on the purpose, for example, to repel tablets that are slightly different while giving priority to safety.

【0054】以上のように、本実施例の錠剤同定システ
ムでは、人間の目視に頼ることなく銘柄と錠剤の同定検
査を行うことができる。
As described above, in the tablet identification system of this embodiment, the brand and tablet identification inspection can be performed without relying on human visual inspection.

【0055】尚、本発明は上記実施例に限定されるもの
ではなく、その要旨を逸脱しない範囲において種々の異
なる態様で実施可能である。例えば、錠剤だけでなく、
自動製造ラインにおける選別された部品の同定などにも
利用できる。
The present invention is not limited to the above embodiments, but can be implemented in various different modes without departing from the scope of the invention. For example, not only tablets
It can also be used for identification of selected parts in automated production lines.

【0056】[0056]

【発明の効果】本発明によれば、物品の同定を自動的に
行うことが可能である。特に、システムに供給された物
品の姿勢や方向に関わらず高い同定精度を得ることがで
きる。
According to the present invention, it is possible to automatically identify an article. In particular, high identification accuracy can be obtained regardless of the posture or direction of the article supplied to the system.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る錠剤同定システムの構
成を示すブロック図。
FIG. 1 is a block diagram showing the configuration of a tablet identification system according to an embodiment of the present invention.

【図2】同実施例における位置・向き補正部の処理を示
すフローチャート。
FIG. 2 is a flowchart showing processing of a position / orientation correction unit in the embodiment.

【図3】錠剤表面領域と識別コード領域とを分離する閾
値の決定に用いるゼロ点法を説明するためのヒストグラ
ム。
FIG. 3 is a histogram for explaining a zero point method used for determining a threshold value for separating a tablet surface area and an identification code area.

【図4】同実施例における特徴抽出部の処理を示すフロ
ーチャート。
FIG. 4 is a flowchart showing processing of a feature extraction unit in the same embodiment.

【図5】同実施例における位置・向き補正部を施した後
のグレイ画像の例を示す図。
FIG. 5 is a diagram showing an example of a gray image after applying a position / orientation correction unit in the embodiment.

【図6】同実施例における図5の画像から切り出された
矩形領域を示す図。
FIG. 6 is a diagram showing a rectangular region cut out from the image of FIG. 5 in the same example.

【図7】同実施例における図6の画像を小区域に分けた
状態を示す図。
FIG. 7 is a diagram showing a state in which the image of FIG. 6 in the embodiment is divided into small areas.

【図8】同実施例における参照ベクトルに対する学習サ
ンプルの距離分布の例を示す図。
FIG. 8 is a diagram showing an example of a distance distribution of learning samples with respect to a reference vector in the embodiment.

【符号の説明】[Explanation of symbols]

1 NTSCテレビカメラ 100 コンピュータ 101 画像入力部 102 銘柄入力部 103 逆γ補正部 104 RGBグレイ変換部 105 位置・向き補正部 106 特徴抽出部 107 学習部 108 散布度算出部 109 同定部 1 NTSC TV camera 100 Computer 101 Image input unit 102 Brand input unit 103 Inverse γ correction unit 104 RGB gray conversion unit 105 Position / orientation correction unit 106 Feature extraction unit 107 Learning unit 108 Scattering degree calculation unit 109 Identification unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 7459−5L G06F 15/70 320 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location 7459-5L G06F 15/70 320

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 システムに入力された物品が入力された
カテゴリーに係るものか判定する物品同定システムにお
いて、 前記物品の画像を入力する画像入力手段と、 前記物品のカテゴリーを入力するカテゴリー入力手段
と、 前記入力された画像内の物品領域を一定の位置及び方向
に補正する位置・向き補正手段と、 前記位置及び方向の補正された画像の濃淡値ベクトルを
特徴ベクトルとして抽出する特徴抽出手段と、 前記抽出した特徴ベクトルと予め用意した前記入力され
たカテゴリーの参照ベクトルとの距離を求め、この距離
が予め定めた許容値内にあるか否かにより、前記入力さ
れた物品が前記入力されたカテゴリーに係るものか否か
を判定する同定手段と、を備え、 前記位置・向き補正手段が、前記物品領域内に存在する
所定の印の領域を抽出し、この所定印領域を用いて前記
物品領域の位置及び方向の少なくとも一方を補正するこ
とを特徴とする物品同定システム。
1. An article identification system for determining whether an article input to the system is related to an input category, and an image input means for inputting an image of the article, and a category input means for inputting the category of the article. A position / orientation correction unit that corrects the article area in the input image to a fixed position and direction; a feature extraction unit that extracts a grayscale value vector of the position and direction corrected image as a feature vector; The distance between the extracted feature vector and the reference vector of the input category prepared in advance is obtained, and whether the distance is within a predetermined allowable value or not Identifying means for determining whether or not the position / orientation correcting means exists in the article area. An article identification system which extracts a region and corrects at least one of a position and a direction of the article region by using the predetermined mark region.
【請求項2】請求項1記載の物品同定システムにおい
て、 前記位置・向き補正手段が、前記物品領域から前記所定
印領域を抽出するために、動的2値化処理法を用いるこ
とを特徴とする物品同定システム。
2. The article identification system according to claim 1, wherein the position / orientation correction means uses a dynamic binarization processing method to extract the predetermined mark area from the article area. Product identification system.
【請求項3】請求項2記載の物品同定システムにおい
て、 前記位置・向き補正手段が、前記動的2値化処理法にお
いて、前記物品領域内の前記所定印領域と他の領域とを
分離するために、コントラスト評価値を用いることを特
徴とする物品同定システム。
3. The article identification system according to claim 2, wherein the position / orientation correction means separates the predetermined marking area and the other area in the article area in the dynamic binarization processing method. An article identification system characterized by using a contrast evaluation value for this purpose.
【請求項4】請求項3記載の物品同定システムにおい
て、 前記位置・向き補正手段が、前記所定印領域と前記他の
領域とを分離する閾値を決定するために、前記コントラ
スト評価値の出現頻度に基づくゼロ点法を用いることを
特徴とする物品同定システム。
4. The article identification system according to claim 3, wherein the position / orientation correction means determines a threshold value for separating the predetermined mark area from the other area, and the appearance frequency of the contrast evaluation value. An identification system characterized by using a zero point method based on.
【請求項5】 物品が指定のカテゴリーに係るものか判
定する物品同定方法において、 前記物品の画像を入力する過程と、 前記入力された画像内の物品領域を一定の位置及び方向
に補正する過程と、 前記位置及び方向の補正された画像の濃淡値ベクトルを
特徴ベクトルとして抽出する過程と、 前記抽出した特徴ベクトルと予め用意した前記指定のカ
テゴリーの参照ベクトルとの距離を求め、この距離が予
め定めた許容値内にあるか否かにより、前記入力された
物品が前記入力されたカテゴリーに係るものか否かを判
定する過程と、を備え、 前記位置及び方向を補正する過程が、前記物品領域内に
存在する所定の印の領域を抽出する過程と、この所定印
領域を用いて前記物品領域の位置及び方向の少なくとも
一方を補正する過程とを含むことを特徴とする物品同定
方法。
5. An article identifying method for determining whether an article belongs to a designated category, the step of inputting an image of the article, and the step of correcting the article area in the input image to a certain position and direction. And a step of extracting a grayscale value vector of the position and direction-corrected image as a feature vector, and obtaining a distance between the extracted feature vector and a reference vector of the designated category prepared in advance. A step of determining whether or not the input article is related to the input category depending on whether or not the article is within a predetermined tolerance, and the step of correcting the position and the direction is the article. A step of extracting an area of a predetermined mark existing in the area, and a step of correcting at least one of a position and a direction of the article area using the predetermined mark area Article identification method characterized.
JP6064643A 1994-03-08 1994-03-08 Article identification system and method Expired - Fee Related JP2879127B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6064643A JP2879127B2 (en) 1994-03-08 1994-03-08 Article identification system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6064643A JP2879127B2 (en) 1994-03-08 1994-03-08 Article identification system and method

Publications (2)

Publication Number Publication Date
JPH07249123A true JPH07249123A (en) 1995-09-26
JP2879127B2 JP2879127B2 (en) 1999-04-05

Family

ID=13264156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6064643A Expired - Fee Related JP2879127B2 (en) 1994-03-08 1994-03-08 Article identification system and method

Country Status (1)

Country Link
JP (1) JP2879127B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61244423A (en) * 1985-04-24 1986-10-30 Hitachi Ltd Image processing method for processed products and processed materials
JPH02113669A (en) * 1988-10-21 1990-04-25 Toshiba Corp Image processing device
JPH02163883A (en) * 1988-12-16 1990-06-25 Pfu Ltd Image processing method
JPH05159063A (en) * 1991-12-09 1993-06-25 Nippon Telegr & Teleph Corp <Ntt> Image retrieving device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61244423A (en) * 1985-04-24 1986-10-30 Hitachi Ltd Image processing method for processed products and processed materials
JPH02113669A (en) * 1988-10-21 1990-04-25 Toshiba Corp Image processing device
JPH02163883A (en) * 1988-12-16 1990-06-25 Pfu Ltd Image processing method
JPH05159063A (en) * 1991-12-09 1993-06-25 Nippon Telegr & Teleph Corp <Ntt> Image retrieving device

Also Published As

Publication number Publication date
JP2879127B2 (en) 1999-04-05

Similar Documents

Publication Publication Date Title
TW201019237A (en) Method and system for item identification
WO2000073974A1 (en) Method and system for identifying an image feature
CN112446864A (en) Flaw detection method, flaw detection device, flaw detection equipment and storage medium
EP1852693A1 (en) Method of inspecting granular material and inspection device for conducting that method
CA2281113C (en) Automatic inspection of print quality using an elastic model
JP2700440B2 (en) Article identification system
US20060291723A1 (en) Material processing apparatus, material processing method and material processing program
US6675120B2 (en) Color optical inspection system
JP2989741B2 (en) Article identification system
JPH07262379A (en) Article identifying system
JP2922110B2 (en) Article identification system
JP2879127B2 (en) Article identification system and method
JP2879129B2 (en) Article identification system and method
CN115620305A (en) Photographing and medicine recognizing system based on deep learning and using method thereof
JPH07262378A (en) Article identifying system
JP2879128B2 (en) Article identification system and method
JP4961370B2 (en) Inspection method and inspection apparatus
JPH07282266A (en) Article discrimination system
JPH07168941A (en) Picture processor
JPH07254068A (en) Article identification system
CN110555173B (en) POI-based region identification system and identification method thereof
US20170200383A1 (en) Automated review of forms through augmented reality
JPH09147056A (en) Mark appearance inspection method and its equipment
JPH09288068A (en) Appearance inspection device
JP3417621B2 (en) Specific image detection method and specific image detection device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090129

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090129

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100129

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110129

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110129

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120129

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120129

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees