[go: up one dir, main page]

JPS61240384A - Image processing device - Google Patents

Image processing device

Info

Publication number
JPS61240384A
JPS61240384A JP60080203A JP8020385A JPS61240384A JP S61240384 A JPS61240384 A JP S61240384A JP 60080203 A JP60080203 A JP 60080203A JP 8020385 A JP8020385 A JP 8020385A JP S61240384 A JPS61240384 A JP S61240384A
Authority
JP
Japan
Prior art keywords
density
image
area
background
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60080203A
Other languages
Japanese (ja)
Other versions
JPH0510708B2 (en
Inventor
Miyahiko Orita
折田 三弥彦
Morio Kanezaki
金崎 守男
Yuji Toda
裕二 戸田
Tadaaki Mishima
三島 忠明
Masahito Suzuki
優人 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP60080203A priority Critical patent/JPS61240384A/en
Priority to CA000506687A priority patent/CA1250050A/en
Priority to EP86105213A priority patent/EP0198481B1/en
Priority to DE3650496T priority patent/DE3650496T2/en
Publication of JPS61240384A publication Critical patent/JPS61240384A/en
Priority to US07/203,643 priority patent/US5003616A/en
Publication of JPH0510708B2 publication Critical patent/JPH0510708B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、物体からの画像を久方し識別を行なうIdj
偉処理装置に係シ、特に、識別対象の領域を入力画像か
ら得られる濃度分布の特徴にょυ抽出する、hわゆる領
域分割に関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention provides an Idj system for long-term identification of images from an object.
The present invention relates to a processing device, and particularly relates to so-called region segmentation, which extracts a region to be identified based on features of a density distribution obtained from an input image.

〔発明の背景〕[Background of the invention]

FA等の分野において、プリント回路基板のチェックや
、薬剤の異物検査等の目視検査を画像処理によって自動
化しようというニーズが強く、それに対応して各種の画
像処理(g#I&)装置が開発されている。これらの画
像処理装置は、一般的に、入力画像からノイズ除去等の
前処理を行ない、識別対象の領域を抽出し、識別対象を
gRするという手順でも理が行なわれている。薬剤のキ
ズ検査を例にとれば、まず入力画像から錠剤部分を取り
出し、更にその錠剤の中でキズのある領域を抽出してキ
ズを認識するといった処理がなされている。
In fields such as FA, there is a strong need to use image processing to automate visual inspections such as checking printed circuit boards and inspecting foreign substances in drugs, and in response to this, various image processing (g#I&) devices have been developed. There is. These image processing apparatuses generally perform preprocessing such as noise removal from an input image, extract a region to be identified, and perform grating on the identified target. For example, in the case of inspecting a drug for scratches, the tablet is first extracted from the input image, and then the scratched area within the tablet is extracted to recognize the scratch.

しかし、このような画像処理装置において、物体の認識
手順Cアルゴリズム)やプログラムの開発は、人手と時
間を要するものである。このようなソフトウェア開発の
例として、佐藤典子、後藤敏行ほか2名「汎用画像処理
装置の開発−ソフトウェア−」情報処理学会第28回(
昭和59年前期)全国大会講演論文集、4N−98,9
95−996があるが、ここに示されるソフトウェアの
開発は専門家であっても美大な時間を要するものであっ
た。
However, in such an image processing apparatus, developing an object recognition procedure (algorithm C) and a program requires manpower and time. As an example of this kind of software development, Noriko Sato, Toshiyuki Goto, and two others presented "Development of General-Purpose Image Processing Devices - Software" at the 28th Information Processing Society of Japan (Information Processing Society of Japan).
First half of 1981) Collection of papers from national conference lectures, 4N-98, 9
95-996, but the development of the software shown here required an enormous amount of time even for experts.

特に1前述した処理のうち、入力画像から識別対象の領
域を取シ出す、い、わゆる領域分割のプログラム開発が
、画像処理装置のユーザにとって非常に苦痛でアシ、時
間を要する作業でもある。
Particularly, among the above-mentioned processes, developing a program for so-called area segmentation, which extracts areas to be identified from an input image, is a very painful, tedious, and time-consuming task for the user of the image processing apparatus.

目視検査等に用いる上記領域分割の手段は一般に、 α)濃度頻度分布の正規化処理 (2)  局所的な濃度分布の特徴量による抽出処理(
3)  幾何学的特徴量による最終抽出処理という3つ
のステップからなる。
The above-mentioned area segmentation methods used for visual inspection etc. generally include α) Normalization processing of concentration frequency distribution (2) Extraction processing using feature values of local concentration distribution (
3) It consists of three steps: final extraction processing using geometric features.

(1)の濃度頻度分布の正規化処理とは、入力画像から
ノイズ除去等の前処理を行なうものである。
The density frequency distribution normalization process (1) is to perform preprocessing such as noise removal from the input image.

すなわち、検査対象に照射される照明の強さや、検査対
象と背景のコントラストの変化等に追従するために、入
力画像の濃度頻度分布を、その平均値や最大頻度を示す
ピーク等の特徴的な箇所における濃度値を目安として、
基準の状態に平行移動させ光り、ある暦は特徴的な箇所
を設けてそれを目安として、基準の状態に拡大又は縮小
f以下、拡縮という)させたりするものである。
In other words, in order to track changes in the intensity of the illumination irradiated to the inspection object and the contrast between the inspection object and the background, the density frequency distribution of the input image is adjusted to have characteristic peaks such as the average value and maximum frequency. Using the concentration value at the location as a guide,
Some almanacs provide characteristic points and use them as a guide to enlarge or reduce the reference state.

上記平行移動で用いる特徴的な箇所としては、画像の最
小/最大濃度レベル、最小/最大濃度レベルの中点、平
均濃度レベル、最大頻度を示す濃度レベル、濃度頻度分
布におけるピークのうち中位に存在するピークの濃度レ
ベル、濃度頻度分布におけるピークのうち最小、あるい
は最大濃度・を示すピークの濃度レベル等々があり、拡
縮で用いる特徴点は上に述べた特徴点から適尚なものを
複数選択する組合わせによるから、上述より場合の数は
多くなるであろう。また、濃度頻度分布におけるピーク
の探査においても、大きなピークだけを探査する場合で
あるとか、小さなピークだけを探査する場合、あるいは
両方探査する場合も考えられる。そこで、ユーザはプロ
グラムに開発と実験を交互に繰返して、上述した様な特
徴的な箇所を探索し、製分の正規化処理のステップを終
える。
Characteristic points used in the above translation include the minimum/maximum density level of the image, the midpoint of the minimum/maximum density level, the average density level, the density level showing the maximum frequency, and the middle of the peaks in the density frequency distribution. There are concentration levels of existing peaks, concentration levels of peaks that indicate the minimum or maximum concentration among the peaks in the concentration frequency distribution, etc., and multiple suitable feature points to be used for scaling are selected from the above-mentioned feature points. The number of cases may be larger than the above, depending on the combinations to be used. Furthermore, when searching for peaks in the concentration frequency distribution, it is conceivable that only large peaks are searched, only small peaks are searched, or both are searched. Therefore, the user alternately develops and experiments the program, searches for the characteristic points as described above, and completes the step of normalizing the fraction.

(2)の局所的な濃度分布の特徴量による抽出処理とは
、0)の濃度の正規化処理を行った後の画像について、
固有の濃度、あるいは固有の濃度の2次元分布より識別
対象を候補領域として取り出すものである。通常、ある
局所画像内が濃度分布の特徴量を算出し、その値を上記
局所画像の中心に新たな濃度として格納するというフィ
ルタリング。
(2) Extraction processing using feature quantities of local density distribution refers to the image after performing the density normalization processing (0).
The identification target is extracted as a candidate area from the unique density or the two-dimensional distribution of the unique density. Normally, filtering involves calculating the feature amount of the density distribution within a certain local image, and storing that value as a new density at the center of the local image.

空間積和演算等の処理C以後、これを局所濃度特徴演算
処理という)l、対象としている画像の各画素について
施した後、所定のしきい値レベルで2値化するという方
法を用いる。
A method is used in which processing such as spatial product-sum calculation (C, hereinafter referred to as local density feature calculation processing) is performed on each pixel of the target image, and then binarized at a predetermined threshold level.

上記の局所画像内で算出する濃度分布の特徴量としては
、局所画像内の平均濃度、ある特定濃度を持つ画素の個
数、水平、垂直、斜め各方向の局所差分処理を施した後
の上記平均濃度、あるいは特定濃度を待つ画素の個数、
上記平均濃度画像における上記特定濃度画素の個数、局
所−fll!における最大、最小、中位の各濃度1局所
画像における最大−最小濃度、等々様々存在し、同様に
ユーザはプログラム開発と実験を交互に繰返して1局所
画像におけるどのような特徴量が適しているかを探索し
、濃度分布の特徴による候補領域の抽出処 理のステッ
プを終える。
The features of the density distribution calculated in the above local image include the average density in the local image, the number of pixels with a certain density, and the above average after performing local difference processing in each horizontal, vertical, and diagonal direction. density or the number of pixels waiting for a specific density,
The number of the specific density pixels in the average density image, locally -fll! There are various maximum, minimum, and medium densities in one local image, such as maximum and minimum densities in one local image, and similarly, users alternately develop programs and experiments to find out what kind of feature is suitable for one local image. Then, the step of extracting candidate regions based on the characteristics of the concentration distribution is completed.

(3)の幾何学的特徴量による最終抽出処理とは、(2
)で得られた候補領域から、固有の幾何学的特徴、例え
ば面積や周囲長あるいはC周囲長)2/面積値等が所定
の範囲にあるものだけを取シ出すというものである。こ
のステップに関しては、従来からよく研究されており、
実用的な手法も各種提案されてかり説明を省略する。
The final extraction process using geometric features in (3) is (2)
From the candidate regions obtained in ), only those whose unique geometrical features, such as area, perimeter, or C perimeter)2/area value, are within a predetermined range are selected. This step has been well researched and
Various practical methods have also been proposed, and their explanations will be omitted.

すなわち、α)及び(匂のステップにおけるプログラム
開発の作業は、プログラミングと画像処理に関する知識
が豊富な専門家であっても、1〜2ケ月は要するから、
画像処理に無縁な一般ユーザが試行錯誤してアプリケー
ションプログラムラ作成した時には、対象にしていた製
品の検査ラインな。
In other words, the program development work in steps α) and (Oi) takes one to two months, even for experts with extensive knowledge of programming and image processing.
When a general user with no knowledge of image processing created an application program through trial and error, it was difficult to understand the inspection line of the target product.

ど−変してしまい、そのアプリケーションプログラムは
必要の無いものになってしまうことが多い。
In many cases, the application program is no longer needed.

なお以後、α)及び(2)のステップを総称して濃度分
布の特徴による領域分割とhうことKする。
Hereinafter, the steps α) and (2) will be collectively referred to as region division based on the characteristics of the density distribution.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、識別対象の領域を濃度分布の特徴によ
り抽出する領域分割を好適に行なうために、単Km別対
象を含む入力画像を何度力λ取り込むだけで、該領域分
割に必要な種々の条件を容易に決定することにある。
An object of the present invention is to suitably perform region segmentation in which regions to be identified are extracted based on the characteristics of density distribution, by simply capturing an input image containing an object separated by Km a number of times λ. The objective is to easily determine various conditions.

〔発明の概要〕[Summary of the invention]

本発明は、多階調からなる入力画像から、濃度分布の特
徴が所定条件を満たす領域を抽出する領域分割手段を有
し、前記入力画像から識別対象を抽出する画像処理装置
において、前記入力画像に対して識別対象を含むように
識別対象と背景を指定する領域例示手段を設け、その例
示された例示領域内の識別対象及び背景の特徴より、前
記領域分割手段の所定条件を決定するようにしたもので
ある。
The present invention provides an image processing apparatus for extracting an identification target from the input image, which includes an area dividing means for extracting an area in which density distribution characteristics satisfy a predetermined condition from an input image consisting of multiple gradations. A region exemplifying means for specifying an identification object and a background so as to include the identification object is provided, and a predetermined condition for the area dividing means is determined from characteristics of the identification object and the background in the illustrated example region. This is what I did.

〔発明の実施例〕[Embodiments of the invention]

以下1本発明の実施例を図面に従って説明する。 An embodiment of the present invention will be described below with reference to the drawings.

まず、第1図に本発明の基本となる概念を示す。First, FIG. 1 shows the basic concept of the present invention.

第1図における画像処理のアプリケーションとして、薬
剤などの錠剤キズ検査の例を用いる。
As the image processing application in FIG. 1, an example of inspecting tablets for medicine or the like for scratches is used.

従来は、多階調よりなる識別対象C錠剤のキズ)の入力
画像11に対して、ユーザC操作者)は、濃度分布の正
規化処理で探査する特徴的な箇所は最大頻度を示すピー
クにするとか、あるいは局所濃度特徴演算は局所平均処
理にするとか種々のバ。
Conventionally, for an input image 11 of a multi-gradation object C (flaw on a tablet) to be identified, the user (C operator) determines that the characteristic point to be searched for in the density distribution normalization process is the peak showing the maximum frequency. There are various ways to do this, or to use local average processing for local density feature calculations.

ラメータを、操作者の知識、経験、あるいは操作マニュ
アル等に従って予想した上で、設定する。
The parameter is set after being predicted based on the operator's knowledge, experience, or the operating manual.

そして操作者は、その設定したパラメータが領域分割手
段12に反映されるようなプログラムを作成した後、そ
れを実行させ、その結果得られた2値画像13を評価す
るという作業を良好な結果が得られるま°で試行錯誤し
ながら繰り返していたC第1図ブロック14)。
After creating a program in which the set parameters are reflected in the area dividing means 12, the operator executes the program and evaluates the binary image 13 obtained as a result. Block 14 in Figure 1) was repeated through trial and error until the result was obtained.

この様な作業は、非常に時間を要するというコスト的な
問題と、操作者の定性的な評価によるアルゴリズムのあ
いまいさを生じもてしまうという問題があった。
This type of work has the problem of being very time consuming and costly, and of creating ambiguity in the algorithm due to qualitative evaluation by the operator.

そこで、本発明は、上記のような問題点を解決するため
に、ブロック14に示す操作者による条件設定と試行、
評価というステップを削除し、新たに、入力画像内にお
ける識別対象(錠剤のキズ)を含む領域を指定する領域
例示手段15を設け、入力画像全体の濃度分布から、当
該領域例示手段15で例示された識別対象匪背景の濃度
分布だけに画像の情報量を限定してやシ、識別対象と背
景の分離を図る領域分割手段12の条件設定を試行。
Therefore, in order to solve the above-mentioned problems, the present invention involves the operator setting conditions and making a trial as shown in block 14.
The step of evaluation is deleted, and a region exemplifying means 15 is newly provided for specifying a region including the identification target (scratches on a pill) in the input image, and the region exemplifying means 15 is used to specify the area exemplified by the region illustrating means 15 from the density distribution of the entire input image. By limiting the amount of image information to only the density distribution of the background of the identified target, we attempted to set conditions for the area dividing means 12 to separate the identified target from the background.

評価による条件決定手段16を用いて自動化しようとい
うものである。
The purpose is to automate the process using the evaluation-based condition determination means 16.

濃度分布の特徴による領域分割手段120条件設定は、
操作者がその都度プログラミングによって試行、評価す
るには美大な数になシ、数週間、あるいは数ケ月という
長期間を要するものである。
The area dividing means 120 condition settings based on the characteristics of the concentration distribution are as follows:
It would take an enormous amount of time, several weeks, or even months, for the operator to try and evaluate each program using programming.

七こで、領域例示手段15を設けて、そこに例示された
識別対象と背景の関係より、識別対象と背景が最もよく
分離される条件を、あらかじめ準備されている中から所
定の評価尺度のもとて計算機を用いて演算させ、決定す
るようにしたものである。
At this point, an area example means 15 is provided, and based on the relationship between the identification object and the background illustrated therein, the conditions under which the identification object and the background are best separated are determined according to a predetermined evaluation scale from among those prepared in advance. Originally, a computer was used to perform calculations and make decisions.

続いて第2図を用いて、本実施例である画像処理装置の
全体構成を説明する。
Next, the overall configuration of the image processing apparatus according to this embodiment will be explained using FIG. 2.

本実施例は、識別対象を撮像するテレビカメラ21、当
該テレビカメラ21のアナログ信号をデジタル信号に変
換したり、逆にデジタル信号をアナログ信号に変換する
信号変換器22、識別対象の入力多階調画像や2値画像
等を記憶する濃淡及び2値画像メモリ23、当該濃淡及
び2値画像メモリ23に格納されている入力多階調画像
から、濃度分布の特徴が所定の条件を満す領域を抽出し
、再び濃淡及び2値画像メモリ23に2値画像として格
納する領域分割手段24、濃淡及び2値画像が表示され
、しかも入力画像内における識別対象を含む領域を操作
者が指定できる領域例示手段25、領域分割手段24の
濃度頻度分布正規化処理に必要な諸条件を、複数の入力
画像に対して上記条件をそれぞれ複数想定して試行、評
価することにより、最適な条件を決定する濃度分布正規
化評価部26、領域分割手段24の局所濃度特徴演算処
理と最終的な2値化に必要な諸条件を、複数の入力画像
に対して上記条件をそれぞれ複数想定して試行−・評価
することにより、最適な条件を決定する局所濃度特徴評
価部27、主に全体の管理を行う例示管理部28、中ヤ
ラクタを表示するコンソールモニタ29、操作者がデー
タを入力できるキーボード30より構成されている。
This embodiment includes a television camera 21 that takes an image of an identification target, a signal converter 22 that converts an analog signal of the television camera 21 into a digital signal, or conversely, a digital signal into an analog signal, and a multi-level input of the identification target. A gradation and binary image memory 23 that stores tone images, binary images, etc., and an area where the characteristics of the density distribution satisfy a predetermined condition from the input multi-gradation image stored in the gradation and binary image memory 23. an area dividing means 24 for extracting the image and storing it again as a binary image in the grayscale and binary image memory 23; Optimal conditions are determined by testing and evaluating various conditions necessary for the density frequency distribution normalization processing of the illustrating means 25 and the region dividing means 24 by assuming a plurality of the above conditions for a plurality of input images. The various conditions necessary for the local density feature calculation processing and final binarization of the density distribution normalization evaluation unit 26 and the area dividing unit 24 are tested by assuming a plurality of the above conditions for a plurality of input images. Consists of a local concentration feature evaluation section 27 that determines optimal conditions through evaluation, an example management section 28 that mainly performs overall management, a console monitor 29 that displays middle-class information, and a keyboard 30 that allows the operator to input data. has been done.

尚、第1図の試行・評価による条件決定手段16は、第
2図の濃度分布正規化評価部26、局所濃度特徴評価部
27、例示管理部2B(一部1に相当する。また、領域
例示手段25(第1図では15)はCRTとタブレット
、マウス等の座標入力媒体で構成するのが一般的ではあ
るが、ディジタイザ、トラツフボール、ライトペンとの
組合せ、更に最°近開発されている座標入力媒体である
入力一体化平面ディスプレイ等のマン、マシンインタフ
ェースを用いてもよい。また、キーボードから座標値を
直接指定してもよい。要するに識別対象の領域を例示で
きる手段であれば何でもかまわない。
Incidentally, the condition determining means 16 based on trial and evaluation in FIG. The exemplary means 25 (15 in FIG. 1) is generally composed of a coordinate input medium such as a CRT, a tablet, or a mouse, but a combination of a digitizer, a trough ball, a light pen, and more recently developed devices are also available. A man-machine interface such as an input-integrated flat display as a coordinate input medium may be used.Also, coordinate values may be directly specified from a keyboard.In short, any means that can exemplify the area to be identified may be used. do not have.

全体の動作を説明する前に、第3図及び第4図を用いて
領域分割手段24の内部構成とその各部の機能及び動作
を説明しておくことにする。
Before explaining the overall operation, the internal structure of the region dividing means 24 and the functions and operations of each part thereof will be explained using FIGS. 3 and 4.

領域分割手段24は、第3図に示されるように濃淡・2
値画像メモリ23の入力画像等の情報から例示管理部2
8の管理の下で、識別対象の領域を抽出するものである
。以下、内部構成を詳述すれば、濃度頻度分布正規化処
理に用いる濃度頻度分布の特徴的な箇所【例えば、最大
頻度を示すピーク)の濃度レベルを、濃淡・2値画像メ
モリ23に格納されている入力画像及び基準画像から求
める濃度頻度分布特徴箇所抽出部31、幽該濃頻度度分
布特徴箇所抽出部31か算出すべき特徴箇所のコード、
及び濃度頻度分布特徴箇所抽出部31が基準画像に対し
て上記特徴箇所のコードに従って抽出した特徴箇所を記
憶している正規化パラメータ記憶部32、濃度頻度分布
特徴箇所抽出部31が入力画像に対して求めた特徴箇所
と正規化パラメータ記憶部32が記憶している基準画像
の特徴箇所を一致させる入力画像の!1度頻度分布正規
化処理を実行する濃度頻度分布正規化処理部33、当該
濃度頻度分布正規化処理部33が出力した新たな画像に
対して、局所濃度特徴演算処理を実行する局所濃度特徴
演算処理部34、当該局所濃度特徴演算処理部34で実
行すべき局所濃度特徴演算のコード(例えば平均濃度の
コード)を記憶している特徴演算パラメータ記憶部35
、局所濃度特徴演算処理部34が出力した新たな画像に
対して所定の2値化処理を実行する2値化処理部36、
当該2値化処理部36で実行すべき2値化のコードとそ
のしきい値を記憶している2値化パラメータ記憶部37
より構成されている。
As shown in FIG.
The example management unit 2 uses information such as input images in the value image memory 23.
8, the region to be identified is extracted. Describing the internal configuration in detail below, the density level of a characteristic part of the density frequency distribution (for example, the peak indicating the maximum frequency) used for the density frequency distribution normalization process is stored in the gradation/binary image memory 23. A code for a feature location to be calculated by the density frequency distribution feature location extraction unit 31 and the density frequency distribution feature location extraction unit 31 obtained from the input image and the reference image,
and a normalization parameter storage unit 32 that stores the feature parts extracted by the density frequency distribution feature part extraction unit 31 from the reference image according to the code of the feature part mentioned above, of the input image that matches the feature locations found in the reference image stored in the normalization parameter storage unit 32! A density frequency distribution normalization processing unit 33 that performs frequency distribution normalization processing once, and a local density feature calculation that performs local density feature calculation processing on a new image output by the density frequency distribution normalization processing unit 33. a processing unit 34; a feature calculation parameter storage unit 35 that stores a code for local density feature calculation (for example, an average density code) to be executed by the local density feature calculation processing unit 34;
, a binarization processing unit 36 that performs predetermined binarization processing on the new image output by the local density feature calculation processing unit 34;
A binarization parameter storage unit 37 that stores the binarization code to be executed by the binarization processing unit 36 and its threshold value.
It is composed of

次に、第4図を用いて上記領域分割手段24の動作を説
明する。
Next, the operation of the area dividing means 24 will be explained using FIG. 4.

まずステップ41において、領域分割手段に必要な条件
、すなわち正規化パラメータ記憶部32に1、抽出すべ
き特徴箇所のコード、特徴演算パラメータ記憶部35に
、局所@度特徴演算のコード、2値化パラメータ記憶部
37に2値化のコードと゛しきい値を入力し、さらに濃
淡・z値画像メモリ23の内部にある基準a!i*記滝
部231に、濃度5rJt分布正規化処理の基準になる
基準画像を、そして入力画像記憶部232に対象として
いる画像を格納した後、領域分割手段24を起動する。
First, in step 41, the necessary conditions for the area division means are set, namely, 1 in the normalization parameter storage section 32, a code of the feature location to be extracted, a code for the local @ degree feature operation in the feature calculation parameter storage section 35, and a binary value. The binarization code and threshold value are input into the parameter storage unit 37, and the reference a! After storing a reference image serving as a reference for density 5rJt distribution normalization processing in the i* recording section 231 and storing a target image in the input image storage section 232, the area dividing means 24 is activated.

  。  .

そこで、ステップ42において濃度頻度分布特徴箇所抽
出部31により、まず基準画像記憶部2310基準画像
に対して濃度レベル(pts9m )を求め、正規化パ
ラメータ記憶部32に記憶されている特徴箇所のコード
(例えば、比較的大きな範囲で求めたピークのうち頻度
値の大きい2つのピークを特徴箇所として供給すること
を示すコード)に従って特徴箇所を抽出してその濃°度
レベル(pt 、 ps  )′fI:正規化パラメー
タ記憶部32に特徴箇所のコード共に格納し、同様に入
力画像記憶部232の入力画像に対して、特徴箇所を抽
出し、その濃度レベル(pt′、pz’)を濃度頻度分
布正規化処理部33に転送する。
Therefore, in step 42, the density frequency distribution feature extraction unit 31 first obtains the density level (pts9m) for the reference image in the reference image storage unit 2310, and the code (pts9m) of the feature location stored in the normalization parameter storage unit 32 ( For example, a feature point is extracted according to a code indicating that two peaks with large frequency values are supplied as feature points among peaks found in a relatively large range, and its concentration level (pt, ps)'fI: The code of the feature location is stored in the normalization parameter storage unit 32, and the feature location is similarly extracted from the input image in the input image storage unit 232, and its density level (pt', pz') is calculated based on the density frequency distribution normal. The data is transferred to the conversion processing unit 33.

次にステップ43において、濃度頻度分布正規。Next, in step 43, the concentration frequency distribution is normalized.

化処理部33が、入力画像記憶部232の入力画像の特
徴箇所を基準画像の特徴箇所に一致させる濃度の正規化
処理を行い、その結果得られる新たな画像を濃淡・2値
画像メモリ23内の正規化画像記憶部233に格納する
。濃度頻度分布正規化処理部33の行う濃度の変換は例
えば、′基準画像における特徴箇所の濃度レベルをpz
e p2とし、入力画像の特徴箇所を91’ + 9 
z’とした時、(但しNは濃度階調の最大値) で表されるような変換直線に従って、入力画像の濃度レ
ベルp′を新たな濃度レベルpに線形変換したシ、一つ
の特徴点pl及びp1′に対して、り= 1)’ +(
pt −1)t’)で表されるような平行移動を施した
りするものである。
The normalization processing unit 33 performs density normalization processing to match the feature parts of the input image in the input image storage unit 232 with the feature parts of the reference image, and stores the resulting new image in the density/binary image memory 23. The image data is stored in the normalized image storage unit 233 of . The density conversion performed by the density frequency distribution normalization processing unit 33 is performed, for example, by converting the density level of a characteristic point in the reference image into pz
e p2, and the characteristic parts of the input image are 91' + 9
When the density level p' of the input image is linearly converted to a new density level p according to the conversion straight line expressed as (where N is the maximum value of the density gradation), one feature point is defined as z'. For pl and p1', ri = 1)' + (
pt-1)t').

次にステップ44において、局所濃度特徴演算処理部3
4が正規化画像記憶部233に対して、特徴演算パラメ
ータ記1部35に記憶されている局所濃度特徴演算のコ
ード【例えば、3×3の局所画像内の最小濃度をその中
心画像に格納するという演St−全画素に渡って行うと
いうフィルタリング処理を示すコード)に従って、所定
の局所濃度特徴演算を実行し、その結果を濃淡・21i
![画像メモリ23内の局所特徴画像記憶部234に格
納する。
Next, in step 44, the local density feature calculation processing unit 3
4 is sent to the normalized image storage unit 233, and the local density feature calculation code stored in the feature calculation parameter register 1 unit 35 [for example, the minimum density in a 3×3 local image is stored in the center image. A predetermined local density feature calculation is performed according to the operation St-code indicating a filtering process that is performed over all pixels, and the result is
! [Stored in the local feature image storage unit 234 in the image memory 23.

次にステップ45において、2値化処理部36が1局所
特徴画像記憶部2340画像に対して2値化パラメータ
記憶部37に記憶されている2値化コードC例えば、あ
るしきい値Tより下を1とし−それ以外をφとすること
を示すコード)としきい値により2値化を実行し、その
結果を濃淡・2値画像メモリ23内の2値画像記憶部2
35に格納する。以上が、領域分割手段24の動作であ
る。
Next, in step 45, the binarization processing unit 36 applies the binarization code C stored in the binarization parameter storage unit 37 to one local feature image storage unit 2340 image, for example, if it is lower than a certain threshold value T. is set to 1 - other values are set to φ)) and the threshold value is used to perform binarization, and the result is stored in the binary image storage unit 2 in the grayscale/binary image memory 23.
35. The above is the operation of the area dividing means 24.

次に第3図〜第6図を用いて第2図に示す本実施例にお
ける画像処理装置全体の動作を説明する。
Next, the operation of the entire image processing apparatus in this embodiment shown in FIG. 2 will be explained using FIGS. 3 to 6.

第5図に示すように、本実施例の画像処理装置の動作は
大きく、ステップ51〜ステツプ54で示される濃度頻
度分布正規化処理の条件決定及びステップ55〜ステツ
プ57で示される局所濃度特徴演算と2値化処理の条件
決定の2つのサイクルに分かれる。
As shown in FIG. 5, the operation of the image processing apparatus of this embodiment is largely comprised of determining conditions for density frequency distribution normalization processing shown in steps 51 to 54 and local density feature calculation shown in steps 55 to 57. The process is divided into two cycles: and determining conditions for binarization processing.

前者の濃度頻度分布正規化処理の条件決定サイクルでは
まず、ステップ51において、コンソールモニタ29に
表示されるメツセージに従って、操作者がテレビカメラ
21に基準画像とすべき識別対象を撮像してキーボード
30から基準画像の取込みを指定する。すると例示管理
部28の管理下において、上記識別対象は信号変換器2
2を介して濃淡・2値画像メモリ23の内部にある基準
画像記憶部231に多階調画像として格納される。
In the former condition determination cycle for density frequency distribution normalization processing, first, in step 51, the operator takes an image of the identification target to be used as a reference image on the television camera 21 according to a message displayed on the console monitor 29, and then inputs the image from the keyboard 30. Specify the reference image to be captured. Then, under the management of the example management section 28, the above-mentioned identification target is the signal converter 2.
2, the image is stored as a multi-tone image in the reference image storage section 231 inside the grayscale/binary image memory 23.

次に、コンソールモニタ29に表示されているメツセー
ジに従って操作者は、領域例示手段25を用いて、該領
域例示手段25に表示されている識別対象を見ながら、
識別対象の領域とそれを含む背景の領域を第6図に示す
ように、領域例示手段25の画面を入力媒体でストロー
クすることにより例示を行なう。
Next, in accordance with the message displayed on the console monitor 29, the operator uses the area illustrating means 25 to view the identification target displayed on the area illustrating means 25.
As shown in FIG. 6, the area to be identified and the background area including the area are illustrated by stroking the screen of the area illustrating means 25 with an input medium.

操作者に対して例示方法は第6図の(a)画面61及び
(b)Ii!i面62に示すようFC2種類準備してお
り、(a)の画面61に示した方法は、例示する識別対
象63や背景64が十分大きく単純である場合に、識別
対象63や背景64を図に示すように、囲み領域を例示
するようにしたものである。一方、(b)の画面62に
示した方法は、例示する識別対象65や背景66が小さ
い、あるいは複雑な場合に、領域を塗りつぶすように例
示するようにしたものである。なお、識別対象や背景の
濃度分布の特徴が極めて一様であれば、それぞれの領域
の一部を例示するだけで良いのは言うまでもない。
An example method for the operator is shown in FIG. 6 (a) screen 61 and (b) Ii! Two types of FC are prepared as shown in the i-side 62, and the method shown in the screen 61 of (a) is suitable for illustrating the identification object 63 and the background 64 when the identification object 63 and the background 64 are sufficiently large and simple. The enclosed area is illustrated as shown in FIG. On the other hand, the method shown in the screen 62 of (b) is such that when the identified object 65 or the background 66 is small or complex, the area is filled in as an example. It goes without saying that if the characteristics of the density distribution of the object to be identified and the background are extremely uniform, it is sufficient to exemplify only a part of each region.

操作者による領域の例示が終了すれば次に1例示管理部
28は、領域例示手段25で例示された識別対象と背景
の例示領域をそれぞれ記憶し、濃度分布正規化評価部2
6に対して、上記それぞれの領域における単位面積当り
の濃度頻度分布を算出させ、それを記憶させる。
When the operator finishes illustrating the region, the example management section 28 stores the example regions of the identification target and the background exemplified by the region exemplification means 25, and then sends them to the density distribution normalization evaluation section 2.
6, the concentration frequency distribution per unit area in each of the above regions is calculated and stored.

ここで、上記の単位面積当りの濃度頻度分布とは、濃度
頻度分布の各頻度値に、その領域の面積の逆数を乗じた
濃度頻度分布を言う。
Here, the above concentration frequency distribution per unit area refers to a concentration frequency distribution obtained by multiplying each frequency value of the concentration frequency distribution by the reciprocal of the area of the region.

この基準画像における識別対象及び背景の単位面積当り
の濃度頻度分布は、後に各種正規化条件の評価に用いる
ものである。
The density frequency distribution per unit area of the identification target and background in this reference image will be used later for evaluation of various normalization conditions.

次ニステップ52において、コンソールモニタ29に表
示されているメツセージに従って操作者は、識別対象に
照射される照明や識別対象と背景のコントラスト等を、
実際の識別時に予想される程度に変化させて、再び識別
対象を撮像し、画像取込みの指令をキーボード30によ
り入力する。
In the next step 52, the operator adjusts the illumination illuminated on the identification target, the contrast between the identification target and the background, etc. according to the message displayed on the console monitor 29.
The object to be identified is imaged again after being changed to the extent expected during actual identification, and a command to capture the image is input using the keyboard 30.

すると、例示管理部28の管理下において、上記識別対
象の画像が、濃淡・2値画像メモリ23の内部にある入
力画像記憶部232に格納される。
Then, under the management of the example management section 28, the image to be identified is stored in the input image storage section 232 inside the gray scale/binary image memory 23.

次に%コンソールモニタ29に表示されているメツセー
ジに従って操作者は、領域例示手段25を用いて、ステ
ップ51と同様に識別対象と背景を例示し、その例示結
果C単位面積あたりの濃度頻度分布)が濃度分布正規化
評価部26に新たに記憶される。
Next, in accordance with the message displayed on the % console monitor 29, the operator uses the area illustrating means 25 to exemplify the identification target and background in the same manner as in step 51, and the illustrative result C) is the concentration frequency distribution per unit area. is newly stored in the concentration distribution normalization evaluation unit 26.

次にステップ53において、濃度分布正規化評価部26
が、現時点で最適な濃度頻度分布正規化条件、すなわち
最適な特徴箇所コードを導き出し、領域分割手段24の
正規化パラメータ記憶部32にそれを格納する。次に例
示管理部28が、領域分割手段24をそのまま起動した
後、濃淡・2値画像メモリ23の内部にある正規化画像
記憶部233を領域例示手段25に表示する。
Next, in step 53, the concentration distribution normalization evaluation unit 26
However, the currently optimal concentration frequency distribution normalization condition, that is, the optimal feature location code is derived and stored in the normalization parameter storage section 32 of the region dividing means 24. Next, the example management section 28 activates the area dividing means 24 as is, and then displays the normalized image storage section 233 inside the gray scale/binary image memory 23 on the area example means 25.

次にステップ54において、コンソールモニタ29に表
示されているメツセージく従って操作者が処理を続行す
るか否かを決断し、キーボード30によシ意志表示する
。ここでキー人力が続行であれば再びステップ52へ戻
り、そして否であれば濃度頻度分布正規化処理の条件決
定サイクルが終了し、次へ進む。
Next, in step 54, the operator decides whether or not to continue the process in accordance with the message displayed on the console monitor 29, and indicates his intention on the keyboard 30. Here, if the key human power continues, the process returns to step 52, and if not, the condition determining cycle for the density frequency distribution normalization process is completed and the process proceeds to the next step.

ここで、第7図及び第8図を用いて濃度分布正規化評価
部26の内部構成と動作を説明する。
Here, the internal configuration and operation of the concentration distribution normalization evaluation section 26 will be explained using FIGS. 7 and 8.

濃度分布正規化評価部26は第7図に示すように1例示
管理部28に記憶されている識別対象及び背景の例示領
域における濃淡・2値画像メモリ23内の画像記憶部2
31あるいは入力画像記憶部2320単位面積当りの濃
度頻度分布を算出する濃度頻度分布算出部71、基準画
像記憶部231における識別対象の領域の単位面積当り
の濃度頻度分布を記憶する基準画像対象濃度分布記憶部
72、基準画像記憶部231における背景の領域の単位
面積当りの濃度頻度分布を記憶する基準画像背景濃度分
布記憶部73、あらかじめ、多数準備されている特徴箇
所コードによって正規化されて得られた正規化画像記憶
部233それぞれKおける識別対象の領域の単位面積当
りの濃度頻度分布を記憶する正規化画像対象濃度分布記
憶部74、あらかじめ多数準備されている特徴箇所コー
ドによって正規化されて得られた正規化画像記憶部23
3それぞれKおける背景の領域の単位面積当りの濃度頻
度分布を記憶する正規化画像背景濃度分布記憶部75.
基準画像対象濃度分布記憶部72及び基準画像背景濃度
分布記憶部73に対する正規化画像対象濃度分布記憶部
74及び正規化画像背景濃度分布記憶部75のずれ量を
算出するずれ量算出゛郁76、当該ずれ量算出部76に
ょシ算出される各特徴箇所コードに対応するずれ量を記
憶するずれ量記憶部77、当該ずれ量記憶部77に記憶
されているずれ量のうちの最小値を検出して、その最小
値に対応する特徴箇所コードを領域分割手段24の正規
化パラメータ記憶部32に格納するずれ量比較処理部7
8よシ構成されている。
As shown in FIG. 7, the density distribution normalization evaluation section 26 uses the image storage section 2 in the shading/binary image memory 23 in the example regions of the identification target and the background stored in the example management section 28.
31 or the input image storage unit 2320, the density frequency distribution calculation unit 71 that calculates the density frequency distribution per unit area, and the reference image target density distribution that stores the density frequency distribution per unit area of the area to be identified in the reference image storage unit 231. A storage unit 72, a reference image background density distribution storage unit 73 that stores the density frequency distribution per unit area of the background area in the reference image storage unit 231, a reference image background density distribution storage unit 73 that stores the density frequency distribution per unit area of the background region, which is normalized and obtained using a large number of feature location codes prepared in advance. A normalized image target density distribution storage unit 74 stores the density frequency distribution per unit area of the area to be identified in each of the normalized image storage units 233 and 233. Normalized image storage unit 23
3. Normalized image background density distribution storage unit 75 for storing the density frequency distribution per unit area of the background area in each of K.
Shift amount calculation for calculating the shift amount of the normalized image target density distribution storage unit 74 and the normalized image background density distribution storage unit 75 with respect to the reference image target density distribution storage unit 72 and the reference image background density distribution storage unit 73; The deviation amount calculation unit 76 detects the minimum value of the deviation amounts stored in the deviation amount storage unit 77 that stores the deviation amount corresponding to each feature point code calculated. and a deviation amount comparison processing unit 7 that stores the feature point code corresponding to the minimum value in the normalization parameter storage unit 32 of the area dividing means 24.
It is made up of 8 parts.

以下、動作を第8図も参照しながら説明する。The operation will be described below with reference to FIG. 8 as well.

まず、第5図におけるステップ51で起動されると、濃
度頻度分布算出部71が、例示管理部28で記憶してい
る識別対象及び背景の例示領域における濃淡・2値画儂
メモリ23の基準画像記憶部231の単位面積当りの濃
度頻度分布を算出し、その結果を基準画像対象濃度分布
記憶部72及び基準画像背景濃度分布記憶部73にそれ
ぞれ格納する。
First, when activated at step 51 in FIG. The density frequency distribution per unit area of the storage unit 231 is calculated, and the results are stored in the reference image target density distribution storage unit 72 and the reference image background density distribution storage unit 73, respectively.

第5図におけるステップ54で起動される場合は第8r
gJに示すようにまず、ステップ8工において、例示管
理部28があらかじめ多数準備されている特徴箇所コー
ドの一つを選択し、領域分割手段24の正規化パラメー
タ記憶部32に格納する。
8r if activated in step 54 in FIG.
As shown in gJ, first, in step 8, the example management section 28 selects one of the feature location codes prepared in advance and stores it in the normalization parameter storage section 32 of the area division means 24.

正規化パラメータの設定すなわちステップ81が終了し
た後、ステップ82に移行する。
After setting the normalization parameters, that is, step 81, the process moves to step 82.

次にステップ82では、例示管理部28が領域分割手段
24を起動した後、濃度分布正規化評価部26の濃度頻
度分布算出部71が、例示管理部2.8で記憶している
識別対象及び背景の例示領域における濃淡・2値画像メ
モリ23内の正規化画像記憶部233の単位面積当りの
濃度頻度分布を算出し、それぞれ、特徴箇所コードに対
応する正規化IMgI!対象濃度分布記憶部74及び正
規化画像背景濃度分布記憶部75に格納する。
Next, in step 82, after the example management section 28 activates the area division means 24, the concentration frequency distribution calculation section 71 of the concentration distribution normalization evaluation section 26 calculates the identification target and the number stored in the example management section 2.8. The density frequency distribution per unit area of the normalized image storage unit 233 in the gradation/binary image memory 23 in the example area of the background is calculated, and the normalized IMgI! corresponding to the feature location code is calculated. It is stored in the target density distribution storage unit 74 and the normalized image background density distribution storage unit 75.

次にステップ83において、現在束められた特徴箇所コ
ードに対応する正規化画像背景濃度分布記憶部74及び
正規化画像背景濃度分布記憶部75と基準画像対象濃度
分布記憶部72及び基準画像背景濃度分布記憶部73と
のずれ量を算出し、前回の例示までに求まっているずれ
量77に加え、新たに今回のずれ量として、ずれ量記憶
部77に格納する。
Next, in step 83, the normalized image background density distribution storage unit 74, the normalized image background density distribution storage unit 75, the reference image target density distribution storage unit 72, and the reference image background density corresponding to the currently bundled feature location codes are stored. The amount of deviation from the distribution storage unit 73 is calculated and stored in the deviation amount storage unit 77 as a new amount of deviation this time in addition to the amount of deviation 77 determined up to the previous example.

以上の処理を例示管理部28の管理下で、すべての特徴
箇所コードについて行った後、ステップ84において、
ずれ量比較処理部7Bが、ずれ量77の最小値を検出し
、その最小値に対応する特徴箇所コードを領域分割手段
24の正規化パラメータ記憶部32に格納する。
After performing the above processing for all feature location codes under the management of the example management unit 28, in step 84,
The deviation amount comparison processing section 7B detects the minimum value of the deviation amount 77, and stores the feature location code corresponding to the minimum value in the normalization parameter storage section 32 of the area dividing means 24.

以上が濃度分布正規化評価部26の動作である。The above is the operation of the concentration distribution normalization evaluation section 26.

ここで第5図に戻り、局所濃度特徴演算と2値化処理の
条件決定サイクルの動作〈りいて説明する。
Returning now to FIG. 5, the operation of the condition determination cycle for local density feature calculation and binarization processing will be explained.

マスステラ7’551Cおいて、コンソールモニタ29
11C表示されているメツセージに従って操作者は、ス
テップ52と同様に識別対象を撮儂し、画at取込み、
やはりステップ51で行ったのと同様に領域を例示する
In Mastela 7'551C, console monitor 29
In accordance with the message displayed in step 11C, the operator photographs the object to be identified in the same way as in step 52, captures the image,
Again, the regions are illustrated in the same way as in step 51.

次にステップ56において、局所濃度特徴評価部27が
、現時点で最適な局所濃度特徴演算処理の条件、すなわ
ち最適な局所濃度特徴コード及び2値化コードとしきい
値を導き出し、領域分割手段24の特徴演算パラメータ
記憶部35及び2値化パラメータ記憶部374Cそれぞ
れ格納する。次に1例示管理部28が、領域分割手段2
4をその神ま起動した後、濃淡・2値画偉メモリ23の
内部にある2値画像記憶部235を領域例示手段25に
表示する。
Next, in step 56, the local density feature evaluation unit 27 derives the currently optimal conditions for local density feature calculation processing, that is, the optimal local density feature code, binarization code, and threshold value, and calculates the characteristics of the region dividing means 24. The calculation parameter storage section 35 and the binarization parameter storage section 374C each store the parameters. Next, the example management unit 28
4 is activated, the binary image storage section 235 inside the gradation/binary image size memory 23 is displayed on the area illustrating means 25.

次にステップ57において、コンソールモニタに表示さ
れているメツセージ忙従って操作者が処理を続行するか
否かを決断し、キーボード30により意志表示する。こ
こでキー人力が続行であれば再びステップ55へ戻り、
そして否であれば局所濃度特徴演算と2値化処理の条件
決定サイクルが終了する。
Next, in step 57, the operator decides whether or not to continue the process based on the message displayed on the console monitor, and indicates his/her intention using the keyboard 30. If the key force continues here, return to step 55 again,
If not, the condition determination cycle for local density feature calculation and binarization processing ends.

ここで、第9図から第10図を用いて局所濃度特徴評価
部27の内部構成と動作を説明する。
Here, the internal configuration and operation of the local density feature evaluation section 27 will be explained using FIGS. 9 and 10.

局所濃度特徴評価部27は、あらかじめ多数準備されて
いる局所濃度特徴コードによって局所濃度特徴演算が施
されて得られた局所特徴画像記憶部234各々に対して
、識別対象と背景の領域の単位面積当りの濃度頻度分布
を算出する特徴画像濃度頻度分布算出部91、当該特徴
画像濃度頻度分布算出部91によって算出された識別対
象と背景の領域の単位面積当妙の濃度頻度分布を、各局
所濃度特徴コードに対応して記憶する特徴画像対象濃度
頻度分布記憶部92%及び特徴画像背景濃度頻度分布記
憶部93%当該特徴画像対象濃度頻度分布記憶部92及
び特徴画像背景濃度頻度分布記憶部93を、例示を重ね
るごとにそれぞれ累積する対象分布累積演算部94、及
び背景分布累積演算部95、当該対象分布累積演算部9
4及び背景分布累積演算部95が累積した各局所特徴コ
ードに対応する濃度頻度分布を記憶する特徴画像対象累
積濃度頻度分布記憶部96及び特徴画像背景累積濃度頻
度分布記憶部97%当該特徴画像対象累積濃度頻度分布
記憶部96及び特徴画像背景累積濃度頻度分布記憶部9
7から、最適な局所濃度特徴コード及び2値化コードと
しきい値を導き出し、領域分割手段24の特徴演算パラ
メータ記憶部35及び2値化パラメータ記憶部37に格
納する特徴演算・2値化パラメータ決定N98より構成
されている。
The local density feature evaluation unit 27 calculates unit areas of the identification target and background regions for each local feature image storage unit 234 obtained by performing local density feature calculations using a large number of local density feature codes prepared in advance. A feature image density frequency distribution calculation unit 91 that calculates the density frequency distribution of the hit density frequency distribution calculates the density frequency distribution of the unit area of the identification target and the background region calculated by the feature image density frequency distribution calculation unit 91, and calculates each local density. A feature image target density frequency distribution storage unit 92% and a feature image background density frequency distribution storage unit 93% are stored in correspondence with the feature code. , a target distribution cumulative calculation unit 94 that accumulates each example, a background distribution cumulative calculation unit 95, and a target distribution cumulative calculation unit 9.
4 and a feature image object cumulative density frequency distribution storage unit 96 and a feature image background cumulative density frequency distribution storage unit 97% that store the density frequency distribution corresponding to each local feature code accumulated by the background distribution cumulative calculation unit 95. Cumulative density frequency distribution storage unit 96 and feature image background cumulative density frequency distribution storage unit 9
7, the optimum local concentration feature code, binarization code, and threshold are derived and stored in the feature calculation parameter storage unit 35 and the binarization parameter storage unit 37 of the region dividing means 24. Feature calculation/binarization parameter determination It is composed of N98.

次に第1θ図を用いて動作を説明する。Next, the operation will be explained using FIG. 1θ.

まず、ステップ101において、例示管理部28が、多
数準備されている局所濃度特徴演算コードの一つを、領
域分割手段24の特徴演算パラメータ記憶部32に格納
する。
First, in step 101, the example management unit 28 stores one of the many prepared local density feature calculation codes in the feature calculation parameter storage unit 32 of the region dividing means 24.

次にステップ102では、例示管理部28によって領域
分割手段24を起動した後、局所濃度特徴評価部27の
特徴画像濃度頻度分布算出部91が、例示管理部28で
記憶している識別対象及び背景の例示領域における濃淡
・2値画儂メモリ23内の局所特徴画像記憶部234の
単位面積当りの濃度頻度分布を算出し、それぞれ局所濃
度特徴演算コードに対応する特徴画像対象濃度頻度分布
記憶部92及び特徴画像背景濃度頻度分布記憶部93に
格納する。
Next, in step 102, after the example management unit 28 activates the area division means 24, the feature image density frequency distribution calculation unit 91 of the local density feature evaluation unit 27 calculates the identification target and background stored in the example management unit 28. Calculates the density frequency distribution per unit area of the local feature image storage unit 234 in the gradation/binary image memory 23 in the exemplary region, and calculates the density frequency distribution per unit area of the local feature image storage unit 234 in the gradation/binary image memory 23, and stores the density frequency distribution storage unit 92 of the feature image object corresponding to each local density feature calculation code. and stored in the characteristic image background density frequency distribution storage unit 93.

次にステップ103において、上記で求められた局所濃
度特徴演算コードに対応する特徴画像対象濃度頻度分布
記憶部92及び特徴画像背景濃度頻度分布記憶部93が
、それぞれ対象分布累積演算部94及び背景分布累積演
算部95によって、特徴画像対象累積濃度頻度分布記憶
部96及び特徴画像背景累積濃度頻度分布記憶部97の
内容に加えられ、累積される。
Next, in step 103, the feature image target density frequency distribution storage unit 92 and the feature image background density frequency distribution storage unit 93 corresponding to the local density feature calculation code obtained above are activated by the target distribution cumulative calculation unit 94 and the background distribution, respectively. The cumulative calculation unit 95 adds and accumulates the contents of the feature image object cumulative density frequency distribution storage unit 96 and the feature image background cumulative density frequency distribution storage unit 97.

以上の処理を、すべての局所濃度特徴演算コードについ
て繰返した後、ステップ104において、特徴画像対象
累積濃度頻度分布記憶部96及び特徴画像背景累積濃度
頻度分布記憶部97から、最適な局所濃度特徴演算コー
ド及び2値化コードとそのしきい値を導き出し、それら
を領域分割手段24の特徴演算パラメータ記憶部35及
び2値化パラメータ記憶部37に格納する。
After repeating the above processing for all local density feature calculation codes, in step 104, the optimum local density feature calculation is performed from the feature image target cumulative density frequency distribution storage unit 96 and the feature image background cumulative density frequency distribution storage unit 97. The code, the binarization code, and its threshold value are derived and stored in the feature calculation parameter storage unit 35 and the binarization parameter storage unit 37 of the area dividing means 24.

次に第11図〜第14図を用いて特徴演算・2値化パラ
メータ決定部98の内部構成及び動作を説明する。
Next, the internal configuration and operation of the feature calculation/binarization parameter determination section 98 will be explained using FIGS. 11 to 14.

特徴演算・2値化パラメータ決定部98は第11図に示
すように、各局所濃度特徴演算コードに対応する特徴画
像対象累積濃度頻度分布記憶部96及び特徴画像背景累
積濃度頻度分布記憶部97に対する2値化のしきい値を
算出する2値化しきい値算出部111(なお、2値化し
きい値算出部はしきい値の算出方法が異なるものが複数
準備されている・・・・・・2値化しきい値算出部11
1’ 。
As shown in FIG. 11, the feature calculation/binarization parameter determination unit 98 stores data for the feature image target cumulative density frequency distribution storage unit 96 and the feature image background cumulative density frequency distribution storage unit 97 corresponding to each local density feature calculation code. A binarization threshold calculation unit 111 that calculates a binarization threshold (note that a plurality of binarization threshold calculation units with different threshold calculation methods are prepared). Binarization threshold calculation unit 11
1'.

111“1、当該2値化しきい値算出部111で算出さ
れる各局所濃度特徴演算コードに対応するしきい値を記
憶する2値化しきい値記憶部112(なお、2値化しき
い値算出部1工1’、111“に対応して、それぞれ2
値化しきい値記憶部112’、112“が存在する)、
当該各局所濃度特徴演算コードに対応する2値化しきい
値112とそれぞれに対応する上記特徴画像対象累積濃
度頻度分布記憶部96及び特徴画像背景累積濃度頻度分
布記憶部97から、z値化の評価値を算出する2値化評
価値算出部113、当tXz値化肝価値算出部113で
算出される各局所濃度特徴演算コードに対応する2値化
評価値を記憶する2値化評価値記憶部114Cなお、こ
れも各2値化しきい値算出部111’ 、111“に対
応して2値化評価値記憶部114’、114“が存在す
る)、当該2値化評価値記憶部114,114’、11
4“の最大値を検出して、その最大値に対応する2値化
しきい値算出部のコードとそのしきい値及び局所濃度特
徴演算コードを領域分割手段24の所定のパラメータ記
憶部に格納する評価値比較演算115よシ構成されてい
る。
111"1, the binarization threshold storage unit 112 that stores the threshold value corresponding to each local concentration feature operation code calculated by the binarization threshold calculation unit 111 (in addition, the binarization threshold calculation unit 2 pieces each corresponding to 1 piece 1' and 111''
(there are valorization threshold storage units 112', 112''),
Evaluation of z-value conversion is performed from the binarization threshold 112 corresponding to each local density feature operation code and the corresponding feature image target cumulative density frequency distribution storage unit 96 and feature image background cumulative density frequency distribution storage unit 97. a binarized evaluation value calculation unit 113 that calculates the value, and a binarized evaluation value storage unit that stores the binarized evaluation value corresponding to each local density feature operation code calculated by the tXz digitized liver value calculation unit 113. 114C, there are also binarization evaluation value storage units 114', 114'' corresponding to each of the binarization threshold calculation units 111', 111''), and the binarization evaluation value storage units 114, 114. ', 11
4" is detected, and the code of the binarization threshold calculation unit corresponding to the maximum value, the threshold value, and the local density characteristic calculation code are stored in a predetermined parameter storage unit of the area dividing means 24. It also includes an evaluation value comparison calculation 115.

次に第12図を用いて動作を説明する。Next, the operation will be explained using FIG. 12.

まずステップ121において、各局所濃度特徴コードに
ついて各2値化しきい値算出部111゜111’、11
1“が、特徴画像対象累積濃度頻度分布記憶部96及び
特徴画像背景累積濃度頻度分布記憶部97からそれぞれ
異なった方法でしきい値を算出し、2値化しきい値記憶
部112゜112’ 、112“に格納する。
First, in step 121, each binarization threshold calculation unit 111° 111', 11
1'' calculates thresholds using different methods from the feature image object cumulative density frequency distribution storage unit 96 and the feature image background cumulative density frequency distribution storage unit 97, respectively, and binarization threshold storage units 112, 112', 112".

2値化しきい値算出部111,111’ 。Binarization threshold calculation units 111, 111'.

111“は例えば第13図(a) 、 (b) 、 (
c)に示すような方法で2値化しきい値を算出する。
111" is, for example, shown in Fig. 13 (a), (b), (
A binarization threshold is calculated by the method shown in c).

(a)は、識別対象及び背景の累積濃度頻度分布記憶部
96.97の平均値及び偏差値がそれぞれ、Cμt、σ
t)、(μb、σ−)であったと色に、その分布の中心
にしきい値Tを設ける方法である。
In (a), the average value and deviation value of the cumulative density frequency distribution storage unit 96.97 of the identification target and the background are Cμt and σ, respectively.
t), (μb, σ-), and a threshold value T is set at the center of the distribution.

すなわち、 で示されるしきい値Tにより2値化する。That is, Binarization is performed using a threshold value T shown by .

一方(b)は、識別対象の累積濃度、傾度分布記憶部9
6の平均値μtより左側にあるC平均値μtより小さい
)背景の累積濃度頻度分布の部分の平均値及び偏差値が
Cμbi、σkl)、そして上記μ、より右側にある背
景の累積濃度頻度分布の部分の平均値及び偏差値がrμ
hfleσh’s)であるとき。
On the other hand, (b) shows the cumulative concentration and gradient distribution storage unit 9 of the identification target.
The average value and deviation value of the part of the cumulative concentration frequency distribution of the background (Cμbi, σkl) which is to the left of the average value μt of 6 (smaller than the C mean value μt), and the cumulative concentration frequency distribution of the background which is to the right of the above μ The average value and deviation value of the part are rμ
hfleσh's).

Cμt、σt)と(μkl、σbt)の中心TL及びC
μm参σ自)と(μb3會σbj11  の中心T富を
求めるようにし%TlとT!の間を2値化するというも
のである。
Center TL and C of Cμt, σt) and (μkl, σbt)
The central T wealth of μm reference σ own) and (μb3 σbj11) is found, and the value between %Tl and T! is binarized.

一方(C)は、(b)とは逆に、背景の分布Cμb。On the other hand, (C) is the background distribution Cμb, contrary to (b).

σb)の平均値より左側にある対象の分布(μ、1゜σ
11)及び右側にある分布【μm2.σl)を求め、同
様にしない値T1及びT1を求め%Tl よシ小さい濃
度及びT2よシ大きい濃度を2値化するようにしたもの
である。
The distribution of objects (μ, 1°σ) to the left of the mean value of σb)
11) and the distribution on the right [μm2. σl), and in the same manner, values T1 and T1 are found, and the density smaller than %Tl and the density larger than T2 are binarized.

次にステラ77122において、2値化評価値算出部1
13が、各局所濃度特徴演算コード九ついての各2値化
しきい値112,112’ 、112“の評価値を算出
して、2値化評価値記憶部114゜114’ 、114
“に格納する。
Next, in Stella 77122, the binarization evaluation value calculation unit 1
13 calculates the evaluation value of each binarization threshold value 112, 112', 112'' for each local concentration feature operation code 9, and stores it in a binarization evaluation value storage unit 114°114', 114.
“Stored in.

ここで求める好色値は第14図(a)に示すように、特
徴画像対象累積濃度頻度分布記憶部96を、求められた
しきい値で分割した時に、識別対象として2値化される
部分の積分値St (斜線部)と、特徴画像背景累積濃
度頻度分布記憶部97を、求められたしきい値で分割し
た時に、2値化されない部分の積分値Sb (斜線部)
の合計で表され。
As shown in FIG. 14(a), the amorous value obtained here is the portion that is binarized as an identification target when the feature image object cumulative density frequency distribution storage unit 96 is divided by the obtained threshold value. Integral value St (shaded area) and integral value Sb (shaded area) of the portion that is not binarized when the feature image background cumulative density frequency distribution storage unit 97 is divided by the determined threshold value.
expressed as the sum of

この合計値が大きい程に#7&別対象と背景がより良く
2値化されることを示す。
It shows that the larger this total value is, the better the #7 & other object and background can be binarized.

なお、第14図(ロ)において、操作者のある1回の例
示による対象領域が141、背景領域がその外側におけ
る142で囲まれる領域であり、さら゛にある条件で2
値化されて得られた2値パターンを143としたとき、
領域141に含まれる2値パターン143の面積Atと
領域141の面積Atの比At/人1を求め、領域14
1の外側であり、かつ142で囲まれる領域の面積Ah
から、当該領域に含まれる2値パターン1430面積A
%を減算した値%Ah−AtとAhO比(A h−人I
:) / A bを求め、これと上記A ’* / A
 tを加えた値、As/A*+Ou  At )/Ah
を、すべての例示について総和した値は、上記(a)に
おけるS * + S bに等しい。
In addition, in FIG. 14 (B), the target area according to one example of the operator is 141, the background area is the area surrounded by 142 outside of the target area, and 2
When the binary pattern obtained by value conversion is set to 143,
The ratio At/person 1 of the area At of the binary pattern 143 included in the area 141 and the area At of the area 141 is calculated, and the area 14
Area Ah of the area outside 1 and surrounded by 142
, the binary pattern 1430 area A included in the area
The value obtained by subtracting %Ah-At and AhO ratio (Ah-person I
:) / A Find b, and combine this with the above A '* / A
The value of adding t, As/A*+Ou At )/Ah
The sum of the values for all examples is equal to S*+S b in (a) above.

次に第12図に戻り、ステップ123において、評価値
比較演算部115が各局所濃度特徴演算コードに対応す
る2値化好価値114,114’ 。
Next, returning to FIG. 12, in step 123, the evaluation value comparison calculation section 115 converts the binarized favorable values 114, 114' corresponding to each local density feature calculation code.

114“の最大値を検出し、その最大値に対応する局所
濃度特徴演算コード及び2値化しきい値算出部に対応す
るコードとそのしきい値を領域分割手段24へ出力する
114'' is detected, and the local density feature calculation code corresponding to the maximum value, the code corresponding to the binarization threshold calculation section, and the threshold are output to the region dividing means 24.

μ上、本発明の一実施例を説明してきたが、要するに領
域分割をするにあたり、領域例示手段を設けll11g
1情報を限定して、識別対象と背景の関係よシ領斌分割
が好適忙なされる条件Cwt別対象と背景とがよく分離
される条件1を操作者Cユーザ)が設定しやすくしてや
るものである。
An embodiment of the present invention has been described above, but in short, in performing region division, a region illustrating means is provided.
This is to make it easier for the operator C (user) to set the condition 1 in which the object and background are well separated by limiting the information. be.

従って本実施例は、上記条件、すなわち正規化のための
特徴箇所コード、局所濃度特徴コード。
Therefore, the present embodiment satisfies the above conditions, that is, the feature location code and local density feature code for normalization.

2値化コードは、あらかじめ準備された中から選択して
領域例示手段忙鰻定する場合に限り説明1゜たが、上記
各種コードにプライオリティを付けて、ユーザがプライ
オリティの高いコードから演算していく方法等を採って
もよい。
Binarization codes were explained in Section 1 only when selecting from among those prepared in advance to determine the area exemplification means, but it is also possible to assign priorities to the various codes mentioned above and allow the user to calculate from the code with the highest priority. You may adopt any method.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、領域例示手段を用いることにより識別
対象とそれ以外の背景に入力画像の情報量を限定される
ので、識別対象を含む入力画像を何度か取し込むだけで
領域分割に必要な種々な条件を容易に設定でき、アルゴ
リズムやプログラムの開発を専門家だけでなく製膜ユー
ザを短時間で作成することが可能となる。
According to the present invention, the amount of information in the input image is limited to the identification target and the background other than the identification target by using the region exemplification means. Various necessary conditions can be easily set, and algorithms and programs can be developed not only by experts but also by film-forming users in a short period of time.

【図面の簡単な説明】[Brief explanation of the drawing]

fs1図は本発明の概念図、第2図は本発明の実施列の
全体構成図、第3図は領域分割手段の内部構成図、第4
図は領域分割手段の動作説明図、第5図は実施例全体の
動作説明図、第6図(a)、(6)は領域例示方法の説
明図、第7図は濃度分布正規化評価部の内部構成図、第
8図は濃度分布正規化評価部の動作説明図、第9図は局
所濃度特徴評価部の内部構成図、第10図は局所濃度特
徴評価部の動作説明図、第11図は特徴演算・2値化パ
ラメータ決定部内部構成図、第12図は特徴演算・2値
化パラメータ決定部動作説明図、第13図は2値化しき
r値算出方法説明図、第14図は2値化しきい値評価値
算出方法説明図である。
Fig. fs1 is a conceptual diagram of the present invention, Fig. 2 is an overall configuration diagram of an implementation column of the present invention, Fig. 3 is an internal configuration diagram of the area dividing means, and Fig. 4
FIG. 5 is an explanatory diagram of the operation of the region dividing means, FIG. 5 is an explanatory diagram of the operation of the entire embodiment, FIGS. 6(a) and (6) are explanatory diagrams of the region exemplification method, and FIG. 7 is the density distribution normalization evaluation unit. 8 is an explanatory diagram of the operation of the concentration distribution normalization evaluation section. FIG. 9 is an internal configuration diagram of the local concentration feature evaluation section. FIG. 10 is an explanatory diagram of the operation of the local concentration feature evaluation section. The figure is an internal configuration diagram of the feature calculation/binarization parameter determination section, FIG. 12 is an explanatory diagram of the operation of the feature calculation/binarization parameter determination section, FIG. 13 is an explanatory diagram of the binarization threshold r value calculation method, and FIG. 14 FIG. 2 is an explanatory diagram of a method for calculating a binarization threshold evaluation value.

Claims (1)

【特許請求の範囲】 1、多階調からなる入力画像から、濃度分布の特徴が所
定条件を満たす領域を抽出する領域分割手段を有し、該
領域分割手段を用いて前記入力画像から識別対象を抽出
する画像処理装置において、前記入力画像に対して識別
対象を含む領域を指定する領域例示手段を設け、その例
示領域内における識別対象及び背景の濃度分布の特徴よ
り、前記領域分割手段の所定条件を決定することを特徴
とする画像処理装置。 2、特許請求の範囲第1項に記載した前記領域例示手段
を座標入力媒体で構成したことを特徴とする画像処理装
置。 3、特許請求の範囲第1項に記載した前記領域分割手段
は、あらかじめ設定した基準画像の濃度頻度分布におけ
る特徴的な箇所の濃度値に入力画像の濃度値を一致させ
るような処理を行なう濃度頻度分布正規化処理部と、該
正規化された画像の各画素を中心とした局所的な画像内
における濃度分布の特徴量を、前記各画素の新たな濃度
値として格納する局所濃度特徴演算処理部と、あらかじ
め設定したしきい値で2値化する2値化処理部を有する
ことを特徴とする画像処理装置。 4、特許請求の範囲第3項に記載した前記濃度頻度分布
正規化処理部で用いる濃度頻度分布における特徴的な箇
所の濃度値は、基準画像について例示された例示領域内
の識別対象及び背景の単位面積当りの濃度頻度分布と、
複数の入力画像に対して正規化処理を施して得られた複
数の画像について、それぞれ例示された例示領域内の識
別対象及び背景の単位面積当りの濃度頻分布体とのずれ
量の和を識別対象及び背景それぞれについて求め、識別
対象のずれ量の和と背景のずれ量の和を加えた値が最小
となる箇所の濃度値を用いることを特徴とする画像処理
装置。 5、特許請求の範囲第3項に記載した前記局所濃度特徴
演算処理部で用いる局所的な画像内における濃度分布の
特徴量は、複数の入力画像に対して局所特徴演算処理を
施した後、あらかじめ設定したしきい値で2値処理を施
して得られた複数の2値画像について、それぞれ例示さ
れた例示領域内の識別対象に含まれる前記各2値画像の
面積と、前記各識別対象の面積との比の和を求め、また
それぞれ例示された例示領域内の背景の面積から、当該
背景に含まれる前記各2値画像の面積を減じた各面積と
、各背景の面積との比の和を求め、当該面積比の和と前
記識別対象に関する面積比の和を加えた値が最大になる
特徴量を用いることを特徴とする画像処理装置。 6、特許請求の範囲第3項に記載した前記2値化処理部
で用いるしき値は、あらかじめ複数のしきい値算出手段
を準備し、複数の入力画像に対して局所濃度特徴演算処
理を施して得られた各画像について、それぞれ例示され
た例示領域内の識別対象及び背景の単位面積当りの濃度
頻度分布をそれぞれ求め、さらに当該各濃度頻度分布の
同一成分における頻度値を総和した総和濃度頻度分布を
識別対象及び背景それぞれ算出し、前記複数のしきい値
算出手段で算出される識別対象を2値化するためのしき
い値の中から、該しきい値で区切られる濃度範囲におけ
る前記識別対象の総和濃度頻度分布の頻度和と、前記濃
度範囲以外における前記背景の総和濃度頻度分布の頻度
和を加えた値が最大になるしきい値を選択することを特
徴とする画像処理装置。
[Claims] 1. Region dividing means for extracting regions whose density distribution characteristics satisfy predetermined conditions from an input image consisting of multiple gradations, and using the region dividing means to extract a region to be identified from the input image. In an image processing apparatus for extracting an image, a region exemplifying means is provided for specifying a region including an identification target from the input image, and a predetermined region dividing means is used based on the characteristics of the density distribution of the identification target and the background in the exemplified region. An image processing device characterized by determining conditions. 2. An image processing apparatus characterized in that the area illustrating means described in claim 1 is constructed of a coordinate input medium. 3. The area dividing means described in claim 1 is a density divider that performs processing to make the density value of the input image match the density value of a characteristic part in the density frequency distribution of the reference image set in advance. a frequency distribution normalization processing unit, and a local density feature calculation process that stores the feature amount of the density distribution in a local image centered on each pixel of the normalized image as a new density value for each pixel. An image processing device comprising: a binarization processing unit that performs binarization using a threshold value set in advance; 4. The density values of characteristic locations in the density frequency distribution used in the density frequency distribution normalization processing unit described in claim 3 are based on the density values of the identification target and the background within the example area exemplified for the reference image. Concentration frequency distribution per unit area,
For multiple images obtained by performing normalization processing on multiple input images, identify the sum of deviations from the density frequency distribution field per unit area of the identification target and background within each example region. An image processing apparatus characterized in that the density value is calculated for each of the object and the background, and uses a density value at a location where the sum of the amount of deviation of the identification object and the sum of the amount of deviation of the background is the minimum. 5. The feature amount of the density distribution in the local image used by the local density feature calculation processing unit described in claim 3 is obtained by performing local feature calculation processing on a plurality of input images. For a plurality of binary images obtained by performing binary processing using a preset threshold, calculate the area of each binary image included in the classification target within the example region and the area of each of the classification targets. Calculate the sum of the ratios to the area, and calculate the ratio of each area obtained by subtracting the area of each binary image included in the background from the area of the background in each example region to the area of each background. An image processing apparatus characterized in that a sum is calculated, and a feature amount is used that maximizes a value obtained by adding the sum of the area ratios and the sum of the area ratios related to the identification target. 6. The threshold value used in the binarization processing unit described in claim 3 is obtained by preparing a plurality of threshold calculation means in advance and performing local density feature calculation processing on a plurality of input images. For each image obtained, the density frequency distribution per unit area of the identification target and background in the example region is determined, and the total density frequency is calculated by summing the frequency values for the same component of each density frequency distribution. The distribution is calculated for each of the identification target and the background, and the discrimination is performed in the concentration range divided by the threshold value from among the threshold values for binarizing the identification target calculated by the plurality of threshold value calculation means. An image processing apparatus that selects a threshold value that maximizes a value obtained by adding a frequency sum of a total density frequency distribution of a target and a frequency sum of a total density frequency distribution of the background outside the density range.
JP60080203A 1985-04-17 1985-04-17 Image processing device Granted JPS61240384A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP60080203A JPS61240384A (en) 1985-04-17 1985-04-17 Image processing device
CA000506687A CA1250050A (en) 1985-04-17 1986-04-15 Image processing apparatus
EP86105213A EP0198481B1 (en) 1985-04-17 1986-04-15 Image processing apparatus
DE3650496T DE3650496T2 (en) 1985-04-17 1986-04-15 Image processing device
US07/203,643 US5003616A (en) 1985-04-17 1988-05-31 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60080203A JPS61240384A (en) 1985-04-17 1985-04-17 Image processing device

Publications (2)

Publication Number Publication Date
JPS61240384A true JPS61240384A (en) 1986-10-25
JPH0510708B2 JPH0510708B2 (en) 1993-02-10

Family

ID=13711823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60080203A Granted JPS61240384A (en) 1985-04-17 1985-04-17 Image processing device

Country Status (1)

Country Link
JP (1) JPS61240384A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02206885A (en) * 1989-02-07 1990-08-16 Tech Res & Dev Inst Of Japan Def Agency Image processing device
WO1998012668A1 (en) * 1996-09-17 1998-03-26 Komatsu Ltd. Test method and test apparatus using pattern matching
JP2007200246A (en) * 2006-01-30 2007-08-09 Sharp Corp Method for evaluating image processing algorithm, method, device, and program for generating same algorithm, and recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5494237A (en) * 1978-01-10 1979-07-25 Mitsubishi Electric Corp Pickup unit for object image
JPS56152069A (en) * 1980-04-23 1981-11-25 Mitsubishi Electric Corp Seal-impression collation system
JPS5960580A (en) * 1982-09-29 1984-04-06 Fujitsu Ltd Picture processing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5494237A (en) * 1978-01-10 1979-07-25 Mitsubishi Electric Corp Pickup unit for object image
JPS56152069A (en) * 1980-04-23 1981-11-25 Mitsubishi Electric Corp Seal-impression collation system
JPS5960580A (en) * 1982-09-29 1984-04-06 Fujitsu Ltd Picture processing system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02206885A (en) * 1989-02-07 1990-08-16 Tech Res & Dev Inst Of Japan Def Agency Image processing device
WO1998012668A1 (en) * 1996-09-17 1998-03-26 Komatsu Ltd. Test method and test apparatus using pattern matching
JP2007200246A (en) * 2006-01-30 2007-08-09 Sharp Corp Method for evaluating image processing algorithm, method, device, and program for generating same algorithm, and recording medium

Also Published As

Publication number Publication date
JPH0510708B2 (en) 1993-02-10

Similar Documents

Publication Publication Date Title
EP0198481B1 (en) Image processing apparatus
Lee et al. Automatic extraction of characters in complex scene images
CN111582359B (en) Image identification method and device, electronic equipment and medium
EP0043988B1 (en) Method for analyzing stored image details
US11471096B2 (en) Automatic computerized joint segmentation and inflammation quantification in MRI
CN109993758A (en) Dividing method, segmenting device, computer equipment and storage medium
GB2278436A (en) Image processing system and method for automatic feature extraction
CN107527339A (en) A kind of magnetic resonance scanning method, apparatus and system
CN115082819A (en) Food foreign matter detection method and device, computer equipment and storage medium
CN112287884A (en) Examination abnormal behavior detection method and device and computer readable storage medium
Xu et al. Fiber-image analysis part I: Fiber-image enhancement
CN110956157A (en) Deep learning remote sensing image target detection method and device based on candidate frame selection
CN114782060A (en) Interactive product detection method and system
JPS61240384A (en) Image processing device
Srisang et al. Segmentation of overlapping chromosome images using computational geometry
EP1218851A2 (en) System and method for locating color and pattern match regions in a target image
JP3164835B2 (en) Pre-processing method and post-processing method in human image recognition
Edvardsen et al. Automatic detection of the mental foramen for estimating mandibular cortical width in dental panoramic radiographs: the seventh survey of the Tromsø Study (Tromsø7) in 2015–2016
JP3007392B2 (en) Pattern recognition method and apparatus
Peres et al. Automatic segmentation of digital images applied in cardiac medical images
JP2646569B2 (en) Multi-value image evaluation device and threshold value determination device using the device
Burton Automated 3 D reconstruction of neuronal structures from serial sections
CN118798233B (en) Scanning anomaly recognition method and system based on image analysis
JP7509238B2 (en) Information processing device, information processing method, and program
Walter Integration of multiple collected polygons with a raster-based approach