JP2019133311A - Image processing sensor and image processing method and computer program - Google Patents
Image processing sensor and image processing method and computer program Download PDFInfo
- Publication number
- JP2019133311A JP2019133311A JP2018013682A JP2018013682A JP2019133311A JP 2019133311 A JP2019133311 A JP 2019133311A JP 2018013682 A JP2018013682 A JP 2018013682A JP 2018013682 A JP2018013682 A JP 2018013682A JP 2019133311 A JP2019133311 A JP 2019133311A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- character
- inspection object
- inspection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 166
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 238000004590 computer program Methods 0.000 title claims abstract description 8
- 238000007689 inspection Methods 0.000 claims abstract description 165
- 238000011156 evaluation Methods 0.000 claims abstract description 95
- 238000003384 imaging method Methods 0.000 claims abstract description 61
- 238000013500 data storage Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 26
- 238000010586 diagram Methods 0.000 description 13
- 238000005286 illumination Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 239000000758 substrate Substances 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000005520 cutting process Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000008602 contraction Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000012854 evaluation process Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Character Input (AREA)
Abstract
Description
本発明は、コントラストの低い文字を読み取る場合であっても良否判定を高い精度で行うことが可能な画像処理センサ、該画像処理センサで実行することが可能な画像処理方法及びコンピュータプログラムに関する。 The present invention relates to an image processing sensor capable of performing pass / fail determination with high accuracy even when a character with low contrast is read, an image processing method and a computer program that can be executed by the image processing sensor.
検査対象物の外観検査を実行する場合、生産ライン上を流れてくる検査対象物の表面の画像を撮像し、撮像された画像に基づいて位置ずれの有無、欠陥の有無等の検査を行う。例えば、インク、レーザ等を用いて検査対象物の表面に刻印された文字を読み取り、検査対象物の良否を判定するOCR検査も実行されている。 When executing an appearance inspection of an inspection object, an image of the surface of the inspection object flowing on the production line is taken, and the presence / absence of a displacement, the presence / absence of a defect, etc. are inspected based on the taken image. For example, OCR inspection is performed in which characters imprinted on the surface of the inspection object are read using ink, laser, or the like, and the quality of the inspection object is determined.
例えば特許文献1では、白い背景に対する薄い文字のようにコントラストの低い文字を読み取る場合に、コントラストの拡張処理等を施して、悪条件下で刻印された文字であっても高い精度で読み取ることが可能な、OCR処理に用いる撮像装置が開示されている。コントラストを拡張することにより、コントラストを得ることが困難な物体の表面に刻印された文字等の情報の認識精度を向上させることができる。 For example, in Patent Document 1, when a low-contrast character such as a thin character on a white background is read, even a character engraved under adverse conditions can be read with high accuracy by performing contrast expansion processing or the like. An imaging device that can be used for OCR processing is disclosed. By expanding the contrast, it is possible to improve the recognition accuracy of information such as characters stamped on the surface of an object for which it is difficult to obtain the contrast.
特許文献1に開示されている撮像装置でのOCR処理では、コントラストが非常に低い文字でも救済され、文字の読取に成功する。しかし、ユーザとしては、印字するインクの吐出不足、あるいはレーザ光の出力不足に起因する文字の薄れを容認することはできない。そういう印字状態であるにもかかわらず、文字読み取りに成功した場合にはすべて良品と判定され、不良品と判定されないという問題点があった。 In the OCR processing in the imaging apparatus disclosed in Patent Document 1, even a character with a very low contrast is relieved and the character is successfully read. However, the user cannot tolerate character fading due to insufficient ejection of ink for printing or insufficient output of laser light. In spite of such a printing state, when the character reading is successful, all are determined to be non-defective products and are not determined to be defective products.
また、文字の品質を一致度(安定度、認識度等)として出力して判定条件を設定することで良否判定を行う装置も存在するが、用いられる評価値をユーザが調整することはできず、文字認識内部処理の結果、算出される数値であることから、閾値による良否判定では人の感覚に沿った印字状態の良否判定を適切に行うことが困難であるという問題点もあった。 There are also devices that perform pass / fail determination by outputting character quality as a degree of coincidence (stability, recognition level, etc.) and setting determination conditions, but the user cannot adjust the evaluation value used. As a result of character recognition internal processing, it is a numerical value that is calculated. Therefore, it has been difficult to appropriately determine whether the print state is good or bad in accordance with the human senses.
本発明は、上記問題点に鑑みてなされたものであり、コントラストの低い文字を読み取った場合であっても良否判定を高い精度で行うことが可能な画像処理センサ、該画像処理センサで実行することが可能な画像処理方法及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an image processing sensor capable of performing pass / fail determination with high accuracy even when a character with low contrast is read, and is executed by the image processing sensor. An object of the present invention is to provide an image processing method and a computer program.
上記目的を達成するために第1発明に係る画像処理センサは、検査対象物を撮像する撮像手段と、該撮像手段で撮像された検査対象物の画像から検査対象物の画像処理を行う画像処理手段と、該画像処理手段の処理結果に基づいて、検査対象物の良否判定を行う良否判定手段と、該良否判定手段の判定結果を外部へ出力する出力手段とを有する画像処理センサにおいて、前記画像処理手段は、撮像された検査対象物の画像に含まれる、認識対象となる文字又は文字列を含む矩形領域を特定する領域特定手段と、特定された矩形領域内の文字を認識する文字認識手段と、前記矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する濃淡評価手段とを備え、前記良否判定手段は、前記文字認識手段による認識された文字及び前記濃淡評価手段により評価された濃淡度合いに基づいて検査対象物の良否判定を行うことを特徴とする。 In order to achieve the above object, an image processing sensor according to a first aspect of the present invention is an image processing unit that images an inspection object, and image processing that performs image processing of the inspection object from an image of the inspection object captured by the imaging unit. An image processing sensor comprising: means; and a pass / fail determination unit that determines pass / fail of an inspection target based on a processing result of the image processing unit; and an output unit that outputs the determination result of the pass / fail determination unit to the outside. The image processing means includes an area specifying means for specifying a rectangular area including a character or character string to be recognized, which is included in the captured image of the inspection object, and character recognition for recognizing a character in the specified rectangular area. Means for calculating an evaluation value indicating the degree of shading in the rectangular area, and evaluating the degree of shading based on the calculated evaluation value and a predetermined threshold, wherein the pass / fail judgment means comprises the character And performing quality determination of the inspection object based on the recognized characters and shade degree evaluated by said shading evaluation means by identification means.
また、第2発明に係る画像処理センサは、第1発明において、前記濃淡評価手段は、前記矩形領域内の輝度値ヒストグラムを解析することにより評価値を算出することを特徴とする。 The image processing sensor according to a second invention is characterized in that, in the first invention, the density evaluation means calculates an evaluation value by analyzing a luminance value histogram in the rectangular area.
また、第3発明に係る画像処理センサは、第1又は第2発明において、撮像された検査対象物の画像を表示する画像表示手段を備え、該画像表示手段は、前記濃淡評価手段で用いる前記閾値を設定する閾値設定手段を有することを特徴とする。 The image processing sensor according to a third aspect of the present invention is the image processing sensor according to the first or second aspect, further comprising image display means for displaying an image of the imaged inspection object, wherein the image display means is used in the shade evaluation means. It has a threshold value setting means for setting a threshold value.
また、第4発明に係る画像処理センサは、第1乃至第3発明のいずれか1つにおいて、前記濃淡評価手段を実行させる第一のモードと、実行させない第二のモードとを選択するモード選択手段を備えることを特徴とする。 According to a fourth aspect of the present invention, there is provided the image processing sensor according to any one of the first to third aspects, wherein the first mode for executing the density evaluation unit and the second mode for not executing the mode are selected. Means are provided.
また、第5発明に係る画像処理センサは、第1乃至第3発明のいずれか1つにおいて、前記濃淡評価手段を実行させる第一のモードと、実行させない第二のモードとの選択を受け付けるモード選択受付手段を備えることを特徴とする。 An image processing sensor according to a fifth aspect of the present invention is the image processing sensor according to any one of the first to third aspects, wherein the selection is made between a first mode in which the density evaluation unit is executed and a second mode in which the density evaluation unit is not executed. A selection receiving unit is provided.
また、第6発明に係る画像処理センサは、第1乃至第5発明のいずれか1つにおいて、少なくとも前記所定の閾値、トリガ条件、画像処理ツールを含む検査設定データを生成する検査設定データ生成手段と、生成された検査設定データを記憶する検査設定データ記憶手段と、ユーザによる入力を受け付けて検査設定データを生成するための設定モードと、トリガ条件に基づいて繰り返し取得する画像に対して検査を行う検査モードとを切り替えるモード切替手段とを備え、前記モード切替手段により設定モードから実行モードへ切り替えられた場合、記憶されている検査設定データを読み出して、前記トリガ条件に基づき繰り返し取得される画像に対して前記画像処理ツールを用いて前記画像処理手段を実行することを特徴とする。 An image processing sensor according to a sixth aspect of the present invention is the inspection setting data generation means for generating inspection setting data including at least the predetermined threshold, the trigger condition, and the image processing tool according to any one of the first to fifth aspects. And inspection setting data storage means for storing the generated inspection setting data, a setting mode for accepting input by the user to generate inspection setting data, and an inspection for an image repeatedly acquired based on a trigger condition An image that is repeatedly acquired based on the trigger condition by reading the stored inspection setting data when the mode switching unit switches from the setting mode to the execution mode. On the other hand, the image processing means is executed using the image processing tool.
次に、上記目的を達成するために第7発明に係る画像処理方法は、検査対象物を撮像する撮像手段と、該撮像手段で撮像された検査対象物の画像から検査対象物の画像処理を行う画像処理手段と、該画像処理手段の処理結果に基づいて、検査対象物の良否判定を行う良否判定手段と、該良否判定手段の判定結果を外部へ出力する出力手段とを有する画像処理センサで実行することが可能な画像処理方法において、前記画像処理センサは、撮像された検査対象物の画像に含まれる、認識対象となる文字又は文字列を含む矩形領域を特定するステップと、特定された矩形領域内の文字を認識するステップと、前記矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価するステップとを含み、認識された文字及び評価された濃淡度合いに基づいて検査対象物の良否判定を行うことを特徴とする。 Next, in order to achieve the above object, an image processing method according to a seventh aspect of the present invention includes an imaging means for imaging an inspection object, and image processing of the inspection object from an image of the inspection object imaged by the imaging means. An image processing sensor comprising: an image processing unit to perform; a pass / fail determination unit for determining pass / fail of an inspection object based on a processing result of the image processing unit; and an output unit for outputting the determination result of the pass / fail determination unit to the outside In the image processing method that can be executed, the image processing sensor is identified with a step of identifying a rectangular area including a character or a character string to be recognized, which is included in the captured image of the inspection object. Recognizing characters in the rectangular area, calculating an evaluation value indicating the degree of shading in the rectangular area, and evaluating the degree of shading based on the calculated evaluation value and a predetermined threshold, And performing quality determination of the inspection object based on the identified characters and evaluated shading degree.
また、第8発明に係る画像処理方法は、第7発明において、前記画像処理センサは、前記矩形領域内の輝度値ヒストグラムを解析することにより評価値を算出することを特徴とする。 An image processing method according to an eighth aspect of the present invention is the image processing method according to the seventh aspect, wherein the image processing sensor calculates an evaluation value by analyzing a luminance value histogram in the rectangular area.
また、第9発明に係る画像処理方法は、第7又は第8発明において、前記画像処理センサは、撮像された検査対象物の画像を表示するステップと、前記閾値を設定するステップとを含むことを特徴とする。 The image processing method according to a ninth aspect of the present invention is the seventh or eighth aspect, wherein the image processing sensor includes a step of displaying a captured image of the inspection object and a step of setting the threshold value. It is characterized by.
また、第10発明に係る画像処理方法は、第7乃至第9発明のいずれか1つにおいて、前記濃淡度合いを評価するか否かの選択をするステップを含むことを特徴とする。 An image processing method according to a tenth aspect of the invention is characterized in that, in any one of the seventh to ninth aspects, a step of selecting whether or not to evaluate the degree of shading.
また、第11発明に係る画像処理方法は、第7乃至第10発明のいずれか1つにおいて、前記画像処理センサは、少なくとも前記所定の閾値、トリガ条件、画像処理ツールを含む検査設定データを生成するステップと、生成された検査設定データを記憶するステップと、ユーザによる入力を受け付けて検査設定データを生成するための設定モードと、トリガ条件に基づいて繰り返し取得する画像に対して検査を行う検査モードとを切り替えるステップとを含み、設定モードから実行モードへ切り替えられた場合、記憶されている検査設定データを読み出して、前記トリガ条件に基づき繰り返し取得される画像に対して前記画像処理ツールを用いて画像処理することを特徴とする。 An image processing method according to an eleventh aspect of the present invention is the image processing method according to any one of the seventh to tenth aspects, wherein the image processing sensor generates inspection setting data including at least the predetermined threshold, a trigger condition, and an image processing tool. A step of storing the generated inspection setting data, a setting mode for receiving the input by the user and generating the inspection setting data, and an inspection for inspecting an image repeatedly acquired based on a trigger condition When switching from the setting mode to the execution mode, the stored examination setting data is read out, and the image processing tool is used for an image repeatedly acquired based on the trigger condition. And image processing.
次に、上記目的を達成するために第12発明に係るコンピュータプログラムは、検査対象物を撮像する撮像手段と、該撮像手段で撮像された検査対象物の画像から検査対象物の画像処理を行う画像処理手段と、該画像処理手段の処理結果に基づいて、検査対象物の良否判定を行う良否判定手段と、該良否判定手段の判定結果を外部へ出力する出力手段とを有する画像処理センサで実行することが可能なコンピュータプログラムにおいて、前記画像処理手段を、撮像された検査対象物の画像に含まれる、認識対象となる文字又は文字列を含む矩形領域を特定する領域特定手段、特定された矩形領域内の文字を認識する文字認識手段、及び前記矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する濃淡評価手段として機能させ、前記良否判定手段を、前記文字認識手段による認識された文字及び前記濃淡評価手段により評価された濃淡度合いに基づいて検査対象物の良否判定を行う手段として機能させることを特徴とする。 Next, in order to achieve the above object, a computer program according to a twelfth aspect performs image processing of an inspection object from an imaging means for imaging the inspection object and an image of the inspection object imaged by the imaging means. An image processing sensor comprising: an image processing unit; a pass / fail determination unit that determines pass / fail of an inspection object based on a processing result of the image processing unit; and an output unit that outputs the determination result of the pass / fail determination unit to the outside. In the computer program that can be executed, the image processing means is specified as an area specifying means for specifying a rectangular area including a character or a character string to be recognized, which is included in the image of the imaged inspection object. Character recognition means for recognizing characters in the rectangular area, and an evaluation value indicating the degree of shading in the rectangular area are calculated, and the degree of shading is based on the calculated evaluation value and a predetermined threshold value Functions as a shade evaluation unit for evaluation, and causes the quality determination unit to function as a unit for determining pass / fail of an inspection object based on the characters recognized by the character recognition unit and the shade degree evaluated by the shade evaluation unit. It is characterized by that.
第1発明、第7発明及び第12発明では、撮像された検査対象物の画像に含まれる、認識対象となる文字又は文字列を含む矩形領域を特定し、特定された矩形領域内の文字を認識する。一方、矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する。認識された文字及び評価された濃淡度合いに基づいて検査対象物の良否判定を行う。これにより、文字認識に成功した場合であっても、コントラストが低いときには、インクの吐出不足、レーザの出力不足に起因する印字された文字の薄れを正しく検出することができ、良否判定においてNG判定を正しく行うことが可能となる。 In the first invention, the seventh invention, and the twelfth invention, a rectangular area including a character or a character string to be recognized, which is included in the captured image of the inspection object, is specified, and characters in the specified rectangular area are specified. recognize. On the other hand, an evaluation value indicating the degree of shading in the rectangular area is calculated, and the shading degree is evaluated based on the calculated evaluation value and a predetermined threshold value. The quality of the inspection object is determined based on the recognized character and the evaluated shade level. As a result, even when the character recognition is successful, when the contrast is low, it is possible to correctly detect the thinness of the printed character due to insufficient ink ejection and insufficient laser output. Can be performed correctly.
第2発明及び第8発明では、矩形領域内の輝度値ヒストグラムを解析することにより評価値を算出するので、輝度値の差異に応じてコントラストの高低を客観的に評価することができ、インクの吐出不足、レーザの出力不足に起因する印字された文字の薄れを正しく検出することが可能となる。 In the second and eighth inventions, the evaluation value is calculated by analyzing the luminance value histogram in the rectangular area, so that the contrast level can be objectively evaluated according to the difference in the luminance value, and the ink It becomes possible to correctly detect the thinness of the printed characters due to insufficient ejection and insufficient laser output.
第3発明及び第9発明では、撮像された検査対象物の画像を表示し、表示された状態で閾値を設定することにより、ユーザがNG判定としたい状態を確実にNG判定とすることができる閾値を設定することができ、ユーザが判断する感性と一致する良否判定を実行することが可能となる。 In the 3rd invention and the 9th invention, the state which a user wants to make NG determination can be certainly set as NG determination by displaying the image of the imaged inspection object and setting a threshold in the displayed state. A threshold value can be set, and it is possible to execute pass / fail judgment that matches the sensitivity judged by the user.
第4発明及び第10発明では、濃淡度合いを評価するか否かの選択をすることにより、印字された文字のコントラストの高低に応じてNG判定を正しく行うことができ、使い勝手を向上させることが可能となる。 In the fourth and tenth inventions, by selecting whether or not to evaluate the degree of shading, it is possible to correctly perform NG determination according to the contrast level of the printed characters, and to improve usability. It becomes possible.
第5発明では、濃淡度合いを評価する第一のモードと、評価しない第二のモードとの選択を受け付けるので、ユーザの判断に応じて濃淡度合いをNG判定に取り入れるか否かを選択することが可能となる。 In the fifth invention, since selection of the first mode for evaluating the degree of shading and the second mode for not evaluating is accepted, it is possible to select whether or not to incorporate the shading degree into the NG judgment according to the user's judgment. It becomes possible.
第6発明及び第11発明では、少なくとも所定の閾値、トリガ条件、画像処理ツールを含む検査設定データを生成して記憶しておく。ユーザによる入力を受け付けて検査設定データを生成するための設定モードと、トリガ条件に基づいて繰り返し取得する画像に対して検査を行う検査モードとを切り替え、設定モードから実行モードへ切り替えられた場合、記憶されている検査設定データを読み出して、トリガ条件に基づき繰り返し取得される画像に対して画像処理ツールを用いて画像処理する。これにより、画像処理するための検査設定データを一連のデータ群として記憶しておくことができるので、画像処理センサに障害が発生した場合であっても、代替機において同一の条件で良否判定を行うことが可能となる。 In the sixth invention and the eleventh invention, inspection setting data including at least a predetermined threshold, a trigger condition, and an image processing tool is generated and stored. When the setting mode for receiving the input by the user and generating the inspection setting data and the inspection mode for inspecting the image repeatedly acquired based on the trigger condition are switched and the setting mode is switched to the execution mode, The stored inspection setting data is read out, and an image processing tool is used to perform image processing on an image that is repeatedly acquired based on the trigger condition. As a result, the inspection setting data for image processing can be stored as a series of data groups, so even if a failure occurs in the image processing sensor, the pass / fail determination is made under the same conditions in the alternative machine. Can be done.
本発明では、文字認識に成功した場合であっても、コントラストが低いときには、インクの吐出不足、レーザの出力不足に起因する印字された文字の薄れを正しく検出することができ、良否判定においてNG判定を正しく行うことが可能となる。 In the present invention, even if the character recognition is successful, when the contrast is low, it is possible to correctly detect the thinness of the printed character due to insufficient ink ejection and insufficient laser output. Judgment can be made correctly.
以下、本発明の実施の形態に係る画像処理センサについて、図面を参照して説明する。なお、本実施の形態の説明で参照する図面を通じて、同一又は同様の構成又は機能を有する要素については、同一又は同様の符号を付して、詳細な説明を省略する。 Hereinafter, an image processing sensor according to an embodiment of the present invention will be described with reference to the drawings. Note that elements having the same or similar configuration or function are denoted by the same or similar reference numerals throughout the drawings referred to in the description of this embodiment, and detailed description thereof is omitted.
図1は、本発明の実施の形態に係る画像処理センサの構成を示す模式図である。図1に示すように、本実施の形態に係る画像処理センサは、撮像装置(撮像手段)1と、撮像装置1とデータ通信することが可能に接続ケーブル3で接続されている表示装置(表示手段)2とで構成されている。もちろん、表示装置2の代わりに、ディスプレイを有する外部コンピュータであっても良い。なお、撮像装置1と表示装置2とが一体として構成されていても良い。 FIG. 1 is a schematic diagram showing a configuration of an image processing sensor according to an embodiment of the present invention. As shown in FIG. 1, the image processing sensor according to the present embodiment includes an imaging device (imaging means) 1 and a display device (display) connected by a connection cable 3 so as to be able to perform data communication with the imaging device 1. Means) 2. Of course, instead of the display device 2, an external computer having a display may be used. Note that the imaging device 1 and the display device 2 may be configured integrally.
撮像装置1は、内部に画像処理を実行するFPGA、DSP等を備えており、検査対象物を撮像する撮像素子を有するカメラモジュールと、検査対象物に対して光を照射する照明部とを備えている。撮像装置1をコンパクトにするべく、例えば図1に示すように、撮像装置1の正面の中央近傍にレンズ12を配置し、レンズ12の周囲を囲むように、照明部として複数のLED11を配置してある。なお、撮像装置1とは別に外部照明(リング照明等)を設けても良い。 The imaging apparatus 1 includes an FPGA, a DSP, and the like that execute image processing therein, and includes a camera module having an imaging device that images the inspection target, and an illumination unit that irradiates the inspection target with light. ing. In order to make the imaging device 1 compact, for example, as shown in FIG. 1, a lens 12 is arranged near the center of the front of the imaging device 1, and a plurality of LEDs 11 are arranged as an illumination unit so as to surround the lens 12. It is. Note that external illumination (ring illumination or the like) may be provided separately from the imaging device 1.
図2は、本発明の実施の形態に係る画像処理センサの撮像装置1の構成を示す外形図である。図2(a)は、本発明の実施の形態に係る画像処理センサの撮像装置1の構成を示す正面図を、図2(b)は、本発明の実施の形態に係る画像処理センサの撮像装置1の構成を示す平面図を、図2(c)は、本発明の実施の形態に係る画像処理センサの撮像装置1の構成を示す背面図を、それぞれ示している。 FIG. 2 is an outline view showing the configuration of the imaging device 1 of the image processing sensor according to the embodiment of the present invention. 2A is a front view showing the configuration of the imaging device 1 of the image processing sensor according to the embodiment of the present invention, and FIG. 2B is the imaging of the image processing sensor according to the embodiment of the present invention. FIG. 2C is a plan view showing the configuration of the apparatus 1, and FIG. 2C is a rear view showing the configuration of the imaging apparatus 1 of the image processing sensor according to the embodiment of the present invention.
図2(a)に示すように、撮像装置1はレンズ12を正面の中央近傍に配置しており、レンズ12の周囲を囲むように複数のLED11を配置してある。撮像時には、複数のLED11を点灯させることにより、検査対象物に光を照射し、検査対象物を明瞭に撮像することができる。 As shown in FIG. 2A, the imaging apparatus 1 has a lens 12 disposed in the vicinity of the center of the front surface, and a plurality of LEDs 11 are disposed so as to surround the lens 12. At the time of imaging, by turning on the plurality of LEDs 11, it is possible to irradiate the inspection object with light and to clearly image the inspection object.
図2(b)及び図2(c)に示すように、撮像装置1の背面には、外部の電源から電力の供給を受ける電源ケーブルを接続する電源コネクタ102と、表示装置2とデータ通信する接続ケーブル3を接続することが可能な接続コネクタ103とを備えている。また、手動でフォーカスを調整することができるフォーカス調整ネジ101も背面に備えている。 As shown in FIGS. 2B and 2C, the rear surface of the imaging device 1 is in data communication with the display device 2 and a power connector 102 that connects a power cable that receives power supplied from an external power source. A connection connector 103 to which the connection cable 3 can be connected is provided. A focus adjustment screw 101 that can manually adjust the focus is also provided on the back surface.
図3は、本発明の実施の形態に係る画像処理センサの撮像装置1のハードウェア構成を示すブロック図である。図3において、コネクタ基板16は、電源インタフェース161に設けてある電源コネクタ102(図2(b)及び図2(c)参照)を介して、外部の電源から電力の供給を受ける。電源基板18は、供給された電力を各基板に供給する。本実施の形態では、カメラモジュール14にはメイン基板13を介して電力を供給している。電源基板18のモータドライバ181は、カメラモジュール14のモータ141に駆動電力を供給し、オートフォーカスを実現している。 FIG. 3 is a block diagram showing a hardware configuration of the imaging device 1 of the image processing sensor according to the embodiment of the present invention. In FIG. 3, the connector board 16 is supplied with power from an external power source via a power connector 102 (see FIGS. 2B and 2C) provided in the power interface 161. The power supply board 18 supplies the supplied power to each board. In the present embodiment, power is supplied to the camera module 14 via the main board 13. The motor driver 181 of the power supply board 18 supplies driving power to the motor 141 of the camera module 14 to realize autofocus.
通信基板17は、メイン基板13から出力された欠陥を検出したか否かで検査対象物の良否を示すOK/NG信号(判定信号)、画像データ等を表示装置2へ送信する。判定信号を受信した表示装置2は、判定結果を表示する。なお、本実施の形態では、通信基板17を介してOK/NG信号(判定信号)を出力する構成にしているが、例えばコネクタ基板16を介してOK/NG信号(判定信号)を出力する構成にしても良い。 The communication board 17 transmits an OK / NG signal (determination signal), image data, and the like indicating the quality of the inspection object to the display device 2 based on whether or not a defect output from the main board 13 is detected. The display device 2 that has received the determination signal displays the determination result. In this embodiment, an OK / NG signal (determination signal) is output via the communication board 17, but an OK / NG signal (determination signal) is output via the connector board 16, for example. Anyway.
照明基板15は、検査対象物を撮像する撮像領域に光を照射する、複数のLED11が設けてあり、図示しないリフレクタはLED11の前方に設けてある。また、レンズ12は、短距離用又は長距離用のレンズユニットとして交換可能となっている。 The illumination board 15 is provided with a plurality of LEDs 11 that irradiate light to an imaging region for imaging the inspection object, and a reflector (not shown) is provided in front of the LEDs 11. The lens 12 can be replaced as a lens unit for short distance or long distance.
カメラモジュール(撮像手段)14は、モータ141が駆動することにより、オートフォーカス動作の制御を行うことができる。メイン基板13からの撮像指示信号に応じて検査対象物を撮像する。本実施の形態では、撮像素子としてCMOS基板142を備えており、撮像されたカラー画像は、CMOS基板142にてダイナミックレンジを広げる変換特性に基づいてHDR画像に変換され、メイン基板13のFPGA131へ出力される。 The camera module (imaging means) 14 can control the autofocus operation when the motor 141 is driven. The inspection object is imaged according to the imaging instruction signal from the main board 13. In the present embodiment, a CMOS substrate 142 is provided as an image sensor, and the captured color image is converted into an HDR image based on conversion characteristics that widen the dynamic range in the CMOS substrate 142 and is transferred to the FPGA 131 on the main substrate 13. Is output.
メイン基板13は、接続してある各基板の動作を制御する。例えば照明基板15に対しては、複数のLED11の点灯/消灯を制御する制御信号を、LEDドライバ151へ送信する。LEDドライバ151は、FPGA131からの制御信号に応じて、例えばLED11の点灯/消灯、光量等を調整する。また、カメラモジュール14のモータ141に対しては、電源基板18のモータドライバ181を介してオートフォーカス動作を制御する制御信号を、CMOS基板142に対しては、撮像指示信号等を、それぞれ送信する。 The main board 13 controls the operation of each connected board. For example, a control signal for controlling turning on / off of the plurality of LEDs 11 is transmitted to the LED driver 151 with respect to the illumination board 15. The LED driver 151 adjusts, for example, lighting / extinguishing of the LED 11, the amount of light, and the like according to a control signal from the FPGA 131. Further, a control signal for controlling the autofocus operation is transmitted to the motor 141 of the camera module 14 via the motor driver 181 of the power supply substrate 18, and an imaging instruction signal and the like are transmitted to the CMOS substrate 142. .
なお、メイン基板13には可搬型ディスクドライブ19が接続されていても良い。可搬型ディスクドライブ19を介して、DVD−ROM等の可搬型記録媒体90から各種の設定ファイル100をダウンロードすることもできる。 A portable disk drive 19 may be connected to the main board 13. Various setting files 100 can also be downloaded from a portable recording medium 90 such as a DVD-ROM via the portable disk drive 19.
メイン基板13のFPGA131は、照明制御、撮像制御をするとともに、取得した画像データに対する画像処理を実行する(画像処理手段)。また、メイン基板13のDSP132は、画像データについて、エッジ検出処理、パターン検索処理等を実行する。パターン検索処理の結果として、欠陥を検出したか否かで検査対象物の良否を示すOK/NG信号(判定信号)を通信基板17へ出力する(良否判定手段、出力手段)。演算処理結果等はメモリ133に記憶される。なお、本実施の形態では、FPGA131が照明制御、撮像制御等を実行するが、DSP132が実行しても良い。また、FPGA131とDSP132とが一体となった回路、すなわち主制御回路(主制御部)を設けても良い。要するに、複数のLED11の点灯/消灯を制御する制御信号をLEDドライバ151へ送信したり、オートフォーカス動作を制御する制御信号をカメラモジュール14のモータ141へ送信したり、撮像指示信号等をCMOS基板142へ送信したり、FPGA131及びDSP132の双方の機能を有する主制御部を設けても良い。 The FPGA 131 of the main board 13 performs illumination control and imaging control, and executes image processing on the acquired image data (image processing means). In addition, the DSP 132 of the main board 13 performs edge detection processing, pattern search processing, and the like on the image data. As a result of the pattern search process, an OK / NG signal (determination signal) indicating whether the inspection object is good or not is output to the communication board 17 based on whether or not a defect is detected (good / bad determination means, output means). The arithmetic processing result and the like are stored in the memory 133. In the present embodiment, the FPGA 131 executes illumination control, imaging control, and the like, but the DSP 132 may execute it. Further, a circuit in which the FPGA 131 and the DSP 132 are integrated, that is, a main control circuit (main control unit) may be provided. In short, a control signal for controlling turning on / off of the plurality of LEDs 11 is transmitted to the LED driver 151, a control signal for controlling the autofocus operation is transmitted to the motor 141 of the camera module 14, and an imaging instruction signal or the like is transmitted to the CMOS substrate. 142 may be provided, or a main control unit having the functions of both the FPGA 131 and the DSP 132 may be provided.
図4は、本発明の実施の形態に係る画像処理センサの表示装置(表示手段)2の構成を示す正面図である。図4に示すように、表示装置2の前面の中央部分にはタッチパネル21が設けてあり、撮像した検査対象物のカラー画像を画面に表示するとともに、ユーザによる選択入力を受け付ける。 FIG. 4 is a front view showing the configuration of the display device (display unit) 2 of the image processing sensor according to the embodiment of the present invention. As shown in FIG. 4, a touch panel 21 is provided in the central portion of the front surface of the display device 2, displays a color image of the imaged inspection object on the screen, and accepts a selection input by the user.
また、表示装置2は、外部の電源から電力が供給される電源ケーブルを接続する電源コネクタ24と、撮像装置1とデータ通信する接続ケーブル3を接続することが可能な接続コネクタ25とを備えている。さらにUSBメモリ等と接続することが可能なUSBポート22を前面に設けてある。 The display device 2 includes a power connector 24 that connects a power cable supplied with power from an external power source, and a connection connector 25 that can connect the connection cable 3 that performs data communication with the imaging device 1. Yes. Further, a USB port 22 that can be connected to a USB memory or the like is provided on the front surface.
ユーザは、表示装置2のタッチパネル21の画面に表示されているボタンを選択することにより、画像処理センサの動作を制御する。そして、検査対象物の検査を実行する「検査モード」と、画像処理センサの条件設定を行う「設定モード」との切り替えを行うこともできる。言い換えると、本実施の形態に係る画像処理センサは、検査対象物の良否を判定する検査モード(Runモード)と、検査に用いる各種パラメータ(撮像パラメータ、照明パラメータ、画像処理パラメータ等)の設定を行う設定モード(非Runモード)とを切り替えるためのモード切替部(後述する図8参照)を有している。図5は、本発明の実施の形態に係る画像処理センサの表示装置2のモード切り替え画面の例示図である。 The user controls the operation of the image processing sensor by selecting a button displayed on the screen of the touch panel 21 of the display device 2. It is also possible to switch between an “inspection mode” for inspecting an inspection object and a “setting mode” for setting conditions of the image processing sensor. In other words, the image processing sensor according to the present embodiment sets an inspection mode (Run mode) for determining the quality of an inspection object and various parameters (imaging parameters, illumination parameters, image processing parameters, etc.) used for the inspection. A mode switching unit (see FIG. 8 described later) for switching between setting modes (non-Run mode) to be performed is provided. FIG. 5 is an exemplary view of a mode switching screen of the display device 2 of the image processing sensor according to the embodiment of the present invention.
図5(a)は、「検査モード」の画面表示の例示図である。図5(a)に示すように、検査対象物表示領域51に、撮像装置1が撮像した検査対象物の画像を表示する。左下の「センサ設定」ボタン52がモード切替部として機能し、「センサ設定」ボタン52が選択された場合、「設定モード」へと切り替わり、図5(b)に示す画面へと画面遷移する。 FIG. 5A is a view showing an example of the screen display of “inspection mode”. As shown in FIG. 5A, the inspection object image captured by the imaging apparatus 1 is displayed in the inspection object display area 51. The lower left “sensor setting” button 52 functions as a mode switching unit, and when the “sensor setting” button 52 is selected, the mode is switched to “setting mode”, and the screen transitions to the screen shown in FIG.
図5(b)は、「設定モード」の画面表示の例示図である。図5(b)に示すように、プログラム選択領域53にて、検査対象物の種類又は検査環境を選択する。ここで、「プログラム」とは、検査対象物の種類又は検査環境に応じて設定された一連のデータ群(パラメータ値の組み合わせ)を意味しており、検査対象物の種類又は検査環境ごとに異なるデータ群をプログラムとして記憶することができる。 FIG. 5B is an exemplary view of a screen display of “setting mode”. As shown in FIG. 5B, in the program selection area 53, the type of inspection object or the inspection environment is selected. Here, the “program” means a series of data groups (combination of parameter values) set in accordance with the type of inspection object or the inspection environment, and varies depending on the type of inspection object or the inspection environment. A group of data can be stored as a program.
また、検査対象物と比較する基準となるマスタ画像(基準画像)が記憶されている場合、マスタ画像表示領域54にマスタ画像が表示される。「設定ナビ」ボタン55が選択された場合、詳細な設定を行う設定画面に画面遷移する。左下の「運転開始」ボタン56はモード切替部として機能し、「運転開始」ボタン56が選択された場合、「検査モード」へと切り替わり、図5(a)に示す画面へと画面遷移する。 When a master image (reference image) serving as a reference to be compared with the inspection object is stored, the master image is displayed in the master image display area 54. When the “setting navigation” button 55 is selected, the screen transitions to a setting screen for performing detailed settings. The “start operation” button 56 in the lower left functions as a mode switching unit. When the “start operation” button 56 is selected, the mode is switched to “inspection mode” and the screen transitions to the screen shown in FIG.
また、ユーザは、表示装置2のタッチパネル21の画面に表示されているボタンを選択することにより、濃淡度合いの評価をする「濃淡評価モード(第一のモード)」と、濃淡度合いの評価をしない「検査モード(第二のモード)」との切り替えを行うこともできる。言い換えると、本実施の形態に係る画像処理センサは、検査対象物の良否判定において、濃淡度合いの評価をする「濃淡評価モード(第一のモード)」と、濃淡度合いの評価をしない「検査モード(第二のモード)」とを切り替えるための、図8に示すモード選択受付部713(後述)を有している。図6は、本発明の実施の形態に係る画像処理センサの表示装置2のモード選択受付画面の例示図である。 In addition, the user selects a button displayed on the screen of the touch panel 21 of the display device 2, and does not evaluate the lightness and darkness evaluation mode (first mode) for evaluating the lightness and darkness. Switching to the “inspection mode (second mode)” can also be performed. In other words, in the image processing sensor according to the present embodiment, the “gradation evaluation mode (first mode)” that evaluates the shade degree in the pass / fail determination of the inspection object, and the “inspection mode that does not evaluate the shade degree”. A mode selection receiving unit 713 (described later) shown in FIG. FIG. 6 is an exemplary view of a mode selection reception screen of the display device 2 of the image processing sensor according to the embodiment of the present invention.
図6(a)は、濃淡度合いの評価をするか否かを確認する拡張設定画面の例示図である。図6(a)に示す「濃淡確認」ボタン61が選択された場合、図6(b)に示すモード選択受付画面へと遷移する。 FIG. 6A is an exemplary diagram of an extended setting screen for confirming whether or not to evaluate the degree of shading. When the “Confirm dark / dark” button 61 shown in FIG. 6A is selected, the mode selection acceptance screen shown in FIG.
図6(b)は、濃淡度合いの評価を有効にするか否かのモード選択受付画面の例示図である。図6(b)に示すように、モード選択ボタン62によりモードの選択を受け付ける。すなわち、「有効」が選択された場合、濃淡度合いの評価をする「濃淡評価モード(第一のモード)」が選択され、「無効」が選択された場合、濃淡度合いの評価をしない「検査モード(第二のモード)」が選択される。 FIG. 6B is an exemplary view of a mode selection reception screen for determining whether or not the evaluation of the degree of shading is valid. As shown in FIG. 6B, the mode selection button 62 accepts mode selection. That is, when “valid” is selected, “gradation evaluation mode (first mode)” that evaluates the degree of shading is selected, and when “invalid” is selected, “inspection mode that does not evaluate the shading degree” (Second mode) "is selected.
なお、モード選択受付部713を有することなく、例えば外部のセンサ、PLC等からの信号に応じて、第一のモードと第二のモードとを切り替える、図8に示すモード選択部(後述)を備えていても良い。いずれの場合も、本実施の形態においては、第二のモードをデフォルトとし、ユーザによる「有効」の選択を受け付けた場合、又は外部から第一のモードへの切り替え信号を受信した場合に、第二のモードへ切り替える。 In addition, without having the mode selection reception part 713, the mode selection part (after-mentioned) shown in FIG. 8 which switches a 1st mode and a 2nd mode, for example according to the signal from an external sensor, PLC, etc. You may have. In any case, in the present embodiment, the second mode is set as the default, and when the user selects the “valid” selection, or when the switching signal to the first mode is received from the outside, Switch to the second mode.
図7は、検査対象物の表面に印字された文字の例示図である。図7の一番上の文字列「ABC123」を基準文字とした場合、従来の良否判定では、文字の一部が欠けている「欠け」の文字列、文字の一部に汚れが付着している「汚れ」の文字列については、一致度が低下していました。しかし、一致度は複数の要因で決定されるので、「欠け」や「汚れ」が原因で一致度が低下したのか特定することができず、人の良否判定の感覚に沿った閾値設定を行うことは困難であった。 FIG. 7 is an exemplary view of characters printed on the surface of the inspection object. When the uppermost character string “ABC123” in FIG. 7 is used as a reference character, in the conventional pass / fail judgment, a character string “missing” in which a part of the character is missing, and a part of the character are stained. For the “dirty” text string, the degree of match was low. However, since the degree of coincidence is determined by a plurality of factors, it is not possible to specify whether the degree of coincidence has decreased due to “missing” or “dirt”, and a threshold value is set in accordance with the sense of pass / fail judgment of a person. It was difficult.
言い換えれば、文字の一部が欠けている「欠け」の文字列、文字の一部に汚れが付着している「汚れ」の文字列について、OK判定とするためには、従来のように一致度が低下するのではなく、一致度が低下しないように一致度を算出する必要がある。 In other words, in order to make an OK determination for a character string of “missing” in which a part of the character is missing and a character string of “dirty” in which a part of the character is soiled, they are matched as before. The degree of coincidence needs to be calculated so that the degree of coincidence does not fall, not the degree.
それに対して、薄く印刷された「濃淡あり」の文字列については一致度が低下しているにもかかわらず、NG判定とされない。しかし、現実には、インクの吐出不良、レーザの出力不足等に起因するものであり、本来はNG判定としておくべきケースが多い。このような濃淡については、視認性として本質的に人の感覚に沿った数値化が容易である。 On the other hand, the character string “light and dark” printed thin is not judged as NG even though the degree of coincidence is lowered. However, in reality, it is caused by ink ejection failure, laser output shortage, and the like, and there are many cases where NG determination should be made originally. Such shading is easily quantified as a visibility essentially in line with human senses.
以上のように、ユーザによっては、同じ文字であっても「欠け」や「汚れ」の程度は良否判定の閾値の設定が困難であるのでメーカの設定に任せるものの、一定基準以上の薄れた文字はNG判定としておきたいケースも生じうる。その場合に、従来の良否判定方法では対応することができない。そこで、本発明の実施の形態に係る画像処理センサでは、文字又は文字列が存在する領域内のコントラストにのみ応じて、良否判定を行うことができるよう工夫した。 As described above, depending on the user, even if the characters are the same, it is difficult to set the pass / fail judgment threshold for the degree of “missing” or “dirt”. In some cases, it may be desirable to make an NG determination. In such a case, the conventional quality determination method cannot cope. In view of this, the image processing sensor according to the embodiment of the present invention has been devised so that the quality determination can be performed only in accordance with the contrast in the region where the character or the character string exists.
(実施の形態1)
図8は、本発明の実施の形態1に係る画像処理センサの機能ブロック図である。図8において、画像処理部700の画像表示部701において、検査設定データの入力を受け付ける。ここで、検査設定データとは、後述する濃淡度合いを評価する閾値のほか、例えばGUI入力を通じて設定されたトリガ条件、輪郭抽出や面積算出などの画像処理ツールを含む。
(Embodiment 1)
FIG. 8 is a functional block diagram of the image processing sensor according to Embodiment 1 of the present invention. In FIG. 8, the image display unit 701 of the image processing unit 700 accepts input of inspection setting data. Here, the inspection setting data includes, for example, a trigger condition set through GUI input, an image processing tool such as contour extraction and area calculation, in addition to a threshold value for evaluating the degree of shading described later.
具体的には、画像表示部701のモード切替部711で、検査対象物の良否を判定する検査モード(Runモード)と、検査に用いる各種パラメータ(撮像パラメータ、照明パラメータ、画像処理パラメータ等)の設定を行う設定モード(非Runモード)とを切り替える。 Specifically, the mode switching unit 711 of the image display unit 701 includes an inspection mode (Run mode) for determining the quality of the inspection object, and various parameters (imaging parameters, illumination parameters, image processing parameters, etc.) used for the inspection. Switch between setting mode (non-run mode) for setting.
設定モードに切り替えられた場合、検査設定データ生成部702において、検査設定データの入力を受け付ける。もちろん、後述する濃淡度合いを評価するための閾値についても、画像表示部701の閾値設定部712で入力を受け付け、検査設定データに追加する。 When switched to the setting mode, the inspection setting data generation unit 702 receives input of inspection setting data. Of course, the threshold value for evaluating the degree of shading described later is also received by the threshold value setting unit 712 of the image display unit 701 and added to the inspection setting data.
生成された検査設定データは、検査設定データ記憶部703により、メモリ133に記憶される。もちろん、着脱可能な外部メモリに記憶しても良い。これにより、機種を変更した場合であっても同じ設定で良否判定を行うことが可能となる。 The generated inspection setting data is stored in the memory 133 by the inspection setting data storage unit 703. Of course, it may be stored in a removable external memory. As a result, even if the model is changed, it is possible to perform pass / fail determination with the same setting.
図9は、本発明の実施の形態1に係る画像処理センサのDSP132の検査設定データ生成処理の流れを示すフローチャートである。図9において、画像処理センサのDSP132は、各検査設定データを、それぞれ対応する入力画面からの入力を受け付ける(ステップS901)。 FIG. 9 is a flowchart showing a flow of inspection setting data generation processing of the DSP 132 of the image processing sensor according to Embodiment 1 of the present invention. In FIG. 9, the DSP 132 of the image processing sensor accepts input from the input screen corresponding to each inspection setting data (step S901).
DSP132は、入力を受け付けた各検査設定データを一連のデータ群である検査設定データとして生成し(ステップS902)、メモリ133へ記憶する(ステップS903)。 The DSP 132 generates each inspection setting data that has received the input as inspection setting data that is a series of data groups (step S902), and stores the data in the memory 133 (step S903).
図8に戻って、モード切替部711で検査モードに切り替えられた場合、検査設定データ読出部704は、メモリ133から記憶されている検査設定データを読み出し、カラー画像取得部705は、読み出した検査設定データに基づいてカメラモジュール(撮像手段)14のCMOS基板142の動作を制御して、撮像されたカラー画像の画素値(輝度値)を取得する。また、撮像された画像は表示装置2に表示される。 Returning to FIG. 8, when the mode switching unit 711 switches to the inspection mode, the inspection setting data reading unit 704 reads the inspection setting data stored from the memory 133, and the color image acquisition unit 705 reads the inspection that has been read. Based on the setting data, the operation of the CMOS substrate 142 of the camera module (imaging means) 14 is controlled to obtain the pixel value (luminance value) of the captured color image. In addition, the captured image is displayed on the display device 2.
領域特定部706は、取得した画像データに含まれる、認識対象となる文字又は文字列を含む矩形領域を特定する。図10は、本発明の実施の形態1に係る画像処理センサの文字列領域切り出しの例示図である。 The area specifying unit 706 specifies a rectangular area including characters or character strings to be recognized, which are included in the acquired image data. FIG. 10 is a view showing an example of character string region cutout by the image processing sensor according to Embodiment 1 of the present invention.
図10(a)に示すように、文字列「ABC123」が撮像された画像から、文字列が存在する領域を矩形領域として切り出す。すなわち、図10(b)に示すように、文字列が存在する領域を囲むような矩形領域を切り出す。領域切り出し方法は、周知の方法であれば特に限定されるものではない。 As shown in FIG. 10A, an area where the character string exists is cut out as a rectangular area from an image obtained by capturing the character string “ABC123”. That is, as shown in FIG. 10B, a rectangular area surrounding the area where the character string exists is cut out. The region cutout method is not particularly limited as long as it is a known method.
なお、アプリケーションによっては、事前に文字列を含む矩形領域が切り出されている状態で画像データを取得する場合もある。この場合には、領域特定部706は不要となる。 Depending on the application, image data may be acquired in a state where a rectangular area including a character string is cut out in advance. In this case, the area specifying unit 706 is not necessary.
図11は、本発明の実施の形態1に係る画像処理センサの切り出し対象の文字列の傾斜角度の特定方法の説明図である。図11(a)に示すような文字列「ABC123」を画像データとして取得した場合について説明する。 FIG. 11 is an explanatory diagram of a method for specifying the inclination angle of a character string to be cut out by the image processing sensor according to the first embodiment of the present invention. A case where a character string “ABC123” as shown in FIG. 11A is acquired as image data will be described.
まず、文字列を含む領域内の画素値を、所定の投影角度ごとに投影し、投影角度ごとに輝度値ヒストグラムを作成する。図11の例では、図11(b)に示す投影角度15度、図11(c)に示す投影角度0度、図11(d)に示す投影角度−15度の場合の輝度値ヒストグラムを、それぞれ図11(e)、図11(f)、図11(g)に示している。 First, pixel values in a region including a character string are projected at predetermined projection angles, and a luminance value histogram is created for each projection angle. In the example of FIG. 11, the luminance value histogram in the case of the projection angle 15 degrees shown in FIG. 11B, the projection angle 0 degrees shown in FIG. 11C, and the projection angle −15 degrees shown in FIG. These are shown in FIGS. 11 (e), 11 (f), and 11 (g), respectively.
図11(e)、図11(f)、図11(g)を比較すればわかるように、投影角度によって、文字ごとの輝度値分布の分離度に大きな差異が生じている。分離度が高い投影角度であればあるほど、文字列の傾斜角度と一致度合いが高いと考えられる。図11の例では、図11(e)に示す輝度値ヒストグラムの分離度が最も高いので、文字列の傾斜角度を15度と決定することができる。 As can be seen by comparing FIG. 11E, FIG. 11F, and FIG. 11G, there is a large difference in the separation of the luminance value distribution for each character depending on the projection angle. The higher the projection angle, the higher the degree of coincidence with the inclination angle of the character string. In the example of FIG. 11, since the separation degree of the luminance value histogram shown in FIG. 11E is the highest, the inclination angle of the character string can be determined to be 15 degrees.
図12は、本発明の実施の形態1に係る画像処理センサの切り出し対象の文字列からの文字を切り出す方法の例示図である。図11に示す手順で文字列の傾斜角度が決定されると、図12(a)に示すように、文字ごとの区切り位置が推測できる。また、区切られた領域ごとに輝度値の存在する領域を推測できるので、図12(b)に示すように、文字の上下端の位置も推測できる。これにより、文字ごとの矩形領域を決定することが可能となる。 FIG. 12 is an exemplary diagram of a method of cutting out characters from a character string to be cut out by the image processing sensor according to Embodiment 1 of the present invention. When the inclination angle of the character string is determined by the procedure shown in FIG. 11, the delimiter position for each character can be estimated as shown in FIG. Moreover, since the area | region where a luminance value exists can be estimated for every divided | segmented area | region, as shown in FIG.12 (b), the position of the upper and lower ends of a character can also be estimated. This makes it possible to determine a rectangular area for each character.
なお、文字の切り出し方法は、特にこれに限定されるものではない。例えば文字列を含む背景画像全体を二値化処理することにより、文字列とそうでない部分とを区別しやすいよう処理しても良い。二値化処理の閾値を適切に設定することにより、文字が存在する領域を適切に切り出すことができる。 Note that the character cutout method is not particularly limited to this. For example, the entire background image including the character string may be binarized so that the character string can be easily distinguished from the other portion. By appropriately setting the threshold value for the binarization process, it is possible to appropriately cut out an area where characters exist.
そのほかにも、例えば膨張収縮フィルタを適用して、領域ごとの連結性を評価することにより、同一の文字要素であるか否かを判断して文字を切り出す方法、あるいは文字領域が大きく重ならない、文字領域が平行にならんでいる等の制約条件に基づいて文字に外接する矩形領域を特定しても良い。 In addition to this, for example, by applying an expansion / contraction filter and evaluating connectivity for each region, it is possible to determine whether or not the characters are the same character element, or the character regions do not overlap significantly. A rectangular area circumscribing the character may be specified based on a constraint condition such that the character areas are aligned in parallel.
図8に戻って、文字認識部707は、特定された矩形領域内の文字を認識する。具体的には、以下の手順で文字を認識する。まず、特定された矩形領域内で、文字ごとに外接する矩形領域を切り出す。 Returning to FIG. 8, the character recognition unit 707 recognizes a character in the specified rectangular area. Specifically, characters are recognized by the following procedure. First, a circumscribed rectangular area is cut out for each character within the specified rectangular area.
具体的には、文字ごとの矩形領域を切り出した時点でOCR認識を実行して文字列を認識し、テキストデータとして記憶する。文字列を認識することに失敗してテキストデータにすることができない場合には、再度文字ごとの矩形領域の切り出しから実行しなおしても良い。 Specifically, when a rectangular area for each character is cut out, OCR recognition is executed to recognize a character string and store it as text data. If the character string cannot be recognized and cannot be converted into text data, the process may be performed again after cutting out the rectangular area for each character.
濃淡評価部708は、特定された矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する。具体的には、切り出した文字ごとの矩形領域内の輝度値ヒストグラムを解析することにより評価値を算出する。 The shading evaluation unit 708 calculates an evaluation value indicating the shading degree in the specified rectangular area, and evaluates the shading degree based on the calculated evaluation value and a predetermined threshold value. Specifically, an evaluation value is calculated by analyzing a luminance value histogram in a rectangular area for each extracted character.
図13は、本発明の実施の形態1に係る画像処理センサの輝度値ヒストグラムの生成範囲の例示図である。図13(a)に示すように、文字ごとに矩形領域が切り出されている場合、例えば切り出された文字の矩形領域1301ごとに、図13(b)に示すような輝度値ヒストグラムを生成しても良いし、文字列全体の矩形領域1302について輝度値ヒストグラムを生成しても良い。 FIG. 13 is a view showing an example of the generation range of the luminance value histogram of the image processing sensor according to Embodiment 1 of the present invention. As shown in FIG. 13A, when a rectangular area is cut out for each character, for example, a luminance value histogram as shown in FIG. 13B is generated for each rectangular area 1301 of the cut out character. Alternatively, a luminance value histogram may be generated for the rectangular region 1302 of the entire character string.
図14は、本発明の実施の形態1に係る画像処理センサの輝度値ヒストグラムからの評価値算出方法の例示図である。図14に示すように、輝度値ヒストグラムは、輝度値の分布を画素の度数分布として表示している。 FIG. 14 is an illustration of an evaluation value calculation method from the luminance value histogram of the image processing sensor according to the first embodiment of the present invention. As shown in FIG. 14, the luminance value histogram displays the distribution of luminance values as a frequency distribution of pixels.
本実施の形態1では、輝度値ヒストグラム中の最小値Lmin 、最大値Lmax を用いて、(式1)に基づいて評価値(コントラスト)を算出している。 In the first embodiment, the evaluation value (contrast) is calculated based on (Expression 1) using the minimum value Lmin and the maximum value Lmax in the luminance value histogram.
評価値(コントラスト)=(Lmax −Lmin )/(Lmax +Lmin )・・・(式1) Evaluation value (contrast) = (Lmax−Lmin) / (Lmax + Lmin) (Expression 1)
もちろん、評価値の算出方法は、特にこれに限定されるものではない。例えば、度数のピーク値が複数ある場合に、最大のピーク度数をPmax 、最小のピーク度数をPmin として、(式2)で算出しても良い。 Of course, the evaluation value calculation method is not particularly limited to this. For example, when there are a plurality of frequency peak values, the maximum peak frequency may be calculated as (Pmax) and the minimum peak frequency as Pmin (Formula 2).
評価値(コントラスト)=(Pmax −Pmin )/(Pmax +Pmin )・・・(式2) Evaluation value (contrast) = (Pmax−Pmin) / (Pmax + Pmin) (Expression 2)
もちろん、単純な差分である(Pmax −Pmin )であっても、コントラストを示すという意味では構わない。 Of course, even a simple difference (Pmax−Pmin) does not matter in terms of showing contrast.
さらに、背景領域の輝度値のばらつきが少ないことを前提として、文字部分は輝度値の差分として現れる。すなわち、文字が存在する領域は背景領域に比べて高周波領域であると考えることができ、画像全体の輝度値の分散を算出する、あるいは画像全体をフーリエ変換して高周波成分の総和を算出する等の方法であっても、評価値(コントラスト)を算出することができる。 Furthermore, on the premise that there is little variation in the luminance value of the background area, the character portion appears as a difference in luminance value. In other words, the area where characters are present can be considered as a high-frequency area compared to the background area, and the variance of the luminance value of the entire image is calculated, or the total of high-frequency components is calculated by Fourier transforming the entire image, etc. Even with this method, the evaluation value (contrast) can be calculated.
図8に戻って、画像表示部701は、良否判定部720において、濃淡評価部708で算出した評価値と比較する閾値を設定する閾値設定部712を有している。ここで、閾値とは、ユーザがNG判定とするかOK判定とするかを決定するコントラストの閾値である。 Returning to FIG. 8, the image display unit 701 includes a threshold setting unit 712 that sets a threshold to be compared with the evaluation value calculated by the density evaluation unit 708 in the pass / fail determination unit 720. Here, the threshold value is a contrast threshold value that determines whether the user makes an NG determination or an OK determination.
図15は、本発明の実施の形態1に係る画像処理センサの閾値設定画面の例示図である。図15(a)に示すように、閾値を設定するためのスライダ150が表示されており、スライダの位置に対応する閾値の数値が、数値表示領域152に表示されている。 FIG. 15 is a view for showing an example of a threshold setting screen of the image processing sensor according to the first embodiment of the present invention. As shown in FIG. 15A, a slider 150 for setting a threshold value is displayed, and a numerical value of the threshold value corresponding to the position of the slider is displayed in the numerical value display area 152.
図15(b)に示すように、スライダ150をマウス等でドラッグ操作して位置を変更することにより、数値表示領域152に表示される数値が変動する。図15の例では、図15(a)では閾値が46%であったものを、図15(b)に示すように閾値を66%に変更している。 As shown in FIG. 15B, the numerical value displayed in the numerical value display area 152 changes by dragging the slider 150 with a mouse or the like to change the position. In the example of FIG. 15, the threshold value is changed from 46% in FIG. 15A to 66% as shown in FIG. 15B.
もちろん、スライダ150をドラッグ操作することに限定されるものではなく、スライダ151の左右に配置されている「+」ボタン154及び「−」ボタン153をマウス等で選択することにより、閾値を増減させても良い。また、閾値を直接数値入力しても良い。 Of course, the operation is not limited to dragging the slider 150, and the threshold value is increased or decreased by selecting the “+” button 154 and the “−” button 153 arranged on the left and right of the slider 151 with a mouse or the like. May be. Further, the threshold value may be directly input as a numerical value.
図15(c)は、閾値の数値入力画面の例示図である。数値入力画面は、図15(a)及び図15(b)の数値表示領域152内に表示されている「下向き黒三角」ボタンをマウス等で選択することにより、ポップアップ表示される。 FIG. 15C is an exemplary diagram of a threshold value numerical value input screen. The numerical value input screen is displayed in a pop-up by selecting the “downward black triangle” button displayed in the numerical value display area 152 of FIGS. 15A and 15B with a mouse or the like.
図15(c)に示すように、テンキー表示部156をマウス等で選択することにより、入力領域155に所望の閾値を入力する。閾値によって、評価される濃淡度合いが変動するので、コントラストの変動に応じた検査対象物の画像を画像表示領域157に表示しても良い。適切な閾値の入力が完了したと判断した場合、「OK」ボタン158をマウス等で選択して、閾値を決定する。 As shown in FIG. 15C, a desired threshold value is input to the input area 155 by selecting the numeric keypad display unit 156 with a mouse or the like. Since the degree of shading to be evaluated varies depending on the threshold, an image of the inspection object corresponding to the variation in contrast may be displayed in the image display area 157. When it is determined that the input of an appropriate threshold is completed, the “OK” button 158 is selected with a mouse or the like to determine the threshold.
なお、前述した図5に示すモード切り替え画面における図5(b)の「設定モード」の画面から図15に示す閾値設定画面に遷移する。したがって、「プログラム」としてメモリ133に記憶されている一連のデータ群である検査設定データ(パラメータ値の組み合わせ)の中に、濃淡度合い評価の閾値も含まれることになる。 Note that the screen shifts from the “setting mode” screen shown in FIG. 5B on the mode switching screen shown in FIG. 5 to the threshold setting screen shown in FIG. Therefore, the threshold value for the evaluation of the degree of shading is included in the inspection setting data (combination of parameter values), which is a series of data groups stored in the memory 133 as the “program”.
以上のように、検査モード(第二のモード)が選択された場合、メモリ133に記憶されている検査設定データを読み出し、トリガ条件に基づいて新たな画像を自動的に撮像し、撮像した画像に対し、検査設定データに含まれる画像処理ツールを適用し、さらに、検査設定データに含まれる濃淡度合い評価の閾値を使ってOCR検査を実行する。 As described above, when the inspection mode (second mode) is selected, the inspection setting data stored in the memory 133 is read out, and a new image is automatically captured based on the trigger condition. On the other hand, the image processing tool included in the inspection setting data is applied, and further, the OCR inspection is executed using the threshold value of the degree of gray level evaluation included in the inspection setting data.
なお、上述したように、画像表示部701にモード選択受付部713を備えていても良いし、制御信号を受信することにより、濃淡度合いの評価をする「濃淡評価モード(第一のモード)」と、濃淡度合いの評価をしない「検査モード(第二のモード)」とを切り替えることができるモード選択部714を別個に備えていても良い。この場合、制御信号は、外部のセンサ又はPLCから、データ通信により受信すればよい。 As described above, the image display unit 701 may be provided with the mode selection receiving unit 713, or the “tone evaluation mode (first mode)” for evaluating the shade degree by receiving the control signal. And a mode selection unit 714 that can switch between “inspection mode (second mode)” that does not evaluate the degree of shading. In this case, the control signal may be received by data communication from an external sensor or PLC.
良否判定部720は、文字認識部707における文字認識結果、及び濃淡評価部708における濃淡度合いの評価値に基づいて、検査対象物の良否判定を行う。濃淡度合いの評価の閾値をユーザのNG判定に合わせて選択しているので、ユーザの感覚に合致した良否判定を行うことが可能となる。出力部730は、良否判定部720の判定結果を外部へ出力する。 The pass / fail determination unit 720 determines pass / fail of the inspection object based on the character recognition result in the character recognition unit 707 and the evaluation value of the shade degree in the shade evaluation unit 708. Since the evaluation threshold of the degree of shading is selected in accordance with the user's NG determination, it is possible to perform pass / fail determination that matches the user's sense. The output unit 730 outputs the determination result of the pass / fail determination unit 720 to the outside.
図16は、本発明の実施の形態1に係る画像処理センサのDSP132の良否判定処理の流れを示すフローチャートである。図16に示すように、画像処理センサのDSP132は、メモリ133から記憶されている検査設定データを読み出し(ステップS1601)、読み出した検査設定データに基づいてカメラモジュール(撮像手段)14のCMOS基板142の動作を制御して検査対象物を撮像させて、撮像されたカラー画像の画素値(輝度値)を取得する(ステップS1602)。 FIG. 16 is a flowchart showing a flow of pass / fail judgment processing of the DSP 132 of the image processing sensor according to the first embodiment of the present invention. As shown in FIG. 16, the DSP 132 of the image processing sensor reads the inspection setting data stored from the memory 133 (step S1601), and the CMOS substrate 142 of the camera module (imaging means) 14 based on the read inspection setting data. The inspection object is controlled to image the inspection object, and the pixel value (luminance value) of the captured color image is acquired (step S1602).
DSP132は、取得した画像データに含まれる、認識対象となる文字又は文字列を含む矩形領域を特定する(ステップS1603)。DSP132は、特定された矩形領域内で、文字ごとに外接する矩形領域を切り出し(ステップS1604)、OCR認識を実行して文字(文字列)を認識する(ステップS1605)。 The DSP 132 specifies a rectangular area including characters or character strings to be recognized, which are included in the acquired image data (step S1603). The DSP 132 cuts out a rectangular area circumscribing each character within the specified rectangular area (step S1604), executes OCR recognition, and recognizes a character (character string) (step S1605).
DSP132は、特定された矩形領域内の濃淡度合いを示す評価値(コントラスト)を算出し(ステップS1606)、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する。具体的には、切り出した文字ごとの矩形領域内の輝度値ヒストグラムを解析することにより評価値を算出する。 The DSP 132 calculates an evaluation value (contrast) indicating the degree of shading in the specified rectangular area (step S1606), and evaluates the shading degree based on the calculated evaluation value and a predetermined threshold value. Specifically, an evaluation value is calculated by analyzing a luminance value histogram in a rectangular area for each extracted character.
DSP132は、ステップS1605における文字認識が失敗しているか否かを判断する(ステップS1607)。DSP132が、文字認識が失敗していると判断した場合(ステップS1607:YES)、DSP132は、良否判定結果をNG判定とする(ステップS1609)。 The DSP 132 determines whether the character recognition in step S1605 has failed (step S1607). When the DSP 132 determines that the character recognition has failed (step S1607: YES), the DSP 132 sets the pass / fail determination result as NG (step S1609).
DSP132が、文字認識が成功していると判断した場合(ステップS1607:NO)、DSP132は、ステップS1606における濃淡度合いの評価値が閾値より小さいか否かを判断する(ステップS1608)。DSP132が、濃淡度合いの評価値が閾値より小さいと判断した場合(ステップS1608:YES)、DSP132は、良否判定結果をNG判定とする(ステップS1609)。 When the DSP 132 determines that the character recognition is successful (step S1607: NO), the DSP 132 determines whether or not the evaluation value of the degree of shading in step S1606 is smaller than the threshold (step S1608). When the DSP 132 determines that the evaluation value of the degree of shading is smaller than the threshold value (step S1608: YES), the DSP 132 sets the pass / fail determination result as NG determination (step S1609).
DSP132が、濃淡度合いの評価値が閾値以上であると判断した場合(ステップS1608:NO)、DSP132は、良否判定結果をOK判定とする(ステップS1610)。DSP132は、良否判定の結果を外部へ出力する(ステップS1611)。 When the DSP 132 determines that the evaluation value of the degree of shading is greater than or equal to the threshold (step S1608: NO), the DSP 132 sets the pass / fail determination result as OK (step S1610). The DSP 132 outputs the pass / fail determination result to the outside (step S1611).
なお、実施の形態1において、文字認識部707における文字認識処理と濃淡評価部708における濃淡度合いの評価処理の順序は特に限定されるものではなく、いずれの処理が先行しても良いし、同時に実行しても良い。 In the first embodiment, the order of the character recognition processing in the character recognition unit 707 and the evaluation processing of the degree of shading in the shading evaluation unit 708 is not particularly limited, and any processing may precede and simultaneously. May be executed.
以上のように本実施の形態1によれば、文字認識に成功した場合であっても、コントラストが低いときには、インクの吐出不足、レーザの出力不足に起因する印字された文字の薄れを正しく検出することができ、良否判定においてNG判定を正しく行うことが可能となる。 As described above, according to the first embodiment, even when the character recognition is successful, when the contrast is low, the thinness of the printed character due to insufficient ink ejection and insufficient laser output is correctly detected. Therefore, it is possible to correctly perform the NG determination in the pass / fail determination.
(実施の形態2)
図17は、本発明の実施の形態2に係る画像処理センサの機能ブロック図である。図17において、実施の形態1と同等の処理を実行する機能ブロックについては、同一の符号を付することにより詳細な説明を省略する。本実施の形態2は、文字認識処理を実行するための文字切り出し処理を実行する前に濃淡評価処理を実行する点において、実施の形態1と相違する。
(Embodiment 2)
FIG. 17 is a functional block diagram of an image processing sensor according to Embodiment 2 of the present invention. In FIG. 17, functional blocks that execute the same processing as in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. The second embodiment is different from the first embodiment in that the density evaluation process is executed before the character segmenting process for executing the character recognition process.
画像処理部700の画像表示部701において、検査設定データの入力を受け付ける。ここで、検査設定データとは、後述する濃淡度合い評価の閾値のほか、例えばGUI入力を通じて設定されたトリガ条件、輪郭抽出や面積算出などの画像処理ツールを含む。 The image display unit 701 of the image processing unit 700 receives input of inspection setting data. Here, the inspection setting data includes an image processing tool such as a trigger condition set through a GUI input, contour extraction, and area calculation, in addition to a threshold for evaluation of the degree of shading described later.
具体的には、画像表示部701のモード切替部711で、検査対象物の良否を判定する検査モード(Runモード)と、検査に用いる各種パラメータ(撮像パラメータ、照明パラメータ、画像処理パラメータ等)の設定を行う設定モード(非Runモード)とを切り替える。 Specifically, the mode switching unit 711 of the image display unit 701 includes an inspection mode (Run mode) for determining the quality of the inspection object, and various parameters (imaging parameters, illumination parameters, image processing parameters, etc.) used for the inspection. Switch between setting mode (non-run mode) for setting.
設定モードに切り替えられた場合の処理は、実施の形態1と同様であるので、詳細な説明は省略する。検査モードに切り替えられた場合、検査設定データ読出部704は、メモリ133から記憶されている検査設定データを読み出し、カラー画像取得部705は、読み出した検査設定データに基づいてカメラモジュール(撮像手段)14のCMOS基板142の動作を制御して、撮像されたカラー画像の画素値(輝度値)を取得する。また、撮像された画像は表示装置2に表示される。 Since the processing when the mode is switched to the setting mode is the same as that of the first embodiment, detailed description thereof is omitted. When the mode is switched to the inspection mode, the inspection setting data reading unit 704 reads the inspection setting data stored from the memory 133, and the color image acquisition unit 705 uses the camera module (imaging unit) based on the read inspection setting data. The pixel values (luminance values) of the captured color image are acquired by controlling the operations of the 14 CMOS substrates 142. In addition, the captured image is displayed on the display device 2.
領域特定部706は、取得した画像データに含まれる、認識対象となる文字又は文字列を含む矩形領域を特定する。図18は、本発明の実施の形態2に係る画像処理センサの文字列領域切り出しの例示図である。 The area specifying unit 706 specifies a rectangular area including characters or character strings to be recognized, which are included in the acquired image data. FIG. 18 is a view showing an example of character string region cutout by the image processing sensor according to Embodiment 2 of the present invention.
図18(a)に示すように、文字列「ABC123」が撮像された画像から、文字列が存在する領域を矩形領域として切り出す。すなわち、図18(b)に示すように、文字列が存在する領域を囲むような矩形領域を切り出す。領域切り出し方法は、周知の方法であれば特に限定されるものではない。 As illustrated in FIG. 18A, an area where the character string exists is cut out as a rectangular area from an image obtained by capturing the character string “ABC123”. That is, as shown in FIG. 18B, a rectangular area surrounding the area where the character string exists is cut out. The region cutout method is not particularly limited as long as it is a known method.
なお、実施の形態1と同様、アプリケーションによっては、事前に文字列を含む矩形領域が切り出されている状態で画像データを取得する場合もある。この場合には、領域特定部706は不要となる。 As in the first embodiment, depending on the application, image data may be acquired in a state where a rectangular area including a character string is cut out in advance. In this case, the area specifying unit 706 is not necessary.
図17に戻って、濃淡評価部708は、文字認識の対象となる文字又は文字列を含む、切り出された矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する。具体的には、切り出しされた矩形領域内の輝度値ヒストグラムを解析することにより評価値を算出する。領域特定部706が存在しない場合には、画像全体の濃淡度合いを評価することになる。 Returning to FIG. 17, the shading evaluation unit 708 calculates an evaluation value indicating the degree of shading in the cut-out rectangular area including the character or character string to be character-recognized, and the calculated evaluation value and a predetermined threshold value Based on the above, the degree of shading is evaluated. Specifically, an evaluation value is calculated by analyzing a luminance value histogram in the cut out rectangular area. When the area specifying unit 706 does not exist, the shade degree of the entire image is evaluated.
図19は、本発明の実施の形態2に係る画像処理センサの矩形領域内の輝度値ヒストグラム生成の例示図である。図19(a)に示すように、文字認識の対象となる文字又は文字列が含まれる矩形領域が切り出されている場合、矩形領域全体に対して、図19(b)に示すような輝度値ヒストグラムを生成する。これにより、同一輝度値である画素数が多い部分に文字又は文字列が存在していると推定することができる。 FIG. 19 is a view for illustrating generation of a luminance value histogram in a rectangular area of the image processing sensor according to the second embodiment of the present invention. As shown in FIG. 19A, when a rectangular area including a character or a character string to be character-recognized is cut out, the luminance value as shown in FIG. Generate a histogram. Thereby, it can be estimated that the character or character string exists in the part with many pixels with the same luminance value.
輝度値ヒストグラムからの評価値算出方法は、実施の形態1と同様であることから、詳細な説明は省略する。文字又は文字列が存在する部分をさらに高い精度で特定するために、文字が存在する領域が他の背景領域と比較して高周波領域であることから、矩形領域内の輝度値の分散を算出する、あるいは矩形領域内をフーリエ変換して高周波成分の総和を算出する等により評価値(コントラスト)を算出することによっても、文字又は文字列が存在する部分を特定することが可能となる。 Since the evaluation value calculation method from the luminance value histogram is the same as that in the first embodiment, detailed description thereof is omitted. In order to identify the portion where the character or the character string exists with higher accuracy, the variance of the luminance value in the rectangular region is calculated because the region where the character exists is a high-frequency region compared to other background regions. Alternatively, by calculating the evaluation value (contrast) by, for example, calculating the sum of high-frequency components by performing Fourier transform in the rectangular area, it is possible to specify a portion where a character or a character string exists.
なお、図17に示すように、画像表示部701は、濃淡評価部708で算出した濃淡度合いの評価値と比較する閾値を設定する閾値設定部712を有している。閾値設定画面は、実施の形態1と同様である。 As shown in FIG. 17, the image display unit 701 includes a threshold setting unit 712 that sets a threshold value to be compared with the evaluation value of the shade degree calculated by the shade evaluation unit 708. The threshold setting screen is the same as in the first embodiment.
また、画像表示部701にモード選択受付部713を備えていても良いし、制御信号を受信することにより、濃淡度合いの評価をする「濃淡評価モード(第一のモード)」と、濃淡度合いの評価をしない「検査モード(第二のモード)」とを切り替えることができるモード選択部714を別個に備えていても良い。この場合、制御信号は、外部のセンサ又はPLCから、データ通信により受信すればよい。第二のモードの場合には、濃淡度合いの評価は実行しない。 The image display unit 701 may be provided with a mode selection receiving unit 713, and by receiving a control signal, a “shading evaluation mode (first mode)” for evaluating the shading degree, and a shading degree degree. A mode selection unit 714 that can switch between “inspection mode (second mode)” in which evaluation is not performed may be provided separately. In this case, the control signal may be received by data communication from an external sensor or PLC. In the case of the second mode, the shade degree is not evaluated.
本実施の形態2では、濃淡評価部708において、算出した濃淡度合いの評価値を閾値と比較して、NG判定かOK判定かを決定する。すなわち、ユーザの感覚では、濃淡度合いの観点からはNG判定となっている検査対象物は、この時点で以後の処理の対象から外すことができる。 In the second embodiment, the density evaluation unit 708 compares the calculated evaluation value of the degree of density with a threshold value and determines whether it is NG determination or OK determination. That is, from the viewpoint of the user, the inspection object that is determined as NG from the viewpoint of the degree of shading can be excluded from the target of subsequent processing at this point.
図17に戻って、文字認識部707は、濃淡評価部708でOK判定となっている検査対象物について、特定された矩形領域内の文字を認識する。具体的には、まず文字又は文字列が存在すると推測される矩形領域から、文字ごとの矩形領域を切り出す。図20は、本発明の実施の形態2に係る画像処理センサの特定された文字又は文字列が存在する部分から文字を切り出した状態を示す説明図である。図20(a)に示すように、文字又は文字列が存在する領域が推定されているので、実施の形態1の図12と同様の方法で、図20(b)に示すように、文字ごとの矩形領域を決定する。 Returning to FIG. 17, the character recognizing unit 707 recognizes a character in the specified rectangular area with respect to the inspection target that has been determined to be OK by the density evaluation unit 708. Specifically, first, a rectangular area for each character is cut out from a rectangular area in which a character or character string is estimated to exist. FIG. 20 is an explanatory diagram showing a state in which a character is cut out from a portion where the specified character or character string exists in the image processing sensor according to the second embodiment of the present invention. As shown in FIG. 20 (a), since the region where the character or the character string exists is estimated, in the same manner as in FIG. 12 of the first embodiment, each character as shown in FIG. 20 (b). Determine the rectangular area.
なお、文字の切り出し方法は、特にこれに限定されるものではない。例えば文字列を含む背景画像全体を二値化処理することにより、文字列と文字列ではない部分とを区別しやすいよう処理しても良い。二値化処理の閾値を適切に設定することにより、文字が存在する領域を適切に切り出すことができる。 Note that the character cutout method is not particularly limited to this. For example, the entire background image including the character string may be binarized so that the character string and the non-character string portion can be easily distinguished. By appropriately setting the threshold value for the binarization process, it is possible to appropriately cut out an area where characters exist.
そのほかにも、例えば膨張収縮フィルタを適用して、領域ごとの廉潔性を評価することにより、同一の文字要素であるか否かを判断して文字を切り出す方法、あるいは文字領域が大きく重ならない、文字領域が平行にならんでいる等の制約条件に基づいて文字に外接する矩形領域を特定しても良い。 In addition, for example, by applying an expansion / contraction filter and evaluating the integrity of each region, it is possible to determine whether or not the character elements are the same, or to cut out characters, or the character regions do not overlap significantly A rectangular area circumscribing the character may be specified based on a constraint condition such that the character areas are aligned in parallel.
図17に戻って、文字認識部707は、特定された矩形領域内の文字を認識する。文字認識方法は、実施の形態1と同様であることから詳細な説明は省略する。 Returning to FIG. 17, the character recognition unit 707 recognizes a character in the specified rectangular area. Since the character recognition method is the same as that of the first embodiment, detailed description thereof is omitted.
以上のように、検査モード(第二のモード)が選択された場合、メモリ133に記憶されている検査設定データを読み出し、トリガ条件に基づいて新たな画像を自動的に撮像し、撮像した画像に対し、検査設定データに含まれる画像処理ツールを適用し、さらに、検査設定データに含まれる濃淡度合いを評価する閾値を使ってOCR検査を実行する。 As described above, when the inspection mode (second mode) is selected, the inspection setting data stored in the memory 133 is read out, and a new image is automatically captured based on the trigger condition. On the other hand, the image processing tool included in the inspection setting data is applied, and the OCR inspection is executed using a threshold value for evaluating the degree of shading included in the inspection setting data.
良否判定部720は、文字認識部707における文字認識結果に基づいて、検査対象物の良否判定を行う。濃淡度合いの評価値が閾値以上である場合にのみ文字認識結果に基づいて良否判定を行えばいいので、全体として演算処理負荷を軽減することができる。出力部730は、良否判定部720の判定結果を外部へ出力する。 The pass / fail judgment unit 720 judges pass / fail of the inspection object based on the character recognition result in the character recognition unit 707. Only when the evaluation value of the degree of shading is equal to or greater than the threshold value, the pass / fail determination may be performed based on the character recognition result, and the calculation processing load as a whole can be reduced. The output unit 730 outputs the determination result of the pass / fail determination unit 720 to the outside.
図21は、本発明の実施の形態2に係る画像処理センサのDSP132の良否判定処理の流れを示すフローチャートである。図21に示すように、画像処理センサのDSP132は、メモリ133から記憶されている検査設定データを読み出し(ステップS2101)、読み出した検査設定データに基づいてカメラモジュール(撮像手段)14のCMOS基板142の動作を制御して、撮像されたカラー画像の画素値(輝度値)を取得する(ステップS2102)。 FIG. 21 is a flowchart showing the flow of pass / fail judgment processing of the DSP 132 of the image processing sensor according to the second embodiment of the present invention. As shown in FIG. 21, the DSP 132 of the image processing sensor reads the inspection setting data stored from the memory 133 (step S2101), and the CMOS substrate 142 of the camera module (imaging means) 14 based on the read inspection setting data. The pixel value (luminance value) of the captured color image is acquired by controlling the operation (step S2102).
DSP132は、取得した画像データに含まれる、認識対象となる文字又は文字列を含む矩形領域を特定する(ステップS2103)。DSP132は、特定された矩形領域内の濃淡度合いを示す評価値(コントラスト)を算出し(ステップS2104)、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する。具体的には、切り出した文字ごとの矩形領域内の輝度値ヒストグラムを解析することにより評価値を算出する。 The DSP 132 specifies a rectangular area including a character or character string to be recognized, which is included in the acquired image data (step S2103). The DSP 132 calculates an evaluation value (contrast) indicating the degree of shading in the specified rectangular area (step S2104), and evaluates the shading degree based on the calculated evaluation value and a predetermined threshold value. Specifically, an evaluation value is calculated by analyzing a luminance value histogram in a rectangular area for each extracted character.
DSP132は、算出した濃淡度合いの評価値が閾値以上であるか否かを判断する(ステップS2105)。DSP132が、濃淡度合いの評価値が閾値より小さいと判断した場合(ステップS2105:NO)、DSP132は、良否判定結果をNG判定とする(ステップS2106)。 The DSP 132 determines whether or not the calculated evaluation value of the degree of shading is equal to or greater than a threshold value (step S2105). When the DSP 132 determines that the evaluation value of the degree of shading is smaller than the threshold value (step S2105: NO), the DSP 132 sets the pass / fail determination result as NG determination (step S2106).
DSP132が、濃淡度合いの評価値が閾値以上であると判断した場合(ステップS2105:YES)、DSP132は、特定された矩形領域内で、文字ごとに外接する矩形領域を切り出し(ステップS2107)、OCR認識を実行して文字(文字列)を認識する(ステップS2108)。 When the DSP 132 determines that the evaluation value of the degree of shading is equal to or greater than the threshold (step S2105: YES), the DSP 132 cuts out a rectangular area circumscribing for each character in the specified rectangular area (step S2107), and OCR Recognition is executed to recognize a character (character string) (step S2108).
DSP132は、文字認識が成功しているか否かを判断する(ステップS2109)。DSP132が、文字認識が失敗していると判断した場合(ステップS2109:NO)、DSP132は、良否判定結果をNG判定とする(ステップS2106)。 The DSP 132 determines whether character recognition is successful (step S2109). When the DSP 132 determines that character recognition has failed (step S2109: NO), the DSP 132 sets the pass / fail determination result to NG (step S2106).
DSP132が、文字認識が成功していると判断した場合(ステップS2109:YES)、DSP132は、良否判定結果をOK判定とする(ステップS2110)。DSP132は、良否判定の結果を外部へ出力する(ステップS2111)。 When the DSP 132 determines that the character recognition is successful (step S2109: YES), the DSP 132 sets the OK / NG determination result as OK (step S2110). The DSP 132 outputs the pass / fail determination result to the outside (step S2111).
なお、実施の形態2においては、濃淡評価部708における濃淡度合いの評価処理の方が文字認識部707における文字認識処理よりも先に実行されているが、同時に実行しても良い。この場合には、濃淡度合いによる良否判定結果と文字認識による良否判定結果との両方で良否判定を実行する。 In the second embodiment, the density evaluation process in the density evaluation unit 708 is performed prior to the character recognition process in the character recognition unit 707, but may be performed simultaneously. In this case, the pass / fail determination is executed based on both the pass / fail determination result based on the degree of shading and the pass / fail determination result based on character recognition.
以上のように本実施の形態2によれば、文字認識に成功した場合であっても、コントラストが低いときには、インクの吐出不足、レーザの出力不足に起因する印字された文字の薄れを正しく検出することができ、良否判定においてNG判定を正しく行うことが可能となる。 As described above, according to the second embodiment, even when the character recognition is successful, when the contrast is low, the thinness of the printed character due to insufficient ink ejection or laser output is correctly detected. Therefore, it is possible to correctly perform the NG determination in the pass / fail determination.
なお、本発明は上記実施例に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変更、改良等が可能である。例えば撮像装置1と表示装置2とは、接続ケーブル3で直結されている形態に限定されるものではなく、LAN、WAN等のネットワーク網を介して接続されていても良いことは言うまでもない。また、本実施の形態1及び2では撮像装置1と表示装置2とは別体となっているが、両者が一体として構成された画像処理センサであっても良い。 The present invention is not limited to the above-described embodiments, and various changes and improvements can be made within the scope of the present invention. For example, the imaging device 1 and the display device 2 are not limited to the form directly connected by the connection cable 3, and needless to say, they may be connected via a network network such as a LAN or a WAN. In the first and second embodiments, the imaging device 1 and the display device 2 are separate from each other, but may be an image processing sensor configured as a single unit.
1 撮像装置(撮像手段)
2 表示装置(表示手段)
3 接続ケーブル
13 メイン基板
14 カメラモジュール
15 照明基板
21 タッチパネル
132 DSP
700 画像処理部
701 画像表示部
702 検査設定データ生成部
703 検査設定データ記憶部
704 検査設定データ読出部
705 カラー画像取得部
706 領域特定部
707 文字認識部
708 濃淡評価部
711 モード切替部(設定/検査)
712 閾値設定部
713 モード選択受付部
714 モード選択部
720 良否判定部
730 出力部
1 Imaging device (imaging means)
2. Display device (display means)
3 Connection Cable 13 Main Board 14 Camera Module 15 Illumination Board 21 Touch Panel 132 DSP
700 Image processing unit 701 Image display unit 702 Inspection setting data generation unit 703 Inspection setting data storage unit 704 Inspection setting data reading unit 705 Color image acquisition unit 706 Area specifying unit 707 Character recognition unit 708 Color evaluation unit 711 Mode switching unit (Setting / Inspection)
712 Threshold setting unit 713 Mode selection receiving unit 714 Mode selection unit 720 Pass / fail judgment unit 730 Output unit
Claims (12)
該撮像手段で撮像された検査対象物の画像から検査対象物の画像処理を行う画像処理手段と、
該画像処理手段の処理結果に基づいて、検査対象物の良否判定を行う良否判定手段と、
該良否判定手段の判定結果を外部へ出力する出力手段と
を有する画像処理センサにおいて、
前記画像処理手段は、
撮像された検査対象物の画像に含まれる、認識対象となる文字又は文字列を含む矩形領域を特定する領域特定手段と、
特定された矩形領域内の文字を認識する文字認識手段と、
前記矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する濃淡評価手段と
を備え、
前記良否判定手段は、前記文字認識手段による認識された文字及び前記濃淡評価手段により評価された濃淡度合いに基づいて検査対象物の良否判定を行うことを特徴とする画像処理センサ。 An imaging means for imaging an inspection object;
Image processing means for performing image processing of the inspection object from the image of the inspection object imaged by the imaging means;
A pass / fail determination means for determining pass / fail of the inspection object based on the processing result of the image processing means;
An image processing sensor having output means for outputting the determination result of the pass / fail determination means to the outside;
The image processing means includes
An area specifying means for specifying a rectangular area including a character or a character string to be recognized, which is included in the image of the imaged inspection object;
Character recognition means for recognizing characters in the specified rectangular area;
A shade evaluation means for calculating an evaluation value indicating a shade degree in the rectangular region, and evaluating the shade degree based on the calculated evaluation value and a predetermined threshold;
The image processing sensor, wherein the pass / fail judgment unit performs pass / fail judgment of an inspection object based on the character recognized by the character recognition unit and the shade degree evaluated by the shade evaluation unit.
該画像表示手段は、前記濃淡評価手段で用いる前記閾値を設定する閾値設定手段を有することを特徴とする請求項1又は2に記載の画像処理センサ。 Image display means for displaying an image of the imaged inspection object;
The image processing sensor according to claim 1, wherein the image display unit includes a threshold setting unit configured to set the threshold used in the density evaluation unit.
生成された検査設定データを記憶する検査設定データ記憶手段と、
ユーザによる入力を受け付けて検査設定データを生成するための設定モードと、トリガ条件に基づいて繰り返し取得する画像に対して検査を行う検査モードとを切り替えるモード切替手段と
を備え、
前記モード切替手段により設定モードから実行モードへ切り替えられた場合、記憶されている検査設定データを読み出して、前記トリガ条件に基づき繰り返し取得される画像に対して前記画像処理ツールを用いて前記画像処理手段を実行することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理センサ。 Inspection setting data generating means for generating inspection setting data including at least the predetermined threshold value, trigger condition, and image processing tool;
Inspection setting data storage means for storing the generated inspection setting data;
Mode switching means for switching between a setting mode for receiving input by a user and generating inspection setting data, and an inspection mode for inspecting an image repeatedly acquired based on a trigger condition;
When the setting mode is switched from the setting mode to the execution mode by the mode switching unit, the stored examination setting data is read, and the image processing tool is used for the image that is repeatedly acquired based on the trigger condition. The image processing sensor according to claim 1, wherein the image processing sensor executes means.
該撮像手段で撮像された検査対象物の画像から検査対象物の画像処理を行う画像処理手段と、
該画像処理手段の処理結果に基づいて、検査対象物の良否判定を行う良否判定手段と、
該良否判定手段の判定結果を外部へ出力する出力手段と
を有する画像処理センサで実行することが可能な画像処理方法において、
前記画像処理センサは、
撮像された検査対象物の画像に含まれる、認識対象となる文字又は文字列を含む矩形領域を特定するステップと、
特定された矩形領域内の文字を認識するステップと、
前記矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価するステップと
を含み、
認識された文字及び評価された濃淡度合いに基づいて検査対象物の良否判定を行うことを特徴とする画像処理方法。 An imaging means for imaging an inspection object;
Image processing means for performing image processing of the inspection object from the image of the inspection object imaged by the imaging means;
A pass / fail determination means for determining pass / fail of the inspection object based on the processing result of the image processing means;
In an image processing method that can be executed by an image processing sensor having output means for outputting the determination result of the pass / fail determination means to the outside,
The image processing sensor
Identifying a rectangular region including a character or character string to be recognized, which is included in the image of the imaged inspection object;
Recognizing characters in the specified rectangular area;
Calculating an evaluation value indicating a degree of shading in the rectangular area, and evaluating the degree of shading based on the calculated evaluation value and a predetermined threshold value, and
An image processing method comprising: determining whether or not an inspection target is acceptable based on a recognized character and an evaluated shade degree.
少なくとも前記所定の閾値、トリガ条件、画像処理ツールを含む検査設定データを生成するステップと、
生成された検査設定データを記憶するステップと、
ユーザによる入力を受け付けて検査設定データを生成するための設定モードと、トリガ条件に基づいて繰り返し取得する画像に対して検査を行う検査モードとを切り替えるステップと
を含み、
設定モードから実行モードへ切り替えられた場合、記憶されている検査設定データを読み出して、前記トリガ条件に基づき繰り返し取得される画像に対して前記画像処理ツールを用いて画像処理することを特徴とする請求項7乃至10のいずれか一項に記載の画像処理方法。 The image processing sensor
Generating inspection setting data including at least the predetermined threshold, a trigger condition, and an image processing tool;
Storing the generated examination setting data;
Switching between a setting mode for receiving input by a user and generating inspection setting data, and an inspection mode for inspecting an image repeatedly acquired based on a trigger condition,
When the setting mode is switched to the execution mode, the stored examination setting data is read out, and image processing is performed on the image repeatedly acquired based on the trigger condition using the image processing tool. The image processing method according to claim 7.
該撮像手段で撮像された検査対象物の画像から検査対象物の画像処理を行う画像処理手段と、
該画像処理手段の処理結果に基づいて、検査対象物の良否判定を行う良否判定手段と、
該良否判定手段の判定結果を外部へ出力する出力手段と
を有する画像処理センサで実行することが可能なコンピュータプログラムにおいて、
前記画像処理手段を、
撮像された検査対象物の画像に含まれる、認識対象となる文字又は文字列を含む矩形領域を特定する領域特定手段、
特定された矩形領域内の文字を認識する文字認識手段、及び
前記矩形領域内の濃淡度合いを示す評価値を算出し、算出した評価値と所定の閾値とに基づいて濃淡度合いを評価する濃淡評価手段
として機能させ、
前記良否判定手段を、前記文字認識手段による認識された文字及び前記濃淡評価手段により評価された濃淡度合いに基づいて検査対象物の良否判定を行う手段として機能させることを特徴とするコンピュータプログラム。 An imaging means for imaging an inspection object;
Image processing means for performing image processing of the inspection object from the image of the inspection object imaged by the imaging means;
A pass / fail determination means for determining pass / fail of the inspection object based on the processing result of the image processing means;
In a computer program that can be executed by an image processing sensor having output means for outputting the determination result of the pass / fail determination means to the outside,
The image processing means;
An area specifying means for specifying a rectangular area including a character or a character string to be recognized, which is included in the image of the imaged inspection object;
Character recognition means for recognizing characters in the specified rectangular area, and an evaluation value that calculates an evaluation value indicating the degree of density in the rectangular area and evaluates the degree of density based on the calculated evaluation value and a predetermined threshold value Function as a means,
A computer program that causes the pass / fail judgment means to function as a means for judging pass / fail of an inspection object based on a character recognized by the character recognition means and a shade degree evaluated by the shade evaluation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018013682A JP2019133311A (en) | 2018-01-30 | 2018-01-30 | Image processing sensor and image processing method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018013682A JP2019133311A (en) | 2018-01-30 | 2018-01-30 | Image processing sensor and image processing method and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019133311A true JP2019133311A (en) | 2019-08-08 |
Family
ID=67546266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018013682A Pending JP2019133311A (en) | 2018-01-30 | 2018-01-30 | Image processing sensor and image processing method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019133311A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210068777A (en) * | 2019-12-02 | 2021-06-10 | 현대모비스 주식회사 | Apparatus and medhod for determining vehicle lamp lighting feeling |
JP2021125213A (en) * | 2020-01-31 | 2021-08-30 | 株式会社Osk | Information processor, information processing method, and information processing program |
WO2022153772A1 (en) * | 2021-01-13 | 2022-07-21 | 東レエンジニアリング株式会社 | Visual inspection device |
-
2018
- 2018-01-30 JP JP2018013682A patent/JP2019133311A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210068777A (en) * | 2019-12-02 | 2021-06-10 | 현대모비스 주식회사 | Apparatus and medhod for determining vehicle lamp lighting feeling |
KR102386867B1 (en) * | 2019-12-02 | 2022-04-15 | 현대모비스 주식회사 | Apparatus and medhod for determining vehicle lamp lighting feeling |
JP2021125213A (en) * | 2020-01-31 | 2021-08-30 | 株式会社Osk | Information processor, information processing method, and information processing program |
WO2022153772A1 (en) * | 2021-01-13 | 2022-07-21 | 東レエンジニアリング株式会社 | Visual inspection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200364906A1 (en) | Image Inspection Apparatus | |
KR100816602B1 (en) | Unauthorized person detection device and unauthorized person detection method | |
US20140152794A1 (en) | Measurement Microscope Device, Image Generating Method, Measurement Microscope Device Operation Program, And Computer-Readable Recording Medium | |
JP4309927B2 (en) | Eyelid detection device and program | |
TWI701018B (en) | Information processing device, information processing method, and program | |
JP4483067B2 (en) | Target object extraction image processing device | |
US20070200938A1 (en) | Image-Taking System | |
KR20130061147A (en) | Laser scanning projector device for interactive screen applications | |
JP2019133311A (en) | Image processing sensor and image processing method and computer program | |
JP2020187656A (en) | Image inspection device | |
JP4401590B2 (en) | Image data processing method and image data processing apparatus | |
CN110198395B (en) | Range discriminator for auto-focusing in optical imaging systems | |
JP2013109271A (en) | Image processor, focus adjustment method, and computer program | |
JP2019168388A (en) | Image inspection method and image inspection device | |
JP2007226334A (en) | Color image processing method and color image processing device | |
JP2009130461A (en) | Image processing apparatus and image processing method | |
JP6433810B2 (en) | Bonding wire detection method and bonding wire detection device | |
JP5266952B2 (en) | Optical measuring apparatus and measuring method | |
JP2013108798A (en) | Image processing device and determination threshold setting method to be used in the same | |
TWI527427B (en) | Peripheral with image processing function | |
JP5474113B2 (en) | Image processing apparatus and image processing method | |
JP5141259B2 (en) | projector | |
KR20170011791A (en) | An apparatus for detecting optical defects of tempered glass and ito pattern defects in touch screen panel and the method thereof | |
JP5960433B2 (en) | Image processing apparatus and image processing method | |
JP6825067B2 (en) | Inspection equipment and its control method |