JP6835020B2 - 画像処理システム、画像処理装置、画像処理プログラム - Google Patents
画像処理システム、画像処理装置、画像処理プログラム Download PDFInfo
- Publication number
- JP6835020B2 JP6835020B2 JP2018047628A JP2018047628A JP6835020B2 JP 6835020 B2 JP6835020 B2 JP 6835020B2 JP 2018047628 A JP2018047628 A JP 2018047628A JP 2018047628 A JP2018047628 A JP 2018047628A JP 6835020 B2 JP6835020 B2 JP 6835020B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- light emitting
- unit
- light
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 73
- 238000003384 imaging method Methods 0.000 claims description 90
- 230000003287 optical effect Effects 0.000 claims description 17
- 238000013507 mapping Methods 0.000 description 55
- 238000000034 method Methods 0.000 description 54
- 238000007689 inspection Methods 0.000 description 44
- 238000000605 extraction Methods 0.000 description 32
- 238000005286 illumination Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 25
- 238000005259 measurement Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 10
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000005401 electroluminescence Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000011179 visual inspection Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Studio Devices (AREA)
- Image Input (AREA)
- Stroboscope Apparatuses (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
上述の開示において、出力部は、撮像視野内の複数の注目点の各々について得られる反射プロファイル情報を、同時または順次に座標系上に出力してもよい。
まず、図1および図2を参照して、本発明が適用される場面の一例について説明する。図1は、本実施の形態に係る画像処理システム1の適用場面を模式的に示す図である。図2は、反射プロファイル情報70を模式的に示した図である。
[A.画像処理システムが適用される生産ラインの一例]
次に、本実施の形態に係る画像処理システムの一例について説明する。図3は、本実施の形態に係る画像処理システム1が適用される生産ラインの一例を示す模式図である。
図4は、制御装置100のハードウェア構成について示す模式図である。制御装置100は、CPU(Central Processing Unit)110、メインメモリ120、ハードディスク130、カメラインターフェイス(I/F)180、照明I/F140、表示コントローラ172、入力I/F174、通信I/F150、外部メモリI/F160、および光学ドライブ164を含む。これらの各部は、バス190を介して、互いにデータ通信可能に接続される。
図5は、本実施の形態に係る照明装置4の一部を拡大した模式図である。照明装置4は、マトリクス状に配置された複数の照明要素41を含む。照明装置4は、各照明要素41を独立に点灯させることができる。本実施の形態における照射パターンとは、複数の照明要素41のうちの点灯させる照明要素41により決定されるものをいう。また、本実施の形態においては、各照明要素41からは、白色光が照射されるものとして説明し、照射パターンとは発光面40の濃淡パターンをいうこととする。また、本実施の形態において、照明装置4は、各照明要素41を独立して、点灯または消灯させることができる。なお、照明装置4は、各照明要素41の発光強度を調整できるようにしてもよい。
以下、第1の具体例における反射プロファイル情報72について説明する。
反射プロファイル情報72は、発光面40内の位置と、その位置から対象物Wに照射される光が対象物Wの注目部位Aに反射してカメラ8に入射する光の度合いとの関係を示す情報である。図6は、第1の具体例における反射プロファイル情報72を得るための工程の一例を示す図である。反射プロファイル情報72を得るための工程は、データを取得する工程Ph1と、データを抽出する工程Ph2と、抽出したデータから反射プロファイル情報72を生成する工程Ph3を含む。
図7は、データの取得方法を説明するための図である。なお、図7においては、カメラ8の図示を省略している。照明装置4は、発光面40内に設定された部分領域43だけを発光させることができる。発光面40は、全ての照明要素41の集合からなる。一方、部分領域43は、1または複数の照明要素41からなる。つまり、部分領域43は、全ての照明要素41の集合に対する部分集合となっている。照明装置4は、複数の照明要素41の各々を独立して点灯させることができるため、発光面40上に設定される部分領域43内に含まれるすべての照明要素41を点灯することで、設定された部分領域43だけを発光させることができる。なお、照明装置4は、部分領域43に含まれる全照明要素41を同じ発光強度で点灯させてもよく、また、互いに異なる発光強度で点灯させてもよい。
図8は、データの抽出方法を説明するための図である。制御装置100は、入力画像D(X1,Y1)〜入力画像D(Xm,Yn)の各々から、対象物Wの注目部位Aに対応する部分画像Mを抽出する。ここで対象物Wの注目部位Aに対応する部分画像Mは、入力画像D内の対象物Wの注目部位Aに対応する注目位置a(x,y)を含むように抽出された部分領域である。入力画像D(X1,Y1)〜入力画像D(Xm,Yn)は、いずれも、同じ撮像視野81の下で撮影されることで得られる。そのため、注目部位Aに対応する部分画像Mのカメラ座標位置(x,y)は、入力画像D(X1,Y1)〜入力画像D(Xm,Yn)の各々で共通する。
図9は、反射プロファイル情報72の生成方法を説明するための図である。制御装置100は、部分画像M(X1,Y1|x,y)〜部分画像M(Xm,Yn|x,y)の各々から、特徴量pを抽出する。特徴量pは、発光面40上に設定された部分領域43から注目部位Aに入射する光がこの注目部位Aに反射してカメラ8に入射する光の強度を示す値であって、たとえば、輝度値、または輝度値を規格化したものを含む。また、特徴量pは、部分画像Mに対して空間フィルタなどの前処理を行なった後に得られる情報であってもよい。ここで、特徴量p(x,y|X,Y)は、部分画像M(X,Y|x,y)から抽出された特徴量であることを意味する。
図10は、反射プロファイル情報72の出力方法の一例を示す図である。図10に示す例において、制御装置100は、発光面40上の座標系であるXY座標に、特徴量pをマッピングしたマッピング画像542を反射プロファイル情報72として出力する。マッピング画像542は、特徴量pの大きさに応じた濃淡度合いで示された濃淡値56を、XY座標にマッピングした画像である。たとえば、特徴量p(x,y|X1,Y1)の大きさに応じた濃淡値56(x,y|X1,Y1)は、XY座標の位置(X1,Y1)にマッピングされる。制御装置100は、特徴量p(x,y|X1,Y1)〜特徴量p(x,y|Xm,Yn)の各々を濃淡値56に変換して、濃淡値56(x,y|X1,Y1)〜濃淡値56(x,y|Xm,Yn)を得る。制御装置100は、濃淡値56(x,y|X1,Y1)〜濃淡値56(x,y|Xm,Yn)の各々をXY座標にマッピングすることで、マッピング画像542を生成する。なお、図10においては、濃淡値56がマッピングされていく様子を分かり易くするために、濃淡値56を所定の面積を有する画像として示しているものとする(図11においても同様)。
反射プロファイル情報72は、発光面40内の位置と、その位置から対象物Wに照射される光が対象物Wの注目部位Aに反射して、その反射光がカメラ8に入射する光の度合いとの関係を示す情報である。そのため、画像計測を行なう際の照明条件を設定する場合に、いずれの方向からの注目部位Aに光を入射させれば、画像計測に利用する画像として適した画像が得られるかを反射プロファイル情報72から予測することができる。以下、注目部位Aの画像計測を行なう場合に、反射プロファイル情報72を利用した照明条件の設定方法について説明する。
ユーザは、撮像視野81内に複数の注目位置aを設定し、複数の注目位置aの各々に対応する注目部位Aの反射特性に応じて照明条件である照射パターンLを設定することができる。図12を参照して、照射パターンLを利用して生成される検査画像51の生成方法を説明する。ここで、検査画像51は、画像処理システム1が実行する画像計測において用いられる画像である。図12は、検査画像51の生成方法の一例を説明するための図である。
図13は、制御装置100の機能構成を模式的に示した図である。制御装置100は、設定プログラム134を実行することで、図13に示す各構成を制御して、照射パターンを設定する。
図14は、指定された注目位置aの反射プロファイル情報72を出力する処理のフローチャートである。反射プロファイル情報72を出力する処理は、CPU110が設定プログラム134をメインメモリに展開して実行することによって実現される処理である。反射プロファイル情報72を出力する処理は、取得ボタン662が操作される度に実行される。
第1の具体例における反射プロファイル情報72は、発光面40上の位置に対応付けられた情報である。第2の具体例における反射プロファイル情報74は、注目部位Aの撮像視野内における位置(注目位置a)に対する相対位置(i,j)に対応付けられた情報である点で反射プロファイル情報70と異なる。なお、入力画像Dの撮像方法、部分画像Mの抽出方法、特徴量pの抽出方法は反射プロファイル情報70と共通するため、一部説明を省略する。
相対位置について説明する。相対位置はij座標により表現される。図15は、相対位置について説明するための図である。ij座標は、具体的には、注目位置aと対応関係にある発光面40上の位置を基準位置とした座標である。ここで基準位置とは、たとえば、原点(0,0)を意味する。注目部位Arのカメラ座標系内における注目位置ar(xr,yr)と、対応する発光面40上の位置(Xr,Yr)との間には、たとえば、式(1)の関係が成立する。そのため、注目位置arから、対応する発光面40上の位置(Xr,Yr)を求めることができる。
注目位置aと発光面40上の位置(X,Y)との対応関係を求めるキャリブレーション方法の一例について説明する。注目位置aとは、撮像視野81内の位置(x,y)に相当するため、キャリブレーションにより発光面40上の位置(X,Y)と、撮像視野81内の位置(x,y)との対応関係が得られる。
図16は、第2の具体例における反射プロファイル情報74の生成方法を示す図である。なお、反射プロファイル情報74を生成するために利用される入力画像D,部分画像M,および特徴量pの取得方法は、第1の具体例と一部共通するため、一部、説明を省略する。
図17は、第2の具体例における反射プロファイル情報74をマッピング画像544として出力する例を示す図である。制御装置100は、抽出した複数の部分画像Mの各々が示す特徴量pの大きさに応じた濃淡値56を位置(Xr,Yr)を原点としたij座標にマッピングする。たとえば、特徴量p(ar|−w,−w)の濃淡値56(ar|−w,−w)は、ij座標内の(−w,−w)にマッピングされる。なお、図17においては、濃淡値56がマッピングされていく様子を分かり易くするために、濃淡値56を所定の面積を有する画像として示しているものとする(図20および図21においても同様)。
第1の具体例においては、反射プロファイル情報70が撮像視野81内に設定される複数の注目位置aごとに異なる照射パターンLを設定するために利用される例を示した。第2の具体例における反射プロファイル情報74は、基準照射パターンL0を設定するために利用される。基準照射パターンL0は、注目位置aごとの照射パターンLを決定するために利用される基準となる照射パターンである。以下、基準照射パターンL0を用いた注目位置aごとの照射パターンLの決定方法を説明するとともに、基準照射パターンL0の設定方法を説明する。
制御装置100は、注目位置aに対応する抽出画像53を取得する場合に、注目位置aと予め対応関係にある発光面40上の位置に基準照射パターンL0が示す発光領域を設定することで、照射パターンLを設定する。
図20は、基準照射パターンL0設定時のユーザインターフェイス画面700を示す図である。ユーザインターフェイス画面700は、図11に示すユーザインターフェイス画面600と比較して、編集領域630の代わりに編集領域730を備え、撮影ボタン664の代わりに撮影ボタン764を備える点で異なる。
図22は、第2の具体例における制御装置100の機能構成を模式的に示した図である。制御装置100は、図13に示す機能構成に加えて抽出範囲決定部17を備えてもよい。
図23は、指定された注目位置aの第2の具体例における反射プロファイル情報74を出力する処理のフローチャートである。図23に示すフローチャートにおいては、図14に示すフローチャートと、ステップS15−1が設けられている点で異なる。
本実施の形態においては、カメラ8と対象物Wとの間に照明装置4が配置されている例を示した。なお、照明装置4とカメラ8と対象物Wとの位置関係は同軸上に限るものではなく、照明装置4からの光が対象物Wに照射され、カメラ8の撮像視野81に対象物Wの少なくとも一部が含まれるような位置関係であればよい。
本実施の形態においては、照明装置4の一例として透明な有機EL照明を例に挙げた。なお、カメラ8と対象物Wとの間に照明装置4を配置する場合、照明装置4は、少なくとも撮像時の視野を遮らないような形状および、視野を遮らないような光学特性のうち少なくともいずれか一方を有していればよい。たとえば、一部に開口部が設けられた照明装置4や、一部が同軸落射照明で構成された照明装置4などであってもよい。図25は、照明装置の変形例を示す図である。変形例の照明装置400は、一部が同軸落射照明410で構成されており、他の部分は、透光性を有しない照明420で構成されている。
本実施の形態においては、反射プロファイル情報70の出力方法として、所定の座標系に特徴量pをマッピングしたものを出力する方法を例に挙げたが、たとえば、発光面40上の位置と、特徴量Pとの関係を表した近似式などで出力してもよい。
第2の具体例において、マッピング画像544は、複数の注目位置の各々について得られるマッピング画像544の一例として、順次切替わるものとしたが、複数のマッピング画像544を重ねて表示するようにしてもよい。
本実施の形態においては、各部分領域43は他の部分領域43と重ならないように設定されるものとした。なお、各部分領域43はその一部を他の部分領域43と重なるように設定されてもよい。たとえば、各部分領域43を他の部分領域43と重なるように設定することで、反射プロファイル情報の分解能を下げることなく、一の部分領域43を発光させたときの光量を確保することができる。
本実施の形態において、注目部位Aは特定の位置を示すものであって、注目部位Aに対応する注目位置aは1点を示す情報であるとした。なお、注目部位Aは、特定の範囲を示す情報であってもよく、この場合に、注目位置aは特定の範囲に対応する画像内のある範囲を示す、範囲a’であってもよい。この場合、注目部位Aの反射プロファイル情報は、たとえば、範囲aに含まれる複数の注目位置aの各々について得られる反射プロファイル情報に基づいて生成してもよい。たとえば、注目部位Aの反射プロファイル情報は、複数の注目位置aの各々について得られる反射プロファイル情報を規格化した情報であってもよく、また、各反射プロファイル情報をij座標にマッピングしたときに得られる複数のマッピング画像を合成したような表現形態で表される情報であってもよい。また、部分画像Mの範囲を範囲aに対応させた範囲とすることで、注目部位Aの反射プロファイル情報を取得してもよい。
以上のように、制御装置100が出力する第1の具体例における反射プロファイル情報72および第2の具体例における反射プロファイル情報74(以下、総じて反射プロファイル情報70ともいう)は、いずれも、発光面40内の位置(X,Y)と、その位置(X,Y)から対象物Wに照射される光が対象物Wの注目部位Aに反射してカメラ8に入射する光の度合いを示す特徴量Pとの関係を示す情報である。
以上のように、本実施の形態は以下のような開示を含む。
対象物(W)を撮像する撮像部(8)と、
前記対象物(W)に向けられた発光面(40)を有する発光部(4,400)と、
前記発光面(40)のうち予め設定した複数種類の部分領域(43)の各々が発光するように、前記発光部(40)を制御する発光制御部(12)と、
前記複数種類の部分領域(43)の各々の発光に同期して撮像するように、前記撮像部(8)を制御する撮像制御部(14)と、
前記撮像部(8)が前記複数種類の部分領域(43)の各々の発光に同期させて撮像した複数の画像(D)をもとに得られる、前記発光面(40)内の位置(X,Y、i,j)と、当該位置から前記対象物(W)に照射される光(Li)が当該対象物(W)の注目部位(A)に反射して前記撮像部(8)に入射する光(Lc)の度合いとの関係を示す反射プロファイル情報(70,72,74)を出力する出力部(18)とを備える、画像処理システム。
前記反射プロファイル情報(74)は、前記複数の画像(D)の各々から得られる、当該画像(D)内の撮像視野内の注目点(a)に対応する輝度情報(p)および当該画像が撮像されたときに発光している前記部分領域(43)の当該注目点(a)に対する相対位置(i,j)に基づく情報である、構成1に記載の画像処理システム。
前記出力部(18)は、前記相対位置(i,j)に対応する2軸以上の座標系に、前記輝度情報に対応する情報(56)を出力した表現形態(544)により前記反射プロファイル情報(74)を出力する、構成2に記載の画像処理システム。
前記出力部(18)は、前記撮像部(8)により撮像された撮像視野(81)の画像(620)に対してユーザが指定した当該画像上の位置情報に基づいて決定された前記注目点(a)に対応する前記反射プロファイル情報(74)を前記表現形態(544,730)によって出力する、構成3に記載の画像処理システム。
前記出力部(18)は、撮像視野(81)内の複数の注目点(a)の各々について得られる前記反射プロファイル情報(74)を、同時または順次に前記座標系(i,j)上に出力する(730)、構成3または構成4に記載の画像処理システム。
前記反射プロファイル情報(72,74)を用いて、前記発光部(4,400)の発光条件(L)を決定する決定部(13)をさらに備える、構成1〜構成5のうちいずれか1に記載の画像処理システム。
前記発光部(4,400)は、前記撮像部と前記対象物までの間に配置されるとともに、前記発光部は撮像時の視野を遮らないような形状および、視野を遮らないような光学特性のうち少なくともいずれか一方を有する、構成1〜構成6のうちいずれか1項に記載の画像処理システム。
対象物(W)を撮像する撮像部(8)と、前記対象物(W)に向けられた発光面(40)を有する発光部(4,400)とを制御して画像処理を行なう画像処理装置(100)であって、
前記発光面(40)のうち予め設定した複数種類の部分領域(43)の各々が発光するように、前記発光部(4,400)を制御する発光制御部(12)と、
前記複数種類の部分領域(43)の各々の発光に同期して撮像するように、前記撮像部(8)を制御する撮像制御部(14)と、
前記撮像部(8)が前記複数種類の部分領域(43)の各々の発光に同期させて撮像した複数の画像(D)をもとに得られる、前記発光面(40)内の位置(X,Y、i,j)と、当該位置から前記対象物(W)に照射される光(Li)が当該対象物(W)の注目部位(A)に反射して前記撮像部(8)に入射する光(Lc)の度合いとの関係を示す反射プロファイル情報(70,72,74)を出力する出力部(18)とを備える、画像処理装置。
対象物(W)を撮像する撮像部(8)と、前記対象物(W)に向けられた発光面(40)を有する発光部(4,400)とを制御して画像処理を行なう画像処理装置(100)に実行される画像処理プログラム(134)であって、
前記発光面(40)のうち予め設定した複数種類の部分領域(43)の各々が発光するように、前記発光部(8)を制御するステップ(S13)と、
前記複数種類の部分領域(43)の各々の発光に同期して撮像するように、前記撮像部(8)を制御するステップ(S14)と、
前記撮像部(8)が前記複数種類の部分領域(43)の各々の発光に同期させて撮像した複数の画像(D)をもとに得られる、前記発光面(40)内の位置(X,Y、i,j)と、当該位置から前記対象物(W)に照射される光(Li)が当該対象物(W)の注目部位(A)に反射して前記撮像部(8)に入射する光(Lc)の度合いとの関係を示す反射プロファイル情報(70,72,74)を出力するステップ(S16)とを備える、画像処理プログラム。
対象物(W)を撮像する撮像部(8)と、
前記撮像部(8)と前記対象物(W)までの間に配置されるとともに、前記対象物(W)に向けられた発光面(40)を有する発光部(4)と、
予め定められた大きさの単位部分領域(43)を前記発光面(40)上の異なる位置(X,Y)に順次設定して発光させるように、前記発光部(4)を制御する発光制御部(12)と、
前記単位部分領域(43)の順次発光に対応して撮像視野の画像である入力画像(D)を順次生成するように、前記撮像部を制御する撮像制御部(14)と、
前記撮像視野に対する注目位置(a)の指定に応じて、順次生成された前記入力画像(D)の少なくとも一部から、前記注目位置(a)に対応する部分画像(M)を抽出する抽出部(16)と、
前記抽出部(16)により抽出された前記部分画像(M)が示す特徴量(P)を、前記部分画像(M)の抽出元の前記入力画像(D)を生成するときに発光させた前記単位部分領域(43)の位置(X,Y)に対応付けて出力する出力部(16)とを備える、画像処理システム。
前記特徴量(P)は、前記発光面(40)上に設定された単位部分領域(43)から前記注目位置(a)に入射する光が前記注目位置(a)に反射して前記撮像部に入射する光の強度を示す値である、構成10に記載の画像処理システム。
表示部(102)をさらに備え、
前記出力部(16)は、前記発光面(40)を示す第1の座標系(XY,ij)上の対応する単位部分領域(43)の位置(X,Y)を、当該単位部分領域(43)の位置に対応する特徴量(P)の大きさに応じた表示態様で表現した第1の画像(542,544)を前記表示部(102)に表示させる、構成10または構成11に記載の画像処理システム。
前記表示部(102)に表示される前記第1の座標系(XY,ij)上において、発光面(40)上の位置ごとに発光強度の指定を受け付ける入力部(104)と、
前記入力部(104)による指定に応じて、前記対象物(W)の画像計測において用いられる照射パターン(L)を決定する決定部(13)とをさらに備える、構成12に記載の画像処理システム。
前記出力部(16)は、前記入力部(104)による指定を前記第1の画像(542,544)に反映する、構成13に記載の画像処理システム。
前記表示部(102)には、前記撮像部(8)により撮像された撮像視野の画像(620)が表示され、
前記入力部(104)は、前記表示部(102)に表示された前記撮像視野の画像(620)に対するユーザ指定(622,662)を受け付け、
前記抽出部(16)は、前記入力部が受け付けたユーザ指定(622,662)に基づいて前記注目位置(a)を特定する、構成13または構成14に記載の画像処理システム。
前記表示部には、前記撮像部により撮像された撮像視野の画像(620)と、前記第1の画像(542,544)とが並べて表示される、構成15に記載の画像処理システム。
前記決定部(13)は、指定された前記注目位置(a)と対応付けて前記照射パターン(L)を決定し、
前記決定部(13)が決定した前記照射パターン(L)で前記発光面(40)を発光した時に、前記撮像部(8)が生成した前記照射パターン(L)に対応する前記注目位置(a)の画像(53)に基づいて、前記注目位置(a)を含む領域の画像計測を行なう画像計測部(15)をさらに備える、構成13〜構成16のうちいずれか1に記載の画像処理システム。
前記発光部(4)が前記発光面(40)上の異なる位置に前記決定部(13)が決定した前記照射パターン(L0)が示す発光領域を順次設定して発光させて、前記撮像部(8)が前記発光領域の順次発光に応じて設定された前記発光面(40)上の位置と対応関係にある撮像視野内の位置(x,y)に対応する画像(53)を順次生成し、
前記撮像部(8)が前記発光領域の順次発光に応じて生成した複数の画像に基づいて前記対象物の画像計測を行なう画像計測部(15a)をさらに備える、構成13〜構成16のうちいずれか1に記載の画像処理システム。
前記抽出部(16)は、指定された前記注目位置(ar)と対応関係にある前記発光面上の位置(Xr,Yr)を基準位置とする予め定められた範囲(Xr−w≦X≦Xr+w,Yr−w≦Y≦Yr+w)内に含まれる位置に設定された前記単位部分領域を発光した時に生成された前記入力画像(D)から前記部分画像(M)を抽出する、構成18に記載の画像処理システム。
Claims (9)
- 対象物を撮像する撮像部と、
前記対象物に向けられた発光面を有する発光部と、
前記発光面のうち予め設定した複数種類の部分領域の各々が発光するように、前記発光部を制御する発光制御部と、
前記複数種類の部分領域の各々の発光に同期して撮像するように、前記撮像部を制御する撮像制御部と、
前記撮像部が前記複数種類の部分領域の各々の発光に同期させて撮像した複数の画像をもとに得られる、前記発光面内の位置と、当該位置から前記対象物に照射される光が当該対象物の注目部位に反射して前記撮像部に入射する光の度合いとの関係を示す反射プロファイル情報を出力する出力部とを備える、画像処理システム。 - 前記反射プロファイル情報は、前記複数の画像の各々から得られる、当該画像内の撮像視野内の注目点に対応する輝度情報および当該画像が撮像されたときに発光している前記部分領域の当該注目点に対する相対位置に基づく情報である、請求項1に記載の画像処理システム。
- 前記出力部は、前記相対位置に対応する2軸以上の座標系に、前記輝度情報に対応する情報を出力した表現形態により前記反射プロファイル情報を出力する、請求項2に記載の画像処理システム。
- 前記出力部は、前記撮像部により撮像された撮像視野の画像に対してユーザが指定した当該画像上の位置情報に基づいて前記注目点を決定するとともに、決定した前記注目点に対応する前記反射プロファイル情報を前記表現形態によって出力する、請求項3に記載の画像処理システム。
- 前記出力部は、撮像視野内の複数の注目点の各々について得られる前記反射プロファイル情報を、同時または順次に前記座標系上に出力する、請求項3または請求項4に記載の画像処理システム。
- 前記反射プロファイル情報を用いて、前記発光部の発光条件を決定する決定部をさらに備える、請求項1〜請求項5のうちいずれか1に記載の画像処理システム。
- 前記発光部は、前記撮像部と前記対象物までの間に配置されるとともに、前記発光部は撮像時の視野を遮らないような形状および、視野を遮らないような光学特性のうち少なくともいずれか一方を有する、請求項1〜請求項6のうちいずれか1項に記載の画像処理システム。
- 対象物を撮像する撮像部と、前記対象物に向けられた発光面を有する発光部とを制御して画像処理を行なう画像処理装置であって、
前記発光面のうち予め設定した複数種類の部分領域の各々が発光するように、前記発光部を制御する発光制御部と、
前記複数種類の部分領域の各々の発光に同期して撮像するように、前記撮像部を制御する撮像制御部と、
前記撮像部が前記複数種類の部分領域の各々の発光に同期させて撮像した複数の画像をもとに得られる、前記発光面内の位置と、当該位置から前記対象物に照射される光が当該対象物の注目部位に反射して前記撮像部に入射する光の度合いとの関係を示す反射プロファイル情報を出力する出力部とを備える、画像処理装置。 - 対象物を撮像する撮像部と、前記対象物に向けられた発光面を有する発光部とを制御して画像処理を行なう画像処理装置に実行される画像処理プログラムであって、
前記発光面のうち予め設定した複数種類の部分領域の各々が発光するように、前記発光部を制御するステップと、
前記複数種類の部分領域の各々の発光に同期して撮像するように、前記撮像部を制御するステップと、
前記撮像部が前記複数種類の部分領域の各々の発光に同期させて撮像した複数の画像をもとに得られる、前記発光面内の位置と、当該位置から前記対象物に照射される光が当該対象物の注目部位に反射して前記撮像部に入射する光の度合いとの関係を示す反射プロファイル情報を出力するステップとを備える、画像処理プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047628A JP6835020B2 (ja) | 2018-03-15 | 2018-03-15 | 画像処理システム、画像処理装置、画像処理プログラム |
CN201910111609.9A CN110278384B (zh) | 2018-03-15 | 2019-02-12 | 图像处理系统、图像处理装置、图像处理方法 |
EP19156650.4A EP3540647B1 (en) | 2018-03-15 | 2019-02-12 | Image processing system and image processing program |
US16/278,154 US10896499B2 (en) | 2018-03-15 | 2019-02-17 | Image processing system, image processing device and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047628A JP6835020B2 (ja) | 2018-03-15 | 2018-03-15 | 画像処理システム、画像処理装置、画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019161526A JP2019161526A (ja) | 2019-09-19 |
JP6835020B2 true JP6835020B2 (ja) | 2021-02-24 |
Family
ID=65411810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018047628A Active JP6835020B2 (ja) | 2018-03-15 | 2018-03-15 | 画像処理システム、画像処理装置、画像処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10896499B2 (ja) |
EP (1) | EP3540647B1 (ja) |
JP (1) | JP6835020B2 (ja) |
CN (1) | CN110278384B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019128710B4 (de) * | 2019-10-24 | 2023-02-23 | Sick Ag | Kamera und Verfahren zur Erfassung von Bilddaten aus einem Erfassungsbereich |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08201044A (ja) * | 1995-01-31 | 1996-08-09 | Nippei Toyama Corp | 半田付け検査用画像入力装置 |
JP2006313147A (ja) * | 2005-04-08 | 2006-11-16 | Omron Corp | 欠陥検査方法およびその方法を用いた欠陥検査装置 |
JP4412236B2 (ja) * | 2005-05-30 | 2010-02-10 | ソニー株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
BR112013023154A2 (pt) * | 2011-03-15 | 2016-12-20 | Fujitsu Frontech Ltd | aparelho de imageamento, método de imageamento e programa de imageamento |
EP2512121B1 (en) * | 2011-04-13 | 2013-06-05 | Axis AB | Illumination device |
JP5900037B2 (ja) * | 2012-03-08 | 2016-04-06 | オムロン株式会社 | 画像処理装置およびその制御方法 |
US9683944B2 (en) * | 2013-05-23 | 2017-06-20 | Centro Sviluppo Materiali S.P.A. | Method for the surface inspection of long products and apparatus suitable for carrying out such a method |
EP3007432B1 (en) * | 2013-06-07 | 2020-01-01 | Panasonic Intellectual Property Management Co., Ltd. | Image acquisition device and image acquisition method |
EP2887645A1 (en) * | 2013-12-19 | 2015-06-24 | Thomson Licensing | Method and apparatus for acquiring a set of images illuminated by a flash |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6395456B2 (ja) | 2014-06-09 | 2018-09-26 | 株式会社キーエンス | 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6408259B2 (ja) * | 2014-06-09 | 2018-10-17 | 株式会社キーエンス | 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6403445B2 (ja) * | 2014-06-09 | 2018-10-10 | 株式会社キーエンス | 検査装置、検査方法およびプログラム |
-
2018
- 2018-03-15 JP JP2018047628A patent/JP6835020B2/ja active Active
-
2019
- 2019-02-12 EP EP19156650.4A patent/EP3540647B1/en active Active
- 2019-02-12 CN CN201910111609.9A patent/CN110278384B/zh active Active
- 2019-02-17 US US16/278,154 patent/US10896499B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190287236A1 (en) | 2019-09-19 |
EP3540647B1 (en) | 2023-12-27 |
US10896499B2 (en) | 2021-01-19 |
CN110278384B (zh) | 2021-01-22 |
JP2019161526A (ja) | 2019-09-19 |
EP3540647A1 (en) | 2019-09-18 |
CN110278384A (zh) | 2019-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9959451B2 (en) | Image inspection device, image inspection method and image inspection program | |
US20170030706A1 (en) | Measurement Target Measuring Program, Measurement Target Measuring Method, And Magnifying Observation Device | |
US20070176927A1 (en) | Image Processing method and image processor | |
JP7010057B2 (ja) | 画像処理システムおよび設定方法 | |
JP5432864B2 (ja) | 検査装置及び検査方法 | |
JP6791631B2 (ja) | 画像生成方法及び検査装置 | |
JP6233824B1 (ja) | 画像検査装置、生産システム、画像検査方法、プログラム及び記憶媒体 | |
JP6904263B2 (ja) | 画像処理システム | |
US10724963B2 (en) | Device and method for calculating area to be out of inspection target of inspection system | |
JP2013088326A (ja) | 画像処理装置および画像処理プログラム | |
JP7342616B2 (ja) | 画像処理システム、設定方法およびプログラム | |
JP6835020B2 (ja) | 画像処理システム、画像処理装置、画像処理プログラム | |
JP6973205B2 (ja) | 画像処理システム、画像処理装置、画像処理プログラム | |
JP4954738B2 (ja) | 電極パッド位置の検出方法及び電極パッド位置検出装置 | |
JP2023077054A (ja) | 外観検査装置及び外観検査方法 | |
JP5867123B2 (ja) | 3次元形状計測装置およびキャリブレーション方法 | |
JP2011191170A (ja) | 画像処理装置 | |
JP7154084B2 (ja) | 三次元形状測定装置および三次元形状測定プログラム | |
JP6590455B1 (ja) | 検査ユニット、プログラム及び記憶媒体 | |
JP7273659B2 (ja) | 画像計測システム | |
US20240303982A1 (en) | Image processing device and image processing method | |
JPH05296745A (ja) | 形状測定装置 | |
JP6284428B2 (ja) | 顕微鏡システム | |
JP7306858B2 (ja) | 画像検査システム及び画像検査方法 | |
JP2023077055A (ja) | 外観検査装置及び外観検査方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6835020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |