[go: up one dir, main page]

JP2025043484A - Image processing method, lens inspection method, and lens inspection device - Google Patents

Image processing method, lens inspection method, and lens inspection device Download PDF

Info

Publication number
JP2025043484A
JP2025043484A JP2023150791A JP2023150791A JP2025043484A JP 2025043484 A JP2025043484 A JP 2025043484A JP 2023150791 A JP2023150791 A JP 2023150791A JP 2023150791 A JP2023150791 A JP 2023150791A JP 2025043484 A JP2025043484 A JP 2025043484A
Authority
JP
Japan
Prior art keywords
image
lens
thin line
inspection
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023150791A
Other languages
Japanese (ja)
Inventor
浩之 大西
Hiroyuki Onishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2023150791A priority Critical patent/JP2025043484A/en
Publication of JP2025043484A publication Critical patent/JP2025043484A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Image Processing (AREA)

Abstract

【課題】撮影画像中のレンズの中心座標を精度よく特定できる技術を提供する。【解決手段】撮影画像Iaは、レンズの輪郭に沿った細線部911と、細線部911よりも径方向の幅が広い幅広部912とを含む。まず、これらの細線部911および幅広部912のうち、細線部911を消去することにより、細線消去画像を生成する。次に、撮影画像Iaと細線消去画像との差分画像を生成する。その後、差分画像に含まれる細線部911に基づいて、レンズの中心座標を特定する。これにより、幅広部912の影響を抑えて、撮影画像Ia中のレンズの中心座標を精度よく特定できる。【選択図】図6[Problem] To provide a technology that can accurately identify the center coordinates of a lens in a captured image. [Solution] A captured image Ia includes a thin line portion 911 that follows the contour of the lens, and a wide portion 912 that is wider in the radial direction than the thin line portion 911. First, of the thin line portion 911 and the wide portion 912, a thin line erased image is generated by erasing the thin line portion 911. Next, a difference image between the captured image Ia and the thin line erased image is generated. After that, the center coordinates of the lens are identified based on the thin line portion 911 included in the difference image. This makes it possible to accurately identify the center coordinates of the lens in the captured image Ia while suppressing the influence of the wide portion 912. [Selected Figure] Figure 6

Description

本発明は、レンズの撮影画像を処理する画像処理方法、レンズ検査方法、およびレンズ検査装置に関する。 The present invention relates to an image processing method for processing captured images of a lens, a lens inspection method, and a lens inspection device.

従来、透明なレンズを撮影し、得られた撮影画像に基づいて、レンズの傷やレンズに付着した異物等の検査を行う検査装置が知られている。この種の検査装置では、レンズが透明であるため、1回の撮影でレンズの全ての領域を明瞭に撮影することが難しい。そこで、カメラおよび照明部に対してレンズ回転させつつ、複数回の撮影を行い、得られた複数枚の画像の合成画像に基づいて、欠陥の検出を行う場合がある。 Conventionally, there is known an inspection device that photographs a transparent lens and inspects the lens for scratches and foreign matter adhering to the lens based on the photographed image. With this type of inspection device, because the lens is transparent, it is difficult to clearly photograph all areas of the lens in one photograph. Therefore, there are cases where the lens is rotated relative to the camera and lighting unit, photographs are taken multiple times, and defects are detected based on a composite image of the multiple images obtained.

その際、レンズを精度よく合成するために、各撮影画像において、レンズの中心座標を精度よく特定することが求められる。撮影画像においてレンズの中心座標を求める技術については、例えば、特許文献1に記載されている。特許文献1の技術では、ハフ変換を用いて、円の中心座標を推定している(引用文献1の段落0056)。 In this case, in order to accurately synthesize the lenses, it is necessary to accurately identify the center coordinates of the lenses in each captured image. A technique for determining the center coordinates of the lenses in a captured image is described, for example, in Patent Document 1. The technique in Patent Document 1 uses a Hough transform to estimate the center coordinates of a circle (paragraph 0056 of Cited Document 1).

特開2015-18324号公報JP 2015-18324 A

しかしながら、検査対象となるレンズは、その輪郭の一部分に、支持部やチャック等の部材が接続されている場合がある。その場合、撮影画像において、レンズの輪郭の一部分が円弧からずれた形状となるため、ハフ変換等によりレンズの中心座標を精度よく特定することが難しい、という問題がある。 However, the lens to be inspected may have a support, chuck, or other member connected to part of its contour. In such cases, the part of the lens contour in the captured image will have a shape that deviates from a circular arc, making it difficult to accurately identify the center coordinates of the lens using a Hough transform or the like.

本発明は、このような事情に鑑みなされたものであり、撮影画像中のレンズの中心座標を精度よく特定できる技術を提供することを目的とする。 The present invention has been developed in consideration of these circumstances, and aims to provide a technology that can accurately identify the center coordinates of a lens in a captured image.

本願の第1発明は、レンズの撮影画像を処理する画像処理方法であって、前記撮影画像中の前記レンズの輪郭に沿った細線部および前記細線部よりも径方向の幅が広い幅広部のうち、前記細線部を消去することにより、細線消去画像を生成する細線消去工程と、前記撮影画像と前記細線消去画像との差分画像を生成する差分画像生成工程と、前記差分画像に含まれる前記細線部に基づいて、前記レンズの中心座標を特定する中心特定工程と、を有する。 The first invention of the present application is an image processing method for processing a captured image of a lens, and includes a thin line erasing step for generating a thin line erased image by erasing thin line portions that follow the contour of the lens in the captured image and wide portions that are wider in the radial direction than the thin line portions; a difference image generating step for generating a difference image between the captured image and the thin line erased image; and a center identifying step for identifying the center coordinates of the lens based on the thin line portions included in the difference image.

本願の第2発明は、第1発明の画像処理方法であって、前記中心特定工程では、前記差分画像に対してハフ変換を適用することにより、前記中心座標を特定する。 The second invention of the present application is the image processing method of the first invention, in which the center identification step identifies the center coordinates by applying a Hough transform to the difference image.

本願の第3発明は、第1発明または第2発明の画像処理方法であって、前記細線消去工程では、前記撮影画像中の前記細線部および前記幅広部に対して、収縮と膨張とを行う。 The third invention of the present application is the image processing method of the first or second invention, in which the thin line erasing step performs contraction and expansion on the thin line portions and the wide portions in the captured image.

本願の第4発明は、第1発明から第3発明までのいずれか1発明の画像処理方法であって、複数の前記撮影画像のそれぞれに対して、前記細線消去工程、前記差分画像生成工程、および前記中心特定工程を実行し、前記中心特定工程において特定された前記中心座標を揃えた状態で、複数の前記撮影画像を合成する画像合成工程をさらに有する。 The fourth invention of the present application is an image processing method according to any one of the first to third inventions, further comprising an image synthesis step of executing the thin line erasing step, the difference image generating step, and the center identifying step for each of the plurality of captured images, and synthesizing the plurality of captured images with the center coordinates identified in the center identifying step aligned.

本願の第5発明は、第4発明の画像処理方法であって、前記画像合成工程では、複数の前記撮影画像の最大値画像を生成する。 The fifth aspect of the present invention is the image processing method of the fourth aspect, in which the image synthesis step generates a maximum value image of the multiple captured images.

本願の第6発明は、レンズ検査方法であって、第5発明の画像処理方法により生成された前記最大値画像に基づいて、前記レンズの欠陥を検出する検査工程を有する。 The sixth invention of the present application is a lens inspection method, which includes an inspection step for detecting defects in the lens based on the maximum value image generated by the image processing method of the fifth invention.

本願の第7発明は、第6発明のレンズ検査方法であって、前記最大値画像に、前記中心座標を中心とし前記レンズの輪郭に沿った円環図形を配置する円環図形配置工程と、前記円環図形と前記最大値画像の高輝度領域との重複領域の面積である第1面積を算出する第1面積算出工程と、前記円環図形の半径を徐々に小さくしつつ、前記高輝度領域と前記円環図形との重複領域の面積である第2面積を算出する第2算出工程と、前記第1面積に対する前記第2面積の割合が、所定の基準値と略同一となったときの前記円環図形に基づいて、前記レンズの輪郭部に沿った輪郭マスク領域を作成する輪郭マスク作成工程と、をさらに有し、前記検査工程では、前記輪郭マスク領域を検査対象外とする。 The seventh invention of the present application is the lens inspection method of the sixth invention, further comprising a ring-shaped figure arrangement step of arranging a ring-shaped figure centered on the central coordinates and following the contour of the lens in the maximum value image, a first area calculation step of calculating a first area, which is the area of the overlapping area between the ring-shaped figure and the high brightness area of the maximum value image, a second calculation step of calculating a second area, which is the area of the overlapping area between the high brightness area and the ring-shaped figure while gradually decreasing the radius of the ring-shaped figure, and a contour mask creation step of creating a contour mask area that follows the contour of the lens based on the ring-shaped figure when the ratio of the second area to the first area becomes approximately the same as a predetermined reference value, and the contour mask area is excluded from inspection in the inspection step.

本願の第8発明は、第6発明または第7発明のレンズ検査方法であって、前記最大値画像における高輝度領域と、前記中心座標を中心とし前記レンズの輪郭に沿った円環図形の外側の領域との論理和の領域をとることにより、外側マスク領域を作成する外側マスク作成工程をさらに有し、前記検査工程では、前記外側マスク領域を検査対象外とする。 The eighth invention of the present application is a lens inspection method according to the sixth or seventh invention, further comprising an outer mask creation step of creating an outer mask area by taking the logical sum of the high brightness area in the maximum value image and the outer area of a circular ring centered on the central coordinates and following the contour of the lens, and the outer mask area is excluded from inspection in the inspection step.

本願の第9発明は、第8発明のレンズ検査方法であって、前記外側マスク作成工程では、前記外側マスク領域中に孤立した所定面積以下の非マスク領域を、外側マスク領域に変更する。 The ninth invention of the present application is the lens inspection method of the eighth invention, in which in the outer mask creation process, a non-masked area that is isolated within the outer mask area and has a predetermined area or less is changed to an outer mask area.

本願の第10発明は、第8発明または第9発明のレンズ検査方法であって、前記画像合成工程では、複数の前記撮影画像の最小値画像をさらに生成し、前記検査工程は、前記最大値画像中の前記外側マスク領域以外の領域において、前記レンズの欠陥を検出する第1検査工程と、前記最小値画像中の前記中心座標を中心とし前記レンズの輪郭に沿った円環図形の内側において、前記レンズの欠陥を検出する第2検査工程と、を含む。 The tenth invention of the present application is a lens inspection method according to the eighth or ninth invention, in which the image synthesis step further generates a minimum value image of the multiple captured images, and the inspection step includes a first inspection step of detecting defects in the lens in an area other than the outer mask area in the maximum value image, and a second inspection step of detecting defects in the lens inside a circular ring shape centered on the central coordinates in the minimum value image and following the contour of the lens.

本願の第11発明は、レンズを検査するレンズ検査装置であって、レンズを撮影して撮影画像を取得するカメラと、前記撮影画像を処理するコンピュータと、を備え、前記コンピュータは、前記撮影画像中の前記レンズの輪郭に沿った細線部および前記細線部よりも径方向の幅が広い幅広部のうち、前記細線部を消去することにより、細線消去画像を生成する細線消去工程と、前記撮影画像と前記細線消去画像との差分画像を生成する差分画像生成工程と、前記差分画像に含まれる前記細線部に基づいて、前記レンズの中心座標を特定する中心特定工程と、を実行する。 The eleventh invention of the present application is a lens inspection device for inspecting lenses, comprising a camera for photographing a lens to obtain a photographed image, and a computer for processing the photographed image, the computer executing a thin line erasing process for generating a thin line erased image by erasing thin line portions that follow the contour of the lens in the photographed image and wide portions that are wider in the radial direction than the thin line portions, a difference image generating process for generating a difference image between the photographed image and the thin line erased image, and a center identifying process for identifying the center coordinates of the lens based on the thin line portions included in the difference image.

本願の第1発明~第11発明によれば、差分画像に含まれる細線部を利用することにより、幅広部の影響を抑えて、撮影画像中のレンズの中心座標を精度よく特定できる。 According to the first to eleventh aspects of the present application, by utilizing the thin line portions contained in the difference image, the influence of the wide portions can be suppressed and the center coordinates of the lens in the captured image can be identified with high accuracy.

特に、本願の第4発明によれば、精度よく特定された中心座標を揃えることにより、複数の撮影画像を精度よく合成できる。 In particular, according to the fourth aspect of the present invention, by aligning the center coordinates that are determined with high precision, multiple captured images can be synthesized with high precision.

特に、本願の第5発明によれば、複数の撮影画像の最大値画像を、精度よく生成できる。 In particular, according to the fifth aspect of the present invention, a maximum value image of multiple captured images can be generated with high accuracy.

特に、本願の第6発明によれば、精度よく生成された最大値画像に基づいて、レンズの欠陥を精度よく検出できる。 In particular, according to the sixth aspect of the present invention, lens defects can be detected with high accuracy based on a maximum value image that is generated with high accuracy.

特に、本願の第7発明によれば、最大値画像中のレンズの輪郭部を検査対象外とすることができる。 In particular, according to the seventh aspect of the present invention, the outline of the lens in the maximum value image can be excluded from inspection.

特に、本願の第8発明によれば、最大値画像中のレンズよりも外側の部分と、レンズの周縁部を把持するチャック部とを、検査対象外とすることができる。 In particular, according to the eighth aspect of the present invention, the area outside the lens in the maximum value image and the chuck portion that grips the peripheral edge of the lens can be excluded from inspection.

特に、本願の第9発明によれば、最大値画像中のチャック部の全体を、検査対象外とすることができる。 In particular, according to the ninth aspect of the present invention, the entire chuck portion in the maximum value image can be excluded from the inspection target.

特に、本願の第10発明によれば、最大値画像による検査と、最小値画像による検査とを行うことにより、欠陥の検出漏れを低減できる。 In particular, according to the tenth aspect of the present invention, by performing inspection using a maximum value image and an inspection using a minimum value image, it is possible to reduce the number of defects that go undetected.

レンズ検査装置の構成を示した図である。FIG. 1 is a diagram showing a configuration of a lens inspection device. 保持具に保持されたレンズ製品の上面図である。FIG. 2 is a top view of a lens product held in a holder. 検査処理の流れを示したフローチャートである。11 is a flowchart showing a flow of an inspection process. 撮影画像の例を示した図である。FIG. 13 is a diagram showing an example of a captured image. 撮影画像においてレンズの中心座標を特定する処理の流れを示したフローチャートである。10 is a flowchart showing a process for identifying the center coordinates of a lens in a captured image. 不要な部分が消去された撮影画像の例を示した図である。FIG. 13 is a diagram showing an example of a captured image from which unnecessary portions have been erased. 撮影画像中の細線部が消去された細線消去画像の例を示した図である。FIG. 13 is a diagram showing an example of a thin line erased image in which thin lines in a captured image have been erased. 差分画像の例を示した図である。FIG. 13 is a diagram showing an example of a difference image. 撮影画像を合成する処理の流れを示したフローチャートである。11 is a flowchart showing a flow of a process for combining photographed images. 輪郭マスク領域の作成手順を示すフローチャートである。13 is a flowchart showing a procedure for creating a contour mask region. 最大値画像に円環図形を配置した状態を示した図である。FIG. 13 is a diagram showing a state in which a circular ring is arranged in a maximum value image. 最大値画像上に作成された輪郭マスク領域の例を示した図である。FIG. 13 is a diagram showing an example of a contour mask region created on a maximum value image. 外側マスク領域の作成手順を示すフローチャートである。13 is a flowchart showing a procedure for creating an outer mask region. 二値化された最大値画像の例を示した図である。FIG. 13 is a diagram showing an example of a binarized maximum value image. 外側マスク領域の例を示した図である。FIG. 13 is a diagram showing an example of an outer mask region. ステップS74の処理を行った後の外側マスク領域の例を示した図である。FIG. 13 is a diagram showing an example of an outer mask region after the process of step S74 is performed. ステップS75の処理を行った後の外側マスク領域の例を示した図である。FIG. 13 is a diagram showing an example of an outer mask region after the process of step S75 is performed. 検査工程の流れを示したフローチャートである。1 is a flowchart showing a flow of an inspection process. 輪郭マスク領域および外側マスク領域を適用した最大値画像の例を示した図である。FIG. 13 is a diagram showing an example of a maximum value image to which a contour mask region and an outer mask region are applied. 最小値画像の例を示した図である。FIG. 13 is a diagram showing an example of a minimum value image.

以下、本発明の好適な実施形態について、図面を参照しつつ説明する。 A preferred embodiment of the present invention will be described below with reference to the drawings.

<1.レンズ検査装置の構成>
図1は、本発明の一実施形態に係るレンズ検査装置1の構成を示した図である。このレンズ検査装置1は、検査対象物であるレンズ製品9を、カメラ40の撮影画像に基づいて検査する外観検査装置である。レンズ製品9は、例えば、眼内レンズ(Intraocular lens)またはコンタクトレンズなどの人体に装着されるレンズである。なお、レンズ製品9は、光学機器に用いられるレンズであってもよい。以下では、レンズ製品9が眼内レンズである場合について説明する。
1. Configuration of lens inspection device
Fig. 1 is a diagram showing the configuration of a lens inspection device 1 according to an embodiment of the present invention. This lens inspection device 1 is an appearance inspection device that inspects a lens product 9, which is an object to be inspected, based on an image captured by a camera 40. The lens product 9 is, for example, a lens that is attached to the human body, such as an intraocular lens or a contact lens. The lens product 9 may also be a lens used in an optical instrument. The case where the lens product 9 is an intraocular lens will be described below.

図1に示すように、レンズ製品9は、保持具90に保持される。図2は、保持具90に保持されたレンズ製品9の上面図である。図2に示すように、レンズ製品9は、レンズ91と、2本の支持部92とを有する。レンズ91は、光を透過可能な透明部材である。レンズ91の形状は、上面視において略円形である。支持部92は、眼内にレンズ91を固定するための部材である。支持部92は、レンズ91の周縁部から外側へ向けて延びる。2本の支持部92は、レンズ91の中心に対して互いに反対側に位置する。 As shown in FIG. 1, the lens product 9 is held by a holder 90. FIG. 2 is a top view of the lens product 9 held by the holder 90. As shown in FIG. 2, the lens product 9 has a lens 91 and two support parts 92. The lens 91 is a transparent member that can transmit light. The lens 91 has a substantially circular shape when viewed from above. The support parts 92 are members for fixing the lens 91 in the eye. The support parts 92 extend outward from the peripheral edge of the lens 91. The two support parts 92 are located on opposite sides of the center of the lens 91.

図1および図2に示すように、保持具90は、平板状の保持具本体901と、3つのチャック部902とを有する。保持具本体901は、第1貫通孔903を有する。第1貫通孔903は、保持具本体901を上下方向に貫通する。第1貫通孔903の形状は、上面視において円形である。3つのチャック部902は、保持具本体901の上面の第1貫通孔903の周囲に、間隔をあけて設けられている。各チャック部902は、レンズ91の周縁部を把持する。これにより、第1貫通孔903の上方の位置にレンズ91が保持される。 As shown in Figs. 1 and 2, the holder 90 has a flat holder body 901 and three chuck portions 902. The holder body 901 has a first through hole 903. The first through hole 903 penetrates the holder body 901 in the vertical direction. The first through hole 903 has a circular shape when viewed from above. The three chuck portions 902 are provided at intervals around the first through hole 903 on the upper surface of the holder body 901. Each chuck portion 902 grips the peripheral portion of the lens 91. This holds the lens 91 in a position above the first through hole 903.

図1に示すように、レンズ検査装置1は、ステージ10、回転機構20、照明部30、カメラ40、およびコンピュータ50を備える。 As shown in FIG. 1, the lens inspection device 1 includes a stage 10, a rotation mechanism 20, an illumination unit 30, a camera 40, and a computer 50.

ステージ10は、レンズ製品9を保持した保持具90を支持する台である。保持具90は、ステージ10の上面に載置される。また、ステージ10は、保持具90を保持する保持機構11を有する。保持機構11は、例えば、保持具90を水平方向の両側から挟持する。ただし、保持機構11は、保持具90の下面を負圧により吸着するものであってもよい。ステージ10上に保持具90が保持されることによって、ステージ10に対するレンズ製品9の位置が固定される。 The stage 10 is a platform that supports a holder 90 that holds a lens product 9. The holder 90 is placed on the upper surface of the stage 10. The stage 10 also has a holding mechanism 11 that holds the holder 90. The holding mechanism 11, for example, clamps the holder 90 from both sides in the horizontal direction. However, the holding mechanism 11 may also be one that adsorbs the lower surface of the holder 90 by negative pressure. By holding the holder 90 on the stage 10, the position of the lens product 9 relative to the stage 10 is fixed.

図1に示すように、ステージ10は、第2貫通孔12を有する。第2貫通孔12は、ステージ10を上下方向に貫通する。レンズ製品9の検査時には、保持具90の第1貫通孔903が、ステージ10の第2貫通孔12と重なるように、ステージ10上に保持具90が配置される。 As shown in FIG. 1, the stage 10 has a second through hole 12. The second through hole 12 passes through the stage 10 in the vertical direction. When inspecting the lens product 9, the holder 90 is positioned on the stage 10 so that the first through hole 903 of the holder 90 overlaps with the second through hole 12 of the stage 10.

回転機構20は、ステージ10を、上下方向に延びる軸8を中心として回転させる機構である。回転機構20は、モータ21を有する。ステージ10は、ギア等の動力伝達機構を介して、モータ21と接続されている。モータ21を駆動させると、ステージ10は、上下方向に延びる軸8を中心として回転する。これにより、カメラ40および照明部30に対してレンズ91を、軸8を中心として回転させることができる。回転機構20は、コンピュータ50から供給される信号に基づき、後述する所定角度θずつ、ステージ10を回転させることが可能である。 The rotation mechanism 20 is a mechanism that rotates the stage 10 around an axis 8 that extends in the vertical direction. The rotation mechanism 20 has a motor 21. The stage 10 is connected to the motor 21 via a power transmission mechanism such as a gear. When the motor 21 is driven, the stage 10 rotates around the axis 8 that extends in the vertical direction. This allows the lens 91 to rotate around the axis 8 relative to the camera 40 and the lighting unit 30. The rotation mechanism 20 is capable of rotating the stage 10 by a predetermined angle θ, which will be described later, based on a signal supplied from the computer 50.

照明部30は、レンズ91に対して、撮影のための照明光を照射する光源である。照明部30には、例えばLED照明が使用される。照明部30は、ステージ10の第2貫通孔12の下方に配置されている。照明部30は、上方へ向けて照明光を出射する。照明部30から出射された照明光は、第2貫通孔12および第1貫通孔903を通って、レンズ91へ照射される。 The illumination unit 30 is a light source that irradiates the lens 91 with illumination light for photographing. For example, an LED illumination is used for the illumination unit 30. The illumination unit 30 is disposed below the second through-hole 12 of the stage 10. The illumination unit 30 emits illumination light upward. The illumination light emitted from the illumination unit 30 passes through the second through-hole 12 and the first through-hole 903 and is irradiated to the lens 91.

なお、照明部30は、ステージ10の側方に配置された光源と、当該光源から出射された光をレンズ91へ導くミラー等の光学系とにより、構成されていてもよい。 The illumination unit 30 may be composed of a light source arranged to the side of the stage 10 and an optical system such as a mirror that guides the light emitted from the light source to the lens 91.

カメラ40は、ステージ10に支持された保持具90上のレンズ91を撮影するユニットである。カメラ40は、ステージ10から間隔をあけて上方に配置されている。カメラ40は、CCDやCMOS等の撮像素子を有するイメージセンサと、カメラ40に入射する光をイメージセンサへ結像させる光学系とを有する。カメラ40は、レンズ91を撮影することにより、多数の画素により構成される多階調の撮影画像Iaを取得する。カメラ40は、得られた撮影画像Iaをコンピュータ50へ出力する。 The camera 40 is a unit that photographs the lens 91 on the holder 90 supported by the stage 10. The camera 40 is positioned above the stage 10 at a distance. The camera 40 has an image sensor with an imaging element such as a CCD or CMOS, and an optical system that focuses the light incident on the camera 40 on the image sensor. The camera 40 photographs the lens 91 to obtain a multi-tone photographed image Ia composed of a large number of pixels. The camera 40 outputs the obtained photographed image Ia to the computer 50.

コンピュータ50は、レンズ検査装置1の各部を動作制御するとともに、撮影画像Iaに基づいてレンズ91を検査するユニットである。図1に示すように、コンピュータ50は、CPU等のプロセッサ51、RAM等のメモリ52、およびハードディスクドライブ等の記憶部53を有する。記憶部53には、レンズ検査装置1の各部を動作制御するための制御プログラムP1と、撮影画像Iaに基づいてレンズ製品9を検査するための検査プログラムP2と、が記憶されている。なお、制御プログラムP1および検査プログラムP2は、光ディスク等の記憶媒体に記憶されていてもよい。 The computer 50 is a unit that controls the operation of each part of the lens inspection device 1 and inspects the lens 91 based on the captured image Ia. As shown in FIG. 1, the computer 50 has a processor 51 such as a CPU, a memory 52 such as a RAM, and a storage unit 53 such as a hard disk drive. The storage unit 53 stores a control program P1 for controlling the operation of each part of the lens inspection device 1 and an inspection program P2 for inspecting the lens product 9 based on the captured image Ia. The control program P1 and the inspection program P2 may be stored in a storage medium such as an optical disk.

図1に示すように、コンピュータ50は、回転機構20、照明部30、およびカメラ40と、電気的に接続されている。コンピュータ50のプロセッサ51は、制御プログラムP1を実行することにより、回転機構20、照明部30、およびカメラ40の動作を制御する。これにより、レンズ91の撮影が行われる。また、コンピュータ50のプロセッサ51は、カメラ40から出力された撮影画像Iaを、検査プログラムP2に基づいて処理することにより、レンズ91の検査を行う。 As shown in FIG. 1, the computer 50 is electrically connected to the rotation mechanism 20, the lighting unit 30, and the camera 40. The processor 51 of the computer 50 controls the operation of the rotation mechanism 20, the lighting unit 30, and the camera 40 by executing a control program P1. This causes the lens 91 to be photographed. The processor 51 of the computer 50 also inspects the lens 91 by processing the captured image Ia output from the camera 40 based on an inspection program P2.

<2.検査の流れ>
続いて、上記のレンズ検査装置1によるレンズ製品9の検査について、説明する。図3は、検査処理の流れを示したフローチャートである。図3の処理は、コンピュータ50が、制御プログラムP1および検査プログラムP2に従って動作することにより、実行される。
<2. Inspection procedure>
Next, an explanation will be given of the inspection of the lens product 9 by the above-mentioned lens inspection device 1. Fig. 3 is a flowchart showing the flow of the inspection process. The process in Fig. 3 is executed by the computer 50 operating in accordance with the control program P1 and the inspection program P2.

<2-1.レンズの撮影>
レンズ91の検査を行うときには、まず、レンズ製品9を保持具90にセットする。そして、レンズ製品9が保持された保持具90を、ステージ10にセットする。その後、レンズ検査装置1は、照明部30からレンズ91へ照明光を照射しつつ、カメラ40によりレンズ91を撮影する(ステップS1)。これにより、透過光によるレンズ91の撮影画像Iaが得られる。得られた撮影画像Iaは、カメラ40からコンピュータ50へ入力される。
<2-1. Shooting with lenses>
When inspecting the lens 91, first, the lens product 9 is set in the holder 90. Then, the holder 90 holding the lens product 9 is set on the stage 10. Thereafter, the lens inspection device 1 irradiates the lens 91 with illumination light from the illumination unit 30 while photographing the lens 91 with the camera 40 (step S1). This results in a photographed image Ia of the lens 91 using transmitted light. The obtained photographed image Ia is input from the camera 40 to the computer 50.

図4は、撮影画像Iaの例を示した図である。図4に示すように、撮影画像Iaは、低輝度領域(図4においてグレーで示された部分)と、低輝度領域よりも輝度が高い高輝度領域(図4において白色で示された部分)とを含む。レンズ91は透明であるため、レンズ91の大部分は低輝度領域となる。ただし、レンズ91の輪郭部や、レンズ91上の欠陥dは、高輝度領域となる。また、支持部92や、チャック部902の周縁部も、高輝度領域となる。 Figure 4 is a diagram showing an example of the captured image Ia. As shown in Figure 4, the captured image Ia includes low-luminance areas (parts shown in gray in Figure 4) and high-luminance areas (parts shown in white in Figure 4) that are brighter than the low-luminance areas. Because the lens 91 is transparent, most of the lens 91 is a low-luminance area. However, the outline of the lens 91 and a defect d on the lens 91 are high-luminance areas. In addition, the support portion 92 and the peripheral portion of the chuck portion 902 are also high-luminance areas.

レンズ91の撮影が終了すると、コンピュータ50は、撮影回数が所定数Nに到達したか否かを判定する(ステップS2)。撮影回数が所定数Nに到達していない場合(ステップS2においてNo)、回転機構20が、軸8を中心としてステージ10を所定角度θだけ回転させる。ステージ10が回転すると、ステージ10および保持具90とともにレンズ91も、所定角度θだけ回転する(ステップS3)。 When the image capturing of the lens 91 is completed, the computer 50 determines whether the number of images captured has reached a predetermined number N (step S2). If the number of images captured has not reached the predetermined number N (No in step S2), the rotation mechanism 20 rotates the stage 10 by a predetermined angle θ around the axis 8. When the stage 10 rotates, the lens 91 rotates by the predetermined angle θ together with the stage 10 and the holder 90 (step S3).

上記の所定角度θは、その回転を上記の所定数Nだけ繰り返すことにより、1周(360°)の回転となるように設定される。例えば、所定数Nが8回の場合、所定角度θは45°とされる。 The above-mentioned predetermined angle θ is set so that one rotation (360°) is completed by repeating the rotation the above-mentioned predetermined number N. For example, if the predetermined number N is 8 times, the predetermined angle θ is set to 45°.

レンズ91を所定角度θだけ回転させた後、ステップS1に戻り、レンズ検査装置1は、再び、カメラ40によるレンズ91の撮影を行う。レンズ検査装置1は、上述したステップS1~S3の処理を、撮影回数が所定数Nに到達するまで繰り返す。 After rotating the lens 91 by the predetermined angle θ, the process returns to step S1, and the lens inspection device 1 again photographs the lens 91 using the camera 40. The lens inspection device 1 repeats the above-described processes of steps S1 to S3 until the number of photographs reaches the predetermined number N.

やがて、レンズ91の撮影回数が所定数Nに到達すると(ステップS2においてYes)、レンズ検査装置1は、レンズ91の撮影を終了する。これにより、レンズ91の回転角度を所定角度θずつ変更した所定数Nの撮影画像Ia(1周分の撮影画像)が得られる。 When the number of times the lens 91 has been photographed reaches the predetermined number N (Yes in step S2), the lens inspection device 1 ends photographing the lens 91. This results in a predetermined number N of photographed images Ia (one revolution's worth of photographed images) obtained by changing the rotation angle of the lens 91 by the predetermined angle θ.

1回の撮影では、照明光の偏りなどにより、均一な撮影画像Iaを得ることが難しい。このため、このレンズ検査装置1では、上記のように、照明部30およびカメラ40に対してレンズ91を回転させつつ、繰り返し撮影を行うことにより、所定数Nの撮影画像Iaを取得する。所定数Nの撮影画像Iaは、回転角度を揃えた状態で、コンピュータ50の記憶部53に記憶される。コンピュータ50は、これらの所定数Nの撮影画像Iaに基づいて、画像処理を行うことにより、レンズ91の検査を行う。 It is difficult to obtain a uniform captured image Ia in a single capture due to biased illumination light, etc. For this reason, in this lens inspection device 1, as described above, a predetermined number N of captured images Ia are obtained by repeatedly capturing images while rotating the lens 91 relative to the illumination unit 30 and camera 40. The predetermined number N of captured images Ia are stored in the memory unit 53 of the computer 50 with the rotation angles aligned. The computer 50 inspects the lens 91 by performing image processing based on the predetermined number N of captured images Ia.

<2-2.中心座標の特定>
回転機構20によるステージ10の回転の軸8は、必ずしもレンズ91の中心と一致していない。このため、後述する撮影画像Iaの合成を精度よく行うために、コンピュータ50は、まず、所定数Nの撮影画像Iaのそれぞれにおいて、レンズ91の中心座標Oを特定する(ステップS4)。図5は、1つの撮影画像Iaにおいてレンズ91の中心座標Oを特定する処理の流れを示したフローチャートである。
<2-2. Identifying the center coordinates>
The axis 8 of rotation of the stage 10 by the rotation mechanism 20 does not necessarily coincide with the center of the lens 91. Therefore, in order to accurately synthesize the captured images Ia, which will be described later, the computer 50 first identifies the center coordinates O of the lens 91 in each of the predetermined number N of captured images Ia (step S4). Fig. 5 is a flowchart showing the flow of a process for identifying the center coordinates O of the lens 91 in one captured image Ia.

コンピュータ50は、まず、撮影画像Ia中の不要な部分を消去する(ステップS41)。すなわち、撮影画像Ia中の、中心座標Oの特定のために必要のない部分を消去する。図6は、不要な部分が消去された撮影画像Iaの例を示した図である。後段のステップS42~45の処理では、レンズ91の輪郭に沿った細線部911を利用して、レンズ91の中心座標Oを特定する。このため、ステップS41では、図6のように、レンズ91の輪郭から十分に内側の部分と、レンズ91の輪郭から十分に外側の部分は、不要な部分として消去される。具体的には、不要な部分が、全て低輝度領域とされる。 First, the computer 50 erases unnecessary parts in the captured image Ia (step S41). That is, parts of the captured image Ia that are not necessary for identifying the center coordinates O are erased. FIG. 6 is a diagram showing an example of the captured image Ia from which unnecessary parts have been erased. In the subsequent processing of steps S42 to S45, the center coordinates O of the lens 91 are identified using a thin line portion 911 that follows the contour of the lens 91. Therefore, in step S41, as shown in FIG. 6, the parts that are sufficiently inside the contour of the lens 91 and the parts that are sufficiently outside the contour of the lens 91 are erased as unnecessary parts. Specifically, all unnecessary parts are made into low-brightness areas.

図6に示すように、撮影画像Ia中の高輝度領域は、レンズ91の輪郭に沿った細線部911および幅広部912を含む。細線部911は、レンズ91の輪郭のうち、支持部92およびチャック902が接続されていない部分に相当する。幅広部912は、レンズ91の輪郭のうち、支持部92またはチャック902が接続されている部分に相当する。幅広部912の径方向の幅は、細線部911の径方向の幅よりも広い。 As shown in FIG. 6, the high-brightness area in the captured image Ia includes a thin line portion 911 and a wide portion 912 that follow the contour of the lens 91. The thin line portion 911 corresponds to the portion of the contour of the lens 91 to which the support portion 92 and the chuck 902 are not connected. The wide portion 912 corresponds to the portion of the contour of the lens 91 to which the support portion 92 or the chuck 902 is connected. The radial width of the wide portion 912 is wider than the radial width of the thin line portion 911.

次に、コンピュータ50は、撮影画像Ia中の上記の細線部911および幅広部912のうち、細線部911を消去する(ステップS42:細線消去工程)。細線部911の消去は、例えば、Opening処理により行うことができる。具体的には、コンピュータ50は、撮影画像Ia中の高輝度領域に対して、収縮(細らせ)処理を行った後、膨張(太らせ)処理を行う。これにより、細線部911が低輝度領域となる。その結果、図7のように、撮影画像Ia中の細線部911が消去された細線消去画像Ibが得られる。 Next, the computer 50 erases the thin line portion 911 from the above-mentioned thin line portion 911 and wide portion 912 in the captured image Ia (step S42: thin line erasing process). The thin line portion 911 can be erased, for example, by an opening process. Specifically, the computer 50 performs a contraction (thinning) process on the high-luminance region in the captured image Ia, and then performs an expansion (thickening) process. This makes the thin line portion 911 a low-luminance region. As a result, as shown in FIG. 7, a thin-line erased image Ib is obtained in which the thin line portion 911 in the captured image Ia has been erased.

続いて、コンピュータ50は、細線消去画像Ibと、細線部911を消去する直前の撮影画像Iaとの差分をとることによって、差分画像Icを生成する(ステップS43:差分画像生成工程)。図8は、差分画像Icの例を示した図である。細線消去画像Ibと撮影画像Iaとの差分をとると、図8のように、ステップS42において消去された細線部911が現れる。したがって、差分画像Icでは、細線部911のみが高輝度領域となり、それ以外の部分は低輝度領域となる。 Then, the computer 50 generates a difference image Ic by taking the difference between the thin line erased image Ib and the captured image Ia immediately before erasing the thin line portion 911 (step S43: difference image generation process). Figure 8 is a diagram showing an example of the difference image Ic. When the difference between the thin line erased image Ib and the captured image Ia is taken, the thin line portion 911 erased in step S42 appears, as shown in Figure 8. Therefore, in the difference image Ic, only the thin line portion 911 becomes a high brightness area, and the other parts become low brightness areas.

その後、コンピュータ50は、差分画像Icに含まれる細線部911に基づいて、レンズ91の中心座標Oを特定する(ステップS44:中心特定工程)。中心座標Oは、例えば、差分画像Icに対してハフ変換を適用することにより特定することができる。すなわち、細線部911上の複数の点に対して、ハフ空間における投票処理を行うことにより、中心座標Oを特定する。差分画像Icを利用すれば、幅広部912を排除して、細線部911のみに基づいて、ハフ変換を行うことができる。したがって、幅広部912の影響を抑えて、撮影画像Iaにおけるレンズ91の中心座標Oを精度よく特定できる。 Then, the computer 50 identifies the center coordinates O of the lens 91 based on the thin line portion 911 included in the difference image Ic (step S44: center identification process). The center coordinates O can be identified, for example, by applying a Hough transform to the difference image Ic. That is, the center coordinates O are identified by performing voting processing in Hough space for multiple points on the thin line portion 911. By using the difference image Ic, it is possible to eliminate the wide portion 912 and perform a Hough transform based only on the thin line portion 911. Therefore, the influence of the wide portion 912 can be suppressed and the center coordinates O of the lens 91 in the captured image Ia can be accurately identified.

コンピュータ50は、所定数Nの撮影画像Iaのそれぞれに対して、上記のステップS41~S44の処理を実行する。これにより、撮影画像Ia毎に、レンズ91の中心座標Oが特定される。 The computer 50 executes the above steps S41 to S44 for each of the predetermined number N of captured images Ia. This identifies the center coordinates O of the lens 91 for each captured image Ia.

<2-3.撮影画像の合成>
続いて、コンピュータ50は、所定数Nの撮影画像Iaを合成する(ステップS5:画像合成工程)。図9は、撮影画像Iaを合成する処理の流れを示したフローチャートである。
<2-3. Combining captured images>
Next, the computer 50 synthesizes a predetermined number N of photographed images Ia (step S5: image synthesis step). Fig. 9 is a flow chart showing the flow of processing for synthesizing the photographed images Ia.

図9に示すように、ステップS5において、コンピュータ50は、所定数Nの撮影画像Iaに基づいて、1枚の最大値画像Idを生成する(ステップS51)。最大値画像Idは、所定数Nの撮影画像Iaの輝度値の最大値で構成される画像である。後述するステップS8では、基本的には、最大値画像Idに基づいて欠陥dの検出を行う。 As shown in FIG. 9, in step S5, the computer 50 generates one maximum value image Id based on a predetermined number N of captured images Ia (step S51). The maximum value image Id is an image composed of the maximum brightness values of the predetermined number N of captured images Ia. In step S8, which will be described later, basically, the detection of defect d is performed based on the maximum value image Id.

ステップS51では、コンピュータ50は、まず、所定数Nの撮影画像Iaの中心座標Oを揃える。そして、中心座標Oを揃えた状態で、座標毎に、所定数Nの撮影画像Iaの輝度値の最大値を算出する。そして、画像の各座標に、上記の輝度値の最大値を適用することにより、最大値画像Idを生成する。 In step S51, the computer 50 first aligns the center coordinates O of a predetermined number N of captured images Ia. Then, with the center coordinates O aligned, the computer 50 calculates the maximum luminance value of the predetermined number N of captured images Ia for each coordinate. Then, the computer 50 generates a maximum value image Id by applying the maximum luminance value to each coordinate of the image.

1回の撮影では、照明光の偏りなどによって、撮影画像Ia中に不明瞭な部分が存在する場合がある。しかしながら、上記のように、回転角度の異なる所定数Nの撮影画像Iaの最大値画像Idを生成すれば、画像の全体が明瞭となる。したがって、後述するステップS8における欠陥dの検出を、精度よく行うことができる。 In a single capture, there may be unclear parts in the captured image Ia due to biased illumination light, etc. However, as described above, if a maximum value image Id is generated from a predetermined number N of captured images Ia with different rotation angles, the entire image becomes clear. Therefore, the detection of defect d in step S8 described below can be performed with high accuracy.

また、本実施形態では、ステップS4において、撮影画像Ia毎にレンズ91の中心座標Oを精度よく特定し、特定された中心座標Oを揃えた状態で、所定数Nの撮影画像Iaの最大値画像Idを生成する。これにより、最大値画像Idを精度よく生成できる。 In addition, in this embodiment, in step S4, the center coordinates O of the lens 91 are accurately identified for each captured image Ia, and maximum value images Id of a predetermined number N of captured images Ia are generated with the identified center coordinates O aligned. This allows the maximum value images Id to be generated with high accuracy.

また、図9に示すように、本実施形態では、コンピュータ50は、所定数Nの撮影画像Iaに基づいて、1枚の最小値画像Ieも生成する(ステップS52)。最小値画像Ieは、所定数Nの撮影画像Iaの輝度値の最小値で構成される画像である。最小値画像Ieは、後述するステップS82において、欠陥dの検出漏れを抑制するために使用する。 As shown in FIG. 9, in this embodiment, the computer 50 also generates one minimum value image Ie based on the predetermined number N of captured images Ia (step S52). The minimum value image Ie is an image composed of the minimum luminance values of the predetermined number N of captured images Ia. The minimum value image Ie is used in step S82, which will be described later, to suppress missed detection of defects d.

ステップS52では、コンピュータ50は、まず、所定数Nの撮影画像Iaの中心座標Oを揃える。そして、中心座標Oを揃えた状態で、座標毎に、所定数Nの撮影画像Iaの輝度値の最小値を算出する。そして、画像の各座標に、上記の輝度値の最小値を適用することにより、最小値画像Ieを生成する。 In step S52, the computer 50 first aligns the center coordinates O of a predetermined number N of captured images Ia. Then, with the center coordinates O aligned, the computer 50 calculates the minimum luminance value of the predetermined number N of captured images Ia for each coordinate. Then, the computer 50 applies the minimum luminance value to each coordinate of the image to generate a minimum value image Ie.

本実施形態では、ステップS4において、撮影画像Ia毎にレンズ91の中心座標Oを精度よく特定し、特定された中心座標Oを揃えた状態で、所定数Nの撮影画像Iaの最小値画像Ieを生成する。これにより、最小値画像Ieを精度よく生成できる。 In this embodiment, in step S4, the center coordinates O of the lens 91 are accurately identified for each captured image Ia, and a minimum value image Ie of a predetermined number N of captured images Ia is generated with the identified center coordinates O aligned. This allows the minimum value image Ie to be generated with high accuracy.

なお、図9のフローチャートでは、最大値画像Idを生成した後に、最小値画像Ieを生成しているが、これらの順序は逆であってもよいし、同時であってもよい。 Note that in the flowchart of FIG. 9, the maximum value image Id is generated first, followed by the minimum value image Ie, but these steps may be performed in the reverse order, or simultaneously.

<2-4.輪郭マスク領域の作成>
最大値画像Idに基づいて欠陥dの検出を行う際、レンズ91の輪郭部付近において、欠陥dの誤検出が発生しやすい。そこで、コンピュータ50は、最大値画像Id中のレンズ91の輪郭部付近を検査対象外とするための輪郭マスク領域M1を作成する(ステップS6)。図10は、輪郭マスク領域M1の作成手順を示すフローチャートである。
<2-4. Creating a contour mask area>
When detecting defect d based on maximum value image Id, erroneous detection of defect d is likely to occur near the contour of lens 91. Therefore, computer 50 creates contour mask region M1 for excluding the vicinity of the contour of lens 91 in maximum value image Id from inspection (step S6). Fig. 10 is a flowchart showing the procedure for creating contour mask region M1.

図10に示すように、ステップS6において、コンピュータ50は、まず、最大値画像Idに円環図形Cを配置する(ステップS61:円環図形配置工程)。円環図形Cは、中心座標Oを中心とし、レンズ91の輪郭に沿った円環状の図形である。最初に配置する円環図形Cの半径は、レンズ91の設計値に応じて予め設定された値とすればよい。図11は、最大値画像Idに円環図形Cを配置した状態を示した図である。図11では、円環図形Cが破線で示されている。 As shown in FIG. 10, in step S6, the computer 50 first places a circular ring C in the maximum value image Id (step S61: circular ring placement process). The circular ring C is a ring-shaped figure centered on the central coordinate O and following the contour of the lens 91. The radius of the circular ring C that is placed first may be a value that is preset according to the design value of the lens 91. FIG. 11 is a diagram showing the state in which the circular ring C has been placed in the maximum value image Id. In FIG. 11, the circular ring C is indicated by a dashed line.

コンピュータ50は、最大値画像Id中の高輝度領域と、最初に配置された円環図形Cとの重複領域の面積を、第1面積A1として算出する(ステップS62:第1面積算出工程)。そして、コンピュータ50は、算出された第1面積A1を記憶部53に記憶させる。 The computer 50 calculates the area of the overlapping area between the high brightness area in the maximum value image Id and the initially placed annular figure C as the first area A1 (step S62: first area calculation step). Then, the computer 50 stores the calculated first area A1 in the storage unit 53.

次に、コンピュータ50は、円環図形Cの半径を徐々に小さくしつつ、最大値画像Id中の高輝度領域と、円環図形Cとの重複領域の面積を、第2面積A2として算出する(ステップS63:第2面積算出工程)。そして、コンピュータ50は、上述した第1面積A1に対する第2面積A2の割合A2/A1を算出する。円環図形Cが、レンズ91の輪郭から内側へ移動するにつれて、上記の割合A2/A1は、徐々に小さくなる。 Next, the computer 50 calculates the area of the overlapping area between the high brightness area in the maximum value image Id and the annular figure C as the second area A2 while gradually decreasing the radius of the annular figure C (step S63: second area calculation step). The computer 50 then calculates the ratio A2/A1 of the second area A2 to the above-mentioned first area A1. As the annular figure C moves inward from the contour of the lens 91, the above-mentioned ratio A2/A1 gradually decreases.

コンピュータ50の記憶部53には、輪郭マスク領域M1に適した上記の割合A2/A1の基準値が、予め記憶されている。コンピュータ50は、第1面積A1に対する第2面積A2の割合A2/A1が、記憶部53に記憶された基準値と略同一となるまで、円環図形Cを徐々に小さくする。 A reference value of the above-mentioned ratio A2/A1 suitable for the contour mask region M1 is stored in advance in the memory unit 53 of the computer 50. The computer 50 gradually reduces the size of the annular shape C until the ratio A2/A1 of the second area A2 to the first area A1 becomes substantially the same as the reference value stored in the memory unit 53.

コンピュータ50は、上記の割合A2/A1が上記の基準値と略同一となったときの円環図形Cを、最終的な円環図形Cとする。より具体的には、コンピュータ50は、上記の割合A2/A1が、初めて上記の基準値以下となったときの、1つ前の円環図形Cを、最終的な円環図形Cとする。コンピュータ50は、最終的な円環図形Cに基づいて、輪郭マスク領域M1を作成する(ステップS64:輪郭マスク作成工程)。 The computer 50 determines the annular shape C when the ratio A2/A1 is substantially equal to the reference value as the final annular shape C. More specifically, the computer 50 determines the previous annular shape C when the ratio A2/A1 is equal to or less than the reference value for the first time as the final annular shape C. The computer 50 creates a contour mask region M1 based on the final annular shape C (step S64: contour mask creation process).

図12は、最大値画像Id上に作成された輪郭マスク領域M1の例を示した図である。図12に示すように、輪郭マスク領域M1は、レンズ91の輪郭部に沿った円環状のマスク領域である。最大値画像Idのうち、輪郭マスク領域M1に覆われた部分は、検査対象外となる。コンピュータ50は、例えば、最終的な円環図形Cの径方向の幅を増加させることによって、輪郭マスク領域M1を作成する。 Figure 12 is a diagram showing an example of a contour mask region M1 created on a maximum value image Id. As shown in Figure 12, the contour mask region M1 is a circular mask region that follows the contour of the lens 91. The portion of the maximum value image Id that is covered by the contour mask region M1 is not subject to inspection. The computer 50 creates the contour mask region M1, for example, by increasing the radial width of the final annular figure C.

上記のように、コンピュータ50は、所定数Nの撮影画像Iaのそれぞれに対して輪郭マスク領域M1を作成するのではなく、合成後の最大値画像Idに対して、1つの輪郭マスク領域M1を作成する。このようにすれば、コンピュータ50の処理負担を抑えつつ、レンズ91の輪郭部付近を検査対象外とすることができる。また、本実施形態では、ステップS4において、撮影画像Ia毎にレンズ91の中心座標Oを特定し、特定された中心座標Oに基づいて精度よく作成された最大値画像Idに対して、輪郭マスク領域M1を作成する。これにより、レンズ91の輪郭部付近を、より精度よくマスクすることができる。 As described above, the computer 50 does not create a contour mask region M1 for each of the predetermined number N of captured images Ia, but instead creates one contour mask region M1 for the combined maximum value image Id. In this way, the processing burden on the computer 50 can be reduced while excluding the area near the contour of the lens 91 from the inspection target. Also, in this embodiment, in step S4, the center coordinates O of the lens 91 are identified for each captured image Ia, and a contour mask region M1 is created for the maximum value image Id that is created with high accuracy based on the identified center coordinates O. This makes it possible to more accurately mask the area near the contour of the lens 91.

<2-5.外側マスク領域の作成>
最大値画像Idのうち、レンズ91よりも外側の部分は検査する必要がない。そこで、コンピュータ50は、最大値画像Id中のレンズ91よりも外側の部分を検査対象外とするための外側マスク領域M2を作成する(ステップS7:外側マスク作成工程)。図13は、外側マスク領域M2の作成手順を示すフローチャートである。
<2-5. Creating outer mask area>
In the maximum value image Id, there is no need to inspect the portion outside the lens 91. Therefore, the computer 50 creates an outer mask region M2 for excluding the portion outside the lens 91 in the maximum value image Id from the inspection target (step S7: outer mask creating step). Fig. 13 is a flowchart showing the procedure for creating the outer mask region M2.

図13に示すように、ステップS7において、コンピュータ50は、まず、最大値画像Idを二値化する(ステップS71)。具体的には、最大値画像Idを、所定の輝度値を閾値として、低輝度領域と高輝度領域とに二値化する。その際、高輝度領域の輝度値は、作成すべき外側マスク領域M2の輝度値に合わせて設定される。図14は、二値化された最大値画像Ifの例を示した図である。 As shown in FIG. 13, in step S7, the computer 50 first binarizes the maximum value image Id (step S71). Specifically, the maximum value image Id is binarized into a low brightness region and a high brightness region using a predetermined brightness value as a threshold. At that time, the brightness value of the high brightness region is set according to the brightness value of the outer mask region M2 to be created. FIG. 14 is a diagram showing an example of the binarized maximum value image If.

次に、コンピュータ50は、二値化された最大値画像Ifに、円環図形Cを配置する(ステップS72)。円環図形Cの配置は、上述したステップS61と同様に行われる。ただし、配置される円環図形Cは、上述したステップS63~S64において決定された最終的な円環図形Cであってもよい。 Next, the computer 50 places an annular figure C in the binarized maximum value image If (step S72). The placement of the annular figure C is performed in the same manner as in step S61 described above. However, the placed annular figure C may be the final annular figure C determined in steps S63 to S64 described above.

続いて、コンピュータ50は、二値化された最大値画像Ifの高輝度領域(図14中の黒色の領域)と、円環図形Cの外側の領域との論理和の領域をとることにより、外側マスク領域M2を作成する(ステップS73)。図15は、外側マスク領域M2の例を示した図である。上記のように論理和をとることにより、レンズ91の周縁部を把持するチャック部902も、外側マスク領域M2に含めることができる。 Then, the computer 50 creates an outer mask region M2 by taking the logical sum of the high-luminance region (black region in FIG. 14) of the binarized maximum value image If and the region outside the annular figure C (step S73). FIG. 15 is a diagram showing an example of the outer mask region M2. By taking the logical sum as described above, the chuck portion 902 that grips the peripheral portion of the lens 91 can also be included in the outer mask region M2.

続いて、コンピュータ50は、外側マスク領域M2中の孤立した所定面積以下の非マスク領域を、外側マスク領域M2に変更する(ステップS74)。例えば、図15のように、チャック部902の内側に孤立した非マスク領域が残っている場合、コンピュータ50は、当該非マスク領域を、外側マスク領域M2に変更する。これにより、最大値画像If中のチャック部902の全体を、検査対象外とすることができる。図16は、ステップS74の処理を行った後の外側マスク領域M2の例を示した図である。 Then, the computer 50 changes any isolated non-masked areas in the outer mask area M2 that are equal to or smaller than a predetermined area to the outer mask area M2 (step S74). For example, as shown in FIG. 15, if an isolated non-masked area remains inside the chuck portion 902, the computer 50 changes the non-masked area to the outer mask area M2. This makes it possible to exclude the entire chuck portion 902 in the maximum value image If from the inspection target. FIG. 16 is a diagram showing an example of the outer mask area M2 after the processing of step S74 has been performed.

その後、コンピュータ50は、外側マスク領域M2のうち、最大値画像Ifの外端部から連続する領域のみを残し、他の領域を外側マスク領域M2から除外する(ステップS75)。これにより、レンズ91の輪郭よりも内側に位置する欠陥d等の領域を、外側マスク領域M2から除外することができる。図17は、ステップS75の処理を行った後の外側マスク領域M2の例を示した図である。 Then, the computer 50 leaves only the area of the outer mask region M2 that is continuous with the outer end of the maximum value image If, and excludes the other areas from the outer mask region M2 (step S75). This makes it possible to exclude areas such as defect d that are located inside the contour of the lens 91 from the outer mask region M2. Figure 17 is a diagram showing an example of the outer mask region M2 after the processing of step S75 has been performed.

上記のように、コンピュータ50は、所定数Nの撮影画像Iaのそれぞれに対して外側マスク領域M2を作成するのではなく、合成後の最大値画像Idに対して、1つの外側マスク領域M2を作成する。このようにすれば、コンピュータ50の処理負担を抑えつつ、レンズ91よりも外側の領域を検査対象外とすることができる。また、本実施形態では、ステップS4において、撮影画像Ia毎にレンズ91の中心座標Oを特定し、特定された中心座標Oに基づいて精度よく作成された最大値画像Idに対して、外側マスク領域M2を作成する。これにより、レンズ91よりも外側の領域を、より精度よくマスクすることができる。 As described above, the computer 50 does not create an outer mask region M2 for each of the predetermined number N of captured images Ia, but instead creates one outer mask region M2 for the combined maximum value image Id. In this way, the processing burden on the computer 50 can be reduced while excluding the area outside the lens 91 from the inspection target. Also, in this embodiment, in step S4, the center coordinates O of the lens 91 are identified for each captured image Ia, and an outer mask region M2 is created for the maximum value image Id that is accurately created based on the identified center coordinates O. This makes it possible to more accurately mask the area outside the lens 91.

<2-6.検査>
その後、コンピュータ50は、レンズ91の欠陥dを検出する(ステップS8:検査工程)。欠陥dは、例えば、レンズ91の傷や、レンズ91に付着した異物などである。図18は、検査工程の流れを示したフローチャートである。
<2-6. Inspection>
Thereafter, the computer 50 detects a defect d in the lens 91 (step S8: inspection process). The defect d is, for example, a scratch on the lens 91 or a foreign matter attached to the lens 91. Fig. 18 is a flow chart showing the flow of the inspection process.

図18に示すように、ステップS8において、コンピュータ50は、まず、最大値画像Idに基づいて、レンズ91の欠陥dを検出する(ステップS81:第1検査工程)。図19は、上述した輪郭マスク領域M1および外側マスク領域M2を適用した最大値画像Idの例を示した図である。コンピュータ50は、最大値画像Id中の輪郭マスク領域M1および外側マスク領域M2を、検査対象外とする。すなわち、コンピュータ50は、最大値画像Id中の輪郭マスク領域M1および外側マスク領域M2以外の領域を、最大値画像Idにおける検査対象領域とする。 As shown in FIG. 18, in step S8, the computer 50 first detects defects d in the lens 91 based on the maximum value image Id (step S81: first inspection process). FIG. 19 is a diagram showing an example of a maximum value image Id to which the above-mentioned contour mask region M1 and outer mask region M2 are applied. The computer 50 excludes the contour mask region M1 and outer mask region M2 in the maximum value image Id from inspection. In other words, the computer 50 excludes the areas other than the contour mask region M1 and outer mask region M2 in the maximum value image Id from inspection in the maximum value image Id.

コンピュータ50は、最大値画像Idの上記の検査対象領域において、レンズ91の欠陥dを検出する。具体的には、コンピュータ50は、検査対象領域において、輝度値が所定の閾値よりも高い部分を、欠陥dとして検出する。 The computer 50 detects a defect d in the lens 91 in the above-mentioned inspection target area of the maximum value image Id. Specifically, the computer 50 detects a portion in the inspection target area in which the brightness value is higher than a predetermined threshold as a defect d.

次に、コンピュータ50は、最小値画像Ieに基づいて、レンズ91の欠陥dを検出する(ステップS82:第2検査工程)。図20は、最小値画像Ieの例を示した図である。コンピュータ50は、最小値画像Ieに、円環図形Cを配置する。円環図形Cの配置は、上述したステップS61と同様に行われる。そして、コンピュータ50は、円環図形Cの内側の領域を、最小値画像Ieにおける検査対象領域とする。 Next, the computer 50 detects defects d in the lens 91 based on the minimum value image Ie (step S82: second inspection process). FIG. 20 is a diagram showing an example of the minimum value image Ie. The computer 50 places an annular figure C in the minimum value image Ie. The placement of the annular figure C is performed in the same manner as in step S61 described above. The computer 50 then determines the area inside the annular figure C as the inspection target area in the minimum value image Ie.

コンピュータ50は、最小値画像Ieの上記の検査対象領域において、レンズ91の欠陥dを検出する。具体的には、コンピュータ50は、検査対象領域において、輝度値が所定の閾値よりも高い部分を、欠陥dとして検出する。 The computer 50 detects a defect d in the lens 91 in the above-mentioned inspection target area of the minimum value image Ie. Specifically, the computer 50 detects a portion in the inspection target area in which the brightness value is higher than a predetermined threshold as a defect d.

最小値画像Ieには、一部の細かい欠陥dが現れない場合がある。このため、基本的には、最大値画像Idに基づいて欠陥dの検出を行うことが望ましい。ただし、ステップS81の最大値画像Idの検査では、支持部92の付近において外側マスク領域M2が広めに設定されて、欠陥dがマスクされてしまう場合がある。これにより、欠陥dの検出漏れが発生する場合がある。 Some small defects d may not appear in the minimum value image Ie. For this reason, it is desirable to basically detect defects d based on the maximum value image Id. However, when inspecting the maximum value image Id in step S81, the outer mask region M2 may be set wide near the support portion 92, masking the defects d. This may result in defects d going undetected.

例えば、図19の最大値画像Idでは、破線で囲んだ部分の欠陥dが、外側マスク領域M2の一部となっているため、検査対象外とされている。しかしながら、図20の最小値画像Ieでは、最大値画像Idよりも支持部92が小さくなるため、上記の欠陥dを検査対象領域に含めることができる。したがって、最大値画像Idで検出できなかった欠陥dを、最小値画像Ieで検出することができる。このように、最大値画像Idによる検査と、最小値画像Ieによる検査とを併用することにより、欠陥dの検出漏れを低減できる。 For example, in the maximum value image Id of FIG. 19, defect d in the portion surrounded by the dashed line is part of the outer mask region M2 and is therefore excluded from inspection. However, in the minimum value image Ie of FIG. 20, the support portion 92 is smaller than in the maximum value image Id, so the defect d can be included in the inspection target region. Therefore, defect d that could not be detected in the maximum value image Id can be detected in the minimum value image Ie. In this way, by using inspection using the maximum value image Id and inspection using the minimum value image Ie in combination, it is possible to reduce the number of defects d that go undetected.

コンピュータ50は、最大値画像Idによる検査結果と、最小値画像Ieによる検査結果とを統合して、最終的な欠陥dの検出結果を出力する(ステップS83)。具体的には、コンピュータ50は、最大値画像Idにおいて検出された欠陥dと、最小値画像Ieにおいて検出された欠陥dとの和集合を、最終的な欠陥dの検出結果とする。コンピュータ50は、最終的な欠陥dの検出結果を、記憶部53に記憶させるとともに、コンピュータ50に接続された表示部に表示する。 The computer 50 integrates the inspection results based on the maximum value image Id and the inspection results based on the minimum value image Ie to output the final detection result of defect d (step S83). Specifically, the computer 50 determines the union of the defect d detected in the maximum value image Id and the defect d detected in the minimum value image Ie as the final detection result of defect d. The computer 50 stores the final detection result of defect d in the memory unit 53 and displays it on a display unit connected to the computer 50.

<3.変形例>
以上、本発明の一実施形態について説明したが、本発明は、上記の実施形態に限定されるものではない。
3. Modifications
Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment.

上記の実施形態では、コンピュータ50は、差分画像Ic中の細線部911に対してハフ変換を適用することにより、中心座標Oを特定していた。しかしながら、コンピュータ50は、差分画像Ic中の細線部911に基づいて、フィッティングやテンプレートマッチング等の他の方法で、中心座標Oを特定してもよい。 In the above embodiment, the computer 50 identifies the center coordinates O by applying a Hough transform to the thin line portion 911 in the difference image Ic. However, the computer 50 may identify the center coordinates O by other methods, such as fitting or template matching, based on the thin line portion 911 in the difference image Ic.

上記の実施形態では、コンピュータ50は、所定数Nの撮影画像Iaから、最大値画像Idおよび最小値画像Ieを生成し、最大値画像Idによる検査と、最小値画像Ieによる検査とを、行っていた。しかしながら、コンピュータ50は、所定数Nの撮影画像Iaから、最大値画像Idのみを生成し、最大値画像Idによる検査のみを行ってもよい。 In the above embodiment, the computer 50 generates a maximum value image Id and a minimum value image Ie from a predetermined number N of captured images Ia, and performs inspection using the maximum value image Id and inspection using the minimum value image Ie. However, the computer 50 may generate only the maximum value image Id from the predetermined number N of captured images Ia, and perform only inspection using the maximum value image Id.

上記の実施形態では、コンピュータ50は、最大値画像Idに対して、輪郭マスク領域M1と外側マスク領域M2の両方を設定していた。しかしながら、最大値画像Idに対して設定されるマスク領域は、外側マスク領域M2のみであってもよい。また、コンピュータ50は、最大値画像Idに対して、輪郭マスク領域M1および外側マスク領域M2以外のマスク領域を設定してもよい。 In the above embodiment, the computer 50 sets both the contour mask region M1 and the outer mask region M2 for the maximum value image Id. However, the mask region set for the maximum value image Id may be only the outer mask region M2. Furthermore, the computer 50 may set a mask region other than the contour mask region M1 and the outer mask region M2 for the maximum value image Id.

その他、矛盾が生じない範囲で、上記の実施形態に登場した各要素の一部を削除したり、公知の他の要素を追加したりしてもよい。 In addition, to the extent that no inconsistencies arise, some of the elements appearing in the above embodiments may be deleted, or other publicly known elements may be added.

1 レンズ検査装置
9 レンズ製品
10 ステージ
20 回転機構
30 照明部
40 カメラ
50 コンピュータ
90 保持具
91 レンズ
92 支持部
902 チャック部
911 細線部
912 幅広部
A1 第1面積
A2 第2面積
C 円環図形
Ia 撮影画像
Ib 細線消去画像
Ic 差分画像
Id 最大値画像
Ie 最小値画像
M1 輪郭マスク領域
M2 外側マスク領域
O 中心座標
P1 制御プログラム
P2 検査プログラム
d 欠陥
REFERENCE SIGNS LIST 1 Lens inspection device 9 Lens product 10 Stage 20 Rotation mechanism 30 Illumination unit 40 Camera 50 Computer 90 Holder 91 Lens 92 Support unit 902 Chuck unit 911 Thin line unit 912 Wide unit A1 First area A2 Second area C Ring shape Ia Photographed image Ib Thin line erased image Ic Difference image Id Maximum value image Ie Minimum value image M1 Contour mask area M2 Outer mask area O Center coordinates P1 Control program P2 Inspection program d Defect

Claims (11)

レンズの撮影画像を処理する画像処理方法であって、
前記撮影画像中の前記レンズの輪郭に沿った細線部および前記細線部よりも径方向の幅が広い幅広部のうち、前記細線部を消去することにより、細線消去画像を生成する細線消去工程と、
前記撮影画像と前記細線消去画像との差分画像を生成する差分画像生成工程と、
前記差分画像に含まれる前記細線部に基づいて、前記レンズの中心座標を特定する中心特定工程と、
を有する、画像処理方法。
An image processing method for processing an image captured by a lens, comprising:
a thin line erasing step of erasing a thin line portion along a contour of the lens in the captured image and a wide portion having a radial width wider than that of the thin line portion to generate a thin line erased image;
a differential image generating step of generating a differential image between the captured image and the thin line erased image;
a center identifying step of identifying center coordinates of the lens based on the thin line portion included in the difference image;
An image processing method comprising the steps of:
請求項1に記載の画像処理方法であって、
前記中心特定工程では、前記差分画像に対してハフ変換を適用することにより、前記中心座標を特定する、画像処理方法。
2. The image processing method according to claim 1,
In the center specifying step, the center coordinates are specified by applying a Hough transform to the difference image.
請求項1または請求項2に記載の画像処理方法であって、
前記細線消去工程では、前記撮影画像中の前記細線部および前記幅広部に対して、収縮と膨張とを行う、画像処理方法。
3. The image processing method according to claim 1, further comprising:
In the thin line erasing step, shrinking and expanding are performed on the thin line portions and the wide portions in the captured image.
請求項1または請求項2に記載の画像処理方法であって、
複数の前記撮影画像のそれぞれに対して、前記細線消去工程、前記差分画像生成工程、および前記中心特定工程を実行し、
前記中心特定工程において特定された前記中心座標を揃えた状態で、複数の前記撮影画像を合成する画像合成工程
をさらに有する、画像処理方法。
3. The image processing method according to claim 1, further comprising:
performing the thin line erasing step, the difference image generating step, and the center identifying step for each of the plurality of captured images;
The image processing method further comprises an image synthesis step of synthesizing the plurality of captured images while aligning the center coordinates identified in the center identification step.
請求項4に記載の画像処理方法であって、
前記画像合成工程では、複数の前記撮影画像の最大値画像を生成する、画像処理方法。
5. The image processing method according to claim 4,
In the image synthesis step, a maximum value image of the plurality of captured images is generated.
請求項5に記載の画像処理方法により生成された前記最大値画像に基づいて、前記レンズの欠陥を検出する検査工程を有する、レンズ検査方法。 A lens inspection method comprising an inspection step of detecting defects in the lens based on the maximum value image generated by the image processing method according to claim 5. 請求項6に記載のレンズ検査方法であって、
前記最大値画像に、前記中心座標を中心とし前記レンズの輪郭に沿った円環図形を配置する円環図形配置工程と、
前記円環図形と前記最大値画像の高輝度領域との重複領域の面積である第1面積を算出する第1面積算出工程と、
前記円環図形の半径を徐々に小さくしつつ、前記高輝度領域と前記円環図形との重複領域の面積である第2面積を算出する第2算出工程と、
前記第1面積に対する前記第2面積の割合が、所定の基準値と略同一となったときの前記円環図形に基づいて、前記レンズの輪郭部に沿った輪郭マスク領域を作成する輪郭マスク作成工程と、
をさらに有し、
前記検査工程では、前記輪郭マスク領域を検査対象外とする、レンズ検査方法。
7. A lens inspection method according to claim 6, comprising:
a ring-shaped figure arrangement step of arranging a ring-shaped figure along a contour of the lens, the ring-shaped figure being centered on the central coordinates, in the maximum value image;
a first area calculation step of calculating a first area which is an area of an overlapping region between the annular figure and a high luminance region of the maximum value image;
a second calculation step of calculating a second area, which is an area of an overlapping region between the high luminance region and the annular figure, while gradually decreasing a radius of the annular figure;
a contour mask creating step of creating a contour mask area along a contour portion of the lens based on the annular shape when a ratio of the second area to the first area becomes substantially equal to a predetermined reference value;
and
The lens inspection method, wherein the contour mask region is excluded from inspection in the inspection step.
請求項6に記載のレンズ検査方法であって、
前記最大値画像における高輝度領域と、前記中心座標を中心とし前記レンズの輪郭に沿った円環図形の外側の領域との論理和の領域をとることにより、外側マスク領域を作成する外側マスク作成工程
をさらに有し、
前記検査工程では、前記外側マスク領域を検査対象外とする、レンズ検査方法。
7. A lens inspection method according to claim 6, comprising:
an outer mask creating step of creating an outer mask region by taking a region of a logical sum of a high luminance region in the maximum value image and an outer region of a circular ring shape centered on the central coordinates and following the contour of the lens,
The lens inspection method, wherein the outer mask area is excluded from inspection in the inspection step.
請求項8に記載のレンズ検査方法であって、
前記外側マスク作成工程では、前記外側マスク領域中に孤立した所定面積以下の非マスク領域を、外側マスク領域に変更する、レンズ検査方法。
9. A lens inspection method according to claim 8, comprising:
In the outer mask creating step, an isolated non-masked area having a predetermined area or less in the outer mask area is changed to an outer mask area.
請求項8に記載のレンズ検査方法であって、
前記画像合成工程では、複数の前記撮影画像の最小値画像をさらに生成し、
前記検査工程は、
前記最大値画像中の前記外側マスク領域以外の領域において、前記レンズの欠陥を検出する第1検査工程と、
前記最小値画像中の前記中心座標を中心とし前記レンズの輪郭に沿った円環図形の内側において、前記レンズの欠陥を検出する第2検査工程と、
を含む、レンズ検査方法。
9. A lens inspection method according to claim 8, comprising:
In the image synthesis step, a minimum value image of the plurality of captured images is further generated,
The inspection step includes:
a first inspection step of detecting defects of the lens in a region other than the outer mask region in the maximum value image;
a second inspection step of detecting defects of the lens inside a circular ring shape centered on the central coordinate in the minimum value image and along a contour of the lens;
A lens inspection method comprising:
レンズを検査するレンズ検査装置であって、
レンズを撮影して撮影画像を取得するカメラと、
前記撮影画像を処理するコンピュータと、
を備え、
前記コンピュータは、
前記撮影画像中の前記レンズの輪郭に沿った細線部および前記細線部よりも径方向の幅が広い幅広部のうち、前記細線部を消去することにより、細線消去画像を生成する細線消去工程と、
前記撮影画像と前記細線消去画像との差分画像を生成する差分画像生成工程と、
前記差分画像に含まれる前記細線部に基づいて、前記レンズの中心座標を特定する中心特定工程と、
を実行する、レンズ検査装置。
A lens inspection apparatus for inspecting a lens, comprising:
a camera for capturing an image by photographing a lens;
A computer for processing the captured image;
Equipped with
The computer includes:
a thin line erasing step of erasing a thin line portion along a contour of the lens in the captured image and a wide portion having a radial width wider than that of the thin line portion to generate a thin line erased image;
a differential image generating step of generating a differential image between the captured image and the thin line erased image;
a center identifying step of identifying center coordinates of the lens based on the thin line portion included in the difference image;
A lens inspection device that performs the above steps.
JP2023150791A 2023-09-19 2023-09-19 Image processing method, lens inspection method, and lens inspection device Pending JP2025043484A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023150791A JP2025043484A (en) 2023-09-19 2023-09-19 Image processing method, lens inspection method, and lens inspection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023150791A JP2025043484A (en) 2023-09-19 2023-09-19 Image processing method, lens inspection method, and lens inspection device

Publications (1)

Publication Number Publication Date
JP2025043484A true JP2025043484A (en) 2025-04-01

Family

ID=95204726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023150791A Pending JP2025043484A (en) 2023-09-19 2023-09-19 Image processing method, lens inspection method, and lens inspection device

Country Status (1)

Country Link
JP (1) JP2025043484A (en)

Similar Documents

Publication Publication Date Title
TWI598581B (en) Inspection apparatus and inspection method
TWI471706B (en) Alignment mark detection method
US20110128368A1 (en) Hole Inspection Method and Apparatus
JPH05160230A (en) Apparatus and method for inspecting bonding wire
JPWO2009031612A1 (en) Observation apparatus and observation method, and inspection apparatus and inspection method
JP2004354250A (en) Defect inspection device
JP3235009B2 (en) Bonding wire inspection method
JP2018084431A (en) Inspection device and inspection method
JP2012002676A (en) Mask defect checking device and mask defect checking method
JPH05160233A (en) Inspecting method for bonding wire
CN116137893A (en) Inspection device, inspection method and manufacturing method of piston
JP2011069616A (en) Device and method for inspection inner surface of pipe material
JP2006058170A (en) Visual confirmation device and inspection system
US7359546B2 (en) Defect inspection apparatus and defect inspection method
JP2008232837A (en) Defect enhancement / defect detection method, apparatus, and program
JP2025043484A (en) Image processing method, lens inspection method, and lens inspection device
JP7089381B2 (en) Board inspection equipment, board processing equipment and board inspection method
JP2007198761A (en) Flaw detection method and detector
JP2008134160A (en) Inspection device, inspection method, program and recording medium
JP2004212353A (en) Optical inspection apparatus
KR101564287B1 (en) Apparatus and method for inspecting wafer using light
JPH0814849A (en) Three-dimensional shape detection method for solder
KR20220065545A (en) Apparatus for checking defect of object having atypical surface
JP3803677B2 (en) Defect classification apparatus and defect classification method
JPH10247669A (en) Device and method for inspecting bonding wire