[go: up one dir, main page]

JP7523840B1 - PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD - Google Patents

PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD Download PDF

Info

Publication number
JP7523840B1
JP7523840B1 JP2024083464A JP2024083464A JP7523840B1 JP 7523840 B1 JP7523840 B1 JP 7523840B1 JP 2024083464 A JP2024083464 A JP 2024083464A JP 2024083464 A JP2024083464 A JP 2024083464A JP 7523840 B1 JP7523840 B1 JP 7523840B1
Authority
JP
Japan
Prior art keywords
image
boundary line
bump
substrate
trained model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024083464A
Other languages
Japanese (ja)
Inventor
泰秀 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denken Co Ltd
Original Assignee
Denken Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denken Co Ltd filed Critical Denken Co Ltd
Priority to JP2024083464A priority Critical patent/JP7523840B1/en
Application granted granted Critical
Publication of JP7523840B1 publication Critical patent/JP7523840B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】バンプ103の異常をより確実に検出できるプログラム、コンピュータ、検査システムおよび検査方法を提供する。【解決手段】受付手段32は、基板101と対象物102の間の隙間gの画像100aを含む画像100を受け付ける。前処理手段34は、バンプにより接着される基板と対象物の間の隙間の画像であってバンプと対象物との間の第1境界線が得られる画像を含む教師データ210を用いて機械学習により生成された第1学習済モデル220を用いて、画像100における第1境界線b1を特定し、隙間gの大きさに基づき、第1境界線b1との間でバンプ103の下端を含むよう第2境界線b2を第1境界線b1から特定する。判定手段36は、正常であるバンプの画像を含む教師データ310を用いて機械学習により生成された第2学習済モデル320を用いて、画像部分100aから、バンプ103が正常であるか否かを判定する。【選択図】図5[Problem] To provide a program, a computer, an inspection system, and an inspection method that can detect abnormalities in bumps 103 more reliably. [Solution] A receiving unit 32 receives an image 100 including an image 100a of a gap g between a substrate 101 and an object 102. A pre-processing unit 34 specifies a first boundary line b1 in the image 100 using a first trained model 220 generated by machine learning using training data 210 including an image of a gap between the substrate and the object bonded by a bump, from which a first boundary line between the bump and the object is obtained, and specifies a second boundary line b2 from the first boundary line b1 so as to include the lower end of the bump 103 between the first boundary line b1 and the first boundary line b1 based on the size of the gap g. A determining unit 36 determines whether the bump 103 is normal or not from the image portion 100a using a second trained model 320 generated by machine learning using training data 310 including an image of a normal bump. [Selected Figure] FIG. 5

Description

本発明は、プログラム、コンピュータ、検査システムおよび検査方法に関する。 The present invention relates to a program, a computer, an inspection system, and an inspection method.

従来より、基板に半導体チップを実装する際にバンプにより半導体チップを基板に接着させていたが、バンプが正常に半導体チップを基板に接着しているか否か(バンプの溶融状態や残存量の確認、ツヤ等の外観の判定)について顕微鏡により人が目視にて検査を行っていた。例えば特許文献1には、チップにおけるバンプが形成された主面側を、顕微鏡を用いて拡大して観察する技術が開示されている。 Conventionally, when mounting a semiconductor chip on a substrate, the semiconductor chip is attached to the substrate by bumps, but whether the bumps are properly attached to the substrate or not (checking the melted state and remaining amount of bumps, judging the appearance such as gloss) is inspected by a person using a microscope. For example, Patent Document 1 discloses a technique for magnifying and observing the main surface side of a chip on which bumps are formed using a microscope.

特開2008-270628号公報JP 2008-270628 A

このように、従来は半導体チップ等の対象物を基板に接着するためのバンプが正常であるか否かについて顕微鏡により人が目視にて検査を行っていたが、元々バンプはほとんどが正常なものであり異常が発生することは稀であるため人が目視にて検査を行う場合はバンプに異常があっても見落としやすいという問題があった。 As such, conventionally, bumps used to attach objects such as semiconductor chips to substrates were inspected visually using a microscope to see if they were normal. However, since most bumps are normal to begin with and abnormalities rarely occur, there was a problem that abnormalities in the bumps could easily be overlooked when inspected visually by humans.

本発明はこのような点を考慮してなされたものであり、バンプの異常をより確実に検出できるプログラム、コンピュータ、検査システムおよび検査方法を提供することを目的とする。 The present invention has been made in consideration of these points, and aims to provide a program, computer, inspection system, and inspection method that can more reliably detect bump abnormalities.

本開示のプログラムは、
コンピュータを、受付手段と、前処理手段と、判定手段として機能させるプログラムであって、
前記受付手段は、撮像装置により撮像された、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものであることを特徴とする。
The program of the present disclosure is
A program for causing a computer to function as a reception unit, a preprocessing unit, and a determination unit,
The receiving means receives an image including an image of a gap between a substrate and an object to be bonded to the substrate by a bump, the image being captured by an imaging device;
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning by using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is characterized in that it has been trained to detect all bumps with bounding boxes of the same size and shape.

本開示のプログラムにおいて、
前記バウンディングボックスの形状は矩形でもよい。
In the program of the present disclosure,
The bounding box may be rectangular in shape.

本開示のプログラムにおいて、
前記バウンディングボックス同士は重ならなくともよい。
In the program of the present disclosure,
The bounding boxes do not have to overlap.

本開示のプログラムにおいて、
前記第1学習済モデルは、全ての前記バウンディングボックスの前記対象物側の辺を基に前記第1境界線を特定してもよい。
In the program of the present disclosure,
The first learned model may identify the first boundary line based on the edges of all of the bounding boxes on the object side.

本開示のプログラムにおいて、
前記第1学習済モデルは、前記第1境界線の特定を前記受付手段が受け付けた画像の所定の領域毎に行ってもよい。
In the program of the present disclosure,
The first learned model may identify the first boundary line for each specified area of the image accepted by the accepting means.

本開示のプログラムにおいて、
前記第2学習済モデルは、正常であるバンプの画像としてバンプの実像および基板に投影される前記バンプの鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、
前記判定手段は、前記第2学習済モデルを用いて、前記受付手段が受け付けた前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第2境界線は、前記受付手段が受け付けた前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像のうち、前記バンプの鏡像と前記対象物の鏡像の間の境界線であってもよい。
In the program of the present disclosure,
The second trained model is generated by machine learning using an image of a normal bump that includes a real image of the bump and a mirror image of the bump projected onto a substrate in the same image;
the determination means uses the second learned model to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in an image including a real image of the bump and a mirror image of the bump projected onto the substrate, the image portion being received by the receiving means;
The second boundary line may be a boundary line between a mirror image of the bump and a mirror image of the object in an image including a real image of the bump received by the receiving means and a mirror image of the bump projected onto the substrate.

本開示のプログラムにおいて、
前記第2学習済モデルは、正常であるバンプの画像を含む教師データのみを用いることにより良品学習によって生成されたものでもよい。
In the program of the present disclosure,
The second trained model may be generated by non-defective product training using only training data including images of normal bumps.

本開示のプログラムにおいて、
前記対象物は半導体チップでもよい。
In the program of the present disclosure,
The object may be a semiconductor chip.

本開示のコンピュータは、
プログラムを実行することにより受付手段と、前処理手段と、判定手段として機能するコンピュータであって、
前記受付手段は、撮像装置により撮像された、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものであることを特徴とする。
The computer of the present disclosure includes:
A computer that functions as a reception unit, a preprocessing unit, and a determination unit by executing a program,
The receiving means receives an image including an image of a gap between a substrate and an object to be bonded to the substrate by a bump, the image being captured by an imaging device;
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning by using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is characterized in that it has been trained to detect all bumps with bounding boxes of the same size and shape.

本開示の検査システムは、
撮像装置と、前記撮像装置により撮像された画像が送られるコンピュータとを備えた検査システムであって、
前記撮像装置は、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を撮像することにより画像を取得し、
前記コンピュータは、プログラムを実行することにより受付手段と、前処理手段と、判定手段として機能し、
前記受付手段は、前記撮像装置により撮像された画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものであることを特徴とする。
The inspection system of the present disclosure comprises:
An inspection system including an imaging device and a computer to which an image captured by the imaging device is sent,
the imaging device acquires an image by capturing an image including an image of a gap between a substrate and an object bonded to the substrate by a bump;
The computer functions as a reception unit, a preprocessing unit, and a determination unit by executing a program;
The receiving means receives an image captured by the imaging device,
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is characterized in that it has been trained to detect all bumps with bounding boxes of the same size and shape.

本開示の検査方法は、
撮像装置と、前記撮像装置により撮像された画像が送られるコンピュータとを備えた検査システムによる検査方法であって、
前記撮像装置が、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を撮像することにより画像を取得する工程と、
前記コンピュータが、前記撮像装置により撮像された画像を受け付ける工程と、
前記コンピュータが、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、受け付けた画像から第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定する工程と、
前記コンピュータが、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定する工程と、
を備え、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものであることを特徴とする。
The inspection method of the present disclosure includes:
An inspection method using an inspection system including an imaging device and a computer to which an image captured by the imaging device is sent, comprising:
acquiring an image by the imaging device capturing an image including an image of a gap between a substrate and an object bonded to the substrate by a bump;
a step of receiving an image captured by the imaging device by the computer;
a step of the computer identifying a first boundary line from the received image using a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object is obtained, and identifying a second boundary line from the first boundary line in the received image based on a preset size of the gap between the substrate and the object such that the second boundary line includes a lower end of the bump between the first boundary line and the second boundary line;
A step in which the computer determines whether or not the bump is normal from an image portion of a region between the first boundary line and the second boundary line in the received image by using a second trained model generated by machine learning using teacher data including an image of a normal bump;
Equipped with
The first trained model is characterized in that it has been trained to detect all bumps with bounding boxes of the same size and shape.

本開示の検査方法において、
前記第2学習済モデルは、正常であるバンプの画像としてバンプの実像および基板に投影される前記バンプの鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、
前記撮像装置が、前記コンピュータに送る画像を撮像する際に斜め下方に向かって撮像し、前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像を取得するものでもよい。
In the inspection method of the present disclosure,
The second trained model is generated by machine learning using an image of a normal bump that includes a real image of the bump and a mirror image of the bump projected onto a substrate in the same image;
The imaging device may capture an image obliquely downward when capturing an image to be sent to the computer, and may obtain an image including a real image of the bump and a mirror image of the bump projected onto the substrate.

本開示のプログラム、コンピュータ、検査システムおよび検査方法によれば、バンプの異常をより確実に検出できる。 The program, computer, inspection system, and inspection method disclosed herein can more reliably detect bump abnormalities.

本開示の実施形態に係る検査システムの構成を概略的に示す図である。FIG. 1 is a diagram illustrating a schematic configuration of an inspection system according to an embodiment of the present disclosure. 本開示の実施形態に係る検知方法および検知方法における情報処理の例示的な流れを示す図である。FIG. 2 is a diagram illustrating an exemplary flow of a detection method and information processing in the detection method according to an embodiment of the present disclosure. 本開示の実施形態に係る検査システムおよび検知方法における情報処理の例示的な流れを示す図である。FIG. 2 illustrates an exemplary flow of information processing in an inspection system and detection method according to an embodiment of the present disclosure. 本開示の実施形態に係る検査システムおよび検知方法において撮像される基板、対象物、隙間、バンプの例示的な配置を示す図である。1A-1C show exemplary arrangements of a substrate, objects, gaps, and bumps imaged in an inspection system and detection method according to an embodiment of the present disclosure. 本開示の実施形態に係る検査システムおよび検知方法において撮像され判定される例示的な画像を示す図である。1A-1C illustrate example images captured and determined in an inspection system and detection method according to an embodiment of the present disclosure. 従来例ならびに本開示の実施形態に係る検査システムおよび検知方法において第1境界線を特定する手法を示す概念図である。1A and 1B are conceptual diagrams showing a method for identifying a first boundary line in an inspection system and a detection method according to a conventional example and an embodiment of the present disclosure. 本開示の実施形態に係る検査システムおよび検知方法における切出し処理を説明するための図である。1A to 1C are diagrams for explaining a cut-out process in an inspection system and a detection method according to an embodiment of the present disclosure.

以下、本開示の実施形態について説明するが、本開示に係る発明はこれらに限定されるものではない。図1は、本開示の実施形態に係る検査システムの構成を概略的に示す図である。図2は、本開示の実施形態に係る検知方法および検知方法における情報処理の例示的な流れを示す図である。図3は、本開示の実施形態に係る検査システムにおよび検知方法おける情報処理の例示的な流れを示す図である。図4は、本開示の実施形態に係る検査システムおよび検知方法において撮像される基板、対象物、隙間、バンプの例示的な配置を示す図である。図5は、本開示の実施形態に係る検査システムおよび検知方法において撮像され判定される例示的な画像を示す図である。 The following describes embodiments of the present disclosure, but the invention according to the present disclosure is not limited thereto. FIG. 1 is a diagram showing a schematic configuration of an inspection system according to an embodiment of the present disclosure. FIG. 2 is a diagram showing an exemplary flow of a detection method and information processing in the detection method according to an embodiment of the present disclosure. FIG. 3 is a diagram showing an exemplary flow of information processing in an inspection system and detection method according to an embodiment of the present disclosure. FIG. 4 is a diagram showing an exemplary arrangement of a substrate, an object, a gap, and a bump imaged in an inspection system and detection method according to an embodiment of the present disclosure. FIG. 5 is a diagram showing an exemplary image imaged and determined in an inspection system and detection method according to an embodiment of the present disclosure.

[検査システム1]
図1に、本開示に係る検査システム1を示す。検査システム1は、半導体チップ等の対象物102を基板101に接着するためのバンプ103(例えば、図4(B))が正常であるか否かをより確実に検知するものである。図1に示すように、検査システム1は、撮像装置2と、撮像装置2により撮像された画像100(例えば、図5(A)(B))が送られるコンピュータ3とを備える。コンピュータ3と撮像装置2は通信可能に接続している。撮像装置2によって撮影された画像100上のバンプ103が正常であるか否かを(例えば、図5(C))、コンピュータ3により判定する。検査システム1によれば、この撮像から判定までを、目視による検査よりも確実に自動で行うことができる。
[Inspection system 1]
FIG. 1 shows an inspection system 1 according to the present disclosure. The inspection system 1 detects whether or not bumps 103 (e.g., FIG. 4B) for bonding an object 102 such as a semiconductor chip to a substrate 101 are normal. As shown in FIG. 1, the inspection system 1 includes an imaging device 2 and a computer 3 to which an image 100 (e.g., FIGS. 5A and 5B) captured by the imaging device 2 is sent. The computer 3 and the imaging device 2 are connected to be able to communicate with each other. The computer 3 judges whether or not the bumps 103 on the image 100 captured by the imaging device 2 are normal (e.g., FIG. 5C). According to the inspection system 1, the process from imaging to judgment can be performed automatically more reliably than visual inspection.

なお、図4(A)は、撮像対象となる基板101と対象物102の上面図であり、基板101の上に対象物102と障害物104が配置されている。基板101に接着される対象である対象物102の例として、半導体チップ、チップモールド等が挙げられる。なお、図4は、FCCSPを示した例である。この例のように、アンダーフィル充填前の接合状態での判定検査において、欠陥品を除外することができる。基板101の上に配置される障害物104の例としては、チップコンデンサ等が挙げられるが、これらに限定されるものではない。図4(B)は、基板101、対象物102、バンプ103の位置関係の例を示す図であり、基板101と対象物102との間にはバンプ103が介在し、バンプ103により基板101に対象物102が接着されている。基板101の例としては特に限定されない。さらに、基板101には金属層等が積層されてもよく、あるいはエポキシ樹脂等によってラミネート加工されていてもよい。なお、図4(A)の矢印によって示されるように、最大4方向からの画像を判定処理に用いることによって判定精度を高めることができる。バンプ103は、基板101と対象物102の接合部であり、通常、半田からなるが、バンプ103はこれに限定されない。 Note that FIG. 4A is a top view of the substrate 101 and the object 102 to be imaged, and the object 102 and the obstacle 104 are placed on the substrate 101. Examples of the object 102 to be bonded to the substrate 101 include semiconductor chips and chip molds. Note that FIG. 4 shows an example of an FCCSP. As in this example, defective products can be excluded in a judgment inspection in a bonded state before underfill filling. Examples of the obstacle 104 placed on the substrate 101 include chip capacitors, but are not limited to these. FIG. 4B is a diagram showing an example of the positional relationship between the substrate 101, the object 102, and the bumps 103, and the bumps 103 are interposed between the substrate 101 and the object 102, and the object 102 is bonded to the substrate 101 by the bumps 103. The example of the substrate 101 is not particularly limited. Furthermore, a metal layer or the like may be laminated on the substrate 101, or the substrate 101 may be laminated with epoxy resin or the like. As shown by the arrows in Figure 4(A), the accuracy of the judgment can be improved by using images from up to four directions in the judgment process. The bumps 103 are the joints between the substrate 101 and the object 102, and are usually made of solder, but the bumps 103 are not limited to this.

検査システム1は、製造ラインに組み込むことができ、リアルタイムでバンプ103ひいては対象物102の良否を判定できる。 The inspection system 1 can be incorporated into a manufacturing line and can determine the quality of the bumps 103 and thus the target object 102 in real time.

<撮像装置2>
次に、撮像装置2の構成について説明する。検査システム1において、撮像装置2は、基板101と、バンプ103により基板101に接着される対象物102との間の隙間g(図4(C)参照)の画像100aを含む画像100(隙間gを含む撮像範囲)を撮像することにより(以下、単に「隙間gを撮像する」ともいう)画像100を取得する。撮像装置2は、図1に示すように、カメラ21と、通信部22とを備えている。
<Imaging device 2>
Next, the configuration of the imaging device 2 will be described. In the inspection system 1, the imaging device 2 captures an image 100 (imaging range including the gap g) including an image 100a of a gap g (see FIG. 4C ) between a substrate 101 and an object 102 bonded to the substrate 101 by a bump 103 (hereinafter, also simply referred to as "imaging the gap g") to obtain the image 100. As shown in FIG. 1, the imaging device 2 includes a camera 21 and a communication unit 22.

カメラ21としては、図4(C)に示すような基板101と対象物102との間の隙間gを撮像できるものであれば、特に限定されない。なお、一般的に、画像処理での欠陥検出には少なくとも3~4画素の情報が必要である。そこで、例えば、10μmの欠陥を可視化したい場合、搭載CMOS(対象物102)のサイズ2.7μm/pixに対して1倍のテレセントリックレンズをカメラ21に装着することでこの目的を満たすことができる。 The camera 21 is not particularly limited as long as it can capture an image of the gap g between the substrate 101 and the object 102 as shown in FIG. 4(C). Generally, information from at least 3 to 4 pixels is required for defect detection using image processing. Therefore, for example, if it is desired to visualize a 10 μm defect, this objective can be achieved by attaching a telecentric lens with a magnification of 1x to the size of the mounted CMOS (object 102), 2.7 μm/pix, to the camera 21.

図4(C)では、撮像装置2(カメラ21)が隙間gを撮像する方向(実線矢印および点線矢印で示される方向)を示している。なお、図4(C)では、対象物102の外周部にはバンプ103が存在しない例を示しているが、本発明はこれに限定されず、対象物102の外周部にバンプ103が存在する場合にも本発明は適用可能である。対象物を基板に接着するためのバンプが正常であるか否かを判断するために、図4(B)や図4(C)の点線矢印で示すようにバンプ103の水平(横)方向すなわち正面から撮影することが考えられるが、チップコンデンサのような撮像の障害物104等があるとバンプ103を水平方向から撮影することが困難となる場合もある。そこで、図4(C)の実線矢印で示すように、コンピュータ3に送る画像100を撮像する際に斜め下方に向かって撮像することもできる。このときの撮像する角度(カメラアングル)、即ち「斜め下方に向かって」とは、対象物102と障害物104との距離によって定まるものであり、限定されるものではない。なお、障害物104による光の反射がバンプ103に重ならないよう、且つ、バンプ103が対象物102に隠れすぎないよう、カメラアングルを調整することが好ましい。 4(C) shows the direction (direction indicated by solid line arrow and dotted line arrow) in which the imaging device 2 (camera 21) images the gap g. Note that FIG. 4(C) shows an example in which the bumps 103 are not present on the outer periphery of the object 102, but the present invention is not limited to this, and the present invention is also applicable to the case in which the bumps 103 are present on the outer periphery of the object 102. In order to determine whether the bumps for bonding the object to the substrate are normal or not, it is possible to take an image of the bumps 103 in the horizontal (sideways) direction, i.e., from the front, as shown by the dotted line arrows in FIG. 4(B) and FIG. 4(C). However, if there is an obstacle 104 for imaging such as a chip capacitor, it may be difficult to take an image of the bumps 103 from the horizontal direction. Therefore, as shown by the solid line arrow in FIG. 4(C), when taking an image 100 to be sent to the computer 3, it is also possible to take an image diagonally downward. The imaging angle (camera angle) at this time, i.e., "diagonally downward" is determined by the distance between the object 102 and the obstacle 104, and is not limited. It is preferable to adjust the camera angle so that the light reflected by the obstacle 104 does not overlap with the bump 103, and so that the bump 103 is not too far hidden by the object 102.

通信部22は、無線または有線により外部装置との信号の送受信を行うための通信インターフェースを含む。カメラ21により撮像された画像100は通信部22によりコンピュータ3(受付手段32)に送信されるようになっている。 The communication unit 22 includes a communication interface for transmitting and receiving signals to and from an external device wirelessly or via a wired connection. The image 100 captured by the camera 21 is transmitted to the computer 3 (reception means 32) by the communication unit 22.

<コンピュータ3>
本開示のコンピュータ3の構成について図1を用いて説明する。本実施形態のコンピュータ3は産業用コンピュータ、タブレット端末等から構成されており、図1に示すように、制御部30と、記憶部40と、通信部42と、表示部44と、操作部46とを備えている。
<Computer 3>
The configuration of the computer 3 of the present disclosure will be described with reference to Fig. 1. The computer 3 of the present embodiment is composed of an industrial computer, a tablet terminal, or the like, and includes a control unit 30, a storage unit 40, a communication unit 42, a display unit 44, and an operation unit 46, as shown in Fig. 1.

制御部30は、CPU(中央演算処理装置)やGPU(画像処理装置)、AI推論装置等で構成され、コンピュータ3の動作を制御する。具体的には、制御部30は、後述する記憶部40に記憶されているプログラムを実行することにより、受付手段32と、前処理手段34と、判定手段36と、出力手段38として機能する。さらに、制御部30は、記憶部40に記憶されているプログラムを実行することにより、第1モデル生成手段200や第2モデル生成手段300として機能してもよい。これらの各手段については後述する。 The control unit 30 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an AI inference device, etc., and controls the operation of the computer 3. Specifically, the control unit 30 functions as a reception means 32, a preprocessing means 34, a determination means 36, and an output means 38 by executing a program stored in the storage unit 40 described below. Furthermore, the control unit 30 may function as a first model generation means 200 and a second model generation means 300 by executing a program stored in the storage unit 40. Each of these means will be described later.

記憶部40は、例えばHDD(Hard Disk Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、SSD(Solid State Drive)などで構成されている。また、記憶部40はコンピュータ3に内蔵されるものに限定されることはなく、コンピュータ3に着脱自在に装着可能な記憶媒体(例えば、USBメモリ)等であってもよい。本実施形態では、記憶部40は、制御部30により実行されるプログラム、第1学習済みモデル220や第2学習済みモデル320等をそれぞれ記憶するようになっている。 The storage unit 40 is composed of, for example, a hard disk drive (HDD), a random access memory (RAM), a read only memory (ROM), a solid state drive (SSD), etc. Furthermore, the storage unit 40 is not limited to being built into the computer 3, and may be a storage medium (e.g., a USB memory) that can be detachably attached to the computer 3. In this embodiment, the storage unit 40 is configured to store the program executed by the control unit 30, the first trained model 220, the second trained model 320, etc.

通信部42は、無線または有線により外部装置との信号の送受信を行うための通信インターフェースを含む。通信部42により制御部30は撮像装置2と信号の送受信を行う。 The communication unit 42 includes a communication interface for wirelessly or wiredly transmitting and receiving signals to and from an external device. The communication unit 42 allows the control unit 30 to transmit and receive signals to and from the imaging device 2.

表示部44は例えばモニタ等であり、制御部30から表示指令信号を受け取ることにより様々な画面を表示する。操作部46は例えばキーボード等であり、制御部30に対して様々な指令を与えることができるようになっている。なお、本実施形態では、これらの表示部44および操作部46が一体化したタッチパネル等の表示操作部が用いられてもよい。 The display unit 44 is, for example, a monitor, and displays various screens by receiving a display command signal from the control unit 30. The operation unit 46 is, for example, a keyboard, and is capable of giving various commands to the control unit 30. Note that in this embodiment, a display operation unit such as a touch panel in which the display unit 44 and the operation unit 46 are integrated may be used.

(制御部30の詳細)
(受付手段32)
受付手段32は、撮像装置2により撮像された、基板101と、バンプ103により基板101に接着される対象物102との間の隙間gの画像100aを含む画像100を受け付ける。図5(A)は、隙間gの画像100aを含む画像100の例を示す。
(Details of the control unit 30)
(Reception means 32)
The accepting unit 32 accepts an image 100 including an image 100a of a gap g between a substrate 101 and an object 102 bonded to the substrate 101 by a bump 103, the image being captured by the imaging device 2. Fig. 5(A) shows an example of the image 100 including the image 100a of the gap g.

(前処理手段34)
前処理手段34(および本開示における前処理工程)は、第1境界線b1および第2境界線b2を特定することにより、判定領域を抽出(マスキング)することを目的とする。前処理手段34は、バンプ103により接着される基板101と対象物102との間の隙間gの画像であってバンプ103と対象物102との間の第1境界線b1が得られる画像を含む教師データ210を用いることにより機械学習によって生成された第1学習済モデル220を用いて、受付手段32が受け付けた画像100における第1境界線b1を特定するとともに(図2中、第1境界線b1の特定処理51)、予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて、受付手段32が受け付けた画像において第1境界線b1との間にバンプ103の下端を含むよう第2境界線b2を第1境界線b1から特定する(図2中、第2境界線b2の特定処理52)。「第1境界線b1」および「第2境界線b2」は、判定領域となる画像部分100aの上端および下端を画定するものである。
(Pre-processing means 34)
The pre-processing means 34 (and the pre-processing step in the present disclosure) aims to extract (mask) a judgment region by identifying the first boundary line b1 and the second boundary line b2. The pre-processing means 34 identifies the first boundary line b1 in the image 100 accepted by the accepting means 32 using the first trained model 220 generated by machine learning by using the teacher data 210 including an image of the gap g between the substrate 101 and the object 102 bonded by the bump 103, from which the first boundary line b1 between the bump 103 and the object 102 is obtained (identification process 51 of the first boundary line b1 in FIG. 2), and identifies the second boundary line b2 from the first boundary line b1 so that the lower end of the bump 103 is included between the first boundary line b1 in the image accepted by the accepting means 32 based on the size of the gap g between the substrate 101 and the object 102 that is set in advance (identification process 52 of the second boundary line b2 in FIG. 2). The "first boundary line b1" and the "second boundary line b2" define the upper and lower ends of the image portion 100a that is to be the judgment area.

((第1学習済モデル220))
第1学習済モデル220は、全てのバンプ103(後述する鏡像を含んでよい)を同一のサイズおよび同一の形状のバウンディングボックス(BB)で検出するよう学習される。ここで、第1学習済モデル220によるバンプ103の「検出」とは、受付手段32が受け付けた画像100において現れる各バンプ103をBBで特定すること(アノテーション)をいい、BBで各バンプ103の周囲を囲むことや、余白(背景)と共に各バンプ103を包含すること、各バンプ103を部分的に特定することも含む(図6(B)参照)。これらのBBの形状は矩形であることが好ましい。また、BB同士は重ならないことが好ましい。このアノテーション作業には、画像100においてBBの唯一の基準として標準的な1個のバンプ103を囲み、サイズおよび始点Y位置(上辺)を変えることなく、このBBを画像100中の全てのバンプ103に適用(検出)することが含まれる。ここで、「標準的なバンプ」とは特に限定されないが、その他のバンプと比べて明らかに大きい、小さい、またはクセの強いモノは除かれる。
((First trained model 220))
The first trained model 220 is trained to detect all bumps 103 (which may include mirror images, which will be described later) with bounding boxes (BBs) of the same size and shape. Here, the "detection" of the bumps 103 by the first trained model 220 refers to identifying (annotating) each bump 103 that appears in the image 100 accepted by the accepting means 32 with a BB, and includes surrounding each bump 103 with a BB, including each bump 103 together with a margin (background), and partially identifying each bump 103 (see FIG. 6B). The shape of these BBs is preferably rectangular. In addition, it is preferable that the BBs do not overlap each other. This annotation work includes surrounding a standard single bump 103 as the only reference for the BB in the image 100, and applying (detecting) this BB to all bumps 103 in the image 100 without changing the size and starting point Y position (top side). Here, there is no particular limitation on the "standard bump", but bumps that are obviously larger, smaller, or more irregular than other bumps are excluded.

((第1境界線b1の特定))
BBで全てのバンプ103を検出(アノテーション)した結果、第1学習済モデル220は、全てのBBの対象物102側の辺(上辺)を基に第1境界線b1を特定することができる。例えば、図5(A)(B)のように撮像されたバンプ103の高さが同じであれば、BBにより全てのバンプ103が一様に囲まれ、BBの上辺を繋げて第1境界線b1とすることができる。また、全てのバンプ103の高さが同じでなくても、同一サイズおよび同一形状のBBで全てのバンプ103を検出させると、BBの上辺が大まかに揃うようになる(図6(B))。この場合、第1学習済モデル220は、画像100においてY位置(上辺)の最も高いBB(例えば、図6(B)の中央)やY位置(上辺)の最も低いBB(例えば、図6(B)の中央以外のBB)の上辺を通るように第1境界線b1を特定できるし、BBの上辺の平均的な高さ(Y位置)を通るように第1境界線b1を特定することもできる。以上のように第1境界線b1を特定できるのであれば、第1学習済モデル220を生成するための機械学習としては特に限定されず、深層学習等の様々なものを用いることができる。第1学習済モデル220は、後述する良否判定用の第2学習済みモデル320の前段階の物体検出AIであり、上述のようなバンプを含む様々な画像(鏡像を含んでもよい)を教師データ210として使用して学習される。なお、教師データ210としての、バンプ103と対象物102との間の第1境界線b1が得られる画像には、実際に第1境界線b1が必ずしも特定されているわけではない。教師データ210としての画像には後述するようにBBが示される。言い換えれば、「第1境界線b1が得られる画像」とは、その画像から本開示の前処理手段34によれば第1境界線b1が得られるであろう画像を意味する。
((Identification of the first boundary line b1))
As a result of detecting (annotating) all the bumps 103 with the BB, the first learned model 220 can identify the first boundary line b1 based on the side (upper side) of all the BBs on the side of the object 102. For example, if the heights of the bumps 103 captured in the images are the same as in Figures 5(A) and 5(B), all the bumps 103 are uniformly surrounded by the BBs, and the upper sides of the BBs can be connected to form the first boundary line b1. Even if the heights of all the bumps 103 are not the same, if all the bumps 103 are detected with BBs of the same size and shape, the upper sides of the BBs will be roughly aligned (Figure 6(B)). In this case, the first trained model 220 can specify the first boundary line b1 so as to pass through the upper side of the BB with the highest Y position (upper side) in the image 100 (for example, the center of FIG. 6B) or the BB with the lowest Y position (upper side) (for example, a BB other than the center of FIG. 6B), or can specify the first boundary line b1 so as to pass through the average height (Y position) of the upper side of the BB. As long as the first boundary line b1 can be specified as described above, the machine learning for generating the first trained model 220 is not particularly limited, and various methods such as deep learning can be used. The first trained model 220 is an object detection AI in a stage preceding the second trained model 320 for determining whether or not the model is good, which will be described later, and is trained using various images (which may include mirror images) including the bump as described above as the teacher data 210. Note that the first boundary line b1 is not necessarily actually specified in the image in which the first boundary line b1 between the bump 103 and the object 102 is obtained as the teacher data 210. As described below, BB is shown in the image serving as the teacher data 210. In other words, "an image from which the first boundary line b1 can be obtained" means an image from which the first boundary line b1 will be obtained by the preprocessing means 34 of the present disclosure.

((第2境界線b2の特定))
なお、「予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて、第2境界線b2を特定する」とは、バンプ103と対象物102の境界線である第1境界線b1(上端)が分かれば、予め設定されている隙間gの大きさから第2境界線b2(下端)を導き出せることを意味している。ここで、隙間gの大きさは、画像の画素(ピクセル、pix)数から定義することができる。また、受付手段32が受け付けた画像においてバンプ103の下端を含む第2境界線b2(下端)を導き出す設定を、対象物102とバンプ103の品種や目的、運用方法に応じて任意に変更することができる。例えば、大まかな不良だけを判定したい場合は、情報量を減らしてもよいし(第2境界線b2を上方に特定させる)、後述のように実像では見えない情報を取るために鏡像を多めに含めてもよい(第2境界線b2を下方に特定させるよう設定することもできる。図5(B)のb2’参照)。図4(C)の点線矢印で示す方向から撮像された、基板101や対象物102等の例示的な一側面図(一方向のサイドビュー)である図5(A)では、前処理手段34により特定された例示的な第1境界線b1および第2境界線b2、ならびにこれらの間の領域の画像部分100aが示されている。この画像部分100aにおいて、いずれのバンプ103の上端および下端も第1境界線b1および第2境界線b2に接している。この例のように、対象物102や基板101等の不必要な情報量を最大限取り除くため、バンプ103の上端および下端に接するように第1境界線b1および第2境界線b2を特定することが特に好ましい。
((Identification of second boundary line b2))
In addition, "the second boundary line b2 is specified based on the size of the gap g between the substrate 101 and the object 102 that is set in advance" means that if the first boundary line b1 (upper end), which is the boundary line between the bump 103 and the object 102, is known, the second boundary line b2 (lower end) can be derived from the size of the gap g that is set in advance. Here, the size of the gap g can be defined from the number of pixels (pix) of the image. In addition, the setting for deriving the second boundary line b2 (lower end) including the lower end of the bump 103 in the image accepted by the accepting means 32 can be arbitrarily changed according to the type, purpose, and operation method of the object 102 and the bump 103. For example, if it is desired to judge only rough defects, the amount of information may be reduced (the second boundary line b2 is specified upward), or a large amount of mirror images may be included in order to obtain information that is not visible in the real image as described later (the second boundary line b2 can also be set to be specified downward. See b2' in FIG. 5B). 5A, which is an exemplary side view (side view in one direction) of the substrate 101, the object 102, etc., captured from the direction indicated by the dotted arrow in FIG. 4C, shows exemplary first boundary line b1 and second boundary line b2 specified by the pre-processing means 34, and an image portion 100a of the area between them. In this image portion 100a, the upper and lower ends of all bumps 103 are in contact with the first boundary line b1 and the second boundary line b2. As in this example, in order to remove the maximum amount of unnecessary information of the object 102, the substrate 101, etc., it is particularly preferable to specify the first boundary line b1 and the second boundary line b2 so as to be in contact with the upper and lower ends of the bumps 103.

((第1境界線b1および第2境界線b2を特定する意義))
本発明において、判定処理の前に第1境界線b1および第2境界線b2を特定する理由は以下の通りである。画像100において、バンプ103の領域(情報量)より対象物102や基板101の領域(情報量)が大き過ぎるため、判定領域が画像100のままだと、AIがバンプ103部分を判定することが困難である。特に対象物102の切断面に対して製造工程上の管理が行われていない場合、画像における対象物102の見え方が様々となり、バンプ103の正常と異常の差よりも目立ってしまい、誤検知や誤判定の原因となる。そこで、本発明に係る第1学習済モデル220は、画像100におけるバンプ103のマスク処理(マスキング)を行うために、第1境界線b1および第2境界線b2を特定する。
((The significance of identifying the first boundary line b1 and the second boundary line b2))
In the present invention, the reason for identifying the first boundary line b1 and the second boundary line b2 before the judgment process is as follows. In the image 100, the area (amount of information) of the object 102 and the substrate 101 is larger than the area (amount of information) of the bump 103, so if the judgment area remains the image 100, it is difficult for the AI to judge the bump 103 part. In particular, if the cut surface of the object 102 is not managed in the manufacturing process, the appearance of the object 102 in the image will vary, and the difference between normal and abnormal bumps 103 will be more noticeable, causing erroneous detection and erroneous judgment. Therefore, the first trained model 220 according to the present invention identifies the first boundary line b1 and the second boundary line b2 in order to perform masking of the bump 103 in the image 100.

一般的に、物体検出の学習モデルを作るとき、画面上のバンプ103を、1つずつマウスで囲む作業が行われる。本発明者は、この人力による従来手法で学習モデルの作成を試みたが、第1境界線b1(複数のバンプ103)がきれいに揃わなかった。すなわち、人間がバンプを精度よく囲めば囲むほど、サンプル数を増やせば増やすほど、第1境界線b1がでこぼこになっていた(図6(A))。そして、本発明者は、マスク処理のための第1境界線b1を揃えること(第1境界線b1の特定)に対しては、主に2つの課題があることを見出した。1つは、対象物102(チップ)や基板101は個体差が大きく、場合によっては反っていたりする(完全な平板状ではない)。また、左右のバンプ103のハンダ量が異なることで基板101に対して対象物102が傾く場合もある。よって、チップの左端と右端で直線を引いても第1境界線b1は単純に決定できない。もう1つは、バンプ103個々のばらつきがあり(同品種でも4辺で違うし、1辺でもばらつく)、当然、撮像の照明があたった光沢部分の見え方が異なる。つまり、光沢部分のその奥(暗い部分)に照明があたらない部分が存在し、この部分としてバンプ103の頂部(丸みのところ)が挙げられる。さらに、前後で位置の異なるバンプ103が撮像される場合もある。このように、バンプ103と対象物102との接合部が画像に写らないことがあり、第1境界線b1は全てのバンプ103と対象物102との間に存在するわけではない。 In general, when creating a learning model for object detection, the bumps 103 on the screen are surrounded one by one with a mouse. The inventor tried to create a learning model using this conventional manual method, but the first boundary line b1 (multiple bumps 103) was not neatly aligned. In other words, the more precisely the human surrounded the bumps and the more samples were used, the more uneven the first boundary line b1 became (FIG. 6(A)). The inventor then discovered that there are two main problems with aligning the first boundary line b1 for mask processing (identifying the first boundary line b1). One is that the object 102 (chip) and the board 101 vary greatly from one to another, and in some cases may be warped (not completely flat). In addition, the object 102 may be tilted relative to the board 101 due to differences in the amount of solder on the left and right bumps 103. Therefore, the first boundary line b1 cannot be simply determined by drawing a straight line between the left and right ends of the chip. Another reason is that there are individual variations in the bumps 103 (even the same type of bumps can vary across all four sides, and even on one side), so naturally the glossy parts that are illuminated for imaging look different. In other words, there are parts behind the glossy parts (dark parts) that are not illuminated, and an example of this part is the top (rounded part) of the bump 103. Furthermore, there are cases where bumps 103 are imaged in different positions at the front and back. In this way, the joint between the bump 103 and the object 102 may not appear in the image, and the first boundary line b1 does not exist between all of the bumps 103 and the object 102.

そこで、発明者は鋭意検討の結果、発想を変えて、マウスで囲むバンプ103を1つにした(図6(B))。そして、様々な画像からこのような基準値となるバンプ103を教師データ210として用いて第1学習済モデル220を構築したところ、第1境界線b1(複数のバンプ103)が揃うことを見出した。すなわち、この第1学習済モデル220を用いると、その基準値がチップの端から端にスライドするように、第1境界線b1が揃いだすことを見出した。これは、良品がほとんどであるバンプ103を1つ1つ囲むことが結果的に、人による誤差の影響を大きくしたためだと考えられる。なお、図6(A)、(B)には、図5(B)のように鏡像も映っている例を示しているが、鏡像はあってもなくてもよい。また、第1境界線b1を特定するために、バンプ103の判定領域はできるかぎり大きく、頂部(丸み部分)まであることが好ましい。 The inventors then, after careful consideration, changed their approach and decided to circle only one bump 103 with the mouse (FIG. 6B). Then, using such a reference value bump 103 from various images as teacher data 210 to construct a first trained model 220, they found that the first boundary line b1 (multiple bumps 103) was aligned. In other words, they found that when using this first trained model 220, the first boundary line b1 begins to align as if the reference value slides from one end of the chip to the other. This is thought to be because encircling each of the bumps 103, most of which are non-defective, ultimately increases the influence of human error. Note that FIGS. 6A and 6B show an example in which a mirror image is also reflected as in FIG. 5B, but the presence or absence of a mirror image is not essential. In addition, in order to identify the first boundary line b1, it is preferable that the judgment area of the bump 103 is as large as possible and extends to the top (rounded portion).

((その他の処理))
さらに、第1境界線b1を高精度で特定することで、マスク処理の他に、第2学習済みモデル320へ入力する検査画像の位置補正も行ってもよい。例えば、画像中の第1境界線b1と第2境界線b2のY座標(垂直方向)の補正を行ってもよい。こうして、第2学習済みモデル320の異常検知AIによる判定をより正確に実現することができる。
((Other processing))
Furthermore, by identifying the first boundary line b1 with high accuracy, in addition to the masking process, the position of the inspection image to be input to the second trained model 320 may also be corrected. For example, the Y coordinates (vertical direction) of the first boundary line b1 and the second boundary line b2 in the image may be corrected. In this way, the anomaly detection AI of the second trained model 320 can be more accurately determined.

((切出し処理))
ところで、対象物102や基板101の左端と右端が水平ではない場合、撮像(一視野)した画像100を用いると第1境界線b1が揃いにくいこともある。そこで、第1学習済モデル220による第1境界線b1の特定は、受付手段32が受け付けた画像100の所定の領域(例えば、図7のYピクセル(pix)長の領域)毎に行わせてもよい。すなわち、学習エリアや判定領域を小さく切り出すことで(トリミング)、対象物102や基板101の左端と右端の差を小さくさせることができる。
((Cutout processing))
However, if the left and right ends of the object 102 or the board 101 are not horizontal, it may be difficult to align the first boundary line b1 when using the captured (one field of view) image 100. Therefore, the first trained model 220 may specify the first boundary line b1 for each predetermined region (e.g., a region of Y pixels (pix) length in FIG. 7) of the image 100 accepted by the accepting means 32. That is, the difference between the left and right ends of the object 102 or the board 101 can be reduced by cutting out (trimming) the learning area or the judgment area into a small area.

この切出し処理は以下の手順で行われてもよい。まず、パターンマッチングによる特徴点サーチを行う。この「特徴点」としては、特に限定されないが、画像100内にみられるユニークな形状を指す。製品の品種によるが、特徴点として、バンプ配列内に唯一存在する特徴(例えば、隣り合うバンプ103間の隙間が異なる等)を使用することができる。次に、サーチされた特徴点を基に切出領域を決定する。具体的には、画像100中の特徴点の検出X座標から所定の画素長にオフセットさせた(相対)位置に、切出領域の左端位置および右端位置(即ち、X座標における特徴点からの各相対距離)を決定する(例えば、画像中央に検出特徴点があれば、切出領域の始点はマイナスX、終端はプラスXと表現できる)。次に、切出領域の左端位置から右端位置までの距離を固定サイズ(図7のY pix長)にして、重複させながら、画像100から順次切り出す。図7中、Z pixは重複領域の長さを示す。なお、「Y」および「Z」の値は、バンプ103や画像100のサイズ等に合わせて適宜設定できる。次に、切り出されたY pix長の各切出領域において、バンプ103を検出し、第1境界線b1および第2境界線b2を特定してマスク処理を行う。マスク処理後、さらに、判定すべき欠陥サイズやカメラ21の分解能に応じて、各切出領域を左右2分割して(中央で所定の領域を重複させる)、判定領域としてもよい。このような分割処理により、AI(第1学習済モデル220)への入力サイズに制限がある場合に縮小することで欠陥が見えなくなる事態を回避できる。 This cutout process may be performed in the following procedure. First, a feature point search is performed by pattern matching. The "feature point" is not particularly limited, but refers to a unique shape found in the image 100. Depending on the type of product, a feature that is unique in the bump array (for example, the gap between adjacent bumps 103 is different, etc.) can be used as the feature point. Next, a cutout region is determined based on the searched feature points. Specifically, the left and right end positions of the cutout region (i.e., the relative distance from the feature point in the X coordinate) are determined at a position offset (relative) by a predetermined pixel length from the detected X coordinate of the feature point in the image 100 (for example, if the detected feature point is in the center of the image, the start point of the cutout region can be expressed as minus X and the end point as plus X). Next, the distance from the left end position to the right end position of the cutout region is set to a fixed size (Y pix length in FIG. 7), and the cutout region is cut out sequentially from the image 100 while overlapping. In FIG. 7, Z pix indicates the length of the overlapping region. The values of "Y" and "Z" can be set appropriately according to the size of the bump 103 and the image 100. Next, in each cut-out region of Y pix length, the bump 103 is detected, and the first boundary line b1 and the second boundary line b2 are identified and masked. After the masking process, each cut-out region may be further divided into two, left and right (with a predetermined region overlapping in the center), according to the defect size to be judged and the resolution of the camera 21, and used as the judgment region. This division process makes it possible to avoid a situation in which the defect becomes invisible due to reduction when there is a limit to the input size to the AI (first trained model 220).

(判定手段36)
判定手段36は、正常であるバンプ103の画像を含む教師データ310を用いることにより機械学習によって生成された第2学習済モデル320を用いて、受付手段32が受け付けた画像100のうち第1境界線b1および第2境界線b2の間の領域の画像部分100aから、バンプ103が正常であるか否かを判定する(図2中、判定処理53)。この「判定」は、もともと人間が目視で行っていた外観検査に相当し、具体的には、バンプ103の溶融状態や残存量の確認、ツヤ等の外観の判定を含む。また、第2学習済モデル320を生成するための機械学習としては、深層学習等の様々なものを用いることができる。なお、図5(C)に、正常(OK)および異常(NG)と判定されるバンプ103の例を示す。
(Determination means 36)
The determination means 36 uses the second trained model 320 generated by machine learning using the teacher data 310 including an image of the normal bump 103 to determine whether the bump 103 is normal or not from the image portion 100a of the area between the first boundary line b1 and the second boundary line b2 of the image 100 accepted by the accepting means 32 (determination process 53 in FIG. 2). This "determination" corresponds to the appearance inspection that was originally performed visually by humans, and specifically includes checking the melting state and remaining amount of the bump 103, and judging the appearance such as gloss. In addition, various types of machine learning such as deep learning can be used for generating the second trained model 320. Note that FIG. 5(C) shows examples of bumps 103 judged to be normal (OK) and abnormal (NG).

このように、受付手段32が受け付けた画像100そのものを用いるのではなく、マスキングにより判定範囲を限定し、第1境界線b1および第2境界線b2の間の領域(隙間g)の画像部分100a(図5(A))から判定手段36は判定を行う。また、画像100aを更に分割(切り出し)して、分割後の各画像に1つのバンプ103だけが含まれるようにしてもよい。この分割方法としては特に限定されず、前述した切出し処理を行ってもよい。このようにして、画像100に撮像された基板101と対象物102の特徴が検出されてしまうことを防止できる。より具体的には、判定には第2学習済モデル320を用いて画像部分100aからバンプ103の位置を検出し、AI物体検出によって誤判定を防止できる。 In this way, instead of using the image 100 itself accepted by the accepting means 32, the judgment range is limited by masking, and the judgment means 36 makes a judgment from the image portion 100a (FIG. 5(A)) of the area (gap g) between the first boundary line b1 and the second boundary line b2. In addition, the image 100a may be further divided (cut out) so that each divided image contains only one bump 103. This division method is not particularly limited, and the above-mentioned cutting process may be performed. In this way, it is possible to prevent the features of the board 101 and the object 102 captured in the image 100 from being detected. More specifically, the second trained model 320 is used for the judgment to detect the position of the bump 103 from the image portion 100a, and erroneous judgment can be prevented by AI object detection.

撮像の際の光を反射して基板101がバンプ103の鏡像(虚像)を映すものである場合、第2学習済モデル320は、正常であるバンプ103の画像としてバンプ103の実像および基板101に投影されるバンプ103の鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものでもよい。実線矢印で図4(C)に示す例のように、バンプ103の検査のために、斜め下方に向かって隙間gを撮像すると、基板101に投影されるバンプ103の鏡像も撮像され、判定に利用することができる。図5(B)に示す例では、各バンプ103がダルマ状に画像100に反映されている。即ち、斜め下方に向かって隙間gを撮像した結果、b1’とb2’の間の点線より上がバンプ103の実像を、点線より下がバンプ103の鏡像を示している(図4(C)のように対象物102の外周部にバンプ103が存在しない状態で斜め下方に向かって隙間gを撮像した結果、対象物102によりバンプ103の実像の上端が隠れていることを示すため、バンプ103の上端を点線で示している)。ここで、図5(B)のように、各バンプ103の上端、即ち、実像のバンプ103の領域の一部が見えないこともある(情報量が少ない)。この場合でも、画像100においてこれらの上端の隠れたバンプ103と対象物102と間のb1’を第1境界線として特定し、さらに、鏡像の領域も判定領域に含めるようにb2’を第2境界線として特定してもよい。こうすることにより、バンプ103の良品と不良品の差異を示す情報量が増え、判定の精度は向上もしくは高いままである。従って、図5(B)に示す例のように鏡像も撮像された場合、鏡像も利用して判定精度を向上させるために、第2境界線b2は、バンプ103の鏡像と対象物102の鏡像との間の境界線を指す第2境界線b2’とすることもできる。すなわち、この場合の判定領域となる画像部分100a’は、実像に基づく第1境界線b1’と鏡像に基づく第2境界線b2’との間の領域に相当する。この第2境界線b2’も、予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて特定することができる。 If the substrate 101 reflects a mirror image (virtual image) of the bump 103 by reflecting light during imaging, the second trained model 320 may be generated by machine learning by using an image of the normal bump 103 that includes both the real image of the bump 103 and the mirror image of the bump 103 projected onto the substrate 101 in the same image. As shown in the example of FIG. 4(C) with the solid arrow, when the gap g is imaged diagonally downward to inspect the bump 103, the mirror image of the bump 103 projected onto the substrate 101 is also imaged and can be used for judgment. In the example shown in FIG. 5(B), each bump 103 is reflected in the image 100 in a daruma shape. That is, as a result of imaging the gap g obliquely downward, the area above the dotted line between b1' and b2' shows the real image of the bump 103, and the area below the dotted line shows the mirror image of the bump 103 (as in FIG. 4C, as a result of imaging the gap g obliquely downward in a state where there is no bump 103 on the outer periphery of the object 102, the upper end of the bump 103 is shown by a dotted line to show that the upper end of the real image of the bump 103 is hidden by the object 102). Here, as in FIG. 5B, the upper end of each bump 103, i.e., a part of the area of the bump 103 in the real image, may not be visible (the amount of information is small). Even in this case, b1' between the hidden upper end bumps 103 and the object 102 in the image 100 may be specified as the first boundary line, and further b2' may be specified as the second boundary line so that the area of the mirror image is also included in the judgment area. By doing so, the amount of information showing the difference between good and bad bumps 103 increases, and the accuracy of the judgment is improved or remains high. Therefore, when a mirror image is also captured as in the example shown in FIG. 5B, the second boundary line b2 can be a second boundary line b2' indicating the boundary line between the mirror image of bump 103 and the mirror image of object 102 in order to improve the judgment accuracy by using the mirror image as well. That is, the image portion 100a' that is the judgment area in this case corresponds to the area between the first boundary line b1' based on the real image and the second boundary line b2' based on the mirror image. This second boundary line b2' can also be specified based on the size of the gap g between the substrate 101 and object 102 that is set in advance.

または、第2学習済モデル320は、正常であるバンプ103の画像を含む教師データ310(上述のようにバンプ103の上端は隠れていてもよく、且つ/またはバンプ103の鏡像を含んでもよい。)のみを用いることにより良品学習によって生成されたものでもよい。判定手段36は、以上のような第2学習済モデル320を用いて、受付手段32が受け付けたバンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像100のうち第1境界線b1またはb1’および第2境界線b2またはb2’の間の領域の画像部分100aから、バンプ103が正常であるか否かを判定してもよい。 Alternatively, the second trained model 320 may be generated by good product training using only the teacher data 310 including an image of the normal bump 103 (as described above, the upper end of the bump 103 may be hidden and/or may include a mirror image of the bump 103). The determination means 36 may use the second trained model 320 described above to determine whether the bump 103 is normal or not from the image portion 100a of the area between the first boundary line b1 or b1' and the second boundary line b2 or b2' of the image 100 including the real image of the bump 103 accepted by the acceptance means 32 and the mirror image of the bump 103 projected onto the substrate 101.

判定不可であれば、そのバンプ103は異常(NG)と判定される。 If it is not possible to judge, the bump 103 is judged to be abnormal (NG).

(出力手段38)
出力手段38は、表示部44を介して判定結果を出力する。
(Output means 38)
The output means 38 outputs the determination result via the display unit 44 .

(第1モデル生成手段200、第2モデル生成手段300)
第1モデル生成手段200および第2モデル生成手段300は、それぞれ教師データ210および310を用いて機械学習により第1学習済モデル320および第2学習済モデル220を生成する(図2)。第1学習済モデル220および/または第2学習済モデル320は、コンピュータ3とは別の装置が所定のプログラムを実行することにより機能するようになっていてもよく、あるいは制御部30が記憶部40に記憶されているプログラムを実行することにより機能するようになっていてもよい。前者の場合は、別の装置により生成された第1学習済モデル220および/または第2学習済モデル320は、コンピュータ3に送信され、このコンピュータ3の記憶部40に記憶される。
(First model generation means 200, second model generation means 300)
The first model generation means 200 and the second model generation means 300 generate the first trained model 320 and the second trained model 220 by machine learning using the teacher data 210 and 310, respectively ( FIG. 2 ). The first trained model 220 and/or the second trained model 320 may function by a device other than the computer 3 executing a predetermined program, or the control unit 30 may function by executing a program stored in the storage unit 40. In the former case, the first trained model 220 and/or the second trained model 320 generated by the other device is transmitted to the computer 3 and stored in the storage unit 40 of the computer 3.

[検知方法]
次に、このようなコンピュータ3(検査システム1)による検知方法について説明する。なお、以下に示す処理は記憶部40に記憶されているプログラムを制御部30が実行することにより行われる。
[Detection method]
Next, a description will be given of a detection method using the computer 3 (the inspection system 1) as described above. Note that the following process is performed by the control unit 30 executing a program stored in the storage unit 40.

まず、撮像装置2が、基板101と、バンプ103により基板101に接着される対象物102との間の隙間gを撮像することにより画像100を取得する(図3、ステップS1)。ここで、上述したように、撮像装置2が、コンピュータ3に送る画像を撮像する際に斜め下方に向かって撮像し、バンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像を取得することもできる。 First, the imaging device 2 captures an image 100 by capturing an image of the gap g between the substrate 101 and the object 102 that is attached to the substrate 101 by the bumps 103 (FIG. 3, step S1). Here, as described above, when capturing an image to be sent to the computer 3, the imaging device 2 captures an image obliquely downward, and can also capture an image that includes a real image of the bumps 103 and a mirror image of the bumps 103 projected onto the substrate 101.

次に、コンピュータ3(受付手段32)が、撮像装置2により撮像された画像を受け付ける(図3、ステップS2)。 Next, the computer 3 (reception means 32) receives the image captured by the imaging device 2 (Figure 3, step S2).

次に、コンピュータ3(前処理手段34)が、バンプ103により接着される基板101と対象物102との間の隙間gの画像であってバンプ103と対象物102との間の第1境界線b1が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデル220を用いて、受け付けた画像100から第1境界線b1を特定するとともに(図2、第1境界線b1の特定処理51)、予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて、受け付けた画像100において第1境界線b1との間にバンプ103の下端を含むように第2境界線b2を第1境界線b1から特定する(図2、第2境界線b2の特定処理51。図3、ステップS3)。前述のように、第1学習済モデル220は、全てのバンプ103を同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである。こうして、第1境界線b1および第2境界線b2から判定領域となる画像部分100aが抽出されることになる。さらに、画像100に対する前処理として、基板101と対象物102が水平になるように輪郭抽出による角度計測や回転補正を行ったり、画像100を拡大させてもよい。 Next, the computer 3 (pre-processing means 34) uses the first trained model 220 generated by machine learning using training data including an image of the gap g between the substrate 101 and the object 102 bonded by the bump 103, from which the first boundary line b1 between the bump 103 and the object 102 is obtained, to identify the first boundary line b1 from the received image 100 (FIG. 2, identification process 51 of the first boundary line b1), and identifies the second boundary line b2 from the first boundary line b1 so as to include the lower end of the bump 103 between the first boundary line b1 in the received image 100 based on the size of the gap g between the substrate 101 and the object 102 that is set in advance (FIG. 2, identification process 51 of the second boundary line b2; FIG. 3, step S3). As described above, the first trained model 220 has been trained to detect all bumps 103 with bounding boxes of the same size and shape. In this way, the image portion 100a that is the judgment area is extracted from the first boundary line b1 and the second boundary line b2. Furthermore, as pre-processing for the image 100, angle measurement and rotation correction using contour extraction may be performed so that the board 101 and the object 102 are horizontal, or the image 100 may be enlarged.

次に、コンピュータ3(判定手段36)が、正常であるバンプ103の画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデル320を用いて、受け付けた画像のうち第1境界線b1および第2境界線b2の間の領域の画像部分100aから、バンプ103が正常であるか否かを判定する(図3、ステップS4)。なお、上述したように、第2学習済モデル320は、正常であるバンプ103の画像としてバンプ103の実像および基板101に投影されるバンプ103の鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものでもよい。 Next, the computer 3 (determination means 36) uses the second trained model 320 generated by machine learning using training data including an image of the normal bump 103 to determine whether the bump 103 is normal from the image portion 100a of the area between the first boundary line b1 and the second boundary line b2 of the received image (FIG. 3, step S4). As described above, the second trained model 320 may be generated by machine learning using an image of the normal bump 103 that includes both the real image of the bump 103 and the mirror image of the bump 103 projected onto the substrate 101 in the same image.

次に、コンピュータ3(出力手段38)が、表示部44を介して判定結果を出力する。また、コンピュータ3(出力手段38)は、通信部42を介して判定結果を外部装置に送信してもよい。 Next, the computer 3 (output means 38) outputs the determination result via the display unit 44. The computer 3 (output means 38) may also transmit the determination result to an external device via the communication unit 42.

以上のような構成からなる本開示のプログラム、コンピュータ3、検査システム1および検査方法によれば、検査システム1は、撮像装置2と、撮像装置2により撮像された画像が送られるコンピュータ3とを備える。撮像装置2は、基板101と、バンプ103により基板101に接着される対象物102との間の隙間gの画像100aを含む画像100を撮像することにより画像100を取得する。コンピュータ3(制御部30)は、プログラムを実行することにより、受付手段32と、前処理手段34と、判定手段36として機能する。受付手段32は、撮像装置2により撮像された、基板101と、バンプ103により基板101に接着される対象物102との間の隙間gの画像100aを含む画像100を受け付ける。前処理手段34は、バンプ103により接着される基板101と対象物102との間の隙間gの画像であってバンプ103と対象物102との間の第1境界線b1が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデル220を用いて、受付手段32が受け付けた画像100における第1境界線b1を特定するとともに、予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて、受付手段32が受け付けた画像100において第1境界線b1との間にバンプ103の下端を含むよう第2境界線b2を第1境界線b1から特定する。判定手段36は、正常であるバンプ103の画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデル320を用いて、受付手段32が受け付けた画像100のうち第1境界線b1および第2境界線b2の間の領域の画像部分100aから、バンプ103が正常であるか否かを判定する。第1学習済モデル220は、全てのバンプ103を同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである。 According to the program, computer 3, inspection system 1, and inspection method of the present disclosure configured as described above, the inspection system 1 includes an imaging device 2 and a computer 3 to which an image captured by the imaging device 2 is sent. The imaging device 2 acquires an image 100 by capturing an image 100 including an image 100a of the gap g between the substrate 101 and an object 102 bonded to the substrate 101 by the bumps 103. The computer 3 (control unit 30) executes the program to function as a receiving means 32, a preprocessing means 34, and a determining means 36. The receiving means 32 receives the image 100 including an image 100a of the gap g between the substrate 101 and the object 102 bonded to the substrate 101 by the bumps 103, captured by the imaging device 2. The preprocessing means 34 uses a first trained model 220 generated by machine learning by using teacher data including an image of the gap g between the substrate 101 and the object 102 bonded by the bump 103, in which the first boundary line b1 between the bump 103 and the object 102 is obtained, to specify the first boundary line b1 in the image 100 accepted by the accepting means 32, and specifies a second boundary line b2 from the first boundary line b1 in the image 100 accepted by the accepting means 32 based on a preset size of the gap g between the substrate 101 and the object 102 so that the lower end of the bump 103 is included between the first boundary line b1 and the first boundary line b1 in the image 100 accepted by the accepting means 32. The determination means 36 uses a second trained model 320 generated by machine learning by using teacher data including an image of the normal bump 103, to determine whether the bump 103 is normal or not from the image portion 100a of the region between the first boundary line b1 and the second boundary line b2 in the image 100 accepted by the accepting means 32. The first trained model 220 is trained to detect all bumps 103 with bounding boxes of the same size and shape.

従来から、半導体チップ等の対象物を基板に接着するためのバンプが正常であるか否かについて顕微鏡により人が目視にて検査を行っていたところ、バンプはほとんどが正常なものであり異常が発生することは稀であるため、バンプに異常があっても見落としやすいという課題があった。これに対して、このような本開示のプログラム、コンピュータ3、検査システム1および検査方法によれば、受け付けた画像からバンプの異常を目視よりも確実に検出できる。特に、本発明によれば、受け付けた画像100における第1境界線b1および第2境界線b2を特定し、第1境界線b1および第2境界線b2の間の領域の画像部分100aからバンプ103が正常であるか否かを判定するので、効率的な検査を実現できる。 Conventionally, a person would visually inspect bumps for bonding objects such as semiconductor chips to a substrate using a microscope to see if they were normal. However, most bumps are normal and abnormalities are rare, so there was a problem that abnormalities in the bumps were easily overlooked. In contrast, the program, computer 3, inspection system 1, and inspection method disclosed herein can detect abnormalities in bumps from a received image more reliably than visual inspection. In particular, the present invention identifies the first boundary line b1 and the second boundary line b2 in the received image 100, and determines whether the bumps 103 are normal from the image portion 100a between the first boundary line b1 and the second boundary line b2, thereby achieving efficient inspection.

また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、バウンディングボックスの形状を矩形とすることができる。バンプ103に合わせて様々な矩形状のバウンディングボックスを設定することができる。 In addition, in the program, computer 3, inspection system 1, and inspection method disclosed herein, the shape of the bounding box can be rectangular. Bounding boxes of various rectangular shapes can be set to match the bumps 103.

また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、バウンディングボックス同士は重ならないことが、第1境界線b1の特定に余計なバウンディングボックスを検出させない手段として好ましい。生成されるたくさんのBBから第1境界線b1の特定に適切なBBを選ぶまたは明確にする方法として、NMS(Non-maximum suppression)を使用できる。 In addition, in the program, computer 3, inspection system 1, and inspection method disclosed herein, it is preferable that the bounding boxes do not overlap each other as a means of preventing unnecessary bounding boxes from being detected when identifying the first boundary line b1. Non-maximum suppression (NMS) can be used as a method of selecting or clarifying an appropriate BB for identifying the first boundary line b1 from the many BBs generated.

また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、第1学習済モデル220は、全てのバウンディングボックスの対象物102側の辺(上辺)を基に第1境界線b1を特定してもよい。このように、各バウンディングボックスの上辺を基に容易に第1境界線b1を特定することができる。 Furthermore, in the program, computer 3, inspection system 1, and inspection method disclosed herein, the first trained model 220 may identify the first boundary line b1 based on the side (top side) of the object 102 of all bounding boxes. In this way, the first boundary line b1 can be easily identified based on the top side of each bounding box.

また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、第1学習済モデル220は、第1境界線b1の特定を受付手段32が受け付けた画像100の所定の領域毎に行うものでもよい。上述したようなトリミングによって画像サイズを調節し、チップ等の対象物102の反りや傾きを無視できるようになる(短い区間は直線に近似するから)。 Furthermore, in the program, computer 3, inspection system 1, and inspection method disclosed herein, the first trained model 220 may identify the first boundary line b1 for each predetermined area of the image 100 accepted by the accepting means 32. By adjusting the image size through the above-described cropping, it becomes possible to ignore the warping or tilt of the object 102 such as a chip (because short sections are approximated by straight lines).

また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、第2学習済モデル320は、正常であるバンプ103の画像としてバンプ103の実像および基板101に投影されるバンプ103の鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、判定手段36は、この第2学習済モデル320を用いて、受付手段32が受け付けたバンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像100のうち第1境界線b1(b1’)および第2境界線b2’の間の領域の画像部分100a’から、バンプ103が正常であるか否かを判定してもよく、ここで、第2境界線b2’は、受付手段32が受け付けたバンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像100のうち、バンプ103の鏡像と対象物102の鏡像の間の境界線である(図5(B))。図4(B)に示すようにバンプ103の横方向から撮影することも考えられるが、チップコンデンサのような撮像の障害物104等があるとバンプ103を横方向から撮影することが困難となる場合もある。そこで、図4(C)に示すように、画像100が斜め下方に向かって撮像された場合でも、画像100に含まれるバンプ103の実像および基板101に投影されるバンプ103の鏡像を利用することにより、バンプ103が正常であるか否かを判定することが可能である。すなわち、本開示のプログラム、コンピュータ3、検査システム1および検査方法によれば、バンプ103や隙間gの撮像に障害となる障害物104がある場合であっても、より確実な判定をすることができる。さらに、鏡像も利用することにより、判定のための情報量が増え、判定精度が向上する。 In addition, in the program, computer 3, inspection system 1, and inspection method disclosed herein, the second learned model 320 is generated by machine learning by using an image of a normal bump 103 that includes a real image of the bump 103 and a mirror image of the bump 103 projected onto the substrate 101 in the same image, and the determination means 36 may use this second learned model 320 to determine whether the bump 103 is normal or not from an image portion 100a' in the area between the first boundary line b1 (b1') and the second boundary line b2' in the image 100 that includes the real image of the bump 103 and the mirror image of the bump 103 projected onto the substrate 101 and that is accepted by the accepting means 32, where the second boundary line b2' is the boundary line between the mirror image of the bump 103 and the mirror image of the object 102 in the image 100 that includes the real image of the bump 103 and the mirror image of the bump 103 projected onto the substrate 101 and that is accepted by the accepting means 32 (Figure 5 (B)). It is possible to photograph the bump 103 from the side as shown in FIG. 4B, but if there is an obstacle 104 to the image, such as a chip capacitor, it may be difficult to photograph the bump 103 from the side. Therefore, as shown in FIG. 4C, even if the image 100 is photographed diagonally downward, it is possible to determine whether the bump 103 is normal or not by using the actual image of the bump 103 contained in the image 100 and the mirror image of the bump 103 projected onto the substrate 101. In other words, according to the program, computer 3, inspection system 1, and inspection method disclosed herein, even if there is an obstacle 104 that obstructs the imaging of the bump 103 or the gap g, a more reliable judgment can be made. Furthermore, by using the mirror image, the amount of information for judgment is increased, and the judgment accuracy is improved.

また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、第2学習済モデル320は、正常であるバンプ103の画像を含む教師データのみを用いることにより良品学習によって生成されたものでもよい。実際に不良品が発生する件数が少なく不良品の定義が難しい場合や不良品のデータ収集が難しい場合にも、本開示のプログラム、コンピュータ3、検査システム1および検査方法は好適である。 In addition, in the program, computer 3, inspection system 1, and inspection method disclosed herein, the second trained model 320 may be generated by good product learning using only training data including images of normal bumps 103. The program, computer 3, inspection system 1, and inspection method disclosed herein are also suitable when the number of actual defective products is small, making it difficult to define defective products, or when it is difficult to collect data on defective products.

また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、対象物102は半導体チップであってもよい。このように、基板101上に対象物102の他に対象物102に伴って他の配置物(障害物104等)がある場合に、本開示のプログラム、コンピュータ3、検査システム1および検査方法は好適に適用できる。 In addition, in the program, computer 3, inspection system 1, and inspection method of the present disclosure, the object 102 may be a semiconductor chip. In this manner, the program, computer 3, inspection system 1, and inspection method of the present disclosure can be suitably applied when, in addition to the object 102, there are other objects (such as an obstacle 104) placed on the substrate 101 in association with the object 102.

また、本開示の検査方法において、第2学習済モデル320は、正常であるバンプ103の画像としてバンプ103の実像および基板101に投影されるバンプ103の鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、撮像装置2が、コンピュータ3に送る画像を撮像する際に斜め下方に向かって撮像し、バンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像を取得してもよい(図4(C)参照)。こうして、バンプ103の撮像に障害となる、図4に示すような障害物104がある場合であっても、バンプ103が正常であるか否かを精度よく判定することができる。 In addition, in the inspection method disclosed herein, the second trained model 320 is generated by machine learning using an image of a normal bump 103 that includes both a real image of the bump 103 and a mirror image of the bump 103 projected onto the substrate 101 in the same image, and the imaging device 2 may capture an image diagonally downward when capturing an image to be sent to the computer 3, thereby acquiring an image that includes both a real image of the bump 103 and a mirror image of the bump 103 projected onto the substrate 101 (see FIG. 4(C)). In this way, even if there is an obstacle 104 as shown in FIG. 4 that impedes the imaging of the bump 103, it is possible to accurately determine whether the bump 103 is normal or not.

なお、本開示によるコンピュータ3、プログラムおよび検知方法は、上述したような態様や組み合わせに限定されることはなく、様々な変更を加えることができる。 Note that the computer 3, program, and detection method disclosed herein are not limited to the aspects and combinations described above, and various modifications can be made.

例えば、上述のように、鏡像も画像100に含まれる場合も、前処理手段34は画像100における第1境界線b1(b1’)および第2境界線b2’を特定してもよいが、第1境界線b1(b1’)は鏡像のバンプ103が半分程度(多すぎず少なすぎず)含まれるように高さを指定することができればよい。隙間gには同一サンプル内でもばらつきが存在するため、第1境界線b1(b1’)および第2境界線b2’は必ずしも精度よく特定できるわけではなく、この場合でも良好な判定結果を得られるからである。 For example, as described above, even when the mirror image is included in the image 100, the preprocessing means 34 may identify the first boundary line b1 (b1') and the second boundary line b2' in the image 100, but it is sufficient that the height of the first boundary line b1 (b1') can be specified so that it includes about half (not too much, not too little) of the bump 103 in the mirror image. Since there is variation in the gap g even within the same sample, the first boundary line b1 (b1') and the second boundary line b2' cannot necessarily be identified with high accuracy, and good judgment results can be obtained even in this case.

1 検査システム
2 撮像装置
21 カメラ
22 通信部
3 コンピュータ
30 制御部
32 受付手段
34 前処理手段
36 判定手段
38 出力手段
22a モデル生成部
24a 受付部
26a 推定部
28a 出力部
40 記憶部
42 通信部
44 表示部
46 操作部
100、100a、100a’ 画像
101 基板
102 対象物
103 バンプ
104 障害物
200 第1モデル生成手段
210 教師データ
220 第1学習済みモデル
300 第2モデル生成手段
310 教師データ
320 第2学習済みモデル
b1、b1’ 第1境界線
b2、b2’ 第2境界線
g 隙間
1 Inspection system 2 Imaging device 21 Camera 22 Communication unit 3 Computer 30 Control unit 32 Reception means 34 Preprocessing means 36 Determination means 38 Output means 22a Model generation unit 24a Reception unit 26a Estimation unit 28a Output unit 40 Memory unit 42 Communication unit 44 Display unit 46 Operation unit 100, 100a, 100a' Image 101 Substrate 102 Object 103 Bump 104 Obstacle 200 First model generation means 210 Teacher data 220 First trained model 300 Second model generation means 310 Teacher data 320 Second trained model b1, b1' First boundary line b2, b2' Second boundary line g Gap

Claims (12)

コンピュータを、受付手段と、前処理手段と、判定手段として機能させるプログラムであって、
前記受付手段は、撮像装置により撮像された、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである、プログラム。
A program for causing a computer to function as a reception unit, a preprocessing unit, and a determination unit,
The receiving means receives an image including an image of a gap between a substrate and an object to be bonded to the substrate by a bump, the image being captured by an imaging device;
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning by using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is trained to detect all bumps with bounding boxes of the same size and shape.
前記バウンディングボックスの形状は矩形である、請求項1記載のプログラム。 The program of claim 1, wherein the bounding box has a rectangular shape. 前記バウンディングボックス同士は重ならない、請求項1記載のプログラム。 The program of claim 1, wherein the bounding boxes do not overlap. 前記第1学習済モデルは、全ての前記バウンディングボックスの前記対象物側の辺を基に前記第1境界線を特定する、請求項1記載のプログラム。 The program according to claim 1, wherein the first trained model identifies the first boundary line based on the object-side edges of all the bounding boxes. 前記第1学習済モデルは、前記第1境界線の特定を前記受付手段が受け付けた画像の所定の領域毎に行う、請求項1記載のプログラム。 The program according to claim 1, wherein the first trained model identifies the first boundary line for each predetermined area of the image accepted by the accepting means. 前記第2学習済モデルは、正常であるバンプの画像としてバンプの実像および基板に投影される前記バンプの鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、
前記判定手段は、前記第2学習済モデルを用いて、前記受付手段が受け付けた前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第2境界線は、前記受付手段が受け付けた前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像のうち、前記バンプの鏡像と前記対象物の鏡像の間の境界線である、請求項1記載のプログラム。
The second trained model is generated by machine learning using an image of a normal bump that includes a real image of the bump and a mirror image of the bump projected onto a substrate in the same image;
the determination means uses the second learned model to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in an image including a real image of the bump and a mirror image of the bump projected onto the substrate, the image portion being received by the receiving means;
The program according to claim 1 , wherein the second boundary line is a boundary line between the mirror image of the bump and the mirror image of the object in an image including the real image of the bump accepted by the accepting means and a mirror image of the bump projected onto the substrate.
前記第2学習済モデルは、正常であるバンプの画像を含む教師データのみを用いることにより良品学習によって生成されたものである、請求項1記載のプログラム。 The program of claim 1, wherein the second trained model is generated by non-defective learning using only training data that includes images of normal bumps. 前記対象物は半導体チップである、請求項1記載のプログラム。 The program of claim 1, wherein the object is a semiconductor chip. プログラムを実行することにより受付手段と、前処理手段と、判定手段として機能するコンピュータであって、
前記受付手段は、撮像装置により撮像された、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである、コンピュータ。
A computer that functions as a reception unit, a preprocessing unit, and a determination unit by executing a program,
The receiving means receives an image including an image of a gap between a substrate and an object to be bonded to the substrate by a bump, the image being captured by an imaging device;
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning by using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is trained to detect all bumps with bounding boxes of the same size and shape.
撮像装置と、前記撮像装置により撮像された画像が送られるコンピュータとを備えた検査システムであって、
前記撮像装置は、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を撮像することにより画像を取得し、
前記コンピュータは、プログラムを実行することにより受付手段と、前処理手段と、判定手段として機能し、
前記受付手段は、前記撮像装置により撮像された画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである、検査システム。
An inspection system including an imaging device and a computer to which an image captured by the imaging device is sent,
the imaging device acquires an image by capturing an image including an image of a gap between a substrate and an object bonded to the substrate by a bump;
The computer functions as a reception unit, a preprocessing unit, and a determination unit by executing a program;
The receiving means receives an image captured by the imaging device,
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is trained to detect all bumps with bounding boxes of the same size and shape.
撮像装置と、前記撮像装置により撮像された画像が送られるコンピュータとを備えた検査システムによる検査方法であって、
前記撮像装置が、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を撮像することにより画像を取得する工程と、
前記コンピュータが、前記撮像装置により撮像された画像を受け付ける工程と、
前記コンピュータが、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、受け付けた画像から第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定する工程と、
前記コンピュータが、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定する工程と、
を備え、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである、検査方法。
An inspection method using an inspection system including an imaging device and a computer to which an image captured by the imaging device is sent, comprising:
acquiring an image by the imaging device capturing an image including an image of a gap between a substrate and an object bonded to the substrate by bumps;
a step of receiving an image captured by the imaging device by the computer;
a step of the computer identifying a first boundary line from the received image using a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object is obtained, and identifying a second boundary line from the first boundary line in the received image based on a preset size of the gap between the substrate and the object such that the second boundary line includes a lower end of the bump between the first boundary line and the second boundary line;
A step in which the computer determines whether or not the bump is normal from an image portion of a region between the first boundary line and the second boundary line in the received image by using a second trained model generated by machine learning using teacher data including an image of a normal bump;
Equipped with
The inspection method, wherein the first trained model is trained to detect all bumps with bounding boxes of the same size and shape.
前記第2学習済モデルは、正常であるバンプの画像としてバンプの実像および基板に投影される前記バンプの鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、
前記撮像装置が、前記コンピュータに送る画像を撮像する際に斜め下方に向かって撮像し、前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像を取得する、請求項11記載の検査方法。
The second trained model is generated by machine learning using an image of a normal bump that includes a real image of the bump and a mirror image of the bump projected onto a substrate in the same image;
The inspection method according to claim 11 , wherein the imaging device captures an image to be sent to the computer obliquely downward, and obtains an image including a real image of the bump and a mirror image of the bump projected onto the substrate.
JP2024083464A 2024-05-22 2024-05-22 PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD Active JP7523840B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024083464A JP7523840B1 (en) 2024-05-22 2024-05-22 PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024083464A JP7523840B1 (en) 2024-05-22 2024-05-22 PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD

Publications (1)

Publication Number Publication Date
JP7523840B1 true JP7523840B1 (en) 2024-07-29

Family

ID=91967774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024083464A Active JP7523840B1 (en) 2024-05-22 2024-05-22 PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD

Country Status (1)

Country Link
JP (1) JP7523840B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004363146A (en) 2003-06-02 2004-12-24 Matsushita Electric Ind Co Ltd Inspection chip for evaluating joined quality of electronic component to circuit board and tool and method therefor using the chip
JP2007194403A (en) 2006-01-19 2007-08-02 Sony Corp Apparatus and method for manufacturing electronic device, and for inspecting underfill material filling state
JP2011112361A (en) 2009-11-24 2011-06-09 Renesas Electronics Corp Device and method for inspecting bump
JP2011169816A (en) 2010-02-19 2011-09-01 Nec Corp Device for measuring junction inclination of semiconductor device
JP2021141091A (en) 2020-03-02 2021-09-16 日本電気株式会社 Bump joint inspection device and bump joint inspection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004363146A (en) 2003-06-02 2004-12-24 Matsushita Electric Ind Co Ltd Inspection chip for evaluating joined quality of electronic component to circuit board and tool and method therefor using the chip
JP2007194403A (en) 2006-01-19 2007-08-02 Sony Corp Apparatus and method for manufacturing electronic device, and for inspecting underfill material filling state
JP2011112361A (en) 2009-11-24 2011-06-09 Renesas Electronics Corp Device and method for inspecting bump
JP2011169816A (en) 2010-02-19 2011-09-01 Nec Corp Device for measuring junction inclination of semiconductor device
JP2021141091A (en) 2020-03-02 2021-09-16 日本電気株式会社 Bump joint inspection device and bump joint inspection method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
「バウンディングボックスアノテーションとは」,株式会社ヒューマンサイエンスのAI・アノテーション特設サイト, [online],2023年06月27日,[2024年6月17日検索], インターネット<URL:https://www.science.co.jp/annotation_blog/34330/>
「バウンディングボックスとは?AIによる物体検出の手法とできること」,DXを推進するAIポータルメディア「Alsmiley」|AI製品・サービスの比較・検索サイト, [online],2024年02月08日,[2024年6月17日検索], インターネット<URL:https://aismiley.co.jp/ai_news/bounding-box/#:~:text=バウンディングボックス>

Similar Documents

Publication Publication Date Title
JP5841427B2 (en) Image processing apparatus and image processing method
US7512260B2 (en) Substrate inspection method and apparatus
JP2007184589A (en) Substrate inspection method and substrate inspecting apparatus
JP3906780B2 (en) Data registration method for component code conversion table, board inspection data creation device, registration processing program, and storage medium thereof
KR20190037889A (en) Method and system for detecting defect in produnt
JP2009168453A (en) Inspection device
JP7135418B2 (en) FLATNESS DETECTION METHOD, FLATNESS DETECTION APPARATUS AND FLATNESS DETECTION PROGRAM
JP4275149B2 (en) Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium
WO2014103617A1 (en) Alignment device, defect inspection device, alignment method, and control program
CN112669272A (en) AOI rapid detection method and rapid detection system
JP7523840B1 (en) PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD
JPH1117400A (en) Packaging part/inspecting device
JP7336294B2 (en) BONDING WIRE INSPECTION DEVICE, BONDING WIRE INSPECTION METHOD, AND BONDING WIRE INSPECTION PROGRAM
JP2004132950A (en) Appearance inspection device and appearance inspection method
JPS639602B2 (en)
JP2924859B2 (en) Appearance inspection method and device
JPH11307567A (en) Manufacturing method of semiconductor device having bump inspection step
JP3311628B2 (en) Defect location device for thin display devices
JPH0518372B2 (en)
JP2006145228A (en) Nonuniformity defect detection method and apparatus
JP2020204598A (en) Teaching device in solid preparation appearance inspection and teaching method in solid preparation appearance inspection
CN119273681B (en) Component placement quality monitoring system and method based on SMT placement machine
JPH06105212B2 (en) Headlight main optical axis inspection method
CN109727225B (en) Image processing apparatus, image processing method, and recording medium
JP2004085543A (en) Appearance inspection device and appearance inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240522

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240709

R150 Certificate of patent or registration of utility model

Ref document number: 7523840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150