JP7523840B1 - PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD - Google Patents
PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD Download PDFInfo
- Publication number
- JP7523840B1 JP7523840B1 JP2024083464A JP2024083464A JP7523840B1 JP 7523840 B1 JP7523840 B1 JP 7523840B1 JP 2024083464 A JP2024083464 A JP 2024083464A JP 2024083464 A JP2024083464 A JP 2024083464A JP 7523840 B1 JP7523840 B1 JP 7523840B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- boundary line
- bump
- substrate
- trained model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 46
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 239000000758 substrate Substances 0.000 claims abstract description 100
- 238000010801 machine learning Methods 0.000 claims abstract description 35
- 238000007781 pre-processing Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000003384 imaging method Methods 0.000 claims description 53
- 230000006870 function Effects 0.000 claims description 11
- 239000004065 semiconductor Substances 0.000 claims description 9
- 230000002950 deficient Effects 0.000 claims description 7
- 230000005856 abnormality Effects 0.000 abstract description 8
- 238000001514 detection method Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 6
- 230000007547 defect Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 230000000873 masking effect Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 239000003990 capacitor Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 229910000679 solder Inorganic materials 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000003822 epoxy resin Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- JGPMMRGNQUBGND-UHFFFAOYSA-N idebenone Chemical compound COC1=C(OC)C(=O)C(CCCCCCCCCCO)=C(C)C1=O JGPMMRGNQUBGND-UHFFFAOYSA-N 0.000 description 1
- 229960004135 idebenone Drugs 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920000647 polyepoxide Polymers 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】バンプ103の異常をより確実に検出できるプログラム、コンピュータ、検査システムおよび検査方法を提供する。【解決手段】受付手段32は、基板101と対象物102の間の隙間gの画像100aを含む画像100を受け付ける。前処理手段34は、バンプにより接着される基板と対象物の間の隙間の画像であってバンプと対象物との間の第1境界線が得られる画像を含む教師データ210を用いて機械学習により生成された第1学習済モデル220を用いて、画像100における第1境界線b1を特定し、隙間gの大きさに基づき、第1境界線b1との間でバンプ103の下端を含むよう第2境界線b2を第1境界線b1から特定する。判定手段36は、正常であるバンプの画像を含む教師データ310を用いて機械学習により生成された第2学習済モデル320を用いて、画像部分100aから、バンプ103が正常であるか否かを判定する。【選択図】図5[Problem] To provide a program, a computer, an inspection system, and an inspection method that can detect abnormalities in bumps 103 more reliably. [Solution] A receiving unit 32 receives an image 100 including an image 100a of a gap g between a substrate 101 and an object 102. A pre-processing unit 34 specifies a first boundary line b1 in the image 100 using a first trained model 220 generated by machine learning using training data 210 including an image of a gap between the substrate and the object bonded by a bump, from which a first boundary line between the bump and the object is obtained, and specifies a second boundary line b2 from the first boundary line b1 so as to include the lower end of the bump 103 between the first boundary line b1 and the first boundary line b1 based on the size of the gap g. A determining unit 36 determines whether the bump 103 is normal or not from the image portion 100a using a second trained model 320 generated by machine learning using training data 310 including an image of a normal bump. [Selected Figure] FIG. 5
Description
本発明は、プログラム、コンピュータ、検査システムおよび検査方法に関する。 The present invention relates to a program, a computer, an inspection system, and an inspection method.
従来より、基板に半導体チップを実装する際にバンプにより半導体チップを基板に接着させていたが、バンプが正常に半導体チップを基板に接着しているか否か(バンプの溶融状態や残存量の確認、ツヤ等の外観の判定)について顕微鏡により人が目視にて検査を行っていた。例えば特許文献1には、チップにおけるバンプが形成された主面側を、顕微鏡を用いて拡大して観察する技術が開示されている。
Conventionally, when mounting a semiconductor chip on a substrate, the semiconductor chip is attached to the substrate by bumps, but whether the bumps are properly attached to the substrate or not (checking the melted state and remaining amount of bumps, judging the appearance such as gloss) is inspected by a person using a microscope. For example,
このように、従来は半導体チップ等の対象物を基板に接着するためのバンプが正常であるか否かについて顕微鏡により人が目視にて検査を行っていたが、元々バンプはほとんどが正常なものであり異常が発生することは稀であるため人が目視にて検査を行う場合はバンプに異常があっても見落としやすいという問題があった。 As such, conventionally, bumps used to attach objects such as semiconductor chips to substrates were inspected visually using a microscope to see if they were normal. However, since most bumps are normal to begin with and abnormalities rarely occur, there was a problem that abnormalities in the bumps could easily be overlooked when inspected visually by humans.
本発明はこのような点を考慮してなされたものであり、バンプの異常をより確実に検出できるプログラム、コンピュータ、検査システムおよび検査方法を提供することを目的とする。 The present invention has been made in consideration of these points, and aims to provide a program, computer, inspection system, and inspection method that can more reliably detect bump abnormalities.
本開示のプログラムは、
コンピュータを、受付手段と、前処理手段と、判定手段として機能させるプログラムであって、
前記受付手段は、撮像装置により撮像された、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものであることを特徴とする。
The program of the present disclosure is
A program for causing a computer to function as a reception unit, a preprocessing unit, and a determination unit,
The receiving means receives an image including an image of a gap between a substrate and an object to be bonded to the substrate by a bump, the image being captured by an imaging device;
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning by using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is characterized in that it has been trained to detect all bumps with bounding boxes of the same size and shape.
本開示のプログラムにおいて、
前記バウンディングボックスの形状は矩形でもよい。
In the program of the present disclosure,
The bounding box may be rectangular in shape.
本開示のプログラムにおいて、
前記バウンディングボックス同士は重ならなくともよい。
In the program of the present disclosure,
The bounding boxes do not have to overlap.
本開示のプログラムにおいて、
前記第1学習済モデルは、全ての前記バウンディングボックスの前記対象物側の辺を基に前記第1境界線を特定してもよい。
In the program of the present disclosure,
The first learned model may identify the first boundary line based on the edges of all of the bounding boxes on the object side.
本開示のプログラムにおいて、
前記第1学習済モデルは、前記第1境界線の特定を前記受付手段が受け付けた画像の所定の領域毎に行ってもよい。
In the program of the present disclosure,
The first learned model may identify the first boundary line for each specified area of the image accepted by the accepting means.
本開示のプログラムにおいて、
前記第2学習済モデルは、正常であるバンプの画像としてバンプの実像および基板に投影される前記バンプの鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、
前記判定手段は、前記第2学習済モデルを用いて、前記受付手段が受け付けた前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第2境界線は、前記受付手段が受け付けた前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像のうち、前記バンプの鏡像と前記対象物の鏡像の間の境界線であってもよい。
In the program of the present disclosure,
The second trained model is generated by machine learning using an image of a normal bump that includes a real image of the bump and a mirror image of the bump projected onto a substrate in the same image;
the determination means uses the second learned model to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in an image including a real image of the bump and a mirror image of the bump projected onto the substrate, the image portion being received by the receiving means;
The second boundary line may be a boundary line between a mirror image of the bump and a mirror image of the object in an image including a real image of the bump received by the receiving means and a mirror image of the bump projected onto the substrate.
本開示のプログラムにおいて、
前記第2学習済モデルは、正常であるバンプの画像を含む教師データのみを用いることにより良品学習によって生成されたものでもよい。
In the program of the present disclosure,
The second trained model may be generated by non-defective product training using only training data including images of normal bumps.
本開示のプログラムにおいて、
前記対象物は半導体チップでもよい。
In the program of the present disclosure,
The object may be a semiconductor chip.
本開示のコンピュータは、
プログラムを実行することにより受付手段と、前処理手段と、判定手段として機能するコンピュータであって、
前記受付手段は、撮像装置により撮像された、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものであることを特徴とする。
The computer of the present disclosure includes:
A computer that functions as a reception unit, a preprocessing unit, and a determination unit by executing a program,
The receiving means receives an image including an image of a gap between a substrate and an object to be bonded to the substrate by a bump, the image being captured by an imaging device;
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning by using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is characterized in that it has been trained to detect all bumps with bounding boxes of the same size and shape.
本開示の検査システムは、
撮像装置と、前記撮像装置により撮像された画像が送られるコンピュータとを備えた検査システムであって、
前記撮像装置は、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を撮像することにより画像を取得し、
前記コンピュータは、プログラムを実行することにより受付手段と、前処理手段と、判定手段として機能し、
前記受付手段は、前記撮像装置により撮像された画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものであることを特徴とする。
The inspection system of the present disclosure comprises:
An inspection system including an imaging device and a computer to which an image captured by the imaging device is sent,
the imaging device acquires an image by capturing an image including an image of a gap between a substrate and an object bonded to the substrate by a bump;
The computer functions as a reception unit, a preprocessing unit, and a determination unit by executing a program;
The receiving means receives an image captured by the imaging device,
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is characterized in that it has been trained to detect all bumps with bounding boxes of the same size and shape.
本開示の検査方法は、
撮像装置と、前記撮像装置により撮像された画像が送られるコンピュータとを備えた検査システムによる検査方法であって、
前記撮像装置が、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を撮像することにより画像を取得する工程と、
前記コンピュータが、前記撮像装置により撮像された画像を受け付ける工程と、
前記コンピュータが、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、受け付けた画像から第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定する工程と、
前記コンピュータが、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定する工程と、
を備え、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものであることを特徴とする。
The inspection method of the present disclosure includes:
An inspection method using an inspection system including an imaging device and a computer to which an image captured by the imaging device is sent, comprising:
acquiring an image by the imaging device capturing an image including an image of a gap between a substrate and an object bonded to the substrate by a bump;
a step of receiving an image captured by the imaging device by the computer;
a step of the computer identifying a first boundary line from the received image using a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object is obtained, and identifying a second boundary line from the first boundary line in the received image based on a preset size of the gap between the substrate and the object such that the second boundary line includes a lower end of the bump between the first boundary line and the second boundary line;
A step in which the computer determines whether or not the bump is normal from an image portion of a region between the first boundary line and the second boundary line in the received image by using a second trained model generated by machine learning using teacher data including an image of a normal bump;
Equipped with
The first trained model is characterized in that it has been trained to detect all bumps with bounding boxes of the same size and shape.
本開示の検査方法において、
前記第2学習済モデルは、正常であるバンプの画像としてバンプの実像および基板に投影される前記バンプの鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、
前記撮像装置が、前記コンピュータに送る画像を撮像する際に斜め下方に向かって撮像し、前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像を取得するものでもよい。
In the inspection method of the present disclosure,
The second trained model is generated by machine learning using an image of a normal bump that includes a real image of the bump and a mirror image of the bump projected onto a substrate in the same image;
The imaging device may capture an image obliquely downward when capturing an image to be sent to the computer, and may obtain an image including a real image of the bump and a mirror image of the bump projected onto the substrate.
本開示のプログラム、コンピュータ、検査システムおよび検査方法によれば、バンプの異常をより確実に検出できる。 The program, computer, inspection system, and inspection method disclosed herein can more reliably detect bump abnormalities.
以下、本開示の実施形態について説明するが、本開示に係る発明はこれらに限定されるものではない。図1は、本開示の実施形態に係る検査システムの構成を概略的に示す図である。図2は、本開示の実施形態に係る検知方法および検知方法における情報処理の例示的な流れを示す図である。図3は、本開示の実施形態に係る検査システムにおよび検知方法おける情報処理の例示的な流れを示す図である。図4は、本開示の実施形態に係る検査システムおよび検知方法において撮像される基板、対象物、隙間、バンプの例示的な配置を示す図である。図5は、本開示の実施形態に係る検査システムおよび検知方法において撮像され判定される例示的な画像を示す図である。 The following describes embodiments of the present disclosure, but the invention according to the present disclosure is not limited thereto. FIG. 1 is a diagram showing a schematic configuration of an inspection system according to an embodiment of the present disclosure. FIG. 2 is a diagram showing an exemplary flow of a detection method and information processing in the detection method according to an embodiment of the present disclosure. FIG. 3 is a diagram showing an exemplary flow of information processing in an inspection system and detection method according to an embodiment of the present disclosure. FIG. 4 is a diagram showing an exemplary arrangement of a substrate, an object, a gap, and a bump imaged in an inspection system and detection method according to an embodiment of the present disclosure. FIG. 5 is a diagram showing an exemplary image imaged and determined in an inspection system and detection method according to an embodiment of the present disclosure.
[検査システム1]
図1に、本開示に係る検査システム1を示す。検査システム1は、半導体チップ等の対象物102を基板101に接着するためのバンプ103(例えば、図4(B))が正常であるか否かをより確実に検知するものである。図1に示すように、検査システム1は、撮像装置2と、撮像装置2により撮像された画像100(例えば、図5(A)(B))が送られるコンピュータ3とを備える。コンピュータ3と撮像装置2は通信可能に接続している。撮像装置2によって撮影された画像100上のバンプ103が正常であるか否かを(例えば、図5(C))、コンピュータ3により判定する。検査システム1によれば、この撮像から判定までを、目視による検査よりも確実に自動で行うことができる。
[Inspection system 1]
FIG. 1 shows an
なお、図4(A)は、撮像対象となる基板101と対象物102の上面図であり、基板101の上に対象物102と障害物104が配置されている。基板101に接着される対象である対象物102の例として、半導体チップ、チップモールド等が挙げられる。なお、図4は、FCCSPを示した例である。この例のように、アンダーフィル充填前の接合状態での判定検査において、欠陥品を除外することができる。基板101の上に配置される障害物104の例としては、チップコンデンサ等が挙げられるが、これらに限定されるものではない。図4(B)は、基板101、対象物102、バンプ103の位置関係の例を示す図であり、基板101と対象物102との間にはバンプ103が介在し、バンプ103により基板101に対象物102が接着されている。基板101の例としては特に限定されない。さらに、基板101には金属層等が積層されてもよく、あるいはエポキシ樹脂等によってラミネート加工されていてもよい。なお、図4(A)の矢印によって示されるように、最大4方向からの画像を判定処理に用いることによって判定精度を高めることができる。バンプ103は、基板101と対象物102の接合部であり、通常、半田からなるが、バンプ103はこれに限定されない。
Note that FIG. 4A is a top view of the
検査システム1は、製造ラインに組み込むことができ、リアルタイムでバンプ103ひいては対象物102の良否を判定できる。
The
<撮像装置2>
次に、撮像装置2の構成について説明する。検査システム1において、撮像装置2は、基板101と、バンプ103により基板101に接着される対象物102との間の隙間g(図4(C)参照)の画像100aを含む画像100(隙間gを含む撮像範囲)を撮像することにより(以下、単に「隙間gを撮像する」ともいう)画像100を取得する。撮像装置2は、図1に示すように、カメラ21と、通信部22とを備えている。
<
Next, the configuration of the
カメラ21としては、図4(C)に示すような基板101と対象物102との間の隙間gを撮像できるものであれば、特に限定されない。なお、一般的に、画像処理での欠陥検出には少なくとも3~4画素の情報が必要である。そこで、例えば、10μmの欠陥を可視化したい場合、搭載CMOS(対象物102)のサイズ2.7μm/pixに対して1倍のテレセントリックレンズをカメラ21に装着することでこの目的を満たすことができる。
The
図4(C)では、撮像装置2(カメラ21)が隙間gを撮像する方向(実線矢印および点線矢印で示される方向)を示している。なお、図4(C)では、対象物102の外周部にはバンプ103が存在しない例を示しているが、本発明はこれに限定されず、対象物102の外周部にバンプ103が存在する場合にも本発明は適用可能である。対象物を基板に接着するためのバンプが正常であるか否かを判断するために、図4(B)や図4(C)の点線矢印で示すようにバンプ103の水平(横)方向すなわち正面から撮影することが考えられるが、チップコンデンサのような撮像の障害物104等があるとバンプ103を水平方向から撮影することが困難となる場合もある。そこで、図4(C)の実線矢印で示すように、コンピュータ3に送る画像100を撮像する際に斜め下方に向かって撮像することもできる。このときの撮像する角度(カメラアングル)、即ち「斜め下方に向かって」とは、対象物102と障害物104との距離によって定まるものであり、限定されるものではない。なお、障害物104による光の反射がバンプ103に重ならないよう、且つ、バンプ103が対象物102に隠れすぎないよう、カメラアングルを調整することが好ましい。
4(C) shows the direction (direction indicated by solid line arrow and dotted line arrow) in which the imaging device 2 (camera 21) images the gap g. Note that FIG. 4(C) shows an example in which the
通信部22は、無線または有線により外部装置との信号の送受信を行うための通信インターフェースを含む。カメラ21により撮像された画像100は通信部22によりコンピュータ3(受付手段32)に送信されるようになっている。
The
<コンピュータ3>
本開示のコンピュータ3の構成について図1を用いて説明する。本実施形態のコンピュータ3は産業用コンピュータ、タブレット端末等から構成されており、図1に示すように、制御部30と、記憶部40と、通信部42と、表示部44と、操作部46とを備えている。
<
The configuration of the
制御部30は、CPU(中央演算処理装置)やGPU(画像処理装置)、AI推論装置等で構成され、コンピュータ3の動作を制御する。具体的には、制御部30は、後述する記憶部40に記憶されているプログラムを実行することにより、受付手段32と、前処理手段34と、判定手段36と、出力手段38として機能する。さらに、制御部30は、記憶部40に記憶されているプログラムを実行することにより、第1モデル生成手段200や第2モデル生成手段300として機能してもよい。これらの各手段については後述する。
The
記憶部40は、例えばHDD(Hard Disk Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、SSD(Solid State Drive)などで構成されている。また、記憶部40はコンピュータ3に内蔵されるものに限定されることはなく、コンピュータ3に着脱自在に装着可能な記憶媒体(例えば、USBメモリ)等であってもよい。本実施形態では、記憶部40は、制御部30により実行されるプログラム、第1学習済みモデル220や第2学習済みモデル320等をそれぞれ記憶するようになっている。
The
通信部42は、無線または有線により外部装置との信号の送受信を行うための通信インターフェースを含む。通信部42により制御部30は撮像装置2と信号の送受信を行う。
The
表示部44は例えばモニタ等であり、制御部30から表示指令信号を受け取ることにより様々な画面を表示する。操作部46は例えばキーボード等であり、制御部30に対して様々な指令を与えることができるようになっている。なお、本実施形態では、これらの表示部44および操作部46が一体化したタッチパネル等の表示操作部が用いられてもよい。
The
(制御部30の詳細)
(受付手段32)
受付手段32は、撮像装置2により撮像された、基板101と、バンプ103により基板101に接着される対象物102との間の隙間gの画像100aを含む画像100を受け付ける。図5(A)は、隙間gの画像100aを含む画像100の例を示す。
(Details of the control unit 30)
(Reception means 32)
The accepting
(前処理手段34)
前処理手段34(および本開示における前処理工程)は、第1境界線b1および第2境界線b2を特定することにより、判定領域を抽出(マスキング)することを目的とする。前処理手段34は、バンプ103により接着される基板101と対象物102との間の隙間gの画像であってバンプ103と対象物102との間の第1境界線b1が得られる画像を含む教師データ210を用いることにより機械学習によって生成された第1学習済モデル220を用いて、受付手段32が受け付けた画像100における第1境界線b1を特定するとともに(図2中、第1境界線b1の特定処理51)、予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて、受付手段32が受け付けた画像において第1境界線b1との間にバンプ103の下端を含むよう第2境界線b2を第1境界線b1から特定する(図2中、第2境界線b2の特定処理52)。「第1境界線b1」および「第2境界線b2」は、判定領域となる画像部分100aの上端および下端を画定するものである。
(Pre-processing means 34)
The pre-processing means 34 (and the pre-processing step in the present disclosure) aims to extract (mask) a judgment region by identifying the first boundary line b1 and the second boundary line b2. The pre-processing means 34 identifies the first boundary line b1 in the
((第1学習済モデル220))
第1学習済モデル220は、全てのバンプ103(後述する鏡像を含んでよい)を同一のサイズおよび同一の形状のバウンディングボックス(BB)で検出するよう学習される。ここで、第1学習済モデル220によるバンプ103の「検出」とは、受付手段32が受け付けた画像100において現れる各バンプ103をBBで特定すること(アノテーション)をいい、BBで各バンプ103の周囲を囲むことや、余白(背景)と共に各バンプ103を包含すること、各バンプ103を部分的に特定することも含む(図6(B)参照)。これらのBBの形状は矩形であることが好ましい。また、BB同士は重ならないことが好ましい。このアノテーション作業には、画像100においてBBの唯一の基準として標準的な1個のバンプ103を囲み、サイズおよび始点Y位置(上辺)を変えることなく、このBBを画像100中の全てのバンプ103に適用(検出)することが含まれる。ここで、「標準的なバンプ」とは特に限定されないが、その他のバンプと比べて明らかに大きい、小さい、またはクセの強いモノは除かれる。
((First trained model 220))
The first trained model 220 is trained to detect all bumps 103 (which may include mirror images, which will be described later) with bounding boxes (BBs) of the same size and shape. Here, the "detection" of the
((第1境界線b1の特定))
BBで全てのバンプ103を検出(アノテーション)した結果、第1学習済モデル220は、全てのBBの対象物102側の辺(上辺)を基に第1境界線b1を特定することができる。例えば、図5(A)(B)のように撮像されたバンプ103の高さが同じであれば、BBにより全てのバンプ103が一様に囲まれ、BBの上辺を繋げて第1境界線b1とすることができる。また、全てのバンプ103の高さが同じでなくても、同一サイズおよび同一形状のBBで全てのバンプ103を検出させると、BBの上辺が大まかに揃うようになる(図6(B))。この場合、第1学習済モデル220は、画像100においてY位置(上辺)の最も高いBB(例えば、図6(B)の中央)やY位置(上辺)の最も低いBB(例えば、図6(B)の中央以外のBB)の上辺を通るように第1境界線b1を特定できるし、BBの上辺の平均的な高さ(Y位置)を通るように第1境界線b1を特定することもできる。以上のように第1境界線b1を特定できるのであれば、第1学習済モデル220を生成するための機械学習としては特に限定されず、深層学習等の様々なものを用いることができる。第1学習済モデル220は、後述する良否判定用の第2学習済みモデル320の前段階の物体検出AIであり、上述のようなバンプを含む様々な画像(鏡像を含んでもよい)を教師データ210として使用して学習される。なお、教師データ210としての、バンプ103と対象物102との間の第1境界線b1が得られる画像には、実際に第1境界線b1が必ずしも特定されているわけではない。教師データ210としての画像には後述するようにBBが示される。言い換えれば、「第1境界線b1が得られる画像」とは、その画像から本開示の前処理手段34によれば第1境界線b1が得られるであろう画像を意味する。
((Identification of the first boundary line b1))
As a result of detecting (annotating) all the
((第2境界線b2の特定))
なお、「予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて、第2境界線b2を特定する」とは、バンプ103と対象物102の境界線である第1境界線b1(上端)が分かれば、予め設定されている隙間gの大きさから第2境界線b2(下端)を導き出せることを意味している。ここで、隙間gの大きさは、画像の画素(ピクセル、pix)数から定義することができる。また、受付手段32が受け付けた画像においてバンプ103の下端を含む第2境界線b2(下端)を導き出す設定を、対象物102とバンプ103の品種や目的、運用方法に応じて任意に変更することができる。例えば、大まかな不良だけを判定したい場合は、情報量を減らしてもよいし(第2境界線b2を上方に特定させる)、後述のように実像では見えない情報を取るために鏡像を多めに含めてもよい(第2境界線b2を下方に特定させるよう設定することもできる。図5(B)のb2’参照)。図4(C)の点線矢印で示す方向から撮像された、基板101や対象物102等の例示的な一側面図(一方向のサイドビュー)である図5(A)では、前処理手段34により特定された例示的な第1境界線b1および第2境界線b2、ならびにこれらの間の領域の画像部分100aが示されている。この画像部分100aにおいて、いずれのバンプ103の上端および下端も第1境界線b1および第2境界線b2に接している。この例のように、対象物102や基板101等の不必要な情報量を最大限取り除くため、バンプ103の上端および下端に接するように第1境界線b1および第2境界線b2を特定することが特に好ましい。
((Identification of second boundary line b2))
In addition, "the second boundary line b2 is specified based on the size of the gap g between the
((第1境界線b1および第2境界線b2を特定する意義))
本発明において、判定処理の前に第1境界線b1および第2境界線b2を特定する理由は以下の通りである。画像100において、バンプ103の領域(情報量)より対象物102や基板101の領域(情報量)が大き過ぎるため、判定領域が画像100のままだと、AIがバンプ103部分を判定することが困難である。特に対象物102の切断面に対して製造工程上の管理が行われていない場合、画像における対象物102の見え方が様々となり、バンプ103の正常と異常の差よりも目立ってしまい、誤検知や誤判定の原因となる。そこで、本発明に係る第1学習済モデル220は、画像100におけるバンプ103のマスク処理(マスキング)を行うために、第1境界線b1および第2境界線b2を特定する。
((The significance of identifying the first boundary line b1 and the second boundary line b2))
In the present invention, the reason for identifying the first boundary line b1 and the second boundary line b2 before the judgment process is as follows. In the
一般的に、物体検出の学習モデルを作るとき、画面上のバンプ103を、1つずつマウスで囲む作業が行われる。本発明者は、この人力による従来手法で学習モデルの作成を試みたが、第1境界線b1(複数のバンプ103)がきれいに揃わなかった。すなわち、人間がバンプを精度よく囲めば囲むほど、サンプル数を増やせば増やすほど、第1境界線b1がでこぼこになっていた(図6(A))。そして、本発明者は、マスク処理のための第1境界線b1を揃えること(第1境界線b1の特定)に対しては、主に2つの課題があることを見出した。1つは、対象物102(チップ)や基板101は個体差が大きく、場合によっては反っていたりする(完全な平板状ではない)。また、左右のバンプ103のハンダ量が異なることで基板101に対して対象物102が傾く場合もある。よって、チップの左端と右端で直線を引いても第1境界線b1は単純に決定できない。もう1つは、バンプ103個々のばらつきがあり(同品種でも4辺で違うし、1辺でもばらつく)、当然、撮像の照明があたった光沢部分の見え方が異なる。つまり、光沢部分のその奥(暗い部分)に照明があたらない部分が存在し、この部分としてバンプ103の頂部(丸みのところ)が挙げられる。さらに、前後で位置の異なるバンプ103が撮像される場合もある。このように、バンプ103と対象物102との接合部が画像に写らないことがあり、第1境界線b1は全てのバンプ103と対象物102との間に存在するわけではない。
In general, when creating a learning model for object detection, the
そこで、発明者は鋭意検討の結果、発想を変えて、マウスで囲むバンプ103を1つにした(図6(B))。そして、様々な画像からこのような基準値となるバンプ103を教師データ210として用いて第1学習済モデル220を構築したところ、第1境界線b1(複数のバンプ103)が揃うことを見出した。すなわち、この第1学習済モデル220を用いると、その基準値がチップの端から端にスライドするように、第1境界線b1が揃いだすことを見出した。これは、良品がほとんどであるバンプ103を1つ1つ囲むことが結果的に、人による誤差の影響を大きくしたためだと考えられる。なお、図6(A)、(B)には、図5(B)のように鏡像も映っている例を示しているが、鏡像はあってもなくてもよい。また、第1境界線b1を特定するために、バンプ103の判定領域はできるかぎり大きく、頂部(丸み部分)まであることが好ましい。
The inventors then, after careful consideration, changed their approach and decided to circle only one
((その他の処理))
さらに、第1境界線b1を高精度で特定することで、マスク処理の他に、第2学習済みモデル320へ入力する検査画像の位置補正も行ってもよい。例えば、画像中の第1境界線b1と第2境界線b2のY座標(垂直方向)の補正を行ってもよい。こうして、第2学習済みモデル320の異常検知AIによる判定をより正確に実現することができる。
((Other processing))
Furthermore, by identifying the first boundary line b1 with high accuracy, in addition to the masking process, the position of the inspection image to be input to the second trained model 320 may also be corrected. For example, the Y coordinates (vertical direction) of the first boundary line b1 and the second boundary line b2 in the image may be corrected. In this way, the anomaly detection AI of the second trained model 320 can be more accurately determined.
((切出し処理))
ところで、対象物102や基板101の左端と右端が水平ではない場合、撮像(一視野)した画像100を用いると第1境界線b1が揃いにくいこともある。そこで、第1学習済モデル220による第1境界線b1の特定は、受付手段32が受け付けた画像100の所定の領域(例えば、図7のYピクセル(pix)長の領域)毎に行わせてもよい。すなわち、学習エリアや判定領域を小さく切り出すことで(トリミング)、対象物102や基板101の左端と右端の差を小さくさせることができる。
((Cutout processing))
However, if the left and right ends of the
この切出し処理は以下の手順で行われてもよい。まず、パターンマッチングによる特徴点サーチを行う。この「特徴点」としては、特に限定されないが、画像100内にみられるユニークな形状を指す。製品の品種によるが、特徴点として、バンプ配列内に唯一存在する特徴(例えば、隣り合うバンプ103間の隙間が異なる等)を使用することができる。次に、サーチされた特徴点を基に切出領域を決定する。具体的には、画像100中の特徴点の検出X座標から所定の画素長にオフセットさせた(相対)位置に、切出領域の左端位置および右端位置(即ち、X座標における特徴点からの各相対距離)を決定する(例えば、画像中央に検出特徴点があれば、切出領域の始点はマイナスX、終端はプラスXと表現できる)。次に、切出領域の左端位置から右端位置までの距離を固定サイズ(図7のY pix長)にして、重複させながら、画像100から順次切り出す。図7中、Z pixは重複領域の長さを示す。なお、「Y」および「Z」の値は、バンプ103や画像100のサイズ等に合わせて適宜設定できる。次に、切り出されたY pix長の各切出領域において、バンプ103を検出し、第1境界線b1および第2境界線b2を特定してマスク処理を行う。マスク処理後、さらに、判定すべき欠陥サイズやカメラ21の分解能に応じて、各切出領域を左右2分割して(中央で所定の領域を重複させる)、判定領域としてもよい。このような分割処理により、AI(第1学習済モデル220)への入力サイズに制限がある場合に縮小することで欠陥が見えなくなる事態を回避できる。
This cutout process may be performed in the following procedure. First, a feature point search is performed by pattern matching. The "feature point" is not particularly limited, but refers to a unique shape found in the
(判定手段36)
判定手段36は、正常であるバンプ103の画像を含む教師データ310を用いることにより機械学習によって生成された第2学習済モデル320を用いて、受付手段32が受け付けた画像100のうち第1境界線b1および第2境界線b2の間の領域の画像部分100aから、バンプ103が正常であるか否かを判定する(図2中、判定処理53)。この「判定」は、もともと人間が目視で行っていた外観検査に相当し、具体的には、バンプ103の溶融状態や残存量の確認、ツヤ等の外観の判定を含む。また、第2学習済モデル320を生成するための機械学習としては、深層学習等の様々なものを用いることができる。なお、図5(C)に、正常(OK)および異常(NG)と判定されるバンプ103の例を示す。
(Determination means 36)
The determination means 36 uses the second trained model 320 generated by machine learning using the
このように、受付手段32が受け付けた画像100そのものを用いるのではなく、マスキングにより判定範囲を限定し、第1境界線b1および第2境界線b2の間の領域(隙間g)の画像部分100a(図5(A))から判定手段36は判定を行う。また、画像100aを更に分割(切り出し)して、分割後の各画像に1つのバンプ103だけが含まれるようにしてもよい。この分割方法としては特に限定されず、前述した切出し処理を行ってもよい。このようにして、画像100に撮像された基板101と対象物102の特徴が検出されてしまうことを防止できる。より具体的には、判定には第2学習済モデル320を用いて画像部分100aからバンプ103の位置を検出し、AI物体検出によって誤判定を防止できる。
In this way, instead of using the
撮像の際の光を反射して基板101がバンプ103の鏡像(虚像)を映すものである場合、第2学習済モデル320は、正常であるバンプ103の画像としてバンプ103の実像および基板101に投影されるバンプ103の鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものでもよい。実線矢印で図4(C)に示す例のように、バンプ103の検査のために、斜め下方に向かって隙間gを撮像すると、基板101に投影されるバンプ103の鏡像も撮像され、判定に利用することができる。図5(B)に示す例では、各バンプ103がダルマ状に画像100に反映されている。即ち、斜め下方に向かって隙間gを撮像した結果、b1’とb2’の間の点線より上がバンプ103の実像を、点線より下がバンプ103の鏡像を示している(図4(C)のように対象物102の外周部にバンプ103が存在しない状態で斜め下方に向かって隙間gを撮像した結果、対象物102によりバンプ103の実像の上端が隠れていることを示すため、バンプ103の上端を点線で示している)。ここで、図5(B)のように、各バンプ103の上端、即ち、実像のバンプ103の領域の一部が見えないこともある(情報量が少ない)。この場合でも、画像100においてこれらの上端の隠れたバンプ103と対象物102と間のb1’を第1境界線として特定し、さらに、鏡像の領域も判定領域に含めるようにb2’を第2境界線として特定してもよい。こうすることにより、バンプ103の良品と不良品の差異を示す情報量が増え、判定の精度は向上もしくは高いままである。従って、図5(B)に示す例のように鏡像も撮像された場合、鏡像も利用して判定精度を向上させるために、第2境界線b2は、バンプ103の鏡像と対象物102の鏡像との間の境界線を指す第2境界線b2’とすることもできる。すなわち、この場合の判定領域となる画像部分100a’は、実像に基づく第1境界線b1’と鏡像に基づく第2境界線b2’との間の領域に相当する。この第2境界線b2’も、予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて特定することができる。
If the
または、第2学習済モデル320は、正常であるバンプ103の画像を含む教師データ310(上述のようにバンプ103の上端は隠れていてもよく、且つ/またはバンプ103の鏡像を含んでもよい。)のみを用いることにより良品学習によって生成されたものでもよい。判定手段36は、以上のような第2学習済モデル320を用いて、受付手段32が受け付けたバンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像100のうち第1境界線b1またはb1’および第2境界線b2またはb2’の間の領域の画像部分100aから、バンプ103が正常であるか否かを判定してもよい。
Alternatively, the second trained model 320 may be generated by good product training using only the
判定不可であれば、そのバンプ103は異常(NG)と判定される。
If it is not possible to judge, the
(出力手段38)
出力手段38は、表示部44を介して判定結果を出力する。
(Output means 38)
The output means 38 outputs the determination result via the
(第1モデル生成手段200、第2モデル生成手段300)
第1モデル生成手段200および第2モデル生成手段300は、それぞれ教師データ210および310を用いて機械学習により第1学習済モデル320および第2学習済モデル220を生成する(図2)。第1学習済モデル220および/または第2学習済モデル320は、コンピュータ3とは別の装置が所定のプログラムを実行することにより機能するようになっていてもよく、あるいは制御部30が記憶部40に記憶されているプログラムを実行することにより機能するようになっていてもよい。前者の場合は、別の装置により生成された第1学習済モデル220および/または第2学習済モデル320は、コンピュータ3に送信され、このコンピュータ3の記憶部40に記憶される。
(First model generation means 200, second model generation means 300)
The first model generation means 200 and the second model generation means 300 generate the first trained model 320 and the second trained model 220 by machine learning using the
[検知方法]
次に、このようなコンピュータ3(検査システム1)による検知方法について説明する。なお、以下に示す処理は記憶部40に記憶されているプログラムを制御部30が実行することにより行われる。
[Detection method]
Next, a description will be given of a detection method using the computer 3 (the inspection system 1) as described above. Note that the following process is performed by the
まず、撮像装置2が、基板101と、バンプ103により基板101に接着される対象物102との間の隙間gを撮像することにより画像100を取得する(図3、ステップS1)。ここで、上述したように、撮像装置2が、コンピュータ3に送る画像を撮像する際に斜め下方に向かって撮像し、バンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像を取得することもできる。
First, the
次に、コンピュータ3(受付手段32)が、撮像装置2により撮像された画像を受け付ける(図3、ステップS2)。 Next, the computer 3 (reception means 32) receives the image captured by the imaging device 2 (Figure 3, step S2).
次に、コンピュータ3(前処理手段34)が、バンプ103により接着される基板101と対象物102との間の隙間gの画像であってバンプ103と対象物102との間の第1境界線b1が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデル220を用いて、受け付けた画像100から第1境界線b1を特定するとともに(図2、第1境界線b1の特定処理51)、予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて、受け付けた画像100において第1境界線b1との間にバンプ103の下端を含むように第2境界線b2を第1境界線b1から特定する(図2、第2境界線b2の特定処理51。図3、ステップS3)。前述のように、第1学習済モデル220は、全てのバンプ103を同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである。こうして、第1境界線b1および第2境界線b2から判定領域となる画像部分100aが抽出されることになる。さらに、画像100に対する前処理として、基板101と対象物102が水平になるように輪郭抽出による角度計測や回転補正を行ったり、画像100を拡大させてもよい。
Next, the computer 3 (pre-processing means 34) uses the first trained model 220 generated by machine learning using training data including an image of the gap g between the
次に、コンピュータ3(判定手段36)が、正常であるバンプ103の画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデル320を用いて、受け付けた画像のうち第1境界線b1および第2境界線b2の間の領域の画像部分100aから、バンプ103が正常であるか否かを判定する(図3、ステップS4)。なお、上述したように、第2学習済モデル320は、正常であるバンプ103の画像としてバンプ103の実像および基板101に投影されるバンプ103の鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものでもよい。
Next, the computer 3 (determination means 36) uses the second trained model 320 generated by machine learning using training data including an image of the
次に、コンピュータ3(出力手段38)が、表示部44を介して判定結果を出力する。また、コンピュータ3(出力手段38)は、通信部42を介して判定結果を外部装置に送信してもよい。
Next, the computer 3 (output means 38) outputs the determination result via the
以上のような構成からなる本開示のプログラム、コンピュータ3、検査システム1および検査方法によれば、検査システム1は、撮像装置2と、撮像装置2により撮像された画像が送られるコンピュータ3とを備える。撮像装置2は、基板101と、バンプ103により基板101に接着される対象物102との間の隙間gの画像100aを含む画像100を撮像することにより画像100を取得する。コンピュータ3(制御部30)は、プログラムを実行することにより、受付手段32と、前処理手段34と、判定手段36として機能する。受付手段32は、撮像装置2により撮像された、基板101と、バンプ103により基板101に接着される対象物102との間の隙間gの画像100aを含む画像100を受け付ける。前処理手段34は、バンプ103により接着される基板101と対象物102との間の隙間gの画像であってバンプ103と対象物102との間の第1境界線b1が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデル220を用いて、受付手段32が受け付けた画像100における第1境界線b1を特定するとともに、予め設定されている基板101と対象物102との間の隙間gの大きさに基づいて、受付手段32が受け付けた画像100において第1境界線b1との間にバンプ103の下端を含むよう第2境界線b2を第1境界線b1から特定する。判定手段36は、正常であるバンプ103の画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデル320を用いて、受付手段32が受け付けた画像100のうち第1境界線b1および第2境界線b2の間の領域の画像部分100aから、バンプ103が正常であるか否かを判定する。第1学習済モデル220は、全てのバンプ103を同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである。
According to the program,
従来から、半導体チップ等の対象物を基板に接着するためのバンプが正常であるか否かについて顕微鏡により人が目視にて検査を行っていたところ、バンプはほとんどが正常なものであり異常が発生することは稀であるため、バンプに異常があっても見落としやすいという課題があった。これに対して、このような本開示のプログラム、コンピュータ3、検査システム1および検査方法によれば、受け付けた画像からバンプの異常を目視よりも確実に検出できる。特に、本発明によれば、受け付けた画像100における第1境界線b1および第2境界線b2を特定し、第1境界線b1および第2境界線b2の間の領域の画像部分100aからバンプ103が正常であるか否かを判定するので、効率的な検査を実現できる。
Conventionally, a person would visually inspect bumps for bonding objects such as semiconductor chips to a substrate using a microscope to see if they were normal. However, most bumps are normal and abnormalities are rare, so there was a problem that abnormalities in the bumps were easily overlooked. In contrast, the program,
また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、バウンディングボックスの形状を矩形とすることができる。バンプ103に合わせて様々な矩形状のバウンディングボックスを設定することができる。
In addition, in the program,
また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、バウンディングボックス同士は重ならないことが、第1境界線b1の特定に余計なバウンディングボックスを検出させない手段として好ましい。生成されるたくさんのBBから第1境界線b1の特定に適切なBBを選ぶまたは明確にする方法として、NMS(Non-maximum suppression)を使用できる。
In addition, in the program,
また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、第1学習済モデル220は、全てのバウンディングボックスの対象物102側の辺(上辺)を基に第1境界線b1を特定してもよい。このように、各バウンディングボックスの上辺を基に容易に第1境界線b1を特定することができる。
Furthermore, in the program,
また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、第1学習済モデル220は、第1境界線b1の特定を受付手段32が受け付けた画像100の所定の領域毎に行うものでもよい。上述したようなトリミングによって画像サイズを調節し、チップ等の対象物102の反りや傾きを無視できるようになる(短い区間は直線に近似するから)。
Furthermore, in the program,
また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、第2学習済モデル320は、正常であるバンプ103の画像としてバンプ103の実像および基板101に投影されるバンプ103の鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、判定手段36は、この第2学習済モデル320を用いて、受付手段32が受け付けたバンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像100のうち第1境界線b1(b1’)および第2境界線b2’の間の領域の画像部分100a’から、バンプ103が正常であるか否かを判定してもよく、ここで、第2境界線b2’は、受付手段32が受け付けたバンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像100のうち、バンプ103の鏡像と対象物102の鏡像の間の境界線である(図5(B))。図4(B)に示すようにバンプ103の横方向から撮影することも考えられるが、チップコンデンサのような撮像の障害物104等があるとバンプ103を横方向から撮影することが困難となる場合もある。そこで、図4(C)に示すように、画像100が斜め下方に向かって撮像された場合でも、画像100に含まれるバンプ103の実像および基板101に投影されるバンプ103の鏡像を利用することにより、バンプ103が正常であるか否かを判定することが可能である。すなわち、本開示のプログラム、コンピュータ3、検査システム1および検査方法によれば、バンプ103や隙間gの撮像に障害となる障害物104がある場合であっても、より確実な判定をすることができる。さらに、鏡像も利用することにより、判定のための情報量が増え、判定精度が向上する。
In addition, in the program,
また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、第2学習済モデル320は、正常であるバンプ103の画像を含む教師データのみを用いることにより良品学習によって生成されたものでもよい。実際に不良品が発生する件数が少なく不良品の定義が難しい場合や不良品のデータ収集が難しい場合にも、本開示のプログラム、コンピュータ3、検査システム1および検査方法は好適である。
In addition, in the program,
また、本開示のプログラム、コンピュータ3、検査システム1および検査方法において、対象物102は半導体チップであってもよい。このように、基板101上に対象物102の他に対象物102に伴って他の配置物(障害物104等)がある場合に、本開示のプログラム、コンピュータ3、検査システム1および検査方法は好適に適用できる。
In addition, in the program,
また、本開示の検査方法において、第2学習済モデル320は、正常であるバンプ103の画像としてバンプ103の実像および基板101に投影されるバンプ103の鏡像を同じ画像に含むものを用いることにより機械学習によって生成されたものであり、撮像装置2が、コンピュータ3に送る画像を撮像する際に斜め下方に向かって撮像し、バンプ103の実像および基板101に投影されるバンプ103の鏡像を含む画像を取得してもよい(図4(C)参照)。こうして、バンプ103の撮像に障害となる、図4に示すような障害物104がある場合であっても、バンプ103が正常であるか否かを精度よく判定することができる。
In addition, in the inspection method disclosed herein, the second trained model 320 is generated by machine learning using an image of a
なお、本開示によるコンピュータ3、プログラムおよび検知方法は、上述したような態様や組み合わせに限定されることはなく、様々な変更を加えることができる。
Note that the
例えば、上述のように、鏡像も画像100に含まれる場合も、前処理手段34は画像100における第1境界線b1(b1’)および第2境界線b2’を特定してもよいが、第1境界線b1(b1’)は鏡像のバンプ103が半分程度(多すぎず少なすぎず)含まれるように高さを指定することができればよい。隙間gには同一サンプル内でもばらつきが存在するため、第1境界線b1(b1’)および第2境界線b2’は必ずしも精度よく特定できるわけではなく、この場合でも良好な判定結果を得られるからである。
For example, as described above, even when the mirror image is included in the
1 検査システム
2 撮像装置
21 カメラ
22 通信部
3 コンピュータ
30 制御部
32 受付手段
34 前処理手段
36 判定手段
38 出力手段
22a モデル生成部
24a 受付部
26a 推定部
28a 出力部
40 記憶部
42 通信部
44 表示部
46 操作部
100、100a、100a’ 画像
101 基板
102 対象物
103 バンプ
104 障害物
200 第1モデル生成手段
210 教師データ
220 第1学習済みモデル
300 第2モデル生成手段
310 教師データ
320 第2学習済みモデル
b1、b1’ 第1境界線
b2、b2’ 第2境界線
g 隙間
1
Claims (12)
前記受付手段は、撮像装置により撮像された、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである、プログラム。 A program for causing a computer to function as a reception unit, a preprocessing unit, and a determination unit,
The receiving means receives an image including an image of a gap between a substrate and an object to be bonded to the substrate by a bump, the image being captured by an imaging device;
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning by using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is trained to detect all bumps with bounding boxes of the same size and shape.
前記判定手段は、前記第2学習済モデルを用いて、前記受付手段が受け付けた前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第2境界線は、前記受付手段が受け付けた前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像のうち、前記バンプの鏡像と前記対象物の鏡像の間の境界線である、請求項1記載のプログラム。 The second trained model is generated by machine learning using an image of a normal bump that includes a real image of the bump and a mirror image of the bump projected onto a substrate in the same image;
the determination means uses the second learned model to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in an image including a real image of the bump and a mirror image of the bump projected onto the substrate, the image portion being received by the receiving means;
The program according to claim 1 , wherein the second boundary line is a boundary line between the mirror image of the bump and the mirror image of the object in an image including the real image of the bump accepted by the accepting means and a mirror image of the bump projected onto the substrate.
前記受付手段は、撮像装置により撮像された、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである、コンピュータ。 A computer that functions as a reception unit, a preprocessing unit, and a determination unit by executing a program,
The receiving means receives an image including an image of a gap between a substrate and an object to be bonded to the substrate by a bump, the image being captured by an imaging device;
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning by using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is trained to detect all bumps with bounding boxes of the same size and shape.
前記撮像装置は、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を撮像することにより画像を取得し、
前記コンピュータは、プログラムを実行することにより受付手段と、前処理手段と、判定手段として機能し、
前記受付手段は、前記撮像装置により撮像された画像を受け付け、
前記前処理手段は、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、前記受付手段が受け付けた画像における第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、前記受付手段が受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定し、
前記判定手段は、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、前記受付手段が受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定し、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである、検査システム。 An inspection system including an imaging device and a computer to which an image captured by the imaging device is sent,
the imaging device acquires an image by capturing an image including an image of a gap between a substrate and an object bonded to the substrate by a bump;
The computer functions as a reception unit, a preprocessing unit, and a determination unit by executing a program;
The receiving means receives an image captured by the imaging device,
the preprocessing means uses a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object can be obtained, to identify a first boundary line in the image received by the receiving means, and identifies a second boundary line from the first boundary line in the image received by the receiving means based on a preset size of the gap between the substrate and the object such that a lower end of the bump is included between the first boundary line and the second boundary line;
the determination means uses a second trained model generated by machine learning using teacher data including an image of a normal bump to determine whether the bump is normal or not from an image portion of a region between the first boundary line and the second boundary line in the image accepted by the acceptance means;
The first trained model is trained to detect all bumps with bounding boxes of the same size and shape.
前記撮像装置が、基板と、バンプにより前記基板に接着される対象物との間の隙間の画像を含む画像を撮像することにより画像を取得する工程と、
前記コンピュータが、前記撮像装置により撮像された画像を受け付ける工程と、
前記コンピュータが、バンプにより接着される基板と対象物との間の隙間の画像であって前記バンプと前記対象物との間の第1境界線が得られる画像を含む教師データを用いることにより機械学習によって生成された第1学習済モデルを用いて、受け付けた画像から第1境界線を特定するとともに、予め設定されている前記基板と前記対象物との間の隙間の大きさに基づいて、受け付けた画像において前記第1境界線との間に前記バンプの下端を含むよう第2境界線を前記第1境界線から特定する工程と、
前記コンピュータが、正常であるバンプの画像を含む教師データを用いることにより機械学習によって生成された第2学習済モデルを用いて、受け付けた画像のうち前記第1境界線および前記第2境界線の間の領域の画像部分から、前記バンプが正常であるか否かを判定する工程と、
を備え、
前記第1学習済モデルは、全てのバンプを同一のサイズおよび同一の形状のバウンディングボックスで検出するよう学習されたものである、検査方法。 An inspection method using an inspection system including an imaging device and a computer to which an image captured by the imaging device is sent, comprising:
acquiring an image by the imaging device capturing an image including an image of a gap between a substrate and an object bonded to the substrate by bumps;
a step of receiving an image captured by the imaging device by the computer;
a step of the computer identifying a first boundary line from the received image using a first trained model generated by machine learning by using training data including an image of a gap between a substrate and an object bonded by a bump, the image being an image from which a first boundary line between the bump and the object is obtained, and identifying a second boundary line from the first boundary line in the received image based on a preset size of the gap between the substrate and the object such that the second boundary line includes a lower end of the bump between the first boundary line and the second boundary line;
A step in which the computer determines whether or not the bump is normal from an image portion of a region between the first boundary line and the second boundary line in the received image by using a second trained model generated by machine learning using teacher data including an image of a normal bump;
Equipped with
The inspection method, wherein the first trained model is trained to detect all bumps with bounding boxes of the same size and shape.
前記撮像装置が、前記コンピュータに送る画像を撮像する際に斜め下方に向かって撮像し、前記バンプの実像および前記基板に投影される前記バンプの鏡像を含む画像を取得する、請求項11記載の検査方法。 The second trained model is generated by machine learning using an image of a normal bump that includes a real image of the bump and a mirror image of the bump projected onto a substrate in the same image;
The inspection method according to claim 11 , wherein the imaging device captures an image to be sent to the computer obliquely downward, and obtains an image including a real image of the bump and a mirror image of the bump projected onto the substrate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024083464A JP7523840B1 (en) | 2024-05-22 | 2024-05-22 | PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024083464A JP7523840B1 (en) | 2024-05-22 | 2024-05-22 | PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7523840B1 true JP7523840B1 (en) | 2024-07-29 |
Family
ID=91967774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024083464A Active JP7523840B1 (en) | 2024-05-22 | 2024-05-22 | PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7523840B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004363146A (en) | 2003-06-02 | 2004-12-24 | Matsushita Electric Ind Co Ltd | Inspection chip for evaluating joined quality of electronic component to circuit board and tool and method therefor using the chip |
JP2007194403A (en) | 2006-01-19 | 2007-08-02 | Sony Corp | Apparatus and method for manufacturing electronic device, and for inspecting underfill material filling state |
JP2011112361A (en) | 2009-11-24 | 2011-06-09 | Renesas Electronics Corp | Device and method for inspecting bump |
JP2011169816A (en) | 2010-02-19 | 2011-09-01 | Nec Corp | Device for measuring junction inclination of semiconductor device |
JP2021141091A (en) | 2020-03-02 | 2021-09-16 | 日本電気株式会社 | Bump joint inspection device and bump joint inspection method |
-
2024
- 2024-05-22 JP JP2024083464A patent/JP7523840B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004363146A (en) | 2003-06-02 | 2004-12-24 | Matsushita Electric Ind Co Ltd | Inspection chip for evaluating joined quality of electronic component to circuit board and tool and method therefor using the chip |
JP2007194403A (en) | 2006-01-19 | 2007-08-02 | Sony Corp | Apparatus and method for manufacturing electronic device, and for inspecting underfill material filling state |
JP2011112361A (en) | 2009-11-24 | 2011-06-09 | Renesas Electronics Corp | Device and method for inspecting bump |
JP2011169816A (en) | 2010-02-19 | 2011-09-01 | Nec Corp | Device for measuring junction inclination of semiconductor device |
JP2021141091A (en) | 2020-03-02 | 2021-09-16 | 日本電気株式会社 | Bump joint inspection device and bump joint inspection method |
Non-Patent Citations (2)
Title |
---|
「バウンディングボックスアノテーションとは」,株式会社ヒューマンサイエンスのAI・アノテーション特設サイト, [online],2023年06月27日,[2024年6月17日検索], インターネット<URL:https://www.science.co.jp/annotation_blog/34330/> |
「バウンディングボックスとは?AIによる物体検出の手法とできること」,DXを推進するAIポータルメディア「Alsmiley」|AI製品・サービスの比較・検索サイト, [online],2024年02月08日,[2024年6月17日検索], インターネット<URL:https://aismiley.co.jp/ai_news/bounding-box/#:~:text=バウンディングボックス> |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5841427B2 (en) | Image processing apparatus and image processing method | |
US7512260B2 (en) | Substrate inspection method and apparatus | |
JP2007184589A (en) | Substrate inspection method and substrate inspecting apparatus | |
JP3906780B2 (en) | Data registration method for component code conversion table, board inspection data creation device, registration processing program, and storage medium thereof | |
KR20190037889A (en) | Method and system for detecting defect in produnt | |
JP2009168453A (en) | Inspection device | |
JP7135418B2 (en) | FLATNESS DETECTION METHOD, FLATNESS DETECTION APPARATUS AND FLATNESS DETECTION PROGRAM | |
JP4275149B2 (en) | Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium | |
WO2014103617A1 (en) | Alignment device, defect inspection device, alignment method, and control program | |
CN112669272A (en) | AOI rapid detection method and rapid detection system | |
JP7523840B1 (en) | PROGRAM, COMPUTER, INSPECTION SYSTEM AND INSPECTION METHOD | |
JPH1117400A (en) | Packaging part/inspecting device | |
JP7336294B2 (en) | BONDING WIRE INSPECTION DEVICE, BONDING WIRE INSPECTION METHOD, AND BONDING WIRE INSPECTION PROGRAM | |
JP2004132950A (en) | Appearance inspection device and appearance inspection method | |
JPS639602B2 (en) | ||
JP2924859B2 (en) | Appearance inspection method and device | |
JPH11307567A (en) | Manufacturing method of semiconductor device having bump inspection step | |
JP3311628B2 (en) | Defect location device for thin display devices | |
JPH0518372B2 (en) | ||
JP2006145228A (en) | Nonuniformity defect detection method and apparatus | |
JP2020204598A (en) | Teaching device in solid preparation appearance inspection and teaching method in solid preparation appearance inspection | |
CN119273681B (en) | Component placement quality monitoring system and method based on SMT placement machine | |
JPH06105212B2 (en) | Headlight main optical axis inspection method | |
CN109727225B (en) | Image processing apparatus, image processing method, and recording medium | |
JP2004085543A (en) | Appearance inspection device and appearance inspection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240522 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240709 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7523840 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |