JP2011528800A - Method and means for measuring the position of a contact element of an electronic component - Google Patents
Method and means for measuring the position of a contact element of an electronic component Download PDFInfo
- Publication number
- JP2011528800A JP2011528800A JP2011520004A JP2011520004A JP2011528800A JP 2011528800 A JP2011528800 A JP 2011528800A JP 2011520004 A JP2011520004 A JP 2011520004A JP 2011520004 A JP2011520004 A JP 2011520004A JP 2011528800 A JP2011528800 A JP 2011528800A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image point
- contact element
- camera
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/06—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
- G01B11/0608—Height gauges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30152—Solder
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】 x、yおよびz次元で倍率を活用する電子部品の接点素子(2、3)の位置を測定するための方法および手段が、本願明細書において開示される。
【解決手段】 倍率が、システムのカメラ対カメラの関係をも確立する校正手順中に決定される。較正は、異なる接点素子間の高さの差異を決定するために第1の像点と第2の像点との間の変位を得るプロセスの一部として第2および第3のカメラ(5、6)内に記録される対応する像点に接点素子の各点に対して第1のカメラ(4)内に記録される像点をマップする。
【選択図】 図1PROBLEM TO BE SOLVED: To disclose a method and means for measuring a position of a contact element (2, 3) of an electronic component utilizing magnification in x, y and z dimensions.
The magnification is determined during a calibration procedure that also establishes the camera-to-camera relationship of the system. Calibration involves the second and third cameras (5,5) as part of the process of obtaining the displacement between the first image point and the second image point to determine the height difference between the different contact elements. 6) Map the image points recorded in the first camera (4) for each point of the contact element to the corresponding image points recorded in.
[Selection] Figure 1
Description
本発明は、電子部品上のマシンビジョン検査および接点素子位置の測定の分野に関する。 The present invention relates to the field of machine vision inspection and contact element position measurement on electronic components.
従来技術では、電子部品の接点素子の位置を測定するための方法および手段は、電子デバイスの底面に対する接点素子の相対的z−位置の決定のためにそれぞれ第1および第2の画像を収集する三角測量角度上で設置される2台のカメラを活用する。接点素子の決定された位置の精度は、第1および第2の画像を記録するために設置される2台のカメラの間の三角測量角度に影響を受ける。しかしながら使用するデータが2次元情報に由来するので、算出された三角測量の精度に対して限界がある。さらに、算出された三角測量角度の精度はまた、レンズ歪に影響を受ける可能性があり、および、不均一照射が導出式に対する誤差の一因となる可能性がある。したがって、測定された接点素子の3次元位置を与えるために較正および測定中により確固としていて多くの不確かな要因に影響を受けない代替方式を提供することが有利である。 In the prior art, a method and means for measuring the position of a contact element of an electronic component collect first and second images, respectively, for determination of the relative z-position of the contact element with respect to the bottom surface of the electronic device. Utilize two cameras installed on the triangulation angle. The accuracy of the determined position of the contact element is affected by the triangulation angle between the two cameras installed to record the first and second images. However, since the data to be used is derived from two-dimensional information, there is a limit to the accuracy of the calculated triangulation. Furthermore, the accuracy of the calculated triangulation angle can also be affected by lens distortion, and non-uniform illumination can contribute to errors in the derived equation. Therefore, it would be advantageous to provide an alternative scheme that is more robust during calibration and measurement to provide a three-dimensional position of the measured contact element and is not affected by many uncertain factors.
本発明は、電子部品の接点素子のそれぞれの位置を測定するための方法であって、以下のステップ、すなわち、較正されたスペース内に前記接点素子をもたらすステップと、前記接点素子を照明するステップと、校正面と実質的に平行して延伸する第1の像平面を有する第1のカメラによって前記接点素子の第1の画像を記録するステップと、第2のカメラによって前記接点素子の第2の画像を記録するステップと、各前記接点素子上で各前記接点素子に対して第1の像点を決定するために前記第1の画像を処理するステップであって、各前記第1の像点が、各前記接点素子上に位置する点であるステップと、各前記接点素子上で各前記接点素子に対して第2の像点を識別するために前記第2の画像を処理するステップであって、各前記接点素子に対して前記第2の像点および前記第1の像点が、各前記接点素子上の同じ点に対応するステップと、前記第2の画像内で位置マッピングアルゴリズムによって第3の像点を決定するステップと、前記第2の画像内で前記第2の像点と前記第3の像点との間の変位を決定するステップであって、前記第3の像点が、前記校正面に直交して投影される前記第1の像点であるステップと、を含む方法に関する。 The present invention is a method for measuring the respective position of a contact element of an electronic component, comprising the steps of providing the contact element in a calibrated space and illuminating the contact element. Recording a first image of the contact element with a first camera having a first image plane extending substantially parallel to the calibration plane; and a second of the contact element with a second camera. Recording the first image and processing the first image to determine a first image point for each contact element on each contact element, each first image A point is a point located on each contact element, and a step of processing the second image to identify a second image point for each contact element on each contact element. Each said contact The second image point and the first image point with respect to a child correspond to the same point on each of the contact elements; and a third image point in the second image by a position mapping algorithm. Determining a displacement between the second image point and the third image point in the second image, wherein the third image point is applied to the calibration plane. The first image point projected orthogonally.
本発明は、電子部品の接点素子のそれぞれの位置を測定するための手段であって、較正されたスペース内に事前配置される前記接点素子を照明するための照明光源と、第1のカメラおよび第2のカメラであって、それぞれ前記接点素子の第1および第2の画像を記録するために用意される前記第1のカメラおよび前記第2のカメラと、処理デバイスであって、前記処理デバイスが、各前記接点素子に対する前記第1の画像内の第1の像点および各前記接点素子に対する前記第2の画像内の第2の像点の位置を取り出すための前記第1のカメラおよび前記第2のカメラに接続され、各前記接点素子に対する前記第1の像点および前記第2の像点が、前記第2の画像位置内の位置マッピングアルゴリズムによって第3の像点を取り出す、各前記接点素子上の同じ位置に対応し、前記第3の像点が、前記第1の像点から直交して投影され、かつ前記第2の像点と前記第3の点の間の変位を決定する点である、ことを特徴とする処理デバイスと、を備える手段に関する。 The invention relates to means for measuring the position of each contact element of an electronic component, an illumination light source for illuminating the contact element pre-positioned in a calibrated space, a first camera and A second camera, the first camera and the second camera prepared for recording the first and second images of the contact element, respectively, and a processing device, the processing device The first camera for retrieving the position of a first image point in the first image for each contact element and a second image point in the second image for each contact element; Each of the first image point and the second image point for each of the contact elements is connected to a second camera to extract a third image point by a position mapping algorithm in the second image position; Contact Corresponding to the same position on the element, the third image point is projected orthogonally from the first image point and determines the displacement between the second image point and the third point. And a processing device characterized by that.
追加的な第3のカメラが、第2のカメラ上で記録されることができない第1のカメラ上で記録される像点を補正するために含まれることができる。第3のカメラの包含はまた、全体的な検査時間を短縮する。 An additional third camera can be included to correct image points recorded on the first camera that cannot be recorded on the second camera. The inclusion of a third camera also reduces overall inspection time.
同様な文字が図面の全体にわたって同様な部分を表す添付の図面を参照して、以下の詳細な説明が読み込まれるときに、本発明のこれらの、そしてまた他の、特徴、態様および効果がよりよく理解され、そこにおいて These and other features, aspects and advantages of the present invention will become more apparent when the following detailed description is read with reference to the accompanying drawings in which like characters represent like parts throughout the drawings. Well understood and there
本発明に従う方法は、BGA(ボールグリッドアレイ)/CSP(チップスケールパッケージング)、フリップチップデバイス、リード付きデバイス(QFP、TSOP)、および、リードレスデバイス(MLP、QFN)のような電子部品の接点素子の3次元位置の自動計算のために設計される。本発明は、単一のデバイス上で見いだされる接点素子の組合せ、例えば図1にて図示したように、リード付きデバイスとのBGA/CSPデバイス(1)の組合せ、の3次元位置を自動的に計算することが可能である。 The method according to the present invention can be applied to electronic components such as BGA (ball grid array) / CSP (chip scale packaging), flip chip devices, leaded devices (QFP, TSOP), and leadless devices (MLP, QFN). Designed for automatic calculation of 3D position of contact elements. The present invention automatically determines the three-dimensional position of a combination of contact elements found on a single device, eg, a BGA / CSP device (1) combination with a leaded device as illustrated in FIG. It is possible to calculate.
図1は、その接点素子(2)および(3)が照明光源(7)および(8)によって照明されるような方法で、電子部品(1)が較正されたスペース内に事前配置されることを例示する。第1のカメラ(4)が、図2Aにて図示したように、部品の底部から第1の画像を記録するために校正面に対して実質的に垂直に設置される。第2のカメラ(5)および第3のカメラ(6)が、図2Bおよび2C内にそれぞれ例示されるような電子部品の側面斜視図の第2のおよび第3の画像を記録するために設置される。本発明の第1の実施態様において、2台のカメラだけが電子部品の接点素子の3次元位置を決定するために必要とされる。これらの接点素子が第2の画像から観察されることができない場合には、第3のカメラが電子部品の接点素子の画像を記録するのに用いられる。第3のカメラの使用はまた、より短い全体的な画像収集時間を可能にする。第3のカメラが使われるときに、第1および第3のカメラのそれぞれの第1および第3の画像内に記録される他の接点素子の位置を測定するための方法および手段は第1および第2のカメラによって使われる方法および手段と同じである。したがって、本発明の動作は第1および第2のカメラだけを使用して記載される。 FIG. 1 shows that the electronic component (1) is pre-positioned in a calibrated space in such a way that its contact elements (2) and (3) are illuminated by illumination light sources (7) and (8). Is illustrated. A first camera (4) is placed substantially perpendicular to the calibration plane to record a first image from the bottom of the part, as illustrated in FIG. 2A. A second camera (5) and a third camera (6) are installed to record the second and third images of the side perspective view of the electronic component as illustrated in FIGS. 2B and 2C, respectively. Is done. In the first embodiment of the present invention, only two cameras are required to determine the three-dimensional position of the contact element of the electronic component. If these contact elements cannot be observed from the second image, a third camera is used to record an image of the contact elements of the electronic component. The use of a third camera also allows for a shorter overall image acquisition time. Methods and means for measuring the position of other contact elements recorded in the first and third images of the first and third cameras, respectively, when the third camera is used are Same as the method and means used by the second camera. Accordingly, the operation of the present invention will be described using only the first and second cameras.
好ましくは、カメラ1および2は、両方のカメラが図1Aおよび1Bにて図示したように、電子部品の方へ向けられるように、互いに対して配置される。さらに、電子部品全体の全ての接点素子が少なくとも2台の異なるカメラによって観察されることができる限り、カメラ1、2および3は異なる位置に配置されることができる。例えば、図1Aおよび1Bの両方が、接点素子の全ての可能な位置が少なくとも2台の異なるカメラの視野内にあるように、全ての3台のカメラが異なるx、yおよびz座標に位置することを合わせて例示する。
Preferably,
接点素子の位置の測定が始まることができる前に、3次元接点素子を測定するための装置が較正される。較正は、第1の画像内の位置X1と第2の画像内の対応する位置X3、すなわち校正面に直交して投影される像点、との間の関係を確立する。図3にて図示したように、較正レチクル手段(9)が較正のために使われる。それは、例えば位置が正確に知られている正方形によって代表される複数の所定のマーキングを備える。このレチクル(9)は、例えば測定されるべき電子部品を事前配置するために用意される位置に配置される基板でできている。基板は、例えば、好ましくはベースガラス層上にアレイ方法で配設される複数層のガラスから成る。正方形は、非常に正確なスクリーン印刷プロセスを用いてこれらのガラス層の各々上に印刷される。全てのこれらの上位層ガラスの厚さは正確であり、および、正確に印刷されたマーキングはカメラによる容易な検出のために明確に画成される。例示されないが、前もって記載されている較正レチクル手段が正確に周知の位置で層から突き出る垂直構造を備えたレチクルのような他の較正レチクル手段と取り替えられるということはありえる。 Before the measurement of the position of the contact element can begin, the device for measuring the three-dimensional contact element is calibrated. Calibration establishes a relationship between a position X1 in the first image and a corresponding position X3 in the second image, ie an image point projected orthogonal to the calibration plane. As illustrated in FIG. 3, a calibration reticle means (9) is used for calibration. It comprises a plurality of predetermined markings represented, for example, by squares whose positions are precisely known. The reticle (9) is made of, for example, a substrate arranged at a position prepared for pre-arranging electronic components to be measured. The substrate consists, for example, of multiple layers of glass that are preferably arranged in an array manner on the base glass layer. Squares are printed on each of these glass layers using a very accurate screen printing process. The thickness of all these upper glass layers is accurate, and the correctly printed markings are clearly defined for easy detection by the camera. Although not illustrated, it is possible that the previously described calibration reticle means could be replaced with other calibration reticle means such as a reticle with a vertical structure protruding from the layer at exactly known locations.
正確な較正を得るために、較正レチクル手段上に印刷される正方形の位置および寸法は、好ましくは0.1ミクロンの精度に知られる。較正レチクル手段によって測られる面積および体積は、x、yおよびz方向に較正されることができるスペースを画成する。したがって、より大きなスペースおよび面積がx、yおよびz方向に較正レチクル手段によってカバーされるときに、より大きなスペースがより大きい電子部品に対して測定をすることに利用できる。測定が後で実施されるときに、接点が位置している平面が校正面(11)上に正確に置かれることは必要でない。接点が位置している平面が確立された較正されたスペース内にある限り、測定が実施されることができる。 In order to obtain an accurate calibration, the location and dimensions of the squares printed on the calibration reticle means are preferably known to an accuracy of 0.1 microns. The area and volume measured by the calibration reticle means define a space that can be calibrated in the x, y and z directions. Thus, when larger spaces and areas are covered by the calibration reticle means in the x, y and z directions, the larger spaces can be used to make measurements on larger electronic components. When the measurement is performed later, it is not necessary that the plane in which the contacts are located is placed exactly on the calibration surface (11). As long as the plane in which the contacts are located is within an established calibrated space, measurements can be performed.
図4A、4Bおよび4Cは、それぞれ第1の、第2のおよび第3のカメラによって記録される較正レチクル手段の第1の、第2のおよび第3の画像をそれぞれ例示する。較正レチクル手段上の正方形のような、個々のマーキングが識別されることができるので、マッピングアルゴリズムは、後ほど図5内に図的に例示されるように、両方の画像の間でマッピングを可能にするように校正手順を通して決定される。それぞれ図4Aおよび4Bに示すように、第1のカメラ(4)および第2のカメラ(5)は各々較正レチクル手段のその較正画像を記録する。図4Aおよび4Bに示すように、較正は第1のカメラ(4)および第2のカメラ(5)によって記録されるような第1の画像(図4A)および第2の画像(図4B)の同じ正方形(10)(11)または類似した特徴の位置の決定を含む。位置マッピングアルゴリズムは、各第1および第2の画像で決定された各対応する特徴に対する位置に由来する。例えば、図5にて図示したように、第1の画像内の点(111)の座標は、第2の画像内のその対応点(111’)にマップされる。それゆえに、その表面の特徴が第1の像平面内の画素を第2の画像にマップするために使われるので、平面(11)は校正面である。 4A, 4B, and 4C illustrate first, second, and third images, respectively, of calibration reticle means that are recorded by the first, second, and third cameras, respectively. Since individual markings, such as squares on the calibration reticle means, can be identified, the mapping algorithm allows mapping between both images as illustrated diagrammatically later in FIG. To be determined through a calibration procedure. As shown in FIGS. 4A and 4B, respectively, the first camera (4) and the second camera (5) each record its calibration image of the calibration reticle means. As shown in FIGS. 4A and 4B, the calibration of the first image (FIG. 4A) and the second image (FIG. 4B) as recorded by the first camera (4) and the second camera (5). Includes determination of the location of the same square (10) (11) or similar feature. The position mapping algorithm is derived from the position for each corresponding feature determined in each first and second image. For example, as illustrated in FIG. 5, the coordinates of a point (111) in the first image are mapped to its corresponding point (111 ') in the second image. Therefore, plane (11) is the calibration plane because its surface features are used to map the pixels in the first image plane to the second image.
図5によれば、双一次補間技法が任意の2つのマーキングの間の全ての位置に対する座標を決定するのに用いられる。例えば、第1の画像内の点X1の位置は、dxおよびdyの割合で表されて、第1の画像上の矩形のマトリックスによって形成される座標(111)、(112)、(221)および(222)に対して考慮される。第2の画像内の点X3は第1の画像内の点X1から直交して投影される点であり、および、前者はdx’およびdy’の割合で表される。第1の画像内の第1の像点と第2の画像内の像点との間の位置マッピングアルゴリズムは、第2の画像内の像点が、校正面に第1の像点から直交して投影される点であり、dxおよびdx’に関する関係ならびにdyおよびdy’に関する関係を決定することによって得られる。例えば、第1の像平面内のX1および第2の像平面内のX3に関する位置マッピングアルゴリズムは、x−座標に対するdxおよびdx’に関する関係ならびにy−座標に対するdyおよびdy’に関する関係である。位置マッピングアルゴリズムが次いで、校正面に直交して投影される第1の像点である第2の像平面内の点を決定するために測定中に使われる。 According to FIG. 5, a bilinear interpolation technique is used to determine the coordinates for all positions between any two markings. For example, the position of the point X1 in the first image is expressed as a ratio of dx and dy, and coordinates (111), (112), (221) and formed by a rectangular matrix on the first image (222) is considered. The point X3 in the second image is a point projected orthogonally from the point X1 in the first image, and the former is represented by the ratio of dx 'and dy'. The position mapping algorithm between the first image point in the first image and the image point in the second image is such that the image point in the second image is orthogonal to the calibration plane from the first image point. Are obtained by determining the relationship with respect to dx and dx ′ and the relationship with respect to dy and dy ′. For example, the position mapping algorithm for X1 in the first image plane and X3 in the second image plane is the relationship for dx and dx 'to the x-coordinate and the relationship for dy and dy' to the y-coordinate. A position mapping algorithm is then used during the measurement to determine a point in the second image plane that is the first image point projected orthogonal to the calibration plane.
図3、4A、4Bおよび5を参照して、z−倍率が、較正レチクル手段上の、正方形(10)のような特徴に対して、それぞれ第1および第2の画像内のそれぞれの画素座標X1およびX2を最初に決定することによって決定される。X3は、位置マッピングアルゴリズムを用いて点X1から校正面に直交して投影される点である。X2とX3の間のz距離が正確にわかるので、第2の画像(4B)および第3の画像(4C)内のそれぞれのz−倍率が決定されることができる。例えば、X2とX3の間の距離が10mmであり、および、第2の画像上のそれらの対応する距離が25画素であると想定すると、z−倍率は10mm/25画素=0.4mm/画素であろう。 Referring to FIGS. 3, 4A, 4B and 5, the z-magnification is the respective pixel coordinate in the first and second images, respectively, for a feature such as a square (10) on the calibration reticle means. Determined by first determining X1 and X2. X3 is a point projected orthogonally from the point X1 to the calibration plane using the position mapping algorithm. Since the z-distance between X2 and X3 is known accurately, the respective z-magnification in the second image (4B) and the third image (4C) can be determined. For example, assuming that the distance between X2 and X3 is 10 mm and that their corresponding distance on the second image is 25 pixels, the z-magnification is 10 mm / 25 pixels = 0.4 mm / pixel Will.
校正手順を完了した後に、x−y座標位置マッピングアルゴリズムおよびz−倍率が、第1および第2の画像内の部品上の接点素子の位置を決定するために得られた。加えて、接点素子X、YおよびZ軸間の距離がそれぞれのx、yおよびz−倍率から決定されることができる。位置が較正レチクル手段によって正確に決定されるので、接点素子の位置もまた、ミクロンで正確に決定されることができる。校正手順はまた、カメラ対カメラの較正が実施されることを可能にし、第1のカメラ(4)と第2のカメラ(5)との間の関係を確立する。第1のカメラとの第3のカメラの関係もまた、本願明細書に記載されている方法で確立される。 After completing the calibration procedure, an xy coordinate position mapping algorithm and z-magnification were obtained to determine the position of the contact element on the part in the first and second images. In addition, the distance between the contact elements X, Y and Z axes can be determined from the respective x, y and z-magnification. Since the position is accurately determined by the calibration reticle means, the position of the contact element can also be accurately determined in microns. The calibration procedure also allows camera-to-camera calibration to be performed and establishes a relationship between the first camera (4) and the second camera (5). The relationship of the third camera to the first camera is also established in the manner described herein.
測定のためのスペースが較正され、ならびに、第1および第2のカメラのセットアップが説明された今、本発明に従う測定原理が図6の助けを借りて説明される。第3のカメラ(6)が、第2のカメラと同様の方法で第1のカメラ(4)に対して設置される。電子部品が較正されたスペース内にもたらされ、および、その接点素子の1つが校正面、pに対して点Pに位置すると想定する。第1のカメラが、接点素子の第1の画像を記録して、第1の点Pを選ぶ。接点素子の第1の画像内の第1の点Pに対する第1の像点X1の位置が、決定される。 Now that the space for measurement has been calibrated and the first and second camera setups have been described, the measurement principle according to the present invention will be described with the help of FIG. A third camera (6) is installed with respect to the first camera (4) in the same manner as the second camera. Assume that the electronic component is brought into a calibrated space and that one of its contact elements is located at point P relative to the calibration plane, p. The first camera records a first image of the contact element and selects the first point P. The position of the first image point X1 relative to the first point P in the first image of the contact element is determined.
第2のカメラ(5)が、点Pによる接点素子の第2の画像を記録し、および点Pが第2の画像内の第2の像点X2と確認される。点Pは、第2の点P’を与える校正面、pに位置マッピングアルゴリズムを使用して、直交して投影される。第2の画像において、第3の像点X3はその時位置P’の像点である。接点素子Pが校正面p内に局所化されるであろう場合には、X3は予想される位置である。第2の画像内の点X3の位置は、位置マッピングアルゴリズムによって決定される。X2とX3との間の変位は、実物の接点素子が通常正確に校正面上にではなく、測定されるべき高さの差異、DELTA.zで置かれる事実に起因している。前述に続いて、変位DELTA.zはX3とX2の間の距離(すなわちDELTA.z’)および第2の画像のZ軸内のz−倍率の相乗積によって決定される。 A second camera (5) records a second image of the contact element by point P, and point P is identified as a second image point X2 in the second image. Point P is projected orthogonally to the calibration plane, p, which gives the second point P ', using a position mapping algorithm. In the second image, the third image point X3 is the image point at the position P ′ at that time. If the contact element P will be localized in the calibration plane p, X3 is the expected position. The position of the point X3 in the second image is determined by a position mapping algorithm. The displacement between X2 and X3 is due to the difference in height that the actual contact element is to be measured, usually not exactly on the calibration surface, DELTA. This is due to the fact that z is placed. Following the foregoing, the displacement DELTA. z is determined by the product of the distance between X3 and X2 (ie DELTA.z ') and the z-magnification in the Z-axis of the second image.
本発明が較正されたスペース内で点の測定を可能にするので、2点が較正されたスペース内に位置する限り、本発明を使用して任意の2点間の距離を測定するために本発明を活用することは当業者に明白である。 Since the present invention allows the measurement of points within a calibrated space, the present invention can be used to measure the distance between any two points as long as the two points are located within the calibrated space. Utilizing the invention will be apparent to those skilled in the art.
したがって、接点素子がその上に位置している集積回路であることができる、部品の接点素子間の距離、および、較正されたスペース内の校正面からの接点素子の距離を測定するためのこの種のシステム及び方法の実用性および効用に関しては、当業者にとって明らかである。したがって、上記の記述は説明的であり、かつ有効範囲および実施態様を下記のように請求する、本発明自体の本質の限定では決してない。 Thus, this can be used to measure the distance between the contact elements of the component and the distance of the contact elements from the calibration surface in the calibrated space, which can be an integrated circuit on which the contact elements are located. The utility and utility of such systems and methods will be apparent to those skilled in the art. Accordingly, the foregoing description is illustrative and is in no way limiting of the essence of the invention itself, which claims its scope and embodiments as follows.
1 電子部品
2、3 接点素子
4 第1のカメラ
5 第2のカメラ
6 第3のカメラ
7、8 照明光源
9 較正レチクル手段
10、11 正方形
11 校正面
111 第1の画像内の点
111’ 第2の画像内のその対応点
111、112、221、222 座標
DESCRIPTION OF
Claims (12)
較正されたスペース内に前記接点素子(2、3)をもたらすステップと、
前記接点素子(2、3)を照明するステップと、
校正面と実質的に平行して延伸する第1の像平面を有する第1のカメラ(4)によって前記接点素子(2,3)の第1の画像を記録するステップと、
第2のカメラ(5)によって前記接点素子の第2の画像を記録するステップと、
各前記接点素子(2,3)上で各前記接点素子(2,3)に対して第1の像点を決定するために前記第1の画像を処理するステップであって、各前記第1の像点が、各前記接点素子(2,3)上に位置する点であるステップと、
各前記接点素子(2,3)上で各前記接点素子(2,3)に対して第2の像点を識別するために前記第2の画像を処理するステップであって、各前記接点素子(2,3)に対して前記第2の像点および前記第1の像点が、各前記接点素子(2,3)上の同じ点に対応するステップと、
前記第2の画像内で位置マッピングアルゴリズムによって第3の像点を決定するステップと、
前記第2の画像内で前記第2の像点と前記第3の像点との間の変位を決定するステップであって、前記第3の像点が、前記校正面に直交して投影される前記第1の像点であるステップと、を含むことを特徴とする方法。 A method for measuring the respective position of a contact element (2, 3) of an electronic component comprising the following steps:
Providing the contact elements (2, 3) in a calibrated space;
Illuminating the contact element (2, 3);
Recording a first image of the contact element (2, 3) with a first camera (4) having a first image plane extending substantially parallel to the calibration plane;
Recording a second image of the contact element with a second camera (5);
Processing the first image to determine a first image point for each contact element (2, 3) on each contact element (2, 3), each of the first elements; A step in which the image point is located on each of the contact elements (2, 3);
Processing said second image to identify a second image point for each said contact element (2, 3) on each said contact element (2, 3), each said contact element The second image point and the first image point for (2, 3) correspond to the same point on each contact element (2, 3);
Determining a third image point by a position mapping algorithm in the second image;
Determining a displacement between the second image point and the third image point in the second image, wherein the third image point is projected orthogonally to the calibration plane. And the step of being the first image point.
較正されたスペース内に事前配置される前記接点素子(2,3)を照明するための照明光源(7,8)と、
第1のカメラ(4)および第2のカメラ(5)であって、それぞれ前記接点素子(2,3)の第1および第2の画像を記録するために用意される前記第1のカメラ(4)および前記第2のカメラ(5)と、
処理デバイスであって、前記処理デバイスが、各前記接点素子(2,3)に対して前記第1の画像内の第1の像点および各前記接点素子(2,3)に対して前記第2の画像内の第2の像点の位置を取り出すための前記第1のカメラ(4)および前記第2のカメラ(5)に接続され、各前記接点素子(2,3)に対する前記第1の像点および前記第2の像点が、前記第2の画像位置内の位置マッピングアルゴリズムによって第3の像点を取り出す、各前記接点素子(2,3)上の同じ位置に対応し、前記第3の像点が、前記第1の像点から直交して投影され、かつ前記第2の像点と前記第3の点の間の変位を決定する点である、ことを特徴とする処理デバイスと、を備える手段。 Means for measuring the position of each contact element (2, 3) of the electronic component,
An illumination light source (7, 8) for illuminating the contact elements (2, 3) pre-positioned in a calibrated space;
A first camera (4) and a second camera (5), the first camera (1) prepared for recording the first and second images of the contact elements (2, 3), respectively; 4) and the second camera (5);
A processing device, said processing device for each said contact element (2,3) said first image point in said first image and said first for each said contact element (2,3). Connected to the first camera (4) and the second camera (5) for extracting the position of the second image point in the second image, the first to the contact elements (2, 3). And the second image point correspond to the same position on each contact element (2, 3) from which a third image point is extracted by a position mapping algorithm within the second image position, A process in which a third image point is projected orthogonally from the first image point and determines a displacement between the second image point and the third point. A device.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
MYPI20082704A MY148204A (en) | 2008-07-21 | 2008-07-21 | A method and means for measuring positions of contact elements of an electronic components |
MYPI20082704 | 2008-07-21 | ||
PCT/MY2009/000082 WO2010011124A1 (en) | 2008-07-21 | 2009-06-26 | A method and means for measuring positions of contact elements of an electronic components |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011528800A true JP2011528800A (en) | 2011-11-24 |
JP5787258B2 JP5787258B2 (en) | 2015-09-30 |
Family
ID=41570469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011520004A Active JP5787258B2 (en) | 2008-07-21 | 2009-06-26 | Method and apparatus for measuring the position of a contact element of an electronic component |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP5787258B2 (en) |
KR (1) | KR101633139B1 (en) |
CN (1) | CN102099653B (en) |
MY (1) | MY148204A (en) |
WO (1) | WO2010011124A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102213581B (en) * | 2010-04-08 | 2016-06-08 | 财团法人工业技术研究院 | object measuring method and system |
US8691916B2 (en) | 2012-05-07 | 2014-04-08 | Dow Global Technologies Llc | Retortable easy opening seals for film extrusion |
JP6147927B2 (en) * | 2014-05-30 | 2017-06-14 | ヤマハ発動機株式会社 | Component data generation apparatus, surface mounter, and component data generation method |
JP6457295B2 (en) * | 2015-02-19 | 2019-01-23 | 株式会社Fuji | Parts judgment device |
DE102016112197B4 (en) * | 2016-07-04 | 2018-05-24 | Asm Assembly Systems Gmbh & Co. Kg | A method and apparatus for stereoscopically determining information regarding the elevation of the front of a port |
JP2023155124A (en) * | 2022-04-08 | 2023-10-20 | ヴィトロックス テクノロジーズ センディリアン ベルハッド | System and method for determining contact height of package chip |
KR102746624B1 (en) * | 2024-08-09 | 2024-12-27 | (주)인스케이프 | Popo-pin alignment method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000062012A1 (en) * | 1999-04-13 | 2000-10-19 | Icos Vision Systems N.V. | Measuring positions or coplanarity of contact elements of an electronic component with a flat illumination and two cameras |
JP2004340728A (en) * | 2003-05-15 | 2004-12-02 | Techno Horon:Kk | Measuring method and device using stereo optical system |
WO2004106851A1 (en) * | 2003-05-28 | 2004-12-09 | Fuji Machine Mfg.Co., Ltd. | Pickup image processing device of electronic part mounting device and pickup image processing method |
JP2009139285A (en) * | 2007-12-07 | 2009-06-25 | Univ Nihon | Solder ball inspection device, inspection method thereof, and shape inspection device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3266429B2 (en) * | 1994-11-08 | 2002-03-18 | 松下電器産業株式会社 | Pattern detection method |
US6072898A (en) * | 1998-01-16 | 2000-06-06 | Beaty; Elwin M. | Method and apparatus for three dimensional inspection of electronic components |
US6538750B1 (en) * | 1998-05-22 | 2003-03-25 | Cyberoptics Corporation | Rotary sensor system with a single detector |
EP1220596A1 (en) * | 2000-12-29 | 2002-07-03 | Icos Vision Systems N.V. | A method and an apparatus for measuring positions of contact elements of an electronic component |
US7912673B2 (en) * | 2005-03-11 | 2011-03-22 | Creaform Inc. | Auto-referenced system and apparatus for three-dimensional scanning |
US7400417B2 (en) * | 2005-05-23 | 2008-07-15 | Federal Mogul World Wide, Inc. | Diffraction method for measuring thickness of a workpart |
KR20070099398A (en) * | 2006-04-03 | 2007-10-09 | 삼성전자주식회사 | Board inspection apparatus and board inspection method using the same |
-
2008
- 2008-07-21 MY MYPI20082704A patent/MY148204A/en unknown
-
2009
- 2009-06-26 WO PCT/MY2009/000082 patent/WO2010011124A1/en active Application Filing
- 2009-06-26 JP JP2011520004A patent/JP5787258B2/en active Active
- 2009-06-26 CN CN2009801278488A patent/CN102099653B/en active Active
- 2009-06-26 KR KR1020117000873A patent/KR101633139B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000062012A1 (en) * | 1999-04-13 | 2000-10-19 | Icos Vision Systems N.V. | Measuring positions or coplanarity of contact elements of an electronic component with a flat illumination and two cameras |
JP2004340728A (en) * | 2003-05-15 | 2004-12-02 | Techno Horon:Kk | Measuring method and device using stereo optical system |
WO2004106851A1 (en) * | 2003-05-28 | 2004-12-09 | Fuji Machine Mfg.Co., Ltd. | Pickup image processing device of electronic part mounting device and pickup image processing method |
JP2009139285A (en) * | 2007-12-07 | 2009-06-25 | Univ Nihon | Solder ball inspection device, inspection method thereof, and shape inspection device |
Also Published As
Publication number | Publication date |
---|---|
KR101633139B1 (en) | 2016-06-23 |
JP5787258B2 (en) | 2015-09-30 |
CN102099653A (en) | 2011-06-15 |
KR20110043593A (en) | 2011-04-27 |
WO2010011124A1 (en) | 2010-01-28 |
CN102099653B (en) | 2012-11-14 |
MY148204A (en) | 2013-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5787258B2 (en) | Method and apparatus for measuring the position of a contact element of an electronic component | |
CN113240674B (en) | Coplanarity detection method based on three-dimensional point cloud and two-dimensional image fusion | |
JP5334835B2 (en) | Method and system for measuring shape of reflecting surface | |
TWI440847B (en) | Inspection method | |
CN104713885B (en) | A kind of structure light for pcb board on-line checking aids in binocular measuring method | |
CN101726246B (en) | Correcting method | |
JPH04287943A (en) | Surfae mounting device having mutual flatness evaluation device of lead wires | |
CN103201617A (en) | Method for inspecting substrate | |
CN103163725A (en) | Camera module detection device and detection method | |
CN105241399A (en) | Method of measuring dynamic flatness of precision positioning platform | |
TW201042236A (en) | Method for measuring three-dimensional shape | |
JP2004037222A (en) | Teaching method, electronic substrate inspection method, and electronic substrate inspection device | |
JP2013178174A (en) | Three-dimensional shape measuring apparatus using a plurality of gratings | |
JPH04181106A (en) | Calibration device of position dimension measuring device | |
TW201940840A (en) | Appearance inspection device | |
US8102516B2 (en) | Test method for compound-eye distance measuring apparatus, test apparatus, and chart used for the same | |
CN114964052B (en) | A calibration and reconstruction method for a three-dimensional measurement system and a three-dimensional measurement system | |
EP1619623A1 (en) | Apparatus for three dimensional measuring on an electronic component | |
US6327380B1 (en) | Method for the correlation of three dimensional measurements obtained by image capturing units and system for carrying out said method | |
KR20230144924A (en) | System and method for determining contact height of a packaged chip | |
CN112985276B (en) | Thickness measuring method and system for circuit board | |
JPH0942946A (en) | Measuring device and measuring method for electronic part and calibration mask | |
JP4760072B2 (en) | X-ray inspection apparatus and X-ray inspection method | |
CN113063352B (en) | Detection method and device, detection equipment and storage medium | |
CN120351856A (en) | Displacement measurement method and device based on binocular vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131029 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140129 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150330 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5787258 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |