[go: up one dir, main page]

JP4865653B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4865653B2
JP4865653B2 JP2007205605A JP2007205605A JP4865653B2 JP 4865653 B2 JP4865653 B2 JP 4865653B2 JP 2007205605 A JP2007205605 A JP 2007205605A JP 2007205605 A JP2007205605 A JP 2007205605A JP 4865653 B2 JP4865653 B2 JP 4865653B2
Authority
JP
Japan
Prior art keywords
image
cpu
processing
memory
image memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007205605A
Other languages
Japanese (ja)
Other versions
JP2008065815A (en
Inventor
山田  和範
好晃 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2007205605A priority Critical patent/JP4865653B2/en
Publication of JP2008065815A publication Critical patent/JP2008065815A/en
Application granted granted Critical
Publication of JP4865653B2 publication Critical patent/JP4865653B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Description

本発明は、電子部品の位置を検出あるいは認識するために、その電子部品を撮像し撮像した電子部品の画像に画像処理を施す画像処理装置に関する。   The present invention relates to an image processing apparatus that images an electronic component and performs image processing on the imaged electronic component in order to detect or recognize the position of the electronic component.

従来、電子部品を基板上に搭載する電子部品実装装置が知られている。この電子部品実装装置では、電子部品を精度よく基板上の所定位置に搭載するために、電子部品実装機の吸着ヘッドにより吸着された電子部品を撮像し、電子部品の画像を処理して電子部品の位置検出(部品中心並びに部品傾きの検出)、いわゆる部品認識を行い、その認識結果に基づいて搭載位置を補正し部品搭載を行っている。   Conventionally, an electronic component mounting apparatus for mounting an electronic component on a substrate is known. In this electronic component mounting apparatus, in order to accurately mount the electronic component at a predetermined position on the substrate, the electronic component sucked by the suction head of the electronic component mounting machine is imaged, and the electronic component image is processed to obtain the electronic component. Position detection (part center and part inclination detection), so-called component recognition is performed, and the mounting position is corrected based on the recognition result to mount the component.

図21は、従来の画像処理装置の画像入力部の構成を示すブロック図であって、(a)はひとつのCPUを用いた構成を示す図であり、(b)は2つのCPUを用いた構成を示す図である。   FIG. 21 is a block diagram illustrating a configuration of an image input unit of a conventional image processing apparatus. FIG. 21A illustrates a configuration using one CPU, and FIG. 21B illustrates a configuration using two CPUs. It is a figure which shows a structure.

画像入力部は、標準カメラ4や高解像度カメラ5によって撮像された電子部品の画像をデジタル画像に変換する入力回路7と、デジタル画像に変換された画像を格納する画像メモリ8と、画像メモリ8の画像データを演算処理するCPU(演算装置)10、11とを有して構成される。   The image input unit includes an input circuit 7 that converts an image of an electronic component captured by the standard camera 4 or the high resolution camera 5 into a digital image, an image memory 8 that stores the image converted into a digital image, and an image memory 8. CPUs (arithmetic units) 10 and 11 for processing the image data.

従来、画像処理演算をひとつのCPU10で処理する構成(図21(a))が一般的であり、この場合、例えば並列処理可能な処理Aおよび処理Bという2つの処理があるときでも、この処理Aと処理BはひとつのCPU10によって逐次処理されていた。   Conventionally, a configuration (FIG. 21A) in which image processing calculation is processed by a single CPU 10 is common. In this case, for example, even when there are two processes A and B that can be processed in parallel, this process is performed. A and process B were sequentially processed by one CPU 10.

ところが、電子部品を撮影した画像の高解像度化や電子部品の電極数の増大、位置決め結果の高精度化のために、その画像処理は重くなる一方である。例えば、電極がボール形状の電子部品であるボール部品では、ボール状の電極数がついには1万個を越えるものもあり、現行CPUの処理速度では装置の要求時間を満たせなくなってしまうこともある。   However, in order to increase the resolution of an image obtained by photographing an electronic component, increase the number of electrodes of the electronic component, and increase the accuracy of the positioning result, the image processing is becoming heavier. For example, in a ball component in which the electrodes are ball-shaped electronic components, the number of ball-shaped electrodes may eventually exceed 10,000, and the current CPU processing speed may not satisfy the required time of the device. .

図21(a)に示す従来の画像入力部の構成では、非常に高性能なCPUが必要となり、対応できるCPUが存在しない、もしくは高価なものとなってしまうという問題があった。   In the configuration of the conventional image input unit shown in FIG. 21A, a very high performance CPU is required, and there is a problem that no compatible CPU exists or the cost becomes high.

そこで、画像処理を高速化するために、画像処理の並列化が検討されており、図21(b)に示すように、CPU10のほかにCPU17を設けてCPUを複数化して並列処理を実現する構成が提案されている(画像処理の分散処理に関しては特許文献1、特許文献2を参照)。   Therefore, in order to increase the speed of image processing, parallel processing of image processing is being studied. As shown in FIG. 21B, in addition to the CPU 10, a CPU 17 is provided to make a plurality of CPUs to realize parallel processing. A configuration has been proposed (refer to Patent Document 1 and Patent Document 2 for distributed processing of image processing).

特開平8−44678号公報JP-A-8-44678 特許第3646420号公報Japanese Patent No. 3646420

ところが、CPUを複数設ける構成の場合、画像メモリが各CPUからのアクセスに耐えられるように、バンド幅の広い高価な画像メモリを使用した構成を用いる必要がある。すなわち、各両CPUから頻繁にアクセスされることを考え、アクセスが衝突しないように、アクセス時間が早い、動作クロック周波数が高い画像メモリにする必要がある。こうなると、その要求を満たす画像メモリが存在しない、もしくは高価なものとなってしまうという問題があった。   However, in the case of a configuration in which a plurality of CPUs are provided, it is necessary to use a configuration using an expensive image memory with a wide bandwidth so that the image memory can withstand access from each CPU. That is, considering frequent access from both CPUs, it is necessary to provide an image memory with a fast access time and a high operation clock frequency so that accesses do not collide. In this case, there is a problem that there is no image memory that satisfies the requirement, or that the image memory becomes expensive.

特に、電子部品実装装置で用いる画像処理装置の場合、取り扱う電子部品のすべてが部品認識のための画像処理の負荷が大きなものではなく、このような部品はごく少数の限られた部品である。まれに発生する負荷の高い処理にあわせて、高価なハードウェア資源を用意するのでは、無駄に高価な装置となってしまうおそれがあった。   In particular, in the case of an image processing apparatus used in an electronic component mounting apparatus, not all of the electronic components handled have a heavy image processing load for component recognition, and such components are a very small number of limited components. If an expensive hardware resource is prepared in accordance with a rarely generated high-load process, there is a possibility that the device becomes uselessly expensive.

本発明は、上記の点にかんがみてなされたもので、安価なCPUや画像メモリで構成した場合であっても画像処理能力を向上させることができる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus capable of improving the image processing capability even when configured with an inexpensive CPU or image memory.

本発明(請求項1)は上記の目的を達成するために、
像された電子部品の画像を格納する第1と第2の画像メモリと、
前記第1の画像メモリに格納された画像を処理する第1のCPUと、
前記第2の画像メモリに格納された画像を処理する第2のCPUとを設け、
前記第1のCPUは、第1の画像メモリの画像のうち設定された画像領域にある画像を処理し、また第2のCPUは、第2の画像メモリの画像で第1の画像メモリで設定されている画像領域とは異なる画像領域にある画像を、第1のCPUによる画像処理と並列して処理することにより、撮像された前記電子部品の画像を処理して電子部品の認識を行う画像処理装置であって、
前記第1と第2の画像メモリ及び前記第1のCPUが、第1と第2の画像入力系にそれぞれ設けられていると共に、
前記第1の画像入力系に設けられている前記第1のCPUが、前記第2の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能し、
前記第2の画像入力系に設けられている前記第1のCPUが、前記第1の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能するようにし、
且つ、
前記第1と第2の各画像入力系にそれぞれ設けられている前記第1のCPUが、主CPUとして行う処理と、第2のCPUとして機能し、副CPUとして行う補助処理とにプライオリティを設定し、前記各第1のCPUが分散処理で相互補助し合うようにすることを特徴とする。
In order to achieve the above object, the present invention (Claim 1)
First storing the image of the image electronic components shooting and the second image memory,
A first CPU for processing an image stored in the first image memory;
A second CPU for processing an image stored in the second image memory;
The first CPU processes an image in a set image area among images in the first image memory, and the second CPU sets an image in the second image memory in the first image memory. An image in which an image in an image area different from the image area being processed is processed in parallel with the image processing by the first CPU, thereby processing the captured image of the electronic component and recognizing the electronic component A processing device comprising:
The first and second image memories and the first CPU are provided in the first and second image input systems, respectively.
The first CPU provided in the first image input system processes the image stored in the second image memory provided in the second image input system. Functions as a CPU,
The first CPU provided in the second image input system processes the image stored in the second image memory provided in the first image input system. To function as a CPU,
and,
The first CPU provided in each of the first and second image input systems sets priorities for processing performed as the main CPU and auxiliary processing functioning as the second CPU and performed as the sub CPU. The first CPUs mutually assist each other by distributed processing .

第1と第2のCPUはそれぞれ異なるリード端子列を含む画像、あるいは、それぞれ異なる辺あるいはコーナーを含む画像、あるいは、それぞれ異なる領域にあるボール電極の画像を処理し、それぞれリード端子位置、辺あるいはコーナーの外形、あるいはボール電極を認識する。   The first and second CPUs process images containing different lead terminal arrays, images containing different sides or corners, or images of ball electrodes in different regions, respectively, and lead terminal positions, sides or Recognizes corner outlines or ball electrodes.

また、本発明(請求項5)は、
像された電子部品の画像を格納する第1と第2の画像メモリと、
前記第1の画像メモリに格納された画像を処理する第1のCPUと、
前記第2の画像メモリに格納された画像を処理する第2のCPUとを設け、
前記第1のCPUは、第1の画像メモリに格納された画像を所定の認識パラメータ値で処理し、また第2のCPUは、第2の画像メモリに格納された画像を、第1のCPUによる画像処理と並列して前記所定の認識パラメータ値とは異なる認識パラメータ値で処理することにより、撮像された前記電子部品の画像を処理して電子部品の認識を行う画像処理装置であって、
前記第1と第2の画像メモリ及び前記第1のCPUが、第1と第2の画像入力系にそれぞれ設けられていると共に、
前記第1の画像入力系に設けられている前記第1のCPUが、前記第2の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能し、
前記第2の画像入力系に設けられている前記第1のCPUが、前記第1の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能するようにし、
且つ、
前記第1と第2の各画像入力系にそれぞれ設けられている前記第1のCPUが、主CPUとして行う処理と、第2のCPUとして機能し、副CPUとして行う補助処理とにプライオリティを設定し、前記各第1のCPUが分散処理で相互補助し合うようにすることを特徴とする。
The present invention (Claim 5)
First storing the image of the image electronic components shooting and the second image memory,
A first CPU for processing an image stored in the first image memory;
A second CPU for processing an image stored in the second image memory;
The first CPU processes the image stored in the first image memory with a predetermined recognition parameter value, and the second CPU converts the image stored in the second image memory to the first CPU. An image processing apparatus for processing an image of the captured electronic component to recognize the electronic component by processing with a recognition parameter value different from the predetermined recognition parameter value in parallel with the image processing by
The first and second image memories and the first CPU are provided in the first and second image input systems, respectively.
The first CPU provided in the first image input system processes the image stored in the second image memory provided in the second image input system. Functions as a CPU,
The first CPU provided in the second image input system processes the image stored in the second image memory provided in the first image input system. To function as a CPU,
and,
The first CPU provided in each of the first and second image input systems sets priorities for processing performed as the main CPU and auxiliary processing functioning as the second CPU and performed as the sub CPU. The first CPUs mutually assist each other by distributed processing .

又、本発明(請求項6)は、
像された電子部品の画像を格納する第1と第2の画像メモリと、
前記第1の画像メモリに格納された画像を処理する第1のCPUと、
前記第2の画像メモリに格納された画像を処理する第2のCPUとを設け、
前記第1のCPUは、第1の画像メモリに格納された画像を所定のアルゴリズムで検査し、また第2のCPUは、第2の画像メモリに格納された画像を、第1のCPUによる画像処理と並列して前記所定のアルゴリズムとは異なるアルゴリズムで検査することにより、撮像された前記電子部品の画像を処理して電子部品の検査を行なう画像処理装置であって、
前記第1と第2の画像メモリ及び前記第1のCPUが、第1と第2の画像入力系にそれぞれ設けられていると共に、
前記第1の画像入力系に設けられている前記第1のCPUが、前記第2の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能し、
前記第2の画像入力系に設けられている前記第1のCPUが、前記第1の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能するようにし、
且つ、
前記第1と第2の各画像入力系にそれぞれ設けられている前記第1のCPUが、主CPUとして行う処理と、第2のCPUとして機能し、副CPUとして行う補助処理とにプライオリティを設定し、前記各第1のCPUが分散処理で相互補助し合うようにすることを特徴とする。
The present invention (Claim 6)
First storing the image of the image electronic components shooting and the second image memory,
A first CPU for processing an image stored in the first image memory;
A second CPU for processing an image stored in the second image memory;
The first CPU inspects the image stored in the first image memory by a predetermined algorithm, and the second CPU uses the image stored in the second image memory as an image by the first CPU. An image processing apparatus that inspects an electronic component by processing an image of the captured electronic component by inspecting with an algorithm different from the predetermined algorithm in parallel with processing ,
The first and second image memories and the first CPU are provided in the first and second image input systems, respectively.
The first CPU provided in the first image input system processes the image stored in the second image memory provided in the second image input system. Functions as a CPU,
The first CPU provided in the second image input system processes the image stored in the second image memory provided in the first image input system. To function as a CPU,
and,
The first CPU provided in each of the first and second image input systems sets priorities for processing performed as the main CPU and auxiliary processing functioning as the second CPU and performed as the sub CPU. The first CPUs mutually assist each other by distributed processing .

その際、前記第1のCPU及び前記第2のCPUのいずれか一方により検査結果がNGと判定された場合、他方のCPUがまだ異なるアルゴリズムによる検査を実行中であれば、他方のCPUに対して処理を中断させる割り込みを発行する手段を設けるようにしてもよい。   At this time, if the inspection result is determined to be NG by one of the first CPU and the second CPU, if the other CPU is still performing an inspection using a different algorithm, A means for issuing an interrupt for interrupting the processing may be provided.

本発明によれば、異なる画像メモリに電子部品の画像を格納し、各画像メモリに格納された画像の異なる領域にある画像を、それぞれ異なるCPUで分散化して並列処理を行っているので、画像処理を高速化して部品認識時間を短縮することができ、高価なハードウェア資源(CPU、画像メモリ)を用いることなく、安価な構成で高速な部品認識が可能となる。   According to the present invention, images of electronic components are stored in different image memories, and images in different areas of the images stored in the respective image memories are distributed by different CPUs for parallel processing. The processing speed can be increased to shorten the component recognition time, and high-speed component recognition can be performed with an inexpensive configuration without using expensive hardware resources (CPU, image memory).

以下、本発明による実施の形態に基づいて図面を参照して説明する。   DETAILED DESCRIPTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、電子部品実装装置における画像処理装置およびその周辺構成の要部の一例を示すブロック図である。   FIG. 1 is a block diagram illustrating an example of a main part of an image processing apparatus and its peripheral configuration in an electronic component mounting apparatus.

この電子部品実装装置では、電子部品(以下単に部品という)2を吸着し、撮像位置へセットするための吸着ノズル1と、吸着ノズル1の移動や照明装置3の駆動など部品の基板(不図示)上への搭載動作を制御するマシン制御装置15と、部品2を撮像するための撮像装置として機能する標準カメラ4及び高解像度カメラ5と、撮像された画像を処理して部品認識する画像処理装置14とによって構成される。   In this electronic component mounting apparatus, a suction nozzle 1 for sucking an electronic component (hereinafter simply referred to as a component) 2 and setting it to an imaging position, and a component substrate (not shown) such as movement of the suction nozzle 1 and driving of the illumination device 3 are shown. ) Machine control device 15 that controls the mounting operation on top, standard camera 4 and high-resolution camera 5 that function as an imaging device for imaging component 2, and image processing that processes the captured image and recognizes the component And the device 14.

画像処理装置14は、カメラ4、5によって撮像された部品の画像をデジタル画像に変換する入力回路7、デジタル画像に変換された画像を格納する画像メモリ8、作業用メモリ9、画像メモリ8のデータを演算処理する演算回路(CPU)10、部品データ格納メモリ12、インターフェース13並びに、各装置ないしメモリ間のデータの流れを制御するとともに、部品搭載に必要なデータを演算する制御CPU11から構成される。また、撮像された画像あるいは処理された画像を表示させるモニタ6が設けられる。   The image processing apparatus 14 includes an input circuit 7 that converts an image of a part captured by the cameras 4 and 5 into a digital image, an image memory 8 that stores the image converted into a digital image, a work memory 9, and an image memory 8. An arithmetic circuit (CPU) 10 that performs arithmetic processing of data, a component data storage memory 12, an interface 13, and a control CPU 11 that controls the flow of data between each device or memory and calculates data necessary for component mounting. The In addition, a monitor 6 for displaying the captured image or the processed image is provided.

マシン制御装置15は、部品データをインターフェース13を介して画像処理装置14へ送信する。画像処理装置14は受信した部品データを部品データ格納メモリ12に格納する。マシン制御装置15は、通常、部品の種類、特に部品の電極サイズによって、標準カメラ4あるいは高解像度カメラ5を選択し、部品2を吸着ノズル1で吸着し、選択したカメラの撮像位置にセットする。このとき、照明装置3を選択したカメラで撮像できるように移動、点灯させ、画像処理装置14にインターフェース13を介して、選択したカメラチャネル情報とともに処理実行を指示する。   The machine control device 15 transmits the component data to the image processing device 14 via the interface 13. The image processing device 14 stores the received component data in the component data storage memory 12. The machine control device 15 usually selects the standard camera 4 or the high-resolution camera 5 according to the type of component, particularly the electrode size of the component, sucks the component 2 with the suction nozzle 1, and sets it at the imaging position of the selected camera. . At this time, the illumination device 3 is moved and lit so that it can be imaged by the selected camera, and the image processing device 14 is instructed to execute processing together with the selected camera channel information via the interface 13.

画像処理装置14は、指定されたカメラ4もしくは5を制御し、撮像された部品2の画像を、入力回路7でデジタル化し、画像メモリ8に多値画像データとして記憶させる。そして、演算回路10は、画像メモリ8のデータを処理し、リード先端やコーナーなどの位置を検出し、部品中心と吸着中心間のずれ、並びに部品の吸着傾きを算出し、部品の位置決め(部品認識)を行う。   The image processing device 14 controls the designated camera 4 or 5, digitizes the captured image of the component 2 by the input circuit 7, and stores it in the image memory 8 as multivalued image data. Then, the arithmetic circuit 10 processes the data in the image memory 8, detects the position of the lead tip, corner, etc., calculates the deviation between the component center and the adsorption center, and the component adsorption inclination, and positions the component (component Recognition).

マシン制御装置15は、部品認識結果を受け取り、吸着ノズル1を搭載位置に移動させ、部品認識結果に従って部品の吸着ずれ(部品中心と吸着中心間のずれ並びに吸着角度ずれ)を補正し、部品2を基板上の所定位置に搭載する。   The machine control device 15 receives the component recognition result, moves the suction nozzle 1 to the mounting position, corrects the component suction displacement (deviation between the component center and the suction center and the suction angle displacement) according to the component recognition result, and performs the component 2 Is mounted at a predetermined position on the substrate.

本発明では、高速な画像処理を実現するために、図2(b)に示したように、画像処理装置14に複数の画像メモリと複数の演算回路(CPU)が設けられる。なお、図2(a)に示した構成は、本発明の説明に使用する参考例である。 In the present invention, in order to realize high-speed image processing, as shown in FIG. 2 (b), a plurality of image memories and a plurality of arithmetic circuits (CPU) is provided in the image processing apparatus 14. The configuration shown in FIG. 2A is a reference example used for explaining the present invention.

図2(a)では、カメラ4、5からの画像データは入力回路7を介して読み取られ、分配器18を介して2つの画像メモリ8、19に分配し、画像メモリ8に分配された画像データは、CPU10によって、また、画像メモリ19に分配された画像データは、CPU17によって処理される。この参考例では、画像メモリ8にはCPU10のみがアクセス可能であり、画像メモリ19にはCPU17のみがアクセス可能であり、ひとつのメモリに対して複数のCPUがアクセスすることがないので、帯域の広い高価な画像メモリを使わなくても、並列処理が可能となる。 In FIG. 2A, the image data from the cameras 4 and 5 is read via the input circuit 7, distributed to the two image memories 8 and 19 via the distributor 18, and the image distributed to the image memory 8. The data is processed by the CPU 10, and the image data distributed to the image memory 19 is processed by the CPU 17. In this reference example, only the CPU 10 can access the image memory 8 and only the CPU 17 can access the image memory 19, and a plurality of CPUs do not access one memory. Parallel processing is possible without using a wide and expensive image memory.

ところで、分散可能な処理の並列処理化のためだけにCPU17を実装するのは、CPU17が何ら処理を実行していない時間が存在して有効活用がされないことも考えられる。そこで、図2(b)に示す実施例では、2ヘッド動作の電子部品実装装置において、各ヘッドごとに画像の入力系を用意し、それぞれでCPUを設けて各ヘッドの処理を並列で行う中で、余ったCPUリソースがあればお互いで有効活用し、処理能力を高めるようにしている。すなわち、第1の画像入力系に含まれるカメラ4、5からの画像データは入力回路7を介して第1の画像メモリ8に書き込まれるが、入力回路7と画像メモリ8との間には分配器18を設けて、画像メモリ8と同じデータを同時間で第2の画像メモリ19にも書き込む。 By the way, it is conceivable that the CPU 17 is mounted only for parallel processing of dispersible processing because there is a time when the CPU 17 is not executing any processing, and the CPU 17 is not effectively used. Therefore, in the embodiment shown in FIG. 2 (b), in the electronic component mounting apparatus of the second head operation, and provide an input system of the image for each head, in performing the processing of each head in parallel to provide a CPU with each If there are surplus CPU resources, they are effectively utilized by each other to increase processing capacity. That is, the image data from the cameras 4 and 5 included in the first image input system is written into the first image memory 8 through the input circuit 7, but is distributed between the input circuit 7 and the image memory 8. A device 18 is provided to write the same data as the image memory 8 to the second image memory 19 at the same time.

また、他のヘッドの第2の画像入力系に含まれる標準カメラ64、高解像度カメラ65からの画像データは、入力回路7と同様な入力回路20を介して第1の画像メモリ22に書き込まれるが、入力回路20と画像メモリ22との間には分配器21を設けて、画像メモリ22と同じデータを同時間で第2の画像メモリ23にも書き込む。 Further, the image data from the standard camera 64 and the high resolution camera 65 included in the second image input system of the other head is written into the first image memory 22 through the input circuit 20 similar to the input circuit 7. However, a distributor 21 is provided between the input circuit 20 and the image memory 22, and the same data as the image memory 22 is written to the second image memory 23 at the same time.

第2の画像入力系に設けられている第1のCPU17は、第1の画像入力系に設けられている第1のCPU10の副CPU(第2のCPU)として第2の画像メモリ19にアクセスして処理を実行し、CPU10は、CPU17の副CPU(第2のCPU)として第2の画像メモリ23にアクセスして処理を実行する。画像メモリ8にはCPU10のみがアクセス可能であり、画像メモリ19にはCPU17のみがアクセス可能である。また、画像メモリ22にはCPU17のみがアクセス可能であり、画像メモリ23にはCPU10のみがアクセス可能である。 The first CPU 17 provided in the second image input system accesses the second image memory 19 as a sub CPU (second CPU) of the first CPU 10 provided in the first image input system. Then, the CPU 10 executes the process by accessing the second image memory 23 as a sub CPU (second CPU) of the CPU 17. Only the CPU 10 can access the image memory 8, and only the CPU 17 can access the image memory 19. Further, only the CPU 17 can access the image memory 22, and only the CPU 10 can access the image memory 23.

図2(b)の実施例でも、ひとつのメモリに対して複数のCPUがアクセスすることがないので、帯域の広い高価な画像メモリを使わなくても、同様に分散可能な処理に対して並列処理が可能となる。   Also in the embodiment of FIG. 2B, since a plurality of CPUs do not access a single memory, parallel processing can be performed in a similar manner without using an expensive image memory with a wide bandwidth. Processing is possible.

図2に示すように、複数のCPUを設ける場合、図3に示したように、一つのCPU10(あるいは17)を主CPU(第1のCPU)、他のCPU17(あるいは10)を副CPU(第2のCPU)とし、副CPUに対して補助処理を実行させ、分散処理を行うことができる。図3(a)は主CPUに課せられた処理に支障のない範囲で副CPUが補助処理を行う場合を示す図であり、図3(b)は補助処理のプライオリティによって、補助のレベルを変動させるような場合を示す図である。 As shown in FIG. 2, when a plurality of CPUs are provided, as shown in FIG. 3, one CPU 10 (or 17) is the main CPU (first CPU) , and the other CPU 17 (or 10) is the sub CPU ( The second CPU) , the auxiliary CPU can execute auxiliary processing, and distributed processing can be performed. FIG. 3A is a diagram showing a case where the sub CPU performs auxiliary processing within a range that does not hinder the processing imposed on the main CPU, and FIG. 3B varies the level of assistance depending on the priority of the auxiliary processing. FIG.

図3(a)の例では、主CPUが処理を行うアプリケーションタスク50のうち、プライオリティが最も低いタスク51を、副CPUがアイドルタスクとして実行する。副CPUは、分散処理のリクエストがあると(ステップS1)、最もプライオリティの低いタスクを分散処理し(ステップS2)、その結果(リザルト)を送信する(ステップS3)。作業用メモリ9には、リクエスト処理状態、リクエスト、リザルトが格納される。このように、補助処理をプライオリティが最低のアイドルタスクで処理することによって、2つのCPUのそれぞれが、本来の処理を優先し、お互いが無理がないレベルで分散処理で相互補助し合うことができる。   In the example of FIG. 3A, the sub CPU executes the task 51 having the lowest priority among the application tasks 50 processed by the main CPU as an idle task. When there is a request for distributed processing (step S1), the secondary CPU distributes the task with the lowest priority (step S2) and transmits the result (result) (step S3). The work memory 9 stores a request processing state, a request, and a result. In this way, by performing auxiliary processing with an idle task with the lowest priority, each of the two CPUs can give priority to the original processing and mutually assist each other with distributed processing at a level that is not impossible. .

また、補助処理のプライオリティによって、補助のレベルを変動させるような場合は、図3(b)に示すように、動的にアイドルタスクのプライオリティを制御することによって実現可能である。この場合、必要に応じて補助の度合いを強めることができ、柔軟なスケジューリングを実現することができる。   Further, in the case where the level of assistance is changed depending on the priority of assistance processing, it can be realized by dynamically controlling the priority of idle tasks as shown in FIG. In this case, the degree of assistance can be increased as necessary, and flexible scheduling can be realized.

補助処理のリクエストとしては、例えばアプリケーションタスクに緊急度および負荷のパラメータ50aを追加する。ここで、緊急度とは、処理しなければならない緊急性の度合いを示すパラメータであり、負荷とは、その処理がどれだけのCPUパワーを必要とするかを示すパラメータである。緊急度および負荷のそれぞれは、分散化した各処理について、相対的に設定すればよい。例えば、自身が緊急度の高い処理を行っている場合は、どのような補助処理であっても副CPUとして受け付けないが、あまり緊急度が高くない処理や負荷の軽い処理を行っている場合は、負荷の軽い処理なら副CPUとして受け付けるなどという制御を可能とするパラメータである。   As an auxiliary process request, for example, the urgency and load parameters 50a are added to the application task. Here, the urgency is a parameter indicating the degree of urgency that must be processed, and the load is a parameter indicating how much CPU power the process requires. The degree of urgency and the load may be set relatively for each distributed process. For example, if you are performing a process with a high degree of urgency, you will not accept any auxiliary process as a sub CPU, but if you are performing a process that is not too urgent or that has a light load This is a parameter that enables control such as accepting as a secondary CPU if the processing is light.

補助処理の受付自体は、最もプライオリティの高いタスク52で行うものとし、主CPUの処理中であっても割り込んで処理することとする。補助処理の受付時には、まず、緊急度および負荷のパラメータ50aを読み出し、リクエストを待つ(ステップS4)。このとき、補助処理と同様に主CPUの処理についてもあらかじめ緊急度および負荷を設定しておく。   The reception of the auxiliary process itself is performed by the task 52 having the highest priority, and the interruption process is performed even during the process of the main CPU. When accepting the auxiliary process, first, the urgency and load parameters 50a are read out and a request is awaited (step S4). At this time, the urgency and load are set in advance for the processing of the main CPU as well as the auxiliary processing.

補助処理の受付時に主CPUの処理中であったならば、その処理の緊急度および負荷と、依頼処理の緊急度および負荷とを比較して、実行タスク(例えば、アイドルタスク)のプライオリティを決定、一時的に変更し(ステップS5)、受付タスクから実行タスクにリクエストを受け渡す(ステップS6)。副CPUは、ステップS7〜S9でタスクを実行し、処理の終了通知を受付タスクに行い、受付タスクは実行タスクのプライオリティを元に戻す。緊急度や負荷のパラメータとタスクのプライオリティとの関係は、システムにあわせて作り込めばよい。また、共有メモリ9には、図3(a)と同様に、リクエスト処理状態、リクエスト、リザルトが格納される。   If the main CPU is in the process of accepting the auxiliary process, the priority of the execution task (for example, idle task) is determined by comparing the urgency and load of the process with the urgency and load of the request process. Then, the request is temporarily changed (step S5), and the request is transferred from the reception task to the execution task (step S6). The sub CPU executes the task in steps S7 to S9, sends a process end notification to the reception task, and the reception task restores the priority of the execution task. The relationship between the urgency and load parameters and the task priority may be created according to the system. The shared memory 9 stores a request processing state, a request, and a result, as in FIG.

図4は、画像処理装置において並列処理する対象の例を示す表図であり、(a)は同一処理を分散し、並列処理する具体的な適用例を示す図であり、(b)は逐次連続処理を並列処理する場合の具体的な適用例を示す図である。   FIG. 4 is a table showing an example of objects to be processed in parallel in the image processing apparatus. FIG. 4A is a diagram showing a specific application example in which the same processing is distributed and processed in parallel. FIG. It is a figure which shows the specific example of application in the case of carrying out parallel processing of continuous processing.

図4(a)のNo.1〜No.3は、部品の端子や部品の特徴などに応じて、画像メモリ8、19に格納された画像データにおいて所定の画像領域を設定し、各領域の画像処理をCPU10、17に割り当てて並列処理させ、高速化を図るというものである。   No. 4 in FIG. 1-No. 3 sets predetermined image areas in the image data stored in the image memories 8 and 19 according to the component terminals and component characteristics, and assigns the image processing of each area to the CPUs 10 and 17 for parallel processing. It is to increase the speed.

図4のNo.1では、例えば、図5aに示したように、矩形の部品30の各辺に設けられたリード端子を認識する場合、画像メモリ8に格納された部品30の一つの辺に設けられたリード端子列30aを含む領域8aが設定され、また画像メモリ19に格納された部品30の他の辺に設けられたリード端子列30bを含む領域19aが設定される。CPU10は、画像メモリ8で設定された画像領域8aの画像データを処理してリード端子列30aの各リード端子の位置を検出する。また、この処理と並列して、他のCPU17は、画像メモリ19で設定された画像領域19aの画像データを処理して異なるリード端子列30bの各リード端子の位置を検出する。   No. 4 in FIG. 1, for example, as shown in FIG. 5 a, when recognizing the lead terminals provided on each side of the rectangular component 30, the lead terminals provided on one side of the component 30 stored in the image memory 8. An area 8 a including the column 30 a is set, and an area 19 a including the lead terminal array 30 b provided on the other side of the component 30 stored in the image memory 19 is set. The CPU 10 processes the image data of the image area 8a set in the image memory 8 and detects the position of each lead terminal in the lead terminal row 30a. In parallel with this process, the other CPU 17 processes the image data of the image area 19a set in the image memory 19 to detect the position of each lead terminal of the different lead terminal row 30b.

図4(a)のNo.2では、矩形の部品の外形を認識する画像処理において、部品の各辺あるいは各コーナーごとに別のCPUで認識処理を行うことによって、分散処理を行う。例えば、図5bに示したように、矩形の部品31の辺あるいはコーナーの外形を認識する場合、画像メモリ8に格納された部品31の一つの辺31aあるいはコーナー31bを含む画像領域8b、8cが設定され、また画像メモリ19に格納された部品31の他の辺31cあるいはコーナー31dを含む領域19b、19cが設定される。CPU10は、画像メモリ8の領域8b、8cの画像データを処理して辺31aあるいはコーナー31bの外形を認識し、また、この処理と並列して、他のCPU17は、画像メモリ19の領域19b、19cの画像データを処理して異なる辺31cあるいはコーナー31dの外形を認識する。   No. 4 in FIG. 2, in the image processing for recognizing the outer shape of the rectangular component, the distributed processing is performed by performing the recognition processing for each side or each corner of the component by another CPU. For example, as shown in FIG. 5b, when recognizing the outer shape of a side or corner of a rectangular component 31, image regions 8b and 8c including one side 31a or corner 31b of the component 31 stored in the image memory 8 are displayed. Regions 19b and 19c including the other side 31c or corner 31d of the component 31 set and stored in the image memory 19 are set. The CPU 10 processes the image data in the regions 8b and 8c of the image memory 8 to recognize the outer shape of the side 31a or the corner 31b. In parallel with this processing, the other CPU 17 performs the processing of the region 19b, The image data of 19c is processed to recognize the outer shape of a different side 31c or corner 31d.

図4(a)のNo.3では、底面にボール形状の電極を有する部品のボールを認識する画像処理において、それぞれ異なる画像領域を設定して、各領域ごとに別のCPUで認識処理を行うことによって、分散処理を行う。例えば、図5cに示したように、多数のボール電極32aを有する部品32の場合、画像メモリ8に格納された部品32の画像においてボール電極を含む一つの画像領域8dが設定され、また画像メモリ19に格納された部品32の画像において他のボール電極を含む領域8dとは異なる領域19dが設定される。CPU10は、画像メモリ8の領域8dの画像データを処理してこの領域の各ボール電極の位置を検出し、また、この処理と並列して、他のCPU17は、画像メモリ19の領域19dの画像データを処理してこの領域19dにある各ボール電極の位置を検出する。   No. 4 in FIG. 3, in image processing for recognizing a ball of a component having a ball-shaped electrode on the bottom surface, different image areas are set, and recognition processing is performed by a separate CPU for each area to perform distributed processing. For example, as shown in FIG. 5c, in the case of the component 32 having a large number of ball electrodes 32a, one image area 8d including the ball electrode is set in the image of the component 32 stored in the image memory 8, and the image memory In the image of the component 32 stored in 19, an area 19 d different from the area 8 d including other ball electrodes is set. The CPU 10 processes the image data in the area 8d of the image memory 8 to detect the position of each ball electrode in this area, and in parallel with this processing, the other CPU 17 performs the image of the area 19d in the image memory 19. The data is processed to detect the position of each ball electrode in this area 19d.

また、図4(a)のNo.4では、部品の撮像データの、予め登録してある部品データとのマッチングをとる画像処理において、撮像データを複数ブロックに分割し、各ブロックごとに異なるCPUで認識処理を行うことによって、分散処理を行うことができる。すなわち、マッチング領域を分割して、マッチングをとる相関演算を分散処理で並列して行うことで高速化を図るというものである。   In addition, No. 4 in FIG. 4, in image processing for matching imaging data of components with pre-registered component data, the imaging data is divided into a plurality of blocks, and recognition processing is performed by different CPUs for each block. It can be performed. In other words, the matching region is divided, and the correlation operation for obtaining the matching is performed in parallel by distributed processing to increase the speed.

図4(a)のNo.5では、条件を変動させて、よい処理結果がでたものを採用するような処理への適用で、所定の条件で画像処理し、うまくいかなければ、条件を変えて再処理というリトライ処理で行う場合、両方の処理を同時に行い、結果を比較し、よい処理結果を採用するもので、この並列処理により、処理時間を大幅に短縮できる。   No. 4 in FIG. 5 is an application to processing that changes the conditions and adopts a good processing result. If the processing is not successful, if it does not work, it can be retried by changing the conditions and reprocessing. When performing, both processes are performed at the same time, the results are compared, and a good process result is adopted, and this parallel processing can greatly reduce the processing time.

このようなリトライ処理の分散・並列処理は、例えば、部品のリード検出時のエッジ判定しきい値のリトライ処理への適用が考えられる。   Such distributed / parallel processing of retry processing may be applied to retry processing of an edge determination threshold value at the time of component lead detection, for example.

従来は、フィルタの種別・サイズごとに予めモデルリードについてフィルタ演算値を取得し、その結果を元に基準のエッジ検出しきい値を決定、ロットの違いなどによるリードの反射具合のばらつきに対応するため、撮像画像にあわせて、リトライ処理により、エッジ判定しきい値を調整していた。撮像画像において部品の端子が暗く、デフォルトのしきい値ではエッジが検出できない場合は、しきい値を下げて、またノイズ成分がある場合は余分なエッジまで検出してしまうので、しきい値を上げて、リトライを行い、正しいリードのみを検出するようにしていた。この例では、エッジ判定しきい値が認識パラメータ値に相当する。   Conventionally, filter calculation values for model leads are acquired in advance for each filter type and size, and a reference edge detection threshold value is determined based on the result, corresponding to variations in reflection of leads due to differences in lots, etc. Therefore, the edge determination threshold value is adjusted by retry processing according to the captured image. If the terminal of the component is dark in the captured image and the edge cannot be detected with the default threshold value, the threshold value will be lowered, and if there is a noise component, the extra edge will be detected. And retry to detect only correct leads. In this example, the edge determination threshold corresponds to the recognition parameter value.

図6は、フィルタ処理(DOGフィルタ処理(Marr&PosioのDifference−Of−Gaussianフィルタ処理)の結果とエッジ判定しきい値の関係について説明する図であり、図6(a)は、部品のリード部分40の撮影画像を示すものであり、図6(b)は図6(a)のスキャンラインLの位置の濃度値を表すグラフであり、図6(c)はフィルタ処理の結果を表すグラフであり、図6(d)は、しきい値を変えたときの図6(c)のゼロクロス点での変化量を表すグラフである。   FIG. 6 is a diagram for explaining the relationship between the result of the filtering process (DOG filtering process (Marr & Posio's Difference-Of-Gaussian filtering process)) and the edge determination threshold value, and FIG. 6 (b) is a graph showing the density value at the position of the scan line L in FIG. 6 (a), and FIG. 6 (c) is a graph showing the result of the filter processing. FIG. 6D is a graph showing the amount of change at the zero-cross point in FIG. 6C when the threshold value is changed.

図6(c)において、フィルタ演算結果のゼロクロス地点がエッジである。DOGフィルタによっては、ちょっとした濃度変化にも反応しやすく、ゼロクロス地点が全てリードエッジとは限らない。リードエッジの場合は、フィルタ反応値が大きくなることから、図6(d)のようにフィルタ結果のゼロクロス点前後の変化量が、ある一定値(=エッジ判定しきい値=フィルタしきい値)以上であるものをリードエッジと判断している。   In FIG.6 (c), the zero crossing point of a filter calculation result is an edge. Depending on the DOG filter, it is easy to react to a slight change in density, and not all the zero-cross points are lead edges. In the case of the lead edge, the filter reaction value becomes large, so that the amount of change before and after the zero cross point of the filter result is a certain constant value (= edge determination threshold = filter threshold) as shown in FIG. The above is determined as the lead edge.

図7に示すように、写りのよくないリード端子41が存在する場合、リードエッジ部分の変化量に対してフィルタしきい値42が高すぎると検出できるリード本数が少なくなり、図8に示すように、リード端子と同間隔でノイズ43が存在する場合には、リードエッジ部分の変化量に対してエッジ判定しきい値44が低すぎるとリード以外のノイズを誤検出して、検出本数が多くなってしまう。   As shown in FIG. 7, when there is a lead terminal 41 with poor reflection, the number of leads that can be detected decreases if the filter threshold 42 is too high with respect to the amount of change in the lead edge portion, as shown in FIG. In addition, when the noise 43 exists at the same interval as the lead terminal, if the edge determination threshold 44 is too low with respect to the change amount of the lead edge portion, noise other than the lead is erroneously detected, and the number of detections is large. turn into.

つまり、検出したリード本数が指定リード本数よりも少ない場合には、エッジ判定しきい値が高すぎたのかもしれないし、また逆に検出リード本数が多かった場合にはエッジ判定しきい値が低すぎたのかもしれない。本当にリード本数に誤りがある場合、しきい値を変動させてもリード本数は変動しない。逆にいえば、正常なリード本数が変動しないレベルでしか、しきい値を変動させてはならない。   In other words, if the number of detected leads is less than the specified number of leads, the edge determination threshold may have been too high, and conversely if the number of detected leads is large, the edge determination threshold is low. Maybe too. If there is an error in the number of leads, the number of leads will not change even if the threshold value is changed. Conversely, the threshold value should be changed only at a level where the number of normal leads does not change.

本発明を用いると、一つのCPUによりデフォルト値のフィルタしきい値42あるいは44でリード検出を行い、また他のCPUで、少し低めのフィルタしきい値42’、もしくは高めのフィルタしきい値44’でリード検出処理を同時に並列して行うことによって、本来の処理時間で、認識パラメータ値を変化させて行うリトライ処理を済ましておくことができる(最初の1回のリトライ処理を並列に行うことができる)。そして、並列処理で得られた2つの結果については、リード検出本数と指定リード本数とを比較することによって、得られた結果が正しいかどうかの判断ができる。2つの結果のうち、正しいほうの結果を選択する。また、両方とも正しい場合は、デフォルト設定の結果を選択する。   When the present invention is used, lead detection is performed with the default filter threshold value 42 or 44 by one CPU, and a slightly lower filter threshold value 42 ′ or a higher filter threshold value 44 with another CPU. By performing the lead detection processing in parallel with ', it is possible to complete the retry processing by changing the recognition parameter value in the original processing time (the first one retry processing must be performed in parallel) Is possible). Then, for the two results obtained by the parallel processing, it is possible to determine whether or not the obtained result is correct by comparing the number of detected leads and the designated number of leads. Choose the correct result of the two results. If both are correct, the default setting result is selected.

さらに続けて何回かのリトライ処理を行う場合でも、同一の画像処理で認識パラメータ値を変化させ、各認識パラメータ値で異なるCPUを用いて同じ画像データを処理することにより、リトライ処理時間を半減することができる。   Even when retry processing is performed several times in succession, the recognition parameter value is changed by the same image processing, and the same image data is processed by using a different CPU for each recognition parameter value, thereby reducing the retry processing time by half. can do.

次に、図4(a)のNo.1〜No.4に示した処理の流れを、図9を参照しながら説明する。この例では、画像入力部の構成として、図2(a)に示した構成が用いられる。   Next, No. 4 in FIG. 1-No. The processing flow shown in FIG. 4 will be described with reference to FIG. In this example, the configuration shown in FIG. 2A is used as the configuration of the image input unit.

主CPU(例えば、CPU10)は、図1に示したマシン制御装置15からインタフェース13を介してコマンドを受信する(ステップS11)。   The main CPU (for example, CPU 10) receives a command from the machine control device 15 shown in FIG. 1 via the interface 13 (step S11).

続いて、主CPU10は、図2(a)に示した入力回路7を動作させ、画像撮像を行う。画像データは図2(a)に示した分配器18によって画像メモリ8、19に同時間で同データが書き込まれる(ステップS12)。   Subsequently, the main CPU 10 operates the input circuit 7 shown in FIG. The image data is written in the image memories 8 and 19 at the same time by the distributor 18 shown in FIG. 2A (step S12).

次に、主CPU10は分散処理の対象となる画像上の領域を算出する(ステップS13)。さらに、主CPUは、ステップS13で求めた処理領域などの処理に必要なパラメータを設定し、副CPU(例えば図2(a)に示したCPU17)にリクエストを送信する(ステップS14)。   Next, the main CPU 10 calculates a region on the image to be distributed (step S13). Further, the main CPU sets parameters necessary for processing such as the processing area obtained in step S13, and transmits a request to the sub CPU (for example, the CPU 17 shown in FIG. 2A) (step S14).

ステップS15では、主CPUは、自身に割り当てられた分散処理(1)を実行する。   In step S15, the main CPU executes the distributed processing (1) assigned to itself.

一方、副CPUでは主CPUからのリクエストを受信し(ステップS17)、ステップS15と並列して、副CPUによるステップS17〜S19の処理が実行される。   On the other hand, the sub CPU receives a request from the main CPU (step S17), and the processes of steps S17 to S19 by the sub CPU are executed in parallel with step S15.

ステップS18では、副CPUは分散処理種別を判定する(ステップS18a)。状況、種別によって、依頼された分散処理(2)を実行するタスクのプライオリティを制御し、柔軟に対応するしくみを組み込むことができる。   In step S18, the sub CPU determines the distributed processing type (step S18a). Depending on the situation and type, the priority of the task that executes the requested distributed processing (2) can be controlled, and a flexible mechanism can be incorporated.

ステップS18では、おのおのの実行処理ルーチンを呼び出して分散処理(2)を実行し(ステップS18b〜S18e)、処理が終了したならば、その分散処理(2)の結果を主CPU10へと送信する(ステップS19)。主CPUでは、ステップS16において、ステップS14で副CPUに依頼した分散処理(2)の結果を受信する。   In step S18, each execution processing routine is called to execute the distributed processing (2) (steps S18b to S18e). When the processing ends, the result of the distributed processing (2) is transmitted to the main CPU 10 ( Step S19). In step S16, the main CPU receives the result of the distributed processing (2) requested to the sub CPU in step S14.

なお、ステップS15で行われる分散処理(1)の内容は、ステップS18で行われる分散処理(2)のステップS18a〜S18eと同様な処理が行われる。   The contents of the distributed process (1) performed in step S15 are the same as those in steps S18a to S18e of the distributed process (2) performed in step S18.

ステップS15、S18でそれぞれ行われるリード列検出処理は、図4(a)のNo.1の処理で、図5aに関連して説明した処理である。また、ステップS15、S18で行われるボール群検出処理は、図4(a)のNo.3の処理で、図5cに関連して説明した処理であり、外形検出処理は、図4(a)のNo.2の処理で、図5bに関連して説明した処理である。また、ステップS15、S18で行われる分割領域マッチング処理は、図4(a)のNo.4の処理である。   The lead string detection process performed in each of steps S15 and S18 is No. in FIG. This is the process described in relation to FIG. Further, the ball group detection processing performed in steps S15 and S18 is No. 1 in FIG. 3, which is the processing described in relation to FIG. 5 c, and the outer shape detection processing is No. 3 in FIG. This is the process described in relation to FIG. Further, the divided region matching processing performed in steps S15 and S18 is No. in FIG. 4 processing.

なお、更に異なる他の領域にあるリード端子列、辺、コーナー、あるいはボール電極群に対して、上述した分散処理(1)、(2)が必要な場合には、同様な分散処理を必要な回数だけ行い、それぞれの画像処理により認識されたリード端子列、辺、コーナー、あるいはボール電極群に基づいて、部品の中心と部品の傾きを演算し部品認識を終了する。   In addition, when the above-described dispersion processing (1) and (2) is required for the lead terminal rows, sides, corners, or ball electrode groups in other different regions, the same dispersion processing is necessary. The number of times is performed, and based on the lead terminal row, side, corner, or ball electrode group recognized by each image processing, the center of the part and the inclination of the part are calculated, and the part recognition ends.

図10は、図4(a)のNo.5で、図6〜図8で説明したリトライ処理を分散処理する場合の各CPUの動作を示すフローチャートである。   FIG. 10 shows No. 1 in FIG. 9 is a flowchart showing the operation of each CPU when the retry processing described in FIGS. 6 to 8 is distributed.

まず、主CPU10は、入力回路1を動作させ、画像撮像を行う(ステップS21)。画像データは分配器18を介し、画像メモリ8、19に対し同時間で同じ画像データが書き込まれる。   First, the main CPU 10 operates the input circuit 1 to take an image (step S21). The same image data is written into the image memories 8 and 19 through the distributor 18 at the same time.

主CPU10は自身と同じ画像上の領域のリード列の検出について、認識パラメータ値、つまりエッジ判定しきい値を変えて行うように、分散処理のリクエストを作成する(ステップS22)。   The main CPU 10 creates a distributed processing request so as to change the recognition parameter value, that is, the edge determination threshold value, for detection of the lead string in the same area as that of itself (step S22).

ステップS23では、主CPU10は、副CPU17に対して、ステップS22で作成したリクエストを送信する。   In step S23, the main CPU 10 transmits the request created in step S22 to the sub CPU 17.

その後、主CPU10は、所定の認識パラメータ値(パラメータ(1))で自身に割り当てられたリード検出処理を実行する(ステップS24)。   Thereafter, the main CPU 10 executes a lead detection process assigned to itself with a predetermined recognition parameter value (parameter (1)) (step S24).

一方、副CPU17は、主CPU10と並列に動作しており、主CPU10からのリクエストを受信したならば(ステップS27)、分散処理種別を判定して指定処理モジュールを呼び出し(ステップS28)、パラメータ(1)とは異なる認識パラメータ値(パラメータ(2))で、すなわち、異なるエッジ判定しきい値でリード検出処理を行い(ステップS29)、その処理の結果を主CPU10へ送信する(ステップS30)。   On the other hand, the sub CPU 17 operates in parallel with the main CPU 10 and receives a request from the main CPU 10 (step S27), determines the distributed processing type, calls the designated processing module (step S28), and sets parameters ( The lead detection process is performed with a recognition parameter value (parameter (2)) different from 1), that is, with a different edge determination threshold value (step S29), and the result of the process is transmitted to the main CPU 10 (step S30).

一方、主CPU10は、副CPU17がステップS29で行ったリード検出処理の結果を受信する(ステップS25)。   On the other hand, the main CPU 10 receives the result of the lead detection process performed by the sub CPU 17 in step S29 (step S25).

主CPU10は、ステップS24で自身が実行した処理の結果で得られたリード検出本数と予め設定してある指定リード本数とを比較し、また、ステップS25で副CPU17から受信した結果で得られたリード検出本数と予め設定してある指定リード本数とを比較し、正しい方の結果を選択する(ステップS26)。両方とも正しい場合は、主CPUの処理の結果を優先する。   The main CPU 10 compares the number of detected leads obtained as a result of the process executed by itself in step S24 with the designated number of leads set in advance, and obtained as a result of receiving from the sub CPU 17 in step S25. The number of detected leads is compared with a preset number of specified leads, and the correct result is selected (step S26). If both are correct, the processing result of the main CPU is prioritized.

上述した分散処理は、図2(b)に示した構成でも行うことができる。図2(b)に示した構成は、各ヘッドの処理を各CPUが並列で行う中で、余ったCPUリソースがあればお互いが有効に利用し、処理能力を高めるために本発明の基本動作を展開したものである。   The distributed processing described above can also be performed with the configuration shown in FIG. The configuration shown in FIG. 2B is the basic operation of the present invention in order to increase the processing capability by effectively using each other if there is a surplus CPU resource while each CPU performs the processing of each head in parallel. Is expanded.

図11は、図2(b)に示した構成による分散処理の相互補助時の主CPUの処理を示すフローチャートである。   FIG. 11 is a flowchart showing the processing of the main CPU at the time of mutual assistance of distributed processing with the configuration shown in FIG.

図2(b)に示した構成では、カメラ4、5を有するヘッドの側から見れば、CPU10が主CPU、CPU17が副CPUであり、カメラ64、65を有するヘッドの側から見れば、CPU17が主CPU、CPU10が副CPUである。以下の説明は、カメラ4、5を有するヘッドの構成で説明する。   In the configuration shown in FIG. 2B, the CPU 10 is the main CPU and the CPU 17 is the sub CPU when viewed from the head having the cameras 4 and 5, and the CPU 17 is viewed from the head having the cameras 64 and 65. Is the main CPU, and CPU 10 is the sub CPU. In the following description, the configuration of the head having the cameras 4 and 5 will be described.

主CPU(CPU10)は、図1に示したマシン制御装置15からインタフェース13を介してコマンドを受信する(ステップS41)。   The main CPU (CPU 10) receives a command from the machine control device 15 shown in FIG. 1 via the interface 13 (step S41).

続いて、主CPUは、図2(b)に示した入力回路7を動作させ、画像撮像を行う。画像データは図2(b)に示した分配器18によって画像メモリ8、19に対して同時間で同データが書き込まれる(ステップS42)。   Subsequently, the main CPU operates the input circuit 7 shown in FIG. The image data is written into the image memories 8 and 19 at the same time by the distributor 18 shown in FIG. 2B (step S42).

次に、主CPUは分散処理の対象となる画像上の領域を算出する(ステップS43)。さらに、主CPUは、ステップS43で求めた処理領域などの処理に必要なパラメータを設定し、副CPU(CPU17)に対してリクエストを送信する(ステップS44)。   Next, the main CPU calculates an area on the image to be distributed (step S43). Further, the main CPU sets parameters necessary for processing such as the processing area obtained in step S43, and transmits a request to the sub CPU (CPU 17) (step S44).

ステップS45では、主CPUは、自身に割り当てられた分散処理(1)を実行する。一方、副CPUでは、主CPUからのリクエストを受信し、自身のリソースに余裕があれば、主CPUからリクエストされた分散処理(2)を実行する。分散処理(1)、(2)は、図9のステップS15、S18における分散処理(1)、(2)と同じ処理である。   In step S45, the main CPU executes distributed processing (1) assigned to itself. On the other hand, the secondary CPU receives a request from the main CPU, and executes a distributed process (2) requested from the main CPU if there is a margin in its own resources. The distributed processes (1) and (2) are the same processes as the distributed processes (1) and (2) in steps S15 and S18 of FIG.

主CPUは、ステップS44で副CPUに依頼した分散処理(2)の結果を受信する(ステップS46)。ただし、この時点で依頼の処理が終わっていれば結果を受信できるが、そうでないこともある。   The main CPU receives the result of the distributed processing (2) requested to the sub CPU in step S44 (step S46). However, if the request processing is completed at this point, the result can be received, but it may not be the case.

ステップS47では、依頼した分散処理(2)が完了したかを確認し、完了していれば、ステップS51の次処理(処理(3))へと進み、そうでなければ、ステップS48へと進む。   In step S47, it is confirmed whether the requested distributed process (2) is completed. If completed, the process proceeds to the next process (process (3)) in step S51. If not, the process proceeds to step S48. .

ステップS48では、処理状況を確認し、分散処理(2)をこのまま副CPUに任せるか、それとも依頼をキャンセルし、自身で処理するかを判定する。分散処理(2)をこのまま副CPUに任せるか、それとも依頼をキャンセルするか、の判断基準は、たとえば、処理依頼からの経過時間が所定時間以上経過したか否かで判断したり、副CPUからの申告によって判断したりすることができる。   In step S48, the processing status is confirmed, and it is determined whether the distributed processing (2) is left to the sub CPU as it is, or whether the request is canceled and processed by itself. Whether the distributed processing (2) is left to the sub CPU as it is or whether the request is canceled is determined based on, for example, whether the elapsed time from the processing request has exceeded a predetermined time or from the sub CPU. Judgment can be made based on the report.

副CPUの処理を待つと判断した場合は、ステップS46へと分岐し、分散処理(2)の完了を待つ。ステップS48で、副CPUへの依頼をキャンセルすると判断した場合には、副CPUにリクエストキャンセルの送信を行い(ステップS49)、主CPU自身で分散処理(2)を処理する(ステップS50)。   If it is determined to wait for the process of the sub CPU, the process branches to step S46 and waits for the completion of the distributed process (2). If it is determined in step S48 that the request to the sub CPU is canceled, a request cancel is transmitted to the sub CPU (step S49), and the main CPU itself performs the distributed processing (2) (step S50).

[参考例]
次に、図12に示した参考例を説明する。図12の画像入力部は、逐次連続処理を並列に動作させ、全体的な処理能力を向上させるためのしくみを実現する構成である。
[Reference example]
Next, a reference example shown in FIG. 12 will be described. The image input unit in FIG. 12 is configured to implement a mechanism for operating sequential sequential processing in parallel to improve the overall processing capability.

この構成は、CPUで実行する処理の中に、逐次処理すべき2種類の演算があり、その処理が連続的に発生する場合に効果がある。例えば、図4(b)に示したような処理である。   This configuration is effective when there are two types of operations to be sequentially processed in the processing executed by the CPU and the processing occurs continuously. For example, the process is as shown in FIG.

図12に示した構成において、カメラ4、5で撮像された画像データは分配器18によって、画像メモリ8、19のそれぞれに格納することが可能となる。ただし、この実施例では、2つのルートのそれぞれにスイッチ24、25を設けている。すなわち、スイッチ24、25のON/OFF制御によって、画像メモリ8、19への画像データの格納状態を、図13に示すように制御することができる。   In the configuration shown in FIG. 12, the image data captured by the cameras 4 and 5 can be stored in the image memories 8 and 19 by the distributor 18, respectively. However, in this embodiment, switches 24 and 25 are provided for each of the two routes. That is, the storage state of the image data in the image memories 8 and 19 can be controlled as shown in FIG. 13 by ON / OFF control of the switches 24 and 25.

また、図12に示すように、CPU(演算回路)10は、スイッチ26を切り替えることによって画像メモリ8および画像メモリ19の両方にアクセス可能なように設けられ、CPU(演算回路)17も、スイッチ26を切り替えることによって画像メモリ8および画像メモリ19の両方にアクセス可能なように設けられている。   As shown in FIG. 12, the CPU (arithmetic circuit) 10 is provided so that both the image memory 8 and the image memory 19 can be accessed by switching the switch 26. By switching 26, both the image memory 8 and the image memory 19 can be accessed.

図14は、図12の構成での処理の流れを説明したフローチャートである。図中、処理A、処理Bとあるのは、図4(b)に記した処理A、処理Bに対応している。   FIG. 14 is a flowchart illustrating the flow of processing in the configuration of FIG. In the figure, processing A and processing B correspond to processing A and processing B shown in FIG.

また、図15は、図12の各CPUによって実行される処理の遷移を示すタイミングチャートである。この図では、画像メモリ8をA面と呼び、画像メモリ19をB面と呼ぶ。   FIG. 15 is a timing chart showing transition of processing executed by each CPU of FIG. In this figure, the image memory 8 is referred to as A side, and the image memory 19 is referred to as B side.

図14のステップS61では、スイッチ24および25をONとし、両面すなわち画像メモリ8および画像メモリ19の両方に画像データを取り込む。   In step S61 in FIG. 14, the switches 24 and 25 are turned ON, and the image data is taken into both sides, that is, both the image memory 8 and the image memory 19.

まず、CPU10は、画像メモリ8(A面)のデータに対して処理Aを実行し、処理Aを終了したならば、CPU17に対して処理Bの開始要求を出す(ステップS62)。   First, the CPU 10 executes the process A on the data in the image memory 8 (A surface), and when the process A is completed, issues a request to start the process B to the CPU 17 (step S62).

ステップS63では、このステップを通る初回のときには既に画像が取り込まれているのでスキップし、2回目以降は、CPU17の処理と同期させるため、CPU17による処理Bの終了を待つ。   In step S63, since the image has already been captured at the first time passing through this step, it is skipped, and after the second time, in order to synchronize with the processing of the CPU 17, the end of the processing B by the CPU 17 is awaited.

CPU17によるA面の処理Bが終了したことを確認したならば、スイッチ24をON、スイッチ25をOFFにするよう制御し、画像メモリ8(A面)のみに格納できるようにする。   If it is confirmed that the processing B on the A side by the CPU 17 is completed, the switch 24 is turned on and the switch 25 is turned off so that only the image memory 8 (A side) can be stored.

ステップS64では、初回は既に画像が取り込まれているのでスキップし、2回目以降は、画像の撮像を行う。このとき、ステップS63でのスイッチ24およびスイッチ25の制御により、2面あるメモリのうちの片面のみが更新される。   In step S64, an image is already captured for the first time, so the process is skipped, and images are captured for the second and subsequent times. At this time, only one of the two memories is updated by the control of the switch 24 and the switch 25 in step S63.

続いて、ステップS65では、ステップS64で新たに取り込まれた画像に対して、CPU10が処理Aを行えるよう、スイッチ26を切り替える。例えば、初回時は、画像メモリ8に対してCPU10がアクセス可能となる。   Subsequently, in step S65, the switch 26 is switched so that the CPU 10 can perform the process A on the image newly captured in step S64. For example, at the first time, the CPU 10 can access the image memory 8.

CPU17は、CPU10によるステップS62〜S65と並列に、ステップS66〜S68の処理を行う。まず、ステップS66では、ステップS62で発せられた要求により、処理Bの実行が開始する。   The CPU 17 performs steps S66 to S68 in parallel with steps S62 to S65 by the CPU 10. First, in step S66, execution of the process B is started by the request issued in step S62.

処理Bが終了したならば、ステップS67では、スイッチ26を切り替えて、CPU17がアクセスするメモリを、次の処理対象の画像メモリへと切り替える。例えば、初回時は、画像メモリ8に対してCPU17がアクセス可能であるところから、ステップS67において画像メモリ19に対してCPU17がアクセス可能となるように、切り替えられる。   If the process B is completed, in step S67, the switch 26 is switched to switch the memory accessed by the CPU 17 to the next image memory to be processed. For example, at the first time, since the CPU 17 can access the image memory 8, switching is performed so that the CPU 17 can access the image memory 19 in step S 67.

CPU17は、処理Bが終了したならば、その旨をCPU10に通知する(ステップS68)。   CPU17 will notify that to CPU10, if the process B is complete | finished (step S68).

次に、部品の吸着状態の異常であるチップ立ちを検出(判定)する請求項6に係る第実施例を説明する。便宜上、ここでは、前記図2(a)に示した参考例の画像入力部を適用する例として先に説明する。 Next, a description will be given of a third embodiment according to claim 6 for detecting (determining) a chip standing which is an abnormality in the component suction state. For the sake of convenience, here, an example in which the image input unit of the reference example shown in FIG.

これは、前記図4(a)のNo.6にチップ立ち検査として追加したもので、No.1〜No.5の各処理と同様、図2(b)に示した構成の画像入力部を適用することもできる。   This is because No. of FIG. No. 6 was added as a chip standing inspection. 1-No. Similarly to each processing of 5, the image input unit having the configuration shown in FIG. 2B can be applied.

ところで、チップ立ち検査(部品吸着状態の判定)を画像処理で行おうとする場合、図16には、(a)の正常吸着(両端の小さい矩形はリード(電極)端子である)の他に、(b)〜(e)に丸で示すノズルとの関係でエラー状態の違いをイメージで示すように、チップの斜め立ちには様々な状況が考えられる。従って、一つの判定アルゴリズムを用いて全ての状況の吸着状態を判定することは不可能である。そこで、斜め立ち等の部品吸着状態を分類し、それぞれの状況別に対応する判定アルゴリズムを複数用意し、順次、判定アルゴリズムを切り替えながら、判定処理を繰り返し行なう必要がある。以下、これを具体的に説明する。   By the way, when trying to perform chip standing inspection (determination of component adsorption state) by image processing, FIG. 16 shows (a) normal adsorption (small rectangles at both ends are lead (electrode) terminals), As shown in the image of the difference in the error state in relation to the nozzles indicated by circles in (b) to (e), various situations are conceivable for the oblique standing of the chip. Therefore, it is impossible to determine the suction state in all situations using one determination algorithm. Therefore, it is necessary to classify the component adsorption states such as oblique standing, prepare a plurality of determination algorithms corresponding to each situation, and repeatedly perform the determination processing while sequentially switching the determination algorithms. This will be specifically described below.

図17に、チップ立ち(吸着状態)の判定アルゴリズムに従って処理する場合のフローチャートを示す。   FIG. 17 shows a flowchart when processing is performed in accordance with a chip standing (adsorption state) determination algorithm.

ステップS71では、撮像画像から例えば判別分析法で2値化のための値を求め、画像の2値化を行ない、得られた2値画像から塊を求めるラベリング処理を行なう(ステップS72)。   In step S71, a value for binarization is obtained from the captured image by, for example, a discriminant analysis method, the image is binarized, and a labeling process for obtaining a block from the obtained binary image is performed (step S72).

次いで、ラベリング画像から塊の数が1つか2つか判定して、1つならば部品全体であるとして面積チェックを行ない、図18(a)のように2つならばリード端子であるとして2つの面積比をチェックする(ステップS73〜75)。   Next, it is determined whether the number of lumps is 1 or 2 from the labeling image, and if it is 1, the area is checked as the whole part, and if it is 2 as shown in FIG. The area ratio is checked (steps S73 to S75).

ステップS73〜75の処理結果がOK(面積が正しいか面積比が1)かNGかの判定を行ない、図18(a’)の画像イメージのように斜め立ちで面積比が1でないためNGならばその後の処理をキャンセルしてNG処理を行なう。OKならば、次の処理に移る(ステップS76)。   It is determined whether the processing results in steps S73 to S75 are OK (the area is correct or the area ratio is 1) or NG. If the area ratio is not 1 as shown in the image of FIG. For example, the subsequent processing is canceled and NG processing is performed. If OK, the process proceeds to the next process (step S76).

ステップS77では、次の処理である慣性主軸(ノズル中心)の計算を行ない、主軸の直線式を求める。   In step S77, the inertia spindle (nozzle center), which is the next process, is calculated to obtain a linear expression of the spindle.

通常、斜め立ちの原因は、部品の角部がノズル先端の吸着穴に入って発生する斜め吸着にあるため、ノズル中心から部品中心の位置ずれが起こる。このことを利用して、図18(b)に示すように、ノズル中心(=画像中心)からある一定の距離以上の場所にラベリングで取得した塊の外周位置がある(吸着ずれ大)か否かのチェックを行なう(ステップS78)。   Usually, the cause of the slanting is the slant suction that occurs when the corner of the component enters the suction hole at the tip of the nozzle, so that the position of the component center shifts from the center of the nozzle. By utilizing this fact, as shown in FIG. 18B, whether or not the outer peripheral position of the lump acquired by labeling is present at a certain distance or more from the nozzle center (= image center) (large suction deviation). Is checked (step S78).

位置チェック結果がOKかNGかの判定を行ない、NGならばその後の処理をキャンセルしてNG処理を行なう。OKならば、次の処理に移る(ステップS79)。   It is determined whether the position check result is OK or NG. If it is NG, the subsequent processing is canceled and NG processing is performed. If OK, the process proceeds to the next process (step S79).

前記図16(a)のような正常吸着の場合、チップ部品の周囲4辺に外接する直線は矩形になる。この原理を利用するために4辺の外接線を求めて、各辺の交角が90°±αの許容範囲内に入っているか否かを判定する(ステップS80)。   In the case of normal suction as shown in FIG. 16A, the straight line circumscribing the four sides around the chip part is rectangular. In order to use this principle, four circumscribing lines are obtained, and it is determined whether or not the intersection angle of each side is within an allowable range of 90 ° ± α (step S80).

外接線形状結果がOKかNGかの判定を行ない、NGならばその後の処理をキャンセルしてNG処理を行なう。OKならば、次の処理に移る(ステップS81)。因みに、図18(c)のように、外接線の交角が90°から大きくずれている場合は、同(c’)のような斜め立ちのNGと判定する。   It is determined whether the circumscribed line shape result is OK or NG. If it is NG, the subsequent processing is canceled and NG processing is performed. If OK, the process proceeds to the next process (step S81). Incidentally, as shown in FIG. 18 (c), when the angle of intersection of the circumscribing lines is greatly deviated from 90 °, it is determined that the NG is obliquely standing as in (c ′).

次いで、チップ部品が正常に吸着されていれば、ウィンドウ内の2値化閾値以上の面積がほぼ100%になる。これを利用するためにステップS77で求めた慣性主軸上の最外側エッジ点を算出して、主軸に対して垂直な矩形ウィンドウ(図18(d)中、2つの小矩形)をかける(ステップS82)。なおウィンドウ(取得する判定用矩形)の大きさは、部品サイズから一般的な端子サイズを求めて、それと同一なサイズにするか、又は、予め教示しておく。   Next, if the chip component is normally adsorbed, the area within the window equal to or greater than the binarization threshold is almost 100%. In order to use this, the outermost edge point on the inertial main axis obtained in step S77 is calculated, and a rectangular window (two small rectangles in FIG. 18D) perpendicular to the main axis is applied (step S82). ). The size of the window (determination rectangle to be acquired) is obtained by obtaining a general terminal size from the component size and setting it to the same size or teaching in advance.

その後、上でかけたウィンドウ内の2値化閾値以上の面積を求め、その面積がウィンドウに対してある一定値以上の割合を占めているか判定する。即ち、ウィンドウ(矩形)に対する端子部の画素数に基づく面積チェック結果がOKかNGかの判定を行なう(ステップS83)。ここで、NGならばNG処理を行ない、OKならば、OK処理を行ない終了する。因みに、図18(d)は、同(d’)に示す斜め立ちであるため、NGということになる。   Thereafter, an area equal to or greater than the binarization threshold in the window applied above is obtained, and it is determined whether the area occupies a ratio equal to or greater than a certain value with respect to the window. That is, it is determined whether the area check result based on the number of pixels of the terminal portion for the window (rectangle) is OK or NG (step S83). Here, if NG, NG processing is performed, and if OK, OK processing is performed and the process is terminated. Incidentally, FIG. 18 (d) is NG because of the oblique standing shown in (d ').

以上詳述したように、画像処理でチップ立ち検査を行おうとする場合、斜め立ちの状態を分類し、それぞれの状況別に判定アルゴリズムを複数用意し、順次、判定アルゴリズムを切り替えながら、判定処理を繰り返し行なわなければならない。   As described in detail above, when performing chip standing inspection by image processing, classify oblique standing states, prepare multiple judgment algorithms for each situation, and repeat judgment processing while sequentially switching judgment algorithms. Must be done.

従って、従来の画像処理装置のように、CPUが1つである場合には、並列処理が可能な処理対象であっても、逐次処理を行なわなければならないために長時間かかることになる。特に、正常であるという判定結果を得るためには用意した全ての判定アルゴリズムを適用し、全ての処理でOKの判定を得る必要があるため、最長処理時間となってしまう。頻度的には正常状態の方が圧倒的に多いので、生産タクトに対する影響の度合は極めて大きい。   Therefore, when the number of CPUs is one as in the conventional image processing apparatus, it takes a long time because sequential processing must be performed even for a processing target capable of parallel processing. In particular, in order to obtain a determination result that is normal, it is necessary to apply all of the prepared determination algorithms and obtain an OK determination in all the processes, so the longest processing time is required. Since the normal state is overwhelmingly more frequent, the degree of influence on the production tact is extremely large.

そこで、前記図4(a)にNo.6として列記したチップ立ち検査を効率的に実現できるよう、鋭意検討した結果なされた本発明に係る実施例について、以下に説明する。 Therefore, in FIG. Example 3 according to the present invention, which was made as a result of intensive studies so as to efficiently realize the chip standing inspection listed as 6, will be described below.

図19に本実施例による検査(判定)の処理手順を表したフローチャートを示す。   FIG. 19 is a flowchart showing the inspection (judgment) processing procedure according to this embodiment.

左側に示す主CPUのフローチャートでは、まず、ステップS91で主CPUは、図2(a)入力回路1を動作させ、画像撮像を行なう。   In the flowchart of the main CPU shown on the left side, first, in step S91, the main CPU operates the input circuit 1 in FIG.

撮像された画像データは図2(a)の分配器18により、画像メモリ8、19に同時間で同データが書き込まれる。   The captured image data is written into the image memories 8 and 19 at the same time by the distributor 18 in FIG.

ステップS92では、チップ立ち検査のアルゴリズムは、ほぼ同等の処理時間になるように組み合わせを考え、図20に示すように2つのパターンに分割し、パラメータ1、2として設定する。   In step S92, the chip standing inspection algorithm considers a combination so that the processing time is almost equivalent, and is divided into two patterns as shown in FIG.

主CPUは、自身と同じ画像上のチップ部品について、アルゴリズムパターン2でチップ立ち検査を行なうよう、分散処理のリクエストを作成し、ステップS93で副CPUにリクエストを送信すると共に、ステップS94で自身に割り当てられたチップ立ち検査(アルゴリズムパターン1)を実行する。   The main CPU creates a distributed processing request to perform chip standing inspection with the algorithm pattern 2 for the chip parts on the same image as itself, and transmits the request to the sub CPU at step S93, and at step S94 to itself. The assigned chip standing inspection (algorithm pattern 1) is executed.

その後、ステップS95で自身の処理が、他方のCPUから割り込み(後述する)により中断させられたかどうか判断し、中断させられていたならば、他方のCPUの検査で既にNG判定が確定したものとみなす。   Thereafter, in step S95, it is determined whether or not the processing of itself is interrupted by an interrupt (described later) from the other CPU. If it is interrupted, it is determined that the NG determination has already been confirmed by the inspection of the other CPU. I reckon.

ステップS96では、中断されることなく正常に検査が終了したのであれば、自身の処理による検査結果の判定を行ない、NGであったならば、他方のCPUの処理を中断させるため、ステップS97で他方のCPUに対して割り込みをかける。   In step S96, if the inspection is normally completed without being interrupted, the inspection result is determined by its own processing. If it is NG, the processing of the other CPU is interrupted. Interrupt the other CPU.

ステップS98では、前記ステップS93で副CPUに依頼していたチップ立ち検査の結果を受信し、ステップS99では、どちらかの検査でNGと判定されていたならばNG、両方ともOKの場合のみOKとする結果選択を行う。   In step S98, the result of the chip standing inspection requested to the sub CPU in step S93 is received. In step S99, if it is determined as NG in either inspection, it is determined to be NG, and both are OK only. And select the result.

一方、右側に示す副CPUのフローチャートは次のとおりである。これは主CPUによるステップS94の処理と並列で動作する。   On the other hand, the flowchart of the sub CPU shown on the right side is as follows. This operates in parallel with the process of step S94 by the main CPU.

ステップS101で、主CPUからの前記ステップS93のリクエストを受信すると、ステップS102では要求された分散処理種別を判定し、指定処理モジュールを呼び出す。   In step S101, when the request in step S93 is received from the main CPU, in step S102, the requested distributed processing type is determined, and the designated processing module is called.

ステップS103では、チップ立ち検査(アルゴリズムパターン2)を実行する。   In step S103, chip standing inspection (algorithm pattern 2) is executed.

その後、ステップS104で自身の処理が、他方のCPUにより中断させられたかどうか判断し、中断させられていたならば、他方のCPUの検査で既にNG判定が確定したものとみなす。   Thereafter, in step S104, it is determined whether or not the processing of itself is interrupted by the other CPU. If it is interrupted, it is considered that the NG determination has already been confirmed by the inspection of the other CPU.

ステップS105では、中断されることなく正常に検査が終了したのであれば、自身の処理による検査結果の判定を行ない、NGであったならば、他方のCPUの処理を中断させるため、ステップS106で他方のCPUに対して割り込みをかけると共に、ステップS107では、分散処理の結果を主CPUへ送信する。   In step S105, if the inspection is normally completed without being interrupted, the inspection result is determined by its own processing. If it is NG, the processing of the other CPU is interrupted. While interrupting the other CPU, in step S107, the result of distributed processing is transmitted to the main CPU.

前記図17、図18を用いて説明した如く、前記図4(a)のNo.6に記載したチップ立ち検査には、複数の判定アルゴリズムを順次試してOK/NG判定する処理が必要である。従って、通常はあるアルゴリズムで判定し、OKならば次アルゴリズムに変えて再判定を繰り返すという処理を行なうことになるが、本実施例においては、複数の判定処理を並列に効率良く行ない、最長処理時間を大幅に短縮できる。   As described with reference to FIG. 17 and FIG. The chip standing inspection described in 6 requires an OK / NG determination process by sequentially testing a plurality of determination algorithms. Therefore, normally, a determination is made by a certain algorithm, and if it is OK, the re-determination is repeated by changing to the next algorithm. In this embodiment, a plurality of determination processes are efficiently performed in parallel, and the longest processing is performed. Time can be greatly reduced.

このようなOK/NG判定処理の場合、頻度が高いOKの判定に最長処理時間を要することになるので、効果は極めて大きい。   In the case of such an OK / NG determination process, since the longest processing time is required for the determination of OK with high frequency, the effect is extremely great.

以上のように実施例によれば、以下の効果が得られる。 As described above, according to the third embodiment, the following effects can be obtained.

(1)処理を分散化し、並列処理を行なうことにより、正常時の検査時間を大幅に短縮できる。   (1) By decentralizing processing and performing parallel processing, the normal inspection time can be greatly shortened.

(2)割り込みにより処理を中断させる通知手段を設けることによって、エラー時の検査時間も最小限に済ませることができる。   (2) By providing a notification means for interrupting the processing by interruption, the inspection time at the time of error can be minimized.

以上説明したいずれの実施例1、2、3でも、処理を分散化して並列処理を行い、部品認識時間を短縮することができるし、従来性能のハードウェア資源(CPU、画像メモリ)の使用効率を向上し、処理能力を向上させることができるので、コスト的に有利である。 Above-described one of the first and second embodiments, even in 3 performs parallel processing by distributed processing, it can be shortened component recognition time, use of the hardware resources of conventional performance (CPU, an image memory) The efficiency can be improved and the processing capacity can be improved, which is advantageous in terms of cost.

従来の分散処理では、処理対象のデータを同一メモリで共用していたためそのメモリが高価なものである必要があったり、また、別メモリに格納してそれぞれを処理するとしてもデータのコピーという余分な処理が発生していた。これに対して本発明では、分配器を利用することで、撮像時に2面の別メモリに同一データを格納できるハード構成としている。これにより、従来性能のハードウェア資源でありながら、効率のよい分散処理を構築することができる。   In conventional distributed processing, the processing target data is shared by the same memory, so that the memory needs to be expensive, and even if each memory is stored and processed, the extra data copy is required. Processing has occurred. On the other hand, in the present invention, by using a distributor, the same data can be stored in two separate memories at the time of imaging. This makes it possible to construct an efficient distributed process while using hardware resources with conventional performance.

さらに本発明では、2つのCPUのそれぞれが、本来の処理を優先し、お互いが無理がないレベルで分散処理で相互補助し合うスケジューリング方式を採用し、必要に応じて補助の度合いを強めることができる仕組みも組み込んでおり、柔軟なスケジューリングを実現できる。   Furthermore, in the present invention, each of the two CPUs prioritizes the original processing and adopts a scheduling method in which mutual processing is supported by distributed processing at a reasonable level, and the degree of assistance can be increased as necessary. It also incorporates a mechanism that can perform flexible scheduling.

また本発明では、電子部品実装装置の画像処理装置において、部品認識に関する画像処理であるアプリケーション処理を分散化、並列処理を行うことで、ハードウェアの高速化のみに頼るのではなく、今ある資源の使用効率を最大限に引き出し、無駄をなくし、処理能力を上げることができる。   In the present invention, in the image processing apparatus of the electronic component mounting apparatus, application processing, which is image processing related to component recognition, is distributed and performed in parallel, so that the existing resources are not relied solely on hardware acceleration. Can maximize the efficiency of use, eliminate waste, and increase processing capacity.

電子部品実装装置における画像処理装置およびその周辺構成の要部の一例を示すブロック図The block diagram which shows an example of the principal part of the image processing apparatus in an electronic component mounting apparatus, and its periphery structure (a)は本発明の説明に使用する参考例の画像入力部を示すブロック図、(b)は本発明による画像処理装置の画像入力部の例を示すブロック図(A) is a block diagram showing an image input unit of a reference example used for explaining the present invention, (b) is a block diagram showing an example of an image input unit of the image processing apparatus according to the present invention . (a)は自CPUに課せられた処理に支障のない範囲で補助処理を行う場合を示す説明図であり、(b)は補助処理のプライオリティによって、補助のレベルを変動させるような場合を示す説明図(A) is explanatory drawing which shows the case where an auxiliary | assistant process is performed in the range which does not interfere with the process imposed on own CPU, (b) shows the case where the level of assistance is fluctuate | varied with the priority of an auxiliary | assistant process. Illustration (a)は独立処理を分散し、並列処理する具体的な適用処理の例を示す表図であり、(b)は逐次連続処理を並列に動作させる場合の具体的な適用処理の例を示す表図(A) is a table | surface figure which shows the example of the specific application process which distributes an independent process and performs parallel processing, (b) shows the example of the specific application process in the case of operating a sequential continuous process in parallel. Table リード列検出を分散処理するときの例を示した説明図Explanatory drawing showing an example of distributed processing of lead string detection 外形検出を分散処理するときの例を示した説明図Explanatory drawing showing an example of distributed processing for contour detection ボール電極の検出を分散処理するときの例を示した説明図Explanatory drawing showing an example of distributed processing of ball electrode detection フィルタの結果とエッジ判定しきい値の関係について説明する説明図であり、(a)は撮像画像のリード部分を示すものであり、(b)は(a)のスキャンラインLの位置の濃度値を表すグラフであり、(c)はフィルタの結果を表すグラフであり、(d)は(c)のゼロクロス点での変化量を表すグラフIt is explanatory drawing explaining the relationship between the result of a filter, and an edge determination threshold value, (a) shows the lead part of a captured image, (b) is the density value of the position of the scan line L of (a). (C) is a graph showing the result of the filter, and (d) is a graph showing the amount of change at the zero cross point of (c). フィルタの結果とエッジ判定しきい値の関係について説明する図であって、写りのよくないリード端子が存在する場合の説明図であり、(a)は撮像画像のリード部分を示すものであり、(b)は(a)のスキャンラインLの位置のフィルタの結果を表すグラフであり、(c)は(b)のゼロクロス点での変化量を表すグラフIt is a figure explaining the relationship between the result of a filter and an edge determination threshold value, Comprising: It is explanatory drawing in case there exists a lead terminal with poor reflection, (a) shows the lead part of a picked-up image, (B) is a graph showing the result of the filter at the position of the scan line L in (a), and (c) is a graph showing the amount of change at the zero cross point in (b). フィルタの結果とエッジ判定しきい値の関係について説明する説明図であって、リード端子と同間隔でノイズが存在する場合の図であり、(a)は撮像画像のリード部分を示すものであり、(b)は(a)のスキャンラインLの位置のフィルタの結果を表すグラフであり、(c)は(b)のゼロクロス点での変化量を表すグラフIt is explanatory drawing explaining the relationship between the result of a filter, and an edge determination threshold value, Comprising: It is a figure in case noise exists with the same space | interval as a lead terminal, (a) shows the lead part of a captured image. (B) is a graph showing the result of the filter of the position of the scan line L of (a), (c) is a graph showing the variation | change_quantity in the zero crossing point of (b). 図4(a)に示した処理を主CPUと副CPUとで行う場合の各CPUの動作を示すフローチャートThe flowchart which shows operation | movement of each CPU when the process shown to Fig.4 (a) is performed by main CPU and sub CPU. 図4(a)に示したリトライ処理を主CPUと副CPUとで行う場合の各CPUの動作を示すフローチャートA flowchart showing the operation of each CPU when the retry process shown in FIG. 4A is performed by the main CPU and the sub CPU. 図4(a)に示した分散処理を主CPUと副CPUとで行う場合の各CPUの動作を示すフローチャートA flowchart showing the operation of each CPU when the distributed processing shown in FIG. 4A is performed by the main CPU and the sub CPU. 本発明による画像処理装置の画像入力部の更に他の構成例を示すブロック図The block diagram which shows the further another structural example of the image input part of the image processing apparatus by this invention. 図12のスイッチの切り換え動作を説明する表図Table for explaining the switching operation of the switch of FIG. 図12に示す構成での処理の流れを示すフローチャートFlowchart showing the flow of processing in the configuration shown in FIG. 図12に示す構成での処理の遷移を示すタイミングチャートTiming chart showing processing transition in the configuration shown in FIG. チップの吸着状態の違いを示す説明図Explanatory drawing showing the difference in the adsorption state of the chip チップ立ち判定のアルゴリズムの一例を示すフローチャートFlowchart showing an example of chip standing judgment algorithm 上記アルゴリズムの適用例の画像イメージを示す説明図Explanatory drawing showing an image of an application example of the above algorithm 本発明によるチップ立ち検査の判定処理を示すフローチャートThe flowchart which shows the determination processing of the chip | tip standing inspection by this invention チップ立ち検査のアルゴリズムパターンの分類例を示す図表Chart showing examples of algorithm pattern classification for chip standing inspection 従来の画像入力部の構成を示すブロック図であって、(a)はひとつのCPUを用いた構成を示すブロック図であり、(b)は2つのCPUを用いた構成を示すブロック図It is a block diagram which shows the structure of the conventional image input part, (a) is a block diagram which shows the structure using one CPU, (b) is the block diagram which shows the structure using two CPUs

1…吸着ノズル
2…電子部品
3…照明装置
4、64…標準カメラ
5、65…高解像度カメラ
6…モニタ
7、20…入力回路
8、19、22、23…画像メモリ
9…作業用メモリ
10、17…CPU
11…制御CPU
12…部品データ格納メモリ
13…インターフェース
14…画像処理装置
15…マシン制御装置
16…画像入力部
18、21…分配回路
24、25、26…スイッチ
30、31、32…電子部品
DESCRIPTION OF SYMBOLS 1 ... Adsorption nozzle 2 ... Electronic component 3 ... Illuminating device 4, 64 ... Standard camera 5, 65 ... High resolution camera 6 ... Monitor 7, 20 ... Input circuit 8, 19, 22, 23 ... Image memory 9 ... Working memory 10 , 17 ... CPU
11 ... Control CPU
DESCRIPTION OF SYMBOLS 12 ... Component data storage memory 13 ... Interface 14 ... Image processing device 15 ... Machine control device 16 ... Image input part 18, 21 ... Distribution circuit 24, 25, 26 ... Switch 30, 31, 32 ... Electronic component

Claims (7)

像された電子部品の画像を格納する第1と第2の画像メモリと、
前記第1の画像メモリに格納された画像を処理する第1のCPUと、
前記第2の画像メモリに格納された画像を処理する第2のCPUとを設け、
前記第1のCPUは、第1の画像メモリの画像のうち設定された画像領域にある画像を処理し、また第2のCPUは、第2の画像メモリの画像で第1の画像メモリで設定されている画像領域とは異なる画像領域にある画像を、第1のCPUによる画像処理と並列して処理することにより、撮像された前記電子部品の画像を処理して電子部品の認識を行う画像処理装置であって、
前記第1と第2の画像メモリ及び前記第1のCPUが、第1と第2の画像入力系にそれぞれ設けられていると共に、
前記第1の画像入力系に設けられている前記第1のCPUが、前記第2の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能し、
前記第2の画像入力系に設けられている前記第1のCPUが、前記第1の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能するようにし、
且つ、
前記第1と第2の各画像入力系にそれぞれ設けられている前記第1のCPUが、主CPUとして行う処理と、第2のCPUとして機能し、副CPUとして行う補助処理とにプライオリティを設定し、前記各第1のCPUが分散処理で相互補助し合うようにすることを特徴とする画像処理装置。
First storing the image of the image electronic components shooting and the second image memory,
A first CPU for processing an image stored in the first image memory;
A second CPU for processing an image stored in the second image memory;
The first CPU processes an image in a set image area among images in the first image memory, and the second CPU sets an image in the second image memory in the first image memory. An image in which an image in an image area different from the image area being processed is processed in parallel with the image processing by the first CPU, thereby processing the captured image of the electronic component and recognizing the electronic component A processing device comprising:
The first and second image memories and the first CPU are provided in the first and second image input systems, respectively.
The first CPU provided in the first image input system processes the image stored in the second image memory provided in the second image input system. Functions as a CPU,
The first CPU provided in the second image input system processes the image stored in the second image memory provided in the first image input system. To function as a CPU,
and,
The first CPU provided in each of the first and second image input systems sets priorities for processing performed as the main CPU and auxiliary processing functioning as the second CPU and performed as the sub CPU. An image processing apparatus characterized in that the first CPUs mutually assist each other by distributed processing .
前記電子部品はリード端子を有する電子部品であり、第1のCPUは第1の画像メモリに格納された電子部品の所定のリード端子を含む画像領域を処理し、第2のCPUは前記所定のリード端子とは異なるリード端子を含む第2の画像メモリの画像領域を処理して、それぞれ各画像領域のリード端子位置を検出することを特徴とする請求項1に記載の画像処理装置。   The electronic component is an electronic component having a lead terminal. The first CPU processes an image area including a predetermined lead terminal of the electronic component stored in the first image memory, and the second CPU is the predetermined CPU. The image processing apparatus according to claim 1, wherein an image area of a second image memory including a lead terminal different from the lead terminal is processed to detect a position of the lead terminal in each image area. 前記電子部品は少なくとも2つの辺あるいはコーナーを有する電子部品であり、第1のCPUは第1の画像メモリに格納された電子部品の所定の辺あるいはコーナーを含む画像を処理し、第2のCPUは前記所定の辺あるいはコーナーと異なる辺あるいはコーナーを含む第2の画像メモリの画像領域を処理して、それぞれ各画像領域内の辺あるいはコーナーの外形を認識することを特徴とする請求項1に記載の画像処理装置。   The electronic component is an electronic component having at least two sides or corners, and the first CPU processes an image including a predetermined side or corner of the electronic component stored in the first image memory, and the second CPU 2. The method according to claim 1, further comprising: processing an image area of a second image memory including a side or corner different from the predetermined side or corner to recognize an outline of the side or corner in each image area. The image processing apparatus described. 前記電子部品は複数のボール電極を有する電子部品であり、第1のCPUは第1の画像メモリに格納された電子部品の所定のボール電極を含む画像領域を処理し、第2のCPUは前記所定のボール電極とは異なるボール電極を含む第2の画像メモリの画像領域を処理して、それぞれ各画像領域のボール電極の位置を検出することを特徴とする請求項1に記載の画像処理装置。   The electronic component is an electronic component having a plurality of ball electrodes, the first CPU processes an image area including a predetermined ball electrode of the electronic component stored in the first image memory, and the second CPU The image processing apparatus according to claim 1, wherein an image area of a second image memory including a ball electrode different from a predetermined ball electrode is processed to detect a position of the ball electrode in each image area. . 像された電子部品の画像を格納する第1と第2の画像メモリと、
前記第1の画像メモリに格納された画像を処理する第1のCPUと、
前記第2の画像メモリに格納された画像を処理する第2のCPUとを設け、
前記第1のCPUは、第1の画像メモリに格納された画像を所定の認識パラメータ値で処理し、また第2のCPUは、第2の画像メモリに格納された画像を、第1のCPUによる画像処理と並列して前記所定の認識パラメータ値とは異なる認識パラメータ値で処理することにより、撮像された前記電子部品の画像を処理して電子部品の認識を行う画像処理装置であって、
前記第1と第2の画像メモリ及び前記第1のCPUが、第1と第2の画像入力系にそれぞれ設けられていると共に、
前記第1の画像入力系に設けられている前記第1のCPUが、前記第2の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能し、
前記第2の画像入力系に設けられている前記第1のCPUが、前記第1の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能するようにし、
且つ、
前記第1と第2の各画像入力系にそれぞれ設けられている前記第1のCPUが、主CPUとして行う処理と、第2のCPUとして機能し、副CPUとして行う補助処理とにプライオリティを設定し、前記各第1のCPUが分散処理で相互補助し合うようにすることを特徴とする画像処理装置。
First storing the image of the image electronic components shooting and the second image memory,
A first CPU for processing an image stored in the first image memory;
A second CPU for processing an image stored in the second image memory;
The first CPU processes the image stored in the first image memory with a predetermined recognition parameter value, and the second CPU converts the image stored in the second image memory to the first CPU. An image processing apparatus for processing an image of the captured electronic component to recognize the electronic component by processing with a recognition parameter value different from the predetermined recognition parameter value in parallel with the image processing by
The first and second image memories and the first CPU are provided in the first and second image input systems, respectively.
The first CPU provided in the first image input system processes the image stored in the second image memory provided in the second image input system. Functions as a CPU,
The first CPU provided in the second image input system processes the image stored in the second image memory provided in the first image input system. To function as a CPU,
and,
The first CPU provided in each of the first and second image input systems sets priorities for processing performed as the main CPU and auxiliary processing functioning as the second CPU and performed as the sub CPU. An image processing apparatus characterized in that the first CPUs mutually assist each other by distributed processing .
像された電子部品の画像を格納する第1と第2の画像メモリと、
前記第1の画像メモリに格納された画像を処理する第1のCPUと、
前記第2の画像メモリに格納された画像を処理する第2のCPUとを設け、
前記第1のCPUは、第1の画像メモリに格納された画像を所定のアルゴリズムで検査し、また第2のCPUは、第2の画像メモリに格納された画像を、第1のCPUによる画像処理と並列して前記所定のアルゴリズムとは異なるアルゴリズムで検査することにより、撮像された前記電子部品の画像を処理して電子部品の検査を行なう画像処理装置であって、
前記第1と第2の画像メモリ及び前記第1のCPUが、第1と第2の画像入力系にそれぞれ設けられていると共に、
前記第1の画像入力系に設けられている前記第1のCPUが、前記第2の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能し、
前記第2の画像入力系に設けられている前記第1のCPUが、前記第1の画像入力系に設けられている前記第2の画像メモリに格納されている画像を処理する前記第2のCPUとして機能するようにし、
且つ、
前記第1と第2の各画像入力系にそれぞれ設けられている前記第1のCPUが、主CPUとして行う処理と、第2のCPUとして機能し、副CPUとして行う補助処理とにプライオリティを設定し、前記各第1のCPUが分散処理で相互補助し合うようにすることを特徴とする画像処理装置。
First storing the image of the image electronic components shooting and the second image memory,
A first CPU for processing an image stored in the first image memory;
A second CPU for processing an image stored in the second image memory;
The first CPU inspects the image stored in the first image memory by a predetermined algorithm, and the second CPU uses the image stored in the second image memory as an image by the first CPU. An image processing apparatus that inspects an electronic component by processing an image of the captured electronic component by inspecting with an algorithm different from the predetermined algorithm in parallel with processing ,
The first and second image memories and the first CPU are provided in the first and second image input systems, respectively.
The first CPU provided in the first image input system processes the image stored in the second image memory provided in the second image input system. Functions as a CPU,
The first CPU provided in the second image input system processes the image stored in the second image memory provided in the first image input system. To function as a CPU,
and,
The first CPU provided in each of the first and second image input systems sets priorities for processing performed as the main CPU and auxiliary processing functioning as the second CPU and performed as the sub CPU. An image processing apparatus characterized in that the first CPUs mutually assist each other by distributed processing .
前記第1のCPU及び前記第2のCPUのいずれか一方により検査結果がNGと判定された場合、他方のCPUがまだ異なるアルゴリズムによる検査を実行中であれば、他方のCPUに対して処理を中断させる割り込みを発行する手段を設けたことを特徴とする請求項6に記載の画像処理装置。   If the inspection result is determined to be NG by one of the first CPU and the second CPU, if the other CPU is still executing an inspection using a different algorithm, the other CPU is processed. The image processing apparatus according to claim 6, further comprising means for issuing an interrupt to be interrupted.
JP2007205605A 2006-08-08 2007-08-07 Image processing device Expired - Fee Related JP4865653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007205605A JP4865653B2 (en) 2006-08-08 2007-08-07 Image processing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006215161 2006-08-08
JP2006215161 2006-08-08
JP2007205605A JP4865653B2 (en) 2006-08-08 2007-08-07 Image processing device

Publications (2)

Publication Number Publication Date
JP2008065815A JP2008065815A (en) 2008-03-21
JP4865653B2 true JP4865653B2 (en) 2012-02-01

Family

ID=39288443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007205605A Expired - Fee Related JP4865653B2 (en) 2006-08-08 2007-08-07 Image processing device

Country Status (1)

Country Link
JP (1) JP4865653B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014090076A (en) * 2012-10-30 2014-05-15 Juki Corp Image processing device and electronic component mounting device
US9779513B2 (en) * 2013-03-13 2017-10-03 Rakuten, Inc. Image processing device, image processing method, and image processing program
JP6197659B2 (en) * 2014-01-20 2017-09-20 富士ゼロックス株式会社 Detection control device, program, and detection system
JP7220672B2 (en) * 2017-12-19 2023-02-10 株式会社Fuji Mounting device, control device and setting method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6461879A (en) * 1987-08-31 1989-03-08 Juki Kk Position recognizer using pattern matching
JPH01318169A (en) * 1988-06-20 1989-12-22 Sanyo Electric Co Ltd Corner correcting device
JP3265028B2 (en) * 1993-01-28 2002-03-11 ジューキ株式会社 Control method of image processing device
JP4327289B2 (en) * 1999-02-12 2009-09-09 Juki株式会社 Component recognition method and apparatus
US7106895B1 (en) * 1999-05-05 2006-09-12 Kla-Tencor Method and apparatus for inspecting reticles implementing parallel processing
JP4693074B2 (en) * 2000-04-28 2011-06-01 ルネサスエレクトロニクス株式会社 Appearance inspection apparatus and appearance inspection method
JP2002366945A (en) * 2001-06-08 2002-12-20 Mitsubishi Electric Corp Device and method for processing image

Also Published As

Publication number Publication date
JP2008065815A (en) 2008-03-21

Similar Documents

Publication Publication Date Title
EP0041870B1 (en) Pattern position recognition apparatus
JP3739550B2 (en) Method for determining wafer measurement position
JP4865653B2 (en) Image processing device
CN101676930A (en) Method and device for recognizing table cells in scanned image
JP2014090076A (en) Image processing device and electronic component mounting device
JP2836835B2 (en) Appearance inspection method and apparatus
CN113536901A (en) Target capturing method and related device
CN101499126A (en) Image processing apparatus
JP3632461B2 (en) Image recognition method
CN1319012C (en) Part recognizing method and device
JP2965362B2 (en) Electronic component recognition method
JP2004362186A (en) Template matching method and apparatus
JPH09115932A (en) Method for picking up wafer die
JP3762519B2 (en) Component recognition method, component recognition device, and component mounting device
JP2897439B2 (en) Corner position detection method
JPH06260794A (en) Method and equipment for recognizing position of electronic part
JP2000321024A (en) Position detecting method utilizing image recognition
JP7533402B2 (en) Attitude estimation device, industrial vehicle, attitude estimation program, and storage medium
JP4681984B2 (en) Component positioning method and apparatus
JP2005181092A (en) Height measuring method and device of projection
JP2014230090A (en) Image processing apparatus, image processing method, and program
JP4744234B2 (en) Component positioning method and apparatus
JPH04238206A (en) Multi-visual field recognizing method for pattern
JP4642648B2 (en) Image processing method and apparatus for components mounted on mounting apparatus
JP2009198297A (en) Image processor for visual inspection device of semiconductor, visual inspection device of semiconductor and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees