[go: up one dir, main page]

JP2008046952A - Image synthesis method and surface observation apparatus - Google Patents

Image synthesis method and surface observation apparatus Download PDF

Info

Publication number
JP2008046952A
JP2008046952A JP2006223024A JP2006223024A JP2008046952A JP 2008046952 A JP2008046952 A JP 2008046952A JP 2006223024 A JP2006223024 A JP 2006223024A JP 2006223024 A JP2006223024 A JP 2006223024A JP 2008046952 A JP2008046952 A JP 2008046952A
Authority
JP
Japan
Prior art keywords
image
unit
photographing
punch
observed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006223024A
Other languages
Japanese (ja)
Inventor
Toru Igarashi
透 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006223024A priority Critical patent/JP2008046952A/en
Publication of JP2008046952A publication Critical patent/JP2008046952A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】迅速に合成画像を作成可能な画像合成方法および表面観察装置を提供する。
【解決手段】画像合成方法は、撮影部2の焦点をパンチ3の基準位置P01、P02に合わせる合焦ステップ(ステップS4)と、パンチ3の三次元形状を表す座標データ22に基づいて、撮影部2の焦点を撮影部2の焦点深度以下の距離だけ移動させた移動位置P11、P12に移す移動ステップ(ステップS7)と、基準位置P01、P02および移動位置P11、P12におけるパンチ3の表面を撮影部2によってそれぞれ撮影する撮影ステップ(ステップS5)と、撮影ステップで撮影した画像21の焦点の合っている画像領域G01〜G12を表す領域データ23に基づいて、画像領域G01〜G12を選択して切り取る切取ステップ(ステップS8)と、画像領域G01〜G12を繋ぎ合わせて合成画像50を作成する合成ステップ(ステップS9)と、を有することを特徴とする。
【選択図】図8
An image synthesizing method and a surface observation apparatus capable of quickly creating a synthesized image are provided.
An image synthesizing method is based on a focusing step (step S4) for focusing a photographing unit 2 on reference positions P 01 and P 02 of a punch 3, and coordinate data 22 representing a three-dimensional shape of the punch 3. , a moving step of moving the focal point of the imaging unit 2 in the imaging unit moving position P 11 only moved following distance focal depth of 2, P 12 (step S7), and the reference position P 01, P 02 and the moving position P 11, a photographing step for photographing respectively (step S5) the surface of the punch 3 by the photographing unit 2 in the P 12, based on the area data 23 representing an image region G 01 ~G 12 are focused in the image 21 photographed by the photographing step Te, cut by selecting an image region G 01 ~G 12 cut steps (step S8), and the synthetic steps to create a composite image 50 by connecting the image region G 01 ~G 12 (step S9), and It is characterized by having.
[Selection] Figure 8

Description

本発明は、画像合成方法および画像合成方法を用いた表面観察装置に関する。   The present invention relates to an image synthesis method and a surface observation apparatus using the image synthesis method.

従来、部分的に異なる奥行きを有する被写体(被観察物)を撮影するために、全フォーカス法を用いることが知られている。全フォーカス法によれば、撮影部を被写体の奥行き方向に微小距離ずつ移動させながら撮影位置を変え、撮影位置毎に撮影した被写体の画像を取得する。そして、取得したそれぞれの画像の中から焦点の合っている部分を切り出して合成することにより、奥行きの異なる被写体のいずれの部分をも、鮮明に表示した合成画像が得られる(たとえば特許文献1)。   Conventionally, it is known to use an all-focus method to photograph a subject (observed object) having partially different depths. According to the all-focus method, the shooting position is changed while moving the shooting unit by a minute distance in the depth direction of the subject, and an image of the subject taken at each shooting position is acquired. Then, by cutting out and synthesizing the in-focus portion from each acquired image, a synthesized image can be obtained in which any portion of the subject having a different depth is clearly displayed (for example, Patent Document 1). .

特開2000−276121号公報JP 2000-276121 A

しかし、従来の技術では、被写体の焦点の合った部分を抽出するために、各種のフィルタリング手法を用いて複雑で膨大な画像処理を行う必要があった。そのため、画像処理部が肥大化し、さらに、合成画像を得るまでの時間がかかるという課題が生じていた。   However, in the conventional technique, in order to extract a focused portion of a subject, it is necessary to perform complicated and enormous image processing using various filtering methods. For this reason, there has been a problem that the image processing unit is enlarged and it takes time until a composite image is obtained.

本発明は、上記課題を解決するために、迅速に合成画像を作成可能な画像合成方法および表面観察装置を提供することを目的とする。   In order to solve the above-described problems, an object of the present invention is to provide an image composition method and a surface observation apparatus that can quickly create a composite image.

本発明の画像合成方法は、撮影部の焦点を被観察物の基準位置に合わせる合焦ステップと、被観察物の三次元形状を表す座標データに基づいて、撮影部の焦点を撮影部の焦点深度以下の距離だけ移動させた移動位置に移す移動ステップと、基準位置および移動位置における被観察物の表面を撮影部によってそれぞれ撮影する撮影ステップと、撮影ステップで撮影した画像の焦点の合っている画像領域を表す領域データに基づいて、前記画像領域を選択して切り取る切取ステップと、画像領域を繋ぎ合わせて合成画像を作成する合成ステップと、を有することを特徴とする。   According to the image composition method of the present invention, the focus of the photographing unit is adjusted to the focus position of the photographing unit based on the focusing step for adjusting the focus of the photographing unit to the reference position of the observation object and the coordinate data representing the three-dimensional shape of the observation object The moving step for moving to a moving position moved by a distance less than the depth, the photographing step for photographing the surface of the observation object at the reference position and the moving position by the photographing unit, and the image photographed in the photographing step are in focus. The method includes a cutting step of selecting and cutting out the image region based on region data representing the image region, and a combining step of creating a composite image by joining the image regions.

この画像合成方法によれば、三次元形状を有する被観察物のいずれの部分にも焦点のあった合成画像を作成するために、まず、被観察物の焦点の合わせやすい部分である基準位置に撮影部の焦点を合わせる(合焦ステップ)。そして、基準位置における被観察物の表面を撮影する(撮影ステップ)。撮影した画像は、撮影部の焦点深度内に位置する被観察物の表面部を撮影した部分が、焦点の合っている、いわゆるピントの合った、鮮明な状態の画像領域であり、撮影部の焦点深度外に位置する他の表面部が、いわゆるピントの外れたボケた状態である。次に、撮影部を撮影部の焦点深度以下の距離だけ移動させ(移動ステップ)、移動した移動位置における被観察物の表面を撮影する(撮影ステップ)。移動位置で撮影した画像は、基準位置での画像と同様、撮影部の焦点深度内に位置する被観察物の表面部を撮影した部分が、鮮明な状態の画像領域である。撮影後、基準位置および移動位置のそれぞれの画像から鮮明な画像領域のみを選択して切り取る(切取ステップ)。この時、画像領域は、事前に取得してある被観察物の座標データおよび領域データに基づいて特定されている。従って、切取ステップでは、特定されている領域を選択して切り取れば良く、画像領域と画像領域以外の領域をフィルタリング等で処理して選択する必要が無い。次に、切り取った画像領域を順に繋ぎ合わせて合成画像を作成する(合成ステップ)。合成画像の作成により、撮影部の焦点深度内に収まらない三次元形状をなしている被観察物であっても、被観察物の撮影可能な部分がいずれも鮮明な状態で得られる。この方法によれば、形状が既知である被観察物の表面状態を表す合成画像を、迅速に、作成可能である。   According to this image composition method, in order to create a composite image in which any part of an observation object having a three-dimensional shape is focused, first, the reference position, which is an easily focusable part of the observation object, is set. Adjust the focus of the shooting unit (focusing step). Then, the surface of the observation object at the reference position is imaged (imaging step). The captured image is a so-called in-focus image area in which the portion where the surface portion of the observation object located within the depth of focus of the imaging unit is in focus is in focus. The other surface portion located outside the focal depth is in a so-called out-of-focus blurred state. Next, the photographing unit is moved by a distance equal to or less than the focal depth of the photographing unit (moving step), and the surface of the observation object at the moved moving position is photographed (imaging step). As with the image at the reference position, the image captured at the moving position is a clear image area where the surface portion of the observed object located within the focal depth of the imaging unit is captured. After shooting, only a clear image area is selected and cut out from the images at the reference position and the moving position (cutting step). At this time, the image area is specified based on the coordinate data and area data of the observed object acquired in advance. Therefore, in the cutting step, it is only necessary to select and cut out the specified area, and there is no need to select and process the image area and the area other than the image area by filtering or the like. Next, the cut image areas are connected in order to create a composite image (compositing step). Even if the object to be observed has a three-dimensional shape that does not fall within the depth of focus of the image capturing unit, the photographable part of the object to be imaged can be obtained in a clear state. According to this method, it is possible to quickly create a composite image representing the surface state of an object to be observed whose shape is known.

この場合、合成画像を表示部に表示する表示ステップをさらに有することが好ましい。   In this case, it is preferable to further include a display step of displaying the composite image on the display unit.

この方法によれば、表示ステップをさらに有し、合成画像を表示部に表示することにより、迅速に作成した合成画像の確認がリアルタイムに行える。従って、多量の被観察物の表面を観察してチェックする場合などにおいて、短時間に、且つ、容易にチェックを行うことが可能である。   According to this method, the method further includes a display step, and by displaying the composite image on the display unit, it is possible to quickly confirm the composite image created in real time. Therefore, when observing and checking the surface of a large number of objects to be observed, it is possible to check easily in a short time.

この場合、被観察物を回転させる回転ステップをさらに有することが好ましい。   In this case, it is preferable to further include a rotation step for rotating the object to be observed.

この方法によれば、回転ステップをさらに有し、被観察物を回転させることにより、被観察物の撮影部と対極側にある表面部の撮影が、連続して行える。これにより、撮影部に対して、被観察物の位置を変えて再度取り付け直す必要が無くなり、被観察物の全周撮影が容易に行える。   According to this method, it further includes a rotation step, and by rotating the object to be observed, the surface of the object to be observed and the surface portion on the counter electrode side can be continuously imaged. This eliminates the need to change the position of the object to be observed and re-attach the object to the photographing unit, so that the entire object can be easily imaged.

この場合、移動ステップは、複数回実行されることが好ましい。   In this case, it is preferable that the movement step is executed a plurality of times.

この方法によれば、移動ステップを複数回実行することにより、移動ステップでの移動方向の長さが、撮影部の焦点深度より複数倍長い被観察物であっても、複数回の撮影によって、合成画像に必要な画像領域を、容易に、取得可能である。   According to this method, by executing the movement step a plurality of times, even if the length of the movement direction in the movement step is an object to be observed that is several times longer than the focal depth of the imaging unit, The image area necessary for the composite image can be easily obtained.

本発明の表面観察装置は、被観察物を載置するための載置部と、被観察物の表面を撮影する撮影部と、被観察物の三次元形状を表す座標データを記憶している記憶部と、座標データを基に撮影部を撮影部の焦点深度以下の距離ずつ移動させる移動部と、撮影部が撮影した画像の焦点の合っている画像領域を表す領域データに基づいて、前記画像領域を選択して切り取る切取部と、画像領域のそれぞれを繋ぎ合わせて合成画像を作成する合成部と、を備えていることを特徴とする。   The surface observation apparatus of the present invention stores a placement unit for placing an observation object, an imaging unit for photographing the surface of the observation object, and coordinate data representing a three-dimensional shape of the observation object. Based on the storage unit, the moving unit that moves the imaging unit by a distance equal to or less than the focal depth of the imaging unit based on the coordinate data, and the area data that represents the focused image area of the image captured by the imaging unit, The image processing apparatus includes: a cutout unit that selects and cuts out an image region; and a combining unit that connects each of the image regions to create a combined image.

この表面観察装置によれば、三次元形状を有する被観察物のいずれの部分にも焦点のあった合成画像を作成するための載置部、撮影部、記憶部、移動部、切取部および合成部を有している。まず、載置部に被観察物が載置されると、撮影部が被観察物の表面を撮影する。この時、撮影した画像は、撮影部の焦点深度内に位置する被観察物の表面部を撮影した部分が、焦点の合っている、いわゆるピントの合った、鮮明な状態の画像領域であり、撮影部の焦点深度外に位置する他の表面部が、いわゆるピントの外れたボケた状態である。次に、移動部が撮影部を撮影部の焦点深度以下の距離ずつ移動させる。そして、撮影部は、移動した位置における被観察物の表面を撮影する。移動した位置で撮影した画像も、撮影部の焦点深度内に位置する被観察物の表面部を撮影した部分が、鮮明な状態の画像領域である。撮影後、切取部は、それぞれの画像から鮮明な画像領域のみを選択して切り取る。この時、画像領域は、事前に取得してある被観察物の座標データおよび領域データに基づいて特定されており、切取部は、特定されている領域を選択すれば良い。従って、切取ステップにおいて、画像領域と画像領域以外の領域をフィルタリング等で処理して、処理結果に基づいて選択する等の必要が無い。次に、合成部が切り取った画像領域を順に繋ぎ合わせて合成画像を作成する。合成画像の作成により、撮影部の焦点深度内に収まらない三次元形状をなしている被観察物であっても、被観察物の撮影可能な部分がいずれも鮮明な状態で得られる。この表面観察装置によれば、形状が既知である被観察物の表面状態を表す合成画像を、迅速に、作成することが可能である。   According to this surface observation apparatus, a placement unit, a photographing unit, a storage unit, a moving unit, a cutting unit, and a composition for creating a composite image in which any part of an object having a three-dimensional shape is focused Has a part. First, when an object to be observed is placed on the placement unit, the photographing unit photographs the surface of the object to be observed. At this time, the photographed image is an image area in which a portion obtained by photographing the surface portion of the observation object located within the focal depth of the photographing unit is in focus, a so-called focused, clear state, The other surface portion located outside the focal depth of the photographing unit is in a so-called out-of-focus blurred state. Next, the moving unit moves the photographing unit by a distance equal to or less than the focal depth of the photographing unit. The photographing unit photographs the surface of the observation object at the moved position. In the image captured at the moved position, a portion where the surface portion of the observation object located within the focal depth of the imaging unit is captured is a clear image region. After shooting, the cutout unit selects and cuts out only a clear image area from each image. At this time, the image area is specified based on the coordinate data and area data of the observation object acquired in advance, and the cutout unit may select the specified area. Therefore, in the cutting step, there is no need to process the image area and the area other than the image area by filtering or the like and select based on the processing result. Next, the synthesized image is created by sequentially joining the image areas cut by the synthesis unit. Even if the object to be observed has a three-dimensional shape that does not fall within the depth of focus of the image capturing unit, the photographable part of the object to be imaged can be obtained in a clear state. According to this surface observation apparatus, it is possible to quickly create a composite image representing the surface state of an object to be observed whose shape is known.

この場合、合成画像を表示する表示部をさらに備えていることが好ましい。   In this case, it is preferable to further include a display unit that displays the composite image.

この構成によれば、表面観察装置は、表示部をさらに有し、合成画像を表示部に表示することにより、迅速に作成した合成画像の確認がリアルタイムに行える。従って、多量の被観察物を観察してチェックする場合などにおいて、短時間に、且つ、容易にチェックを行うことが可能である。   According to this configuration, the surface observation apparatus further includes the display unit, and by displaying the composite image on the display unit, it is possible to confirm the composite image that has been quickly created in real time. Therefore, when observing and checking a large number of objects to be observed, it is possible to check easily in a short time.

この場合、被観察物は、載置部に載置された固定治具の回転部に取り付けられていることが好ましい。   In this case, it is preferable that the object to be observed is attached to the rotating part of the fixing jig placed on the placing part.

この構成によれば、表面観察装置は、被観察物を回転させることが可能であり、被観察物の撮影部と対極側にある表面部の撮影が可能である。これにより、撮影部に対して被観察物の位置を変えるために、再度取り付け直す必要が無くなり、被観察物の全周撮影が、容易に、行える。   According to this configuration, the surface observation device can rotate the object to be observed, and can image the surface part on the opposite side of the object to be imaged. Accordingly, it is not necessary to reattach the object to be observed with respect to the photographing unit, and it is possible to easily photograph the entire periphery of the object to be observed.

以下、本発明を具体化した実施形態について図面に従って説明する。実施形態では、表面観察装置によって、プレス抜き加工用のパンチの表面状態を撮影し、キズ等の有無を観察チェックする場合を例にして説明する。表面状態の確認は、撮影した画像を基に作成した合成画像によって行われる。
(実施形態)
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of the invention will be described with reference to the drawings. In the embodiment, a case will be described in which the surface state of a punch for punching is photographed with a surface observation device and the presence or absence of scratches is observed and checked. The confirmation of the surface state is performed by a composite image created based on the photographed image.
(Embodiment)

図1は、本発明の表面観察装置の構成を示す模式図である。表面観察装置1は、撮影部2と、被観察物であるパンチ3を固定治具4を介して載置しX軸方向に移動可能なX軸ステージ(載置部)5と、Y軸方向に移動可能なY軸ステージ6と、撮影部2をZ軸方向に移動させるZ軸ステージ(移動部)7と、を備えている。また、撮影部2は、パンチ3を撮影するためのCCDカメラ2aと、カメラレンズ2bと、を有し、固定治具4は、パンチ3を回転させる回転部4aを有する。そして、表面観察装置1は、さらに、制御部10を備えており、制御部10は、撮影部2、X軸ステージ5、Y軸ステージ6およびZ軸ステージ7を制御すると共に、各種データや指示の入力を行うための入力部20と、撮影したパンチ3の合成画像などを表示するための表示部25と、を制御する。   FIG. 1 is a schematic diagram showing the configuration of the surface observation apparatus of the present invention. The surface observation apparatus 1 includes an imaging unit 2, an X-axis stage (mounting unit) 5 on which a punch 3 that is an object to be observed is mounted via a fixing jig 4, and is movable in the X-axis direction, and a Y-axis direction. And a Z-axis stage (moving unit) 7 for moving the photographing unit 2 in the Z-axis direction. The photographing unit 2 includes a CCD camera 2 a for photographing the punch 3 and a camera lens 2 b, and the fixing jig 4 includes a rotating unit 4 a that rotates the punch 3. And the surface observation apparatus 1 is further provided with the control part 10, and while the control part 10 controls the imaging | photography part 2, the X-axis stage 5, the Y-axis stage 6, and the Z-axis stage 7, various data and instruction | indications The input unit 20 for performing the above-described input and the display unit 25 for displaying the composite image of the photographed punch 3 and the like are controlled.

次に、図2は、表面観察装置の制御部の構成を示すブロック図である。制御部10は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、を有する。ROM12は、合成画像を作成するための画像合成プログラム18を有する読み書き自在な不揮発性メモリであり、RAM13は、撮影部2が撮影したパンチ3の画像21と、入力部20から入力されるデータであってパンチ3の三次元データを表す座標データ22と、パンチ3の画像21において焦点が合っている画像領域を予め演算した領域データ23と、画像領域を合成した合成画像50と、を一時的に記憶する記憶部としてのメモリである。さらに、制御部10は、撮影部2を制御する撮影制御部14と、X軸ステージ5、Y軸ステージ6およびZ軸ステージ7をそれぞれ制御する駆動制御部15と、表示部25を制御する表示制御部16と、入力部20を制御する入力制御部17と、を有する。   Next, FIG. 2 is a block diagram illustrating a configuration of a control unit of the surface observation apparatus. The control unit 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, and a RAM (Random Access Memory) 13. The ROM 12 is a readable / writable nonvolatile memory having an image composition program 18 for creating a composite image, and the RAM 13 is an image 21 of the punch 3 photographed by the photographing unit 2 and data inputted from the input unit 20. Temporarily, coordinate data 22 representing the three-dimensional data of the punch 3, area data 23 obtained by previously calculating an in-focus image area in the image 21 of the punch 3, and a composite image 50 obtained by synthesizing the image areas. It is memory as a memory | storage part memorize | stored in. Furthermore, the control unit 10 controls the imaging unit 2, the drive control unit 15 that controls the X-axis stage 5, the Y-axis stage 6, and the Z-axis stage 7, and the display that controls the display unit 25. It has the control part 16 and the input control part 17 which controls the input part 20. FIG.

このような構成の制御部10において、CPU11は、ROM12の画像合成プログラム18に基づいて、領域データ23を参照して画像21から画像領域を切り取る切取部および切り取った画像領域を繋ぎ合わせて合成する合成部として機能すると共に、ROM12の図示していないファームウエアに基づいて制御部10の全体を制御する。そして、パンチ3の座標データ22は、撮影部2の焦点深度に合わせて、パンチ3に対して焦点位置を変えて複数回撮影することにより、得られた複数の画像21の中に三次元形状のパンチ3の表面の鮮明な画像領域を漏れなく得るためのものである。また、領域データ23は、各画像21の中の焦点の合っている鮮明な部分である画像領域を、予め演算して特定したものである。座標データ22および領域データ23の詳細については、図4に基づいて後述する。   In the control unit 10 having such a configuration, the CPU 11 refers to the region data 23 based on the image composition program 18 in the ROM 12 and combines the cut-out unit that cuts out the image region from the image 21 and the cut-out image region. While functioning as a synthesis unit, the entire control unit 10 is controlled based on firmware (not shown) of the ROM 12. Then, the coordinate data 22 of the punch 3 has a three-dimensional shape in a plurality of images 21 obtained by shooting a plurality of times while changing the focal position with respect to the punch 3 in accordance with the focal depth of the photographing unit 2. This is to obtain a clear image area on the surface of the punch 3 without omission. Further, the area data 23 is obtained by calculating in advance an image area that is a clear and focused part in each image 21. Details of the coordinate data 22 and the area data 23 will be described later with reference to FIG.

ここで、被観察物のパンチ3について、簡単に説明する。図3(a)は、パンチの外観を示す平面図、(b)は、ノズルプレートへのノズルのプレス加工を示す断面図、(c)は、ノズルからの液滴の吐出を示す断面図である。パンチ3は、インクジェット装置において、各種の材料液を液滴状態で吐出するためのノズルを加工する工具であって、図3(a)に示すように、直径がdで、長さがeの円柱状をなしている打抜部3aと、パンチ3をプレス機にとりつけるための直径がdより大きな保持部3cと、打抜部3aと保持部3cとの間に設けられている略円錐状の鍛造部3bと、を有する。この場合、直径dが20μm、長さeが80μmである。   Here, the punch 3 of the object to be observed will be briefly described. 3A is a plan view showing an appearance of the punch, FIG. 3B is a cross-sectional view showing press working of the nozzle to the nozzle plate, and FIG. 3C is a cross-sectional view showing discharge of droplets from the nozzle. is there. The punch 3 is a tool for processing a nozzle for discharging various material liquids in a droplet state in an ink jet apparatus, and has a diameter d and a length e as shown in FIG. A punching portion 3a having a columnar shape, a holding portion 3c having a diameter larger than d for attaching the punch 3 to the press, and a substantially conical shape provided between the punching portion 3a and the holding portion 3c. Forging part 3b. In this case, the diameter d is 20 μm and the length e is 80 μm.

このパンチ3をプレス機に取り付け、図3(b)に示すように、厚さ80μmのノズルプレート30にノズル31を加工する。まず、パンチ3に対して、ノズルプレート30のノズル31を加工する位置を合わせる。そして、プレス機を作動させて、パンチ3の打抜部3aによってノズルプレート30を円形に打抜く。打抜部3aに続いて、さらに、パンチ3の鍛造部3bによって、円錐状部を形成する。これにより、ノズル31は、断面形状が漏斗状の形状に加工される。打抜部3aの加工によって生じたカエリ等は、研削加工で除去する。   The punch 3 is attached to a press machine, and the nozzle 31 is processed into a nozzle plate 30 having a thickness of 80 μm, as shown in FIG. First, the position where the nozzle 31 of the nozzle plate 30 is processed is aligned with the punch 3. Then, the press machine is operated and the nozzle plate 30 is punched in a circular shape by the punching portion 3 a of the punch 3. Following the punched portion 3 a, a conical portion is formed by the forged portion 3 b of the punch 3. Thereby, the cross-sectional shape of the nozzle 31 is processed into a funnel shape. The burrs and the like generated by the processing of the punching portion 3a are removed by grinding.

このように加工されたノズルプレート30は、インクジェット装置に装着され、図3(c)に示すように、ノズルプレート30に形成されたノズル31の漏斗状に開いた側に材料液40が貯留されている。材料液40に圧力Wが加えられると、材料液40は、ノズル31から押し出され、液滴41となって吐出される。この時、規定量の液滴41を所定の方向へ吐出させるためには、ノズル31の寸法精度の確保および表面にキズ等のない面精度が要求される。そのためには、ノズル31を加工するパンチ3の寸法精度およびパンチ表面の面精度を確保する必要がある。表面観察装置1は、パンチ3の表面にキズ、割れ、異物、歪みなどがないかを観察し、面精度を保証するためのチェックに用いられるものである。   The nozzle plate 30 processed in this way is attached to an ink jet apparatus, and the material liquid 40 is stored on the side of the nozzle 31 formed on the nozzle plate 30 that is opened in a funnel shape, as shown in FIG. ing. When the pressure W is applied to the material liquid 40, the material liquid 40 is pushed out from the nozzle 31 and discharged as droplets 41. At this time, in order to eject the prescribed amount of droplets 41 in a predetermined direction, it is required to ensure the dimensional accuracy of the nozzle 31 and to have surface accuracy without scratches on the surface. For this purpose, it is necessary to ensure the dimensional accuracy of the punch 3 for processing the nozzle 31 and the surface accuracy of the punch surface. The surface observing apparatus 1 is used for observing the surface of the punch 3 for scratches, cracks, foreign matter, distortion, etc., and for checking to ensure surface accuracy.

次に、表面観察装置1によってパンチ3の表面を撮影した画像から、焦点の合っている画像領域を切り取り、合成画像を作成してパンチ3の面精度を観察チェックする方法について説明する。図4は、撮影部により撮影したパンチ表面各部の画像領域を示す模式図である。また、図5(a)は、撮影部から最遠部の画像領域を示す平面図、(b)は、撮影部から最遠部の画像領域に隣接する画像領域を示す平面図である。そして、図6(c)は、撮影部から最近部の画像領域に隣接する画像領域を示す平面図、(d)は、撮影部から最近部の画像領域を示す平面図である。図4は、図1に示す撮影部2およびパンチ3の打抜部3aの円形面をY軸方向に沿って見た図であり、図中の撮影部2内には、撮影部2が捉える画像領域G01〜G31を模式的に表してある。この場合、撮影部2は、パンチ3の撮影部2の側の半周面を画像21として撮影可能である。また、図5および図6は、図4の画像領域G01〜G31個々の詳細を示している。 Next, a method for observing and checking the surface accuracy of the punch 3 by cutting out a focused image region from an image obtained by photographing the surface of the punch 3 by the surface observation device 1 and creating a composite image will be described. FIG. 4 is a schematic diagram showing an image area of each part of the punch surface imaged by the imaging unit. FIG. 5A is a plan view showing an image region farthest from the photographing unit, and FIG. 5B is a plan view showing an image region adjacent to the image region farthest from the photographing unit. FIG. 6C is a plan view showing an image area adjacent to the most recent image area from the imaging section, and FIG. 6D is a plan view showing the most recent image area from the imaging section. 4 is a view of the circular surfaces of the photographing unit 2 and the punching unit 3a of the punch 3 shown in FIG. 1 as viewed along the Y-axis direction. The photographing unit 2 captures the photographing unit 2 in the drawing. Image regions G 01 to G 31 are schematically shown. In this case, the photographing unit 2 can photograph the half circumferential surface of the punch 3 on the side of the photographing unit 2 as the image 21. 5 and 6 show details of the image regions G 01 to G 31 shown in FIG.

図4に示すように、表面観察装置1は、打抜部3aの半周面を漏れなく鮮明に撮影するために、移動距離hの間隔で位置する撮影位置Z0〜Z3の各々で合計4回の撮影を行う。この場合、移動距離hは、撮影部2の焦点深度と同じ値に設定する。最初に、撮影位置Z0において、パンチ3を撮影するため、まず、オートフォーカス機能に連動するZ軸ステージ7によって撮影部2を移動させ、焦点の合わせ易いパンチ3のエッジ(外周位置)である基準位置P01およびP02に撮影部2の焦点を合わせる。さらに、撮影部2の焦点深度を考慮して、焦点深度の撮影部2から最遠部が、基準位置P01およびP02に合致するように撮影部2を移動させる。つまり、撮影部2をh/2だけパンチ3から離反させることにより、基準位置P01およびP02において、撮影部2の焦点深度内にあって鮮明に撮影可能なパンチ3の半周面の領域を増やすことが可能である。 As shown in FIG. 4, the surface observation apparatus 1 has a total of 4 at each of the photographing positions Z 0 to Z 3 located at intervals of the movement distance h in order to photograph the half circumferential surface of the punched portion 3a clearly and without omission. Take one shot. In this case, the moving distance h is set to the same value as the focal depth of the photographing unit 2. First, in order to photograph the punch 3 at the photographing position Z 0 , first, the photographing unit 2 is moved by the Z-axis stage 7 linked with the autofocus function, and the edge (outer peripheral position) of the punch 3 that is easy to focus. The photographing unit 2 is focused on the reference positions P 01 and P 02 . Further, in consideration of the depth of focus of the imaging unit 2, the imaging unit 2 is moved so that the farthest part from the imaging unit 2 with the focal depth matches the reference positions P01 and P02 . That is, by separating the photographing unit 2 from the punch 3 by h / 2, the area of the half circumferential surface of the punch 3 that can be clearly photographed within the focal depth of the photographing unit 2 at the reference positions P 01 and P 02 . It is possible to increase.

この鮮明に撮影可能なパンチ3の半周面の領域が、基準位置P01と基準位置P01からZ軸方向に移動距離hだけ離れた移動位置P11との間の撮影面F01、および、基準位置P02と基準位置P02からZ軸方向に移動距離hだけ離れた移動位置P12との間の撮影面F02である。基準位置P01と移動位置P11との間、および、基準位置P02と移動位置P12との間が撮影部2の焦点深度である。焦点深度内の撮影面F01は、撮影部2で撮影された画像21において、画像領域幅L01を有する鮮明な画像領域G01である。同様に、焦点深度内の撮影面F02は、撮影部2で撮影された画像21において、画像領域幅L02を有する鮮明な画像領域G02である。撮影位置Z0で撮影した画像21は、画像領域G01およびG02に該当する部分が鮮明に撮影されており、他の撮影面の部分は不鮮明な、いわゆるピンボケである。 The imaging surface F 01 between the reference position P 01 and the movement position P 11 that is separated from the reference position P 01 by the movement distance h in the Z-axis direction is an area on the half circumferential surface of the punch 3 that can be clearly photographed. This is the imaging plane F 02 between the reference position P 02 and the movement position P 12 that is separated from the reference position P 02 by a movement distance h in the Z-axis direction. The depth of focus of the photographing unit 2 is between the reference position P 01 and the movement position P 11 and between the reference position P 02 and the movement position P 12 . The imaging plane F 01 within the depth of focus is a clear image area G 01 having an image area width L 01 in the image 21 taken by the imaging unit 2. Similarly, the imaging plane F 02 within the focal depth is a clear image area G 02 having an image area width L 02 in the image 21 captured by the imaging unit 2. The image 21 photographed at the photographing position Z 0 is so-called out-of-focus, in which portions corresponding to the image regions G 01 and G 02 are clearly photographed and the other photographing surface portions are unclear.

撮影位置Z0において撮影部2が撮影したパンチ3は、図5(a)に示すように、打抜部3aの撮影面F01が画像領域幅L01および長さeの長方形をなす鮮明な画像領域G01であって、他の撮影面を含んだ画像21としてRAM13に記憶される。同時に、打抜部3aの撮影面F02も、画像領域幅L02および長さeの長方形をなす鮮明な画像領域G02としてRAM13に記憶される。 As shown in FIG. 5A, the punch 3 photographed by the photographing unit 2 at the photographing position Z 0 is a clear image in which the photographing surface F 01 of the punching part 3a forms a rectangle having an image area width L 01 and a length e. The image area G 01 is stored in the RAM 13 as an image 21 including another photographing surface. At the same time, the photographing surface F 02 of the punching unit 3 a is also stored in the RAM 13 as a clear image region G 02 having a rectangular shape with an image region width L 02 and a length e.

撮影位置Z0での撮影終了後、Z軸ステージによって、撮影部2を撮影位置Z1方向へ移動距離hだけ移動させる。撮影位置Z1では、移動位置P11と移動位置P11からZ軸方向に移動距離hだけ離れた移動位置P21との間の撮影面F11、および、移動位置P12と移動位置P12からZ軸方向に移動距離hだけ離れた移動位置P22との間の撮影面F12が、撮影部2の焦点深度内である。従って、撮影面F11は、撮影部2で撮影された画像21において、画像領域幅L11を有する鮮明な画像領域G11であり、同様に、焦点深度内の撮影面F12は、撮影部2で撮影された画像21において、画像領域幅L12を有する鮮明な画像領域G12である。撮影位置Z1で撮影した画像21は、画像領域G11およびG12に該当する部分が鮮明であって、他の撮影面の部分は不鮮明である。 After the photographing at the photographing position Z 0 is finished, the photographing unit 2 is moved in the photographing position Z 1 direction by the movement distance h by the Z-axis stage. At the photographing position Z 1 , the photographing surface F 11 between the moving position P 11 and the moving position P 21 separated from the moving position P 11 by the moving distance h in the Z-axis direction, and the moving position P 12 and the moving position P 12. The imaging plane F 12 between the imaging unit 2 and the movement position P 22 that is separated from the imaging unit 2 by the movement distance h in the Z-axis direction is within the focal depth of the imaging unit 2. Therefore, the imaging plane F 11 is a clear image area G 11 having an image area width L 11 in the image 21 captured by the imaging section 2. Similarly, the imaging plane F 12 within the focal depth is the imaging area F 11. in the image 21 taken by 2, a clear image area G 12 having an image area width L 12. In the image 21 photographed at the photographing position Z 1 , the portions corresponding to the image regions G 11 and G 12 are clear, and the portions on the other photographing surfaces are unclear.

撮影位置Z1おいて撮影部2が撮影したパンチ3は、図5(b)に示すように、打抜部3aの撮影面F11が、画像領域幅L11および長さeの長方形をなす鮮明な画像領域G11としてRAM13に記憶される。同時に、打抜部3aの撮影面F12も、画像領域幅L12および長さeの長方形をなす鮮明な画像領域G12としてRAM13に記憶される。 As shown in FIG. 5B, the punch 3 photographed by the photographing unit 2 at the photographing position Z 1 has a photographing surface F 11 of the punching unit 3a having a rectangular shape with an image region width L 11 and a length e. as clear image region G 11 is stored in the RAM 13. At the same time, imaging surface F 12 of the punch section 3a is also a clear image area G 12 forming a rectangular image area width L 12 and length e is stored in the RAM 13.

撮影位置Z1での撮影終了後、Z軸ステージによって、撮影部2を撮影位置Z2方向へ移動距離hだけ移動させる。撮影位置Z2では、移動位置P21と移動位置P21からZ軸方向に移動距離hだけ離れた移動位置P31との間の撮影面F21、および、移動位置P22と移動位置P22からZ軸方向に移動距離hだけ離れた移動位置P32との間の撮影面F22が、撮影部2の焦点深度内である。従って、撮影面F21は、撮影部2で撮影された画像21において、画像領域幅L21を有する鮮明な画像領域G21であり、同様に、焦点深度内の撮影面F22は、撮影部2で撮影された画像21において、画像領域幅L22を有する鮮明な画像領域G22である。撮影位置Z2で撮影した画像21は、画像領域G21およびG22に該当する部分が鮮明であって、他の撮影面の部分は不鮮明である。 After the photographing at the photographing position Z 1 is completed, the photographing unit 2 is moved in the direction of the photographing position Z 2 by the movement distance h by the Z-axis stage. At the photographing position Z 2 , the photographing surface F 21 between the moving position P 21 and the moving position P 31 separated from the moving position P 21 by the moving distance h in the Z-axis direction, and the moving position P 22 and the moving position P 22. The imaging plane F 22 between the imaging unit 2 and the moving position P 32 that is separated by the moving distance h in the Z-axis direction is within the focal depth of the imaging unit 2. Accordingly, the imaging surface F 21 is a clear image region G 21 having an image region width L 21 in the image 21 captured by the imaging unit 2. Similarly, the imaging surface F 22 within the depth of focus is the imaging surface F 22. 2 is a clear image area G 22 having an image area width L 22 . In the image 21 photographed at the photographing position Z 2 , the portions corresponding to the image regions G 21 and G 22 are clear, and the portions on the other photographing surfaces are unclear.

撮影位置Z2おいて撮影部2が撮影したパンチ3は、図6(c)に示すように、打抜部3aの撮影面F21が、画像領域幅L21および長さeの長方形をなす鮮明な画像領域G21としてRAM13に記憶される。同時に、打抜部3aの撮影面F22も、画像領域幅L22および長さeの長方形をなす鮮明な画像領域G22としてRAM13に記憶される。 Photographing position Z 2 punch 3 Oite photographing unit 2 is taken, as shown in FIG. 6 (c), imaging surface F 21 of the punch section 3a is formed a rectangular image area width L 21 and length e as clear image region G 21 is stored in the RAM 13. At the same time, the photographing surface F 22 of the punched portion 3a is also stored in the RAM 13 as a clear image region G 22 having a rectangular shape with an image region width L 22 and a length e.

そして、撮影位置Z2での撮影終了後、Z軸ステージによって、撮影部2を撮影位置Z3方向へ移動距離hだけ移動させる。この場合、撮影位置Z3では、移動位置P31と移動位置P32の間のパンチ3の半周部の領域が撮影部2の焦点深度内であり、このパンチ3の半周部の領域が、移動位置P31と移動位置P32との間の撮影面F31である。従って、撮影面F31は、撮影部2で撮影された画像21において、画像領域幅L31を有する鮮明な画像領域G31であり、他の撮影面の部分は不鮮明である。 Then, after the photographing at the photographing position Z 2 is completed, the photographing unit 2 is moved by the movement distance h in the photographing position Z 3 direction by the Z-axis stage. In this case, at the shooting position Z 3 , the area of the half circumference of the punch 3 between the movement position P 31 and the movement position P 32 is within the focal depth of the imaging section 2, and the area of the half circumference of the punch 3 is moved. This is the imaging plane F 31 between the position P 31 and the movement position P 32 . Accordingly, the imaging surface F 31 is a clear image region G 31 having an image region width L 31 in the image 21 captured by the imaging unit 2, and the other imaging surface portions are unclear.

撮影位置Z3おいて撮影部2が撮影したパンチ3は、図6(d)に示すように、打抜部3aの撮影面F31が、画像領域幅L31および長さeの長方形をなす鮮明な画像領域G31としてRAM13に記憶される。以上説明したように、4回の撮影により得られた4つの画像21には、パンチ3の半周面を鮮明に捉えた画像領域G01〜G31が含まれている。 In the punch 3 photographed by the photographing unit 2 at the photographing position Z 3 , as shown in FIG. 6D, the photographing surface F 31 of the punching unit 3 a forms a rectangle with an image region width L 31 and a length e. as clear image region G 31 is stored in the RAM 13. As described above, the four images 21 obtained by the four shootings include the image regions G 01 to G 31 in which the half circumferential surface of the punch 3 is clearly captured.

ここで、パンチ3を撮影する撮影位置Z0〜Z3の設定について説明する。表面観察装置1は、パンチ3を撮影部2で撮影するために、入力部から座標データ22および領域データ23をRAM13に取り込んで記憶している。この場合、パンチ3の直径dが20μmであり、撮影部2の焦点深度が3μmであるので、図4に示す半径rが10μmのパンチ3の半周面を漏れなく撮影するためには、撮影部2の移動距離hを3μmとすると、撮影位置Z0〜Z3において4回の撮影が必要であり、パンチ3の直径dと撮影部2の焦点深度とから撮影位置および撮影回数が設定可能である。被観察物のパンチ3は、形状が既知であるため、座標データ22は、打抜部3aの半周面の撮影位置Z0〜Z3にそれぞれ位置する基準位置P01および基準位置P02と、移動位置P11〜移動位置P32の座標値を有し、パンチ3の三次元形状を表している。 Here, a description about setting imaging position Z 0 to Z 3 for photographing the punch 3. In order to photograph the punch 3 with the photographing unit 2, the surface observation device 1 takes in coordinate data 22 and region data 23 from the input unit and stores them in the RAM 13. In this case, since the diameter d of the punch 3 is 20 μm and the depth of focus of the photographing unit 2 is 3 μm, the photographing unit is required to photograph the half circumferential surface of the punch 3 having a radius r of 10 μm shown in FIG. When the moving distance h of 2 is 3 μm, four shootings are required at the shooting positions Z 0 to Z 3 , and the shooting position and the number of shootings can be set from the diameter d of the punch 3 and the focal depth of the shooting unit 2. is there. Since the punch 3 of the object to be observed has a known shape, the coordinate data 22 includes a reference position P 01 and a reference position P 02 that are respectively located at the photographing positions Z 0 to Z 3 on the half circumferential surface of the punching portion 3a. It has the coordinate values of the movement position P 11 to the movement position P 32 and represents the three-dimensional shape of the punch 3.

また、領域データ23は、座標データ22に基づき、撮影位置Z0〜Z3のそれぞれで撮影した画像21において、撮影部2の焦点深度内に位置する打抜部3aの半周面を撮影した画像領域G01〜G31を予め演算して特定したものである。領域データ23を参照すれば、画像21のどの領域が画像領域G01〜G31であるかの判断が容易である。 Further, the area data 23 is an image obtained by photographing a half circumferential surface of the punching unit 3 a located within the focal depth of the photographing unit 2 in the image 21 photographed at each of the photographing positions Z 0 to Z 3 based on the coordinate data 22. The areas G 01 to G 31 are specified by calculation in advance. Referring to region data 23, area of the image 21 throat is easy determination whether the image region G 01 ~G 31.

なお、撮影部2の焦点深度を深くすれば、鮮明に撮影可能な範囲は、撮影位置Z0とZ1との距離3μmより広くなり、撮影回数の削減が図れるが、画像21の劣化が生じて面精度の観察チェックがし難くなる。従って、パンチ3の面精度を観察チェックするためには、撮影回数が増えるが、焦点深度を例えば1μm程度に浅くして、より緻密な画像を得ることが望ましい。 Note that if the depth of focus of the photographing unit 2 is increased, the range in which clear photographing can be performed becomes wider than the distance 3 μm between the photographing positions Z 0 and Z 1, and the number of photographing can be reduced, but the degradation of the image 21 occurs. This makes it difficult to check the surface accuracy. Therefore, in order to observe and check the surface accuracy of the punch 3, it is desirable to obtain a more precise image by reducing the depth of focus to, for example, about 1 μm, although the number of times of photographing increases.

次に、合成画像50の作成について簡単に説明する。図7は、合成画像を示す平面図である。合成画像50は、パンチ3の半周面のいずれの部分をも、鮮明に、一つの画像として表したものである。合成画像50の作成は、撮影位置Z0〜Z3において撮影し、RAM13に記憶している各画像21を基に、CPU11がROM12の画像合成プログラムに従って行う。まず、画像21から画像領域G01〜G31を切り取り、次に、切り取った画像領域G01〜G31を順に繋ぎ合わせて、図7に示すような合成画像50を作成する。この合成画像50により、三次元形状のパンチ3の表面状態を精密に観察チェックすることが可能である。 Next, the creation of the composite image 50 will be briefly described. FIG. 7 is a plan view showing a composite image. The composite image 50 clearly represents any part of the half circumferential surface of the punch 3 as one image. The composite image 50 is created by the CPU 11 in accordance with the image composition program in the ROM 12 based on each image 21 photographed at the photographing positions Z 0 to Z 3 and stored in the RAM 13. First, the image regions G 01 to G 31 are cut out from the image 21, and then the cut image regions G 01 to G 31 are connected in order to create a composite image 50 as shown in FIG. With this composite image 50, the surface state of the three-dimensional punch 3 can be precisely observed and checked.

以下に、表面観察装置1によって合成画像50を作成する画像合成方法について、フローチャート図を参照して説明する。図8は、合成画像を作成するためのフローチャート図である。フローチャート図は、表面観察装置1の制御部10が実行するステップを示している。   Hereinafter, an image composition method for creating the composite image 50 by the surface observation apparatus 1 will be described with reference to a flowchart. FIG. 8 is a flowchart for creating a composite image. The flowchart shows the steps executed by the control unit 10 of the surface observation apparatus 1.

まず、ステップS1において、パンチ3が固定治具4にセットされ、観察開始の指示を受信したか否かを判断する。観察開始の指示は、入力部20から入力される。指示を受信していなければ、ステップS1において指示を待ち、一方、受信していれば、ステップS2へ進む。   First, in step S1, it is determined whether or not the punch 3 is set on the fixing jig 4 and an instruction to start observation is received. An instruction to start observation is input from the input unit 20. If an instruction has not been received, the instruction is waited in step S1, while if it has been received, the process proceeds to step S2.

ステップS2において、パンチ3の座標データ22を基に、X軸ステージ5およびY軸ステージ6の移動を指示して、パンチ3を撮影可能な位置へ移動させる。移動指示後、ステップS3へ進む。   In step S2, the movement of the X-axis stage 5 and the Y-axis stage 6 is instructed based on the coordinate data 22 of the punch 3, and the punch 3 is moved to a position where photographing can be performed. After the movement instruction, the process proceeds to step S3.

ステップS3において、パンチ3がCCDカメラ2aの視野内に入ったか否かを判断する。判断は、撮影制御部14が撮影部2からの画像を確認して行う。パンチ3が視野外であれば、ステップS2へ戻り、一方、視野内であれば、ステップS4へ進む。   In step S3, it is determined whether or not the punch 3 has entered the field of view of the CCD camera 2a. The determination is made by the imaging control unit 14 confirming the image from the imaging unit 2. If the punch 3 is out of the field of view, the process returns to step S2, while if it is within the field of view, the process proceeds to step S4.

ステップS4において、Z軸ステージ7を移動させて、パンチ3のエッジにCCDカメラ2aの焦点があっているか否かを判断する。この判断は、撮影制御部14が撮影部2からの画像を確認して行う。この場合、既述したように、パンチ3のエッジには、焦点深度内のCCDカメラ2aから最遠部が合致している。ステップS4は、合焦ステップに該当する。焦点が合っていなければ、ステップS4においてZ軸ステージ7を移動させて調整を続け、一方、焦点が合えば、ステップS5へ進む。   In step S4, the Z-axis stage 7 is moved to determine whether or not the CCD camera 2a is focused on the edge of the punch 3. This determination is made by the imaging control unit 14 confirming the image from the imaging unit 2. In this case, as described above, the farthest portion from the CCD camera 2a within the focal depth matches the edge of the punch 3. Step S4 corresponds to the focusing step. If it is not in focus, the adjustment is continued by moving the Z-axis stage 7 in step S4. On the other hand, if it is in focus, the process proceeds to step S5.

ステップS5において、CCDカメラ2aでパンチ3の表面を撮影し、撮影した画像21をRAM13へ記憶する。ステップS5は、撮影ステップに該当する。撮影後、ステップS6へ進む。   In step S5, the surface of the punch 3 is photographed by the CCD camera 2a, and the photographed image 21 is stored in the RAM 13. Step S5 corresponds to a photographing step. After shooting, the process proceeds to step S6.

ステップS6において、4回の撮影を実行したか否かを判断する。判断は、撮影制御部14が撮影部2へ指示した撮影命令の回数をCPU11がカウントすることによって行う。4回未満であれば、ステップS7へ進み、一方、4回に到達していれば、ステップS8へ進む。   In step S6, it is determined whether or not four times of photographing have been executed. The determination is made by the CPU 11 counting the number of shooting commands that the shooting control unit 14 has instructed the shooting unit 2. If it is less than four times, the process proceeds to step S7, and if it has reached four times, the process proceeds to step S8.

4回未満の場合、ステップS7において、Z軸ステージ7を移動距離hだけ移動させる。ステップS7は、移動ステップに該当する。移動後、ステップS5へ戻る。   If it is less than four times, in step S7, the Z-axis stage 7 is moved by the moving distance h. Step S7 corresponds to a moving step. After the movement, the process returns to step S5.

4回に達していれば、ステップS8において、撮影した各画像21を領域データ23に基づいて切り取る。切り取る部分は、各画像21の画像領域G01〜G31である。この場合、領域データ23によって、画像領域G01〜G31のそれぞれが座標値で特定されているため、フィルタ処理等の演算が不要で、容易に切り取ることが可能である。この処理は、CPU11がROM12の画像合成プログラム18に従って切取部として機能することにより実行される。ステップS8は、切取ステップに該当する。切取後、ステップS9へ進む。 If the number has reached four, each captured image 21 is cut out based on the area data 23 in step S8. The portions to be cut out are image regions G 01 to G 31 of each image 21. In this case, since each of the image areas G 01 to G 31 is specified by the coordinate value by the area data 23, an operation such as a filter process is not necessary and can be easily cut out. This process is executed by the CPU 11 functioning as a cutting unit in accordance with the image composition program 18 in the ROM 12. Step S8 corresponds to a cutting step. After cutting, the process proceeds to step S9.

ステップS9において、切り取った画像領域G01〜G31を図7に示すように、順に繋ぎ合わせて、合成画像50を作成する。この処理は、CPU11がROM12の画像合成プログラム18に従って合成部として機能することにより実行される。ステップS9は、合成ステップに該当する。作成後、ステップS10へ進む。 In step S9, the image region G 01 ~G 31 taken as shown in FIG. 7, by joining in order to create a composite image 50. This process is executed by the CPU 11 functioning as a synthesis unit in accordance with the image synthesis program 18 in the ROM 12. Step S9 corresponds to a synthesis step. After creation, the process proceeds to step S10.

ステップS10において、表示部25へ合成画像50を表示する。表示部25への表示により、パンチ3の面精度をリアルタイムで観察チェックすることが可能である。ステップS10は、表示ステップに該当する。以上のような各ステップにより、合成画像50が作成される。   In step S <b> 10, the composite image 50 is displayed on the display unit 25. By displaying on the display unit 25, the surface accuracy of the punch 3 can be observed and checked in real time. Step S10 corresponds to a display step. The composite image 50 is created through the above steps.

なお、ステップS10の終了後に、固定治具4の回転部4aを操作し、回転ステップとして、パンチ3を180度回転させれば、再度、ステップS1からS10のステップの実行により、パンチ3の反対側の半周面を引き続いて撮影することが可能である。これにより、最少のパンチ3の回転移動だけで、パンチ3の打抜部3aの全周を漏れなく撮影可能である。   After step S10, if the rotating part 4a of the fixing jig 4 is operated and the punch 3 is rotated 180 degrees as a rotation step, the opposite of the punch 3 is performed again by executing the steps S1 to S10. It is possible to continue to shoot the half circumference surface. Thus, the entire circumference of the punched portion 3a of the punch 3 can be photographed without omission only by the minimum rotational movement of the punch 3.

以上、表面観察装置1による画像合成方法に関する具体的な実施形態について説明した。以下に実施形態の効果をまとめて記載する。   The specific embodiments related to the image composition method by the surface observation apparatus 1 have been described above. The effects of the embodiment will be collectively described below.

(1)被観察物のパンチ3の形状を座標データ22および領域データ23により、予め特定する画像合成方法により、撮影部2の焦点深度から外れるような三次元形状をなしているパンチ3であっても、パンチ3の撮影可能な部分がいずれも鮮明な状態の一つの合成画像50として得られる。この方法によれば、パンチ3の表面状態を表示する合成画像50を、迅速に作成することが可能である。   (1) The punch 3 has a three-dimensional shape that deviates from the depth of focus of the photographing unit 2 by an image composition method in which the shape of the punch 3 of the object to be observed is specified in advance by the coordinate data 22 and the area data 23. However, any portion of the punch 3 that can be photographed is obtained as a single composite image 50 in a clear state. According to this method, it is possible to quickly create the composite image 50 that displays the surface state of the punch 3.

(2)合成画像50を作成して、一つの合成画像によってパンチ3の表面状態をチェック可能であるため、撮影位置Z0〜Z3において撮影した各画像21を、個々にチェックする必要がなく、効率的なチェックが行える。 (2) Since the composite image 50 can be created and the surface state of the punch 3 can be checked by one composite image, there is no need to individually check each image 21 photographed at the photographing positions Z 0 to Z 3 . Efficient check.

(3)合成画像50の作成に当たって、通常行われている複雑なフィルタリング処理等が不必要であるため、フィルタリング処理等を行うには処理速度の遅い制御部10であっても、実用上支障なく画像合成処理を実行可能である。   (3) Since the complicated filtering process that is normally performed is unnecessary in creating the composite image 50, there is no practical problem even if the control unit 10 has a low processing speed to perform the filtering process. Image composition processing can be executed.

(4)表示部25によって、合成画像50を表示することにより、迅速に作成した合成画像50の確認がリアルタイムに行える。従って、多量のパンチ3の表面を観察してチェックする場合などにおいて、短時間に、且つ、容易に行うことが可能である。   (4) By displaying the composite image 50 on the display unit 25, the composite image 50 created quickly can be confirmed in real time. Therefore, when observing and checking the surface of a large number of punches 3, it can be easily performed in a short time.

また、本発明は上記の実施形態に限定されるものではなく、次に挙げる変形例のような形態であっても、実施形態と同様な効果が得られる。   Further, the present invention is not limited to the above-described embodiment, and the same effects as those of the embodiment can be obtained even in the form of the following modification.

(変形例1)基準位置P01と移動位置P11との距離、移動位置P11と移動位置P21との距離、および、移動位置P21と移動位置P31との距離は、焦点深度と同じである移動距離hではなく、移動距離h以下であっても良い。また、それぞれが移動距離h以下の異なった距離であっても良い、画像領域G01〜G31の重なる部分があり、領域データ23の演算が煩雑化するが、実施形態と同様に合成画像50が作成可能である。 (Modification 1) The distance between the reference position P 01 and the movement position P 11 , the distance between the movement position P 11 and the movement position P 21, and the distance between the movement position P 21 and the movement position P 31 are expressed by the depth of focus. Instead of the same moving distance h, it may be equal to or shorter than the moving distance h. Further, there are overlapping portions of the image regions G 01 to G 31 , which may be different distances that are less than or equal to the moving distance h, and the calculation of the region data 23 becomes complicated, but the composite image 50 is the same as in the embodiment. Can be created.

(変形例2)ステップS4において、CCDカメラ2aの焦点は、基準位置P01およびP02に合わせたままで、焦点深度に対応した調整を行わなくても良い。画像領域G01およびG02の画像領域幅L01およびL02が小さくなるが、合成画像の作成は可能である。 (Modification 2) step S4, the focus of the CCD camera 2a may remain combined with the reference position P 01 and P 02, it may not be performed adjustment corresponding to the depth of focus. Although the image area widths L 01 and L 02 of the image areas G 01 and G 02 are reduced, a composite image can be created.

(変形例3)座標データ22および領域データ23は、RAM13ではなくROM12に記憶させても良い。ROM12は、不揮発性メモリであり、パンチ3の観察の都度、入力部から読み込む操作が不要になる。   (Modification 3) The coordinate data 22 and the area data 23 may be stored in the ROM 12 instead of the RAM 13. The ROM 12 is a non-volatile memory and does not require an operation of reading from the input unit every time the punch 3 is observed.

(変形例4)Z軸ステージ7は、撮影部2を移動させる構成ではなく、載置部であるX軸ステージ5を移動させても良い。撮影部2が固定されて、より安定した撮影状態を保持可能である。   (Modification 4) The Z-axis stage 7 may move the X-axis stage 5 which is a mounting part instead of the structure which moves the imaging | photography part 2. FIG. The photographing unit 2 is fixed, and a more stable photographing state can be maintained.

(変形例5)固定治具4を介してパンチ3を載置するステージは、X軸ステージ5に限定されず、Y軸ステージ6が載置部であっても良い。表面観察装置1の載置部構成の自由度を増すことが可能である。   (Modification 5) The stage on which the punch 3 is placed via the fixing jig 4 is not limited to the X-axis stage 5, and the Y-axis stage 6 may be the placement part. It is possible to increase the degree of freedom of the placement unit configuration of the surface observation device 1.

(変形例6)固定治具4の回転部4aは、制御部10の制御により回転する構成であっても良い。多量のパンチ3を連続して観察する場合などに、操作が効率的である。   (Modification 6) The rotating part 4 a of the fixing jig 4 may be configured to rotate under the control of the control part 10. The operation is efficient when observing a large number of punches 3 continuously.

(変形例7)ステップS10において、合成画像50を表示部25に表示するだけではなく、プリンタで出力しても良い。パンチ3の観察チェック記録として残しておくことが可能である。   (Modification 7) In step S10, the composite image 50 may be displayed not only on the display unit 25 but also by a printer. It is possible to leave an observation check record of the punch 3.

本発明の表面観察装置の構成を示す模式図。The schematic diagram which shows the structure of the surface observation apparatus of this invention. 表面観察装置の制御部の構成を示すブロック図。The block diagram which shows the structure of the control part of a surface observation apparatus. (a)パンチの外観を示す平面図、(b)ノズルプレートへのノズルのプレス加工を示す断面図、(c)ノズルからの液滴の吐出を示す断面図。(A) Top view which shows the external appearance of a punch, (b) Sectional drawing which shows the press work of the nozzle to a nozzle plate, (c) Sectional drawing which shows discharge of the droplet from a nozzle. 撮影部により撮影したパンチ表面各部の画像領域を示す模式図。The schematic diagram which shows the image area | region of each part of the punch surface image | photographed by the imaging | photography part. (a)撮影部から最遠部の画像領域を示す平面図、(b)撮影部から最遠部の画像領域に隣接する画像領域を示す平面図。(A) The top view which shows the image area of the furthest part from the imaging | photography part, (b) The top view which shows the image area adjacent to the image area of the furthest part from the imaging | photography part. (c)撮影部から最近部の画像領域に隣接する画像領域を示す平面図、(d)撮影部から最近部の画像領域を示す平面図。(C) The top view which shows the image area adjacent to the image area of the nearest part from an imaging | photography part, (d) The top view which shows the image area of the nearest part from an imaging | photography part. 合成画像を示す平面図。The top view which shows a synthesized image. 合成画像を作成するためのフローチャート図。FIG. 5 is a flowchart for creating a composite image.

符号の説明Explanation of symbols

1…表面観察装置、2…撮影部、2a…CCDカメラ、2b…カメラレンズ、3…被観察物としてのパンチ、4…固定治具、5…載置部としてのX軸ステージ、6…Y軸ステージ、7…移動部としてのZ軸ステージ、10…制御部、11…切取部および合成部としてのCPU、12…ROM、13…記憶部としてのRAM、14…撮影制御部、15…駆動制御部、18…画像合成プログラム、21…画像、22…座標データ、23…領域データ、30…ノズルプレート、31…ノズル、50…合成画像、h…移動距離、P01、P02…基準位置、P03〜P32…移動位置、F01〜F31…撮影面、G01〜G31…画像領域、L01〜L31…画像領域幅、Z0〜Z3…撮影位置。
DESCRIPTION OF SYMBOLS 1 ... Surface observation apparatus, 2 ... Imaging | photography part, 2a ... CCD camera, 2b ... Camera lens, 3 ... Punch as observation object, 4 ... Fixing jig, 5 ... X-axis stage as mounting part, 6 ... Y Axis stage, 7... Z-axis stage as moving unit, 10... Control unit, 11... CPU as cutting unit and combining unit, 12... ROM, 13. Control unit, 18 ... image composition program, 21 ... image, 22 ... coordinate data, 23 ... area data, 30 ... nozzle plate, 31 ... nozzle, 50 ... composite image, h ... moving distance, P01 , P02 ... reference position , P 03 to P 32 ... Movement position, F 01 to F 31 .. Imaging plane, G 01 to G 31 ... Image area, L 01 to L 31 ... Image area width, Z 0 to Z 3 .

Claims (7)

撮影部の焦点を被観察物の基準位置に合わせる合焦ステップと、
前記被観察物の三次元形状を表す座標データに基づいて、前記撮影部の焦点を前記撮影部の焦点深度以下の距離だけ移動させた移動位置に移す移動ステップと、
前記基準位置および前記移動位置における前記被観察物の表面を前記撮影部によってそれぞれ撮影する撮影ステップと、
前記撮影ステップで撮影した画像の焦点の合っている画像領域を表す領域データに基づいて、前記画像領域を選択して切り取る切取ステップと、
前記画像領域を繋ぎ合わせて合成画像を作成する合成ステップと、を有することを特徴とする画像合成方法。
A focusing step for focusing the imaging unit on the reference position of the object to be observed;
Based on the coordinate data representing the three-dimensional shape of the object to be observed, a movement step of moving the focal point of the imaging unit to a movement position that has been moved by a distance equal to or less than the focal depth of the imaging unit;
Photographing steps for photographing the surface of the observation object at the reference position and the moving position by the photographing unit, respectively.
A cutting step of selecting and cutting out the image area based on area data representing an image area in focus of the image taken in the shooting step;
And a synthesis step of creating a synthesized image by joining the image areas.
請求項1に記載の画像合成方法において、
前記合成画像を表示部に表示する表示ステップをさらに有することを特徴とする画像合成方法。
The image composition method according to claim 1,
An image synthesizing method further comprising a display step of displaying the synthesized image on a display unit.
請求項1または2に記載の画像合成方法において
前記被観察物を回転させる回転ステップをさらに有することを特徴とする画像合成方法。
The image composition method according to claim 1, further comprising a rotation step of rotating the object to be observed.
請求項1から3のいずれか一項に記載の画像合成方法において、
前記移動ステップは、複数回実行されることを特徴とする画像合成方法。
In the image composition method according to any one of claims 1 to 3,
The image synthesizing method, wherein the moving step is executed a plurality of times.
被観察物を載置するための載置部と、
前記被観察物の表面を撮影する撮影部と、
前記被観察物の三次元形状を表す座標データを記憶している記憶部と、
前記座標データを基に前記撮影部を前記撮影部の焦点深度以下の距離ずつ移動させる移動部と、
前記撮影部が撮影した画像の焦点の合っている画像領域を表す領域データに基づいて、前記画像領域を選択して切り取る切取部と、
前記画像領域のそれぞれを繋ぎ合わせて合成画像を作成する合成部と、を備えていることを特徴とする表面観察装置。
A placement unit for placing an object to be observed;
An imaging unit for imaging the surface of the object to be observed;
A storage unit storing coordinate data representing a three-dimensional shape of the object to be observed;
A moving unit that moves the imaging unit by a distance equal to or less than the focal depth of the imaging unit based on the coordinate data;
A cutout unit that selects and cuts out the image region based on region data representing an image region in focus of the image taken by the photographing unit;
A surface observing apparatus comprising: a combining unit that connects the image regions to create a combined image.
請求項5に記載の表面観察装置において、
前記合成画像を表示する表示部をさらに備えていることを特徴とする表面観察装置。
In the surface observation apparatus according to claim 5,
A surface observation apparatus further comprising a display unit for displaying the composite image.
請求項5または6に記載の表面観察装置において、
前記被観察物は、前記載置部に載置された固定治具の回転部に取り付けられていることを特徴とする表面観察装置。
The surface observation apparatus according to claim 5 or 6,
The surface observation apparatus according to claim 1, wherein the object to be observed is attached to a rotating part of a fixing jig placed on the placing part.
JP2006223024A 2006-08-18 2006-08-18 Image synthesis method and surface observation apparatus Pending JP2008046952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006223024A JP2008046952A (en) 2006-08-18 2006-08-18 Image synthesis method and surface observation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006223024A JP2008046952A (en) 2006-08-18 2006-08-18 Image synthesis method and surface observation apparatus

Publications (1)

Publication Number Publication Date
JP2008046952A true JP2008046952A (en) 2008-02-28

Family

ID=39180625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006223024A Pending JP2008046952A (en) 2006-08-18 2006-08-18 Image synthesis method and surface observation apparatus

Country Status (1)

Country Link
JP (1) JP2008046952A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085932A (en) * 2009-10-15 2011-04-28 General Electric Co <Ge> System and method for imaging with enhanced depth of field
JP2011091799A (en) * 2009-10-15 2011-05-06 General Electric Co <Ge> Imaging system and imaging method with improved depth of field
JP2011109644A (en) * 2009-10-15 2011-06-02 General Electric Co <Ge> System and method for imaging with enhanced depth of field
JP2014068088A (en) * 2012-09-25 2014-04-17 Sharp Corp Imaging apparatus and imaging apparatus control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08294035A (en) * 1995-04-19 1996-11-05 Sankyo Seiki Mfg Co Ltd Image processing unit and image processing method
JPH09243573A (en) * 1996-03-12 1997-09-19 Furukawa Electric Co Ltd:The Surface inspection apparatus
JPH11287618A (en) * 1998-04-01 1999-10-19 Ntn Corp Image processing device
JP2002095016A (en) * 2000-09-20 2002-03-29 Fuji Photo Film Co Ltd Imaging device and imaging method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08294035A (en) * 1995-04-19 1996-11-05 Sankyo Seiki Mfg Co Ltd Image processing unit and image processing method
JPH09243573A (en) * 1996-03-12 1997-09-19 Furukawa Electric Co Ltd:The Surface inspection apparatus
JPH11287618A (en) * 1998-04-01 1999-10-19 Ntn Corp Image processing device
JP2002095016A (en) * 2000-09-20 2002-03-29 Fuji Photo Film Co Ltd Imaging device and imaging method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085932A (en) * 2009-10-15 2011-04-28 General Electric Co <Ge> System and method for imaging with enhanced depth of field
JP2011091799A (en) * 2009-10-15 2011-05-06 General Electric Co <Ge> Imaging system and imaging method with improved depth of field
JP2011109644A (en) * 2009-10-15 2011-06-02 General Electric Co <Ge> System and method for imaging with enhanced depth of field
JP2014068088A (en) * 2012-09-25 2014-04-17 Sharp Corp Imaging apparatus and imaging apparatus control method

Similar Documents

Publication Publication Date Title
EP1916046B1 (en) Method and device for machine-cutting a plate-shaped workpiece
EP2793069B1 (en) Digital microscope and method for optimising the work process in a digital microscope
JP4747003B2 (en) Automatic focusing control device and control method thereof
EP2273302B1 (en) Image acquiring apparatus, image acquiring method and image acquiring program
EP1381229B1 (en) Real-time omnifocus microscope camera
JP4437228B2 (en) Imaging apparatus and imaging method using defocus structure
EP2317364B1 (en) Microscope apparatus and microscope observation method
DE602006000272T2 (en) Autofocus device with focus tracking for objects in motion
EP1840700B1 (en) Digital Camera
JP2006292999A (en) Slide image data creation device and slide image data
JP5404450B2 (en) Processing status monitoring device
JP2008046952A (en) Image synthesis method and surface observation apparatus
JP6739064B1 (en) Imaging device
JP2005103644A (en) Stereovision-guided laser drilling system
JP2007114311A (en) Image shake correction apparatus and image shake correction method for imaging apparatus
US20080100703A1 (en) Microscope system, observation method and observation program
KR20160111321A (en) Method for setting laser drilling machining condition and laser beam machine
DE102008004578B4 (en) Method for measuring a rotary tool provided with at least one cutting edge and measuring device therefor
JP5129509B2 (en) Transmission electron microscope and imaging method
JP2007295203A (en) Image editing apparatus
JP2017226035A (en) Machining method and machining device
JP2008014646A (en) Substrate inspection method
JP2010020329A (en) Slide image data preparing device
CN112241065B (en) Microscope and method for producing a microscopic image with an extended depth of field
JP6911882B2 (en) Laser marker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120117