JP2007316433A - Enlarging observation device - Google Patents
Enlarging observation device Download PDFInfo
- Publication number
- JP2007316433A JP2007316433A JP2006147069A JP2006147069A JP2007316433A JP 2007316433 A JP2007316433 A JP 2007316433A JP 2006147069 A JP2006147069 A JP 2006147069A JP 2006147069 A JP2006147069 A JP 2006147069A JP 2007316433 A JP2007316433 A JP 2007316433A
- Authority
- JP
- Japan
- Prior art keywords
- imaging unit
- unit
- depth
- control unit
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
- G02B21/367—Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Microscoopes, Condenser (AREA)
Abstract
Description
この発明は対象物の三次元画像データを生成する拡大観察装置に関し、特に画像の取得間隔を最適化する技術に関するものである。 The present invention relates to a magnification observation apparatus that generates three-dimensional image data of an object, and more particularly to a technique for optimizing an image acquisition interval.
製造現場や研究施設などにおいて、従来の顕微鏡に代えて、拡大観察装置の普及が進んでいる。拡大観察装置は、対象物を拡大して画像を撮影し、その撮影された画像を表示する装置である。このような拡大観察装置は、従来の顕微鏡に比較して、被写体距離を長くできること、拡大された画像を多くのユーザが同時に観察できること、デジタル情報として記録できることなどの長所を備えている。 In manufacturing sites and research facilities, instead of conventional microscopes, magnification observation devices are becoming popular. The magnifying observation apparatus is an apparatus that shoots an image by enlarging an object and displays the captured image. Such a magnifying observation device has advantages such as a longer subject distance, a large number of users observing an enlarged image at the same time, and recording as digital information, as compared with a conventional microscope.
近年、さらに作業効率を向上させる目的で、対象物の三次元画像データを生成する機能を付加した拡大観察装置が提案されている。このような三次元画像データの生成方法の一例として、いわゆる合焦点法が知られている。合焦点法では、対象物を異なる被写体距離で撮影した複数の画像における焦点の合った(フォーカスされた)領域(以下、「フォーカス領域」とも称す)に基づいて、三次元画像データが生成される。 In recent years, for the purpose of further improving work efficiency, a magnification observation apparatus to which a function for generating three-dimensional image data of an object is added has been proposed. As an example of such a method for generating three-dimensional image data, a so-called focusing method is known. In the in-focus method, three-dimensional image data is generated based on focused (focused) areas (hereinafter also referred to as “focus areas”) in a plurality of images obtained by photographing an object at different subject distances. .
たとえば、特開2000−39566号公報(特許文献1)には、観察対象物の光学拡大像を三次元データ化して、観察対象物の観察したい領域を任意の視点、視野および角度から立体画像として観察することが可能な拡大観察装置が開示されている。この拡大観察装置によれば、光学拡大像を撮像する撮像手段と、光学拡大手段を観察対象物に対して任意の相対位置に移動させ位置決めする移動位置決め制御手段と、光学拡大手段を観察対象物に対して複数の相対位置に移動位置決めして撮像した複数の画像データを取得する画像データ入力手段と、複数の画像データから立体的な三次元画像データを生成する三次元画像データ生成手段とを備える。そして、三次元画像データ生成手段は、各々の画像データから焦点の合っている合焦点画像データを抽出し、当該合焦点画像データに基づいて、3次元画像を生成する。
上述したように、合焦点法においては、異なる被写体距離で撮影した複数の画像におけるフォーカス領域に基づいて三次元画像データが生成されるので、生成精度を向上させるためには、可能な限り画像の取得枚数は多いことが望ましい。 As described above, in the in-focus method, three-dimensional image data is generated based on focus areas in a plurality of images taken at different subject distances. It is desirable that the number of acquisitions be large.
一方、レンズ群などの光学系を含む撮像部では、焦点を合わす(以下、「フォーカスする」とも称す)ことのできる固有の範囲を有している。このような焦点を合わすことのできる範囲は、被写界深度(DOF:Depth of Focus)とも称される。すなわち、撮像部により撮影される各画像においては、この被写界深度に相当する領域のみがフォーカスされることになる。 On the other hand, an imaging unit including an optical system such as a lens group has a unique range in which it can be focused (hereinafter also referred to as “focus”). Such a focusable range is also referred to as depth of field (DOF). That is, in each image photographed by the imaging unit, only a region corresponding to this depth of field is focused.
そのため、画像の取得枚数を増大させるために、被写界深度に比較して取得間隔を過度に小さな値に設定すると、連続する画像間におけるフォーカス領域の差は小さくなる。すなわち、画像の取得枚数を過度に増大させても、生成精度向上の効果は薄く、逆に撮影に要する時間が増加するという結果になる。 Therefore, if the acquisition interval is set to an excessively small value compared to the depth of field in order to increase the number of acquired images, the difference in the focus area between successive images is reduced. That is, even if the number of acquired images is excessively increased, the effect of improving the generation accuracy is small, and conversely, the time required for shooting increases.
しかしながら、特開2000−39566号公報(特許文献1)に開示されるような従来の拡大観察装置では、取得間隔(もしくは取得枚数)に関する考慮がなされておらず、拡大観察装置の使用者(以下、ユーザとも称す)などは、不適切な取得間隔で使用している場合も多かった。 However, the conventional magnification observation apparatus disclosed in Japanese Patent Laid-Open No. 2000-39566 (Patent Document 1) does not take into consideration the acquisition interval (or the number of acquired images), and the user of the magnification observation apparatus (hereinafter referred to as “the user”). Are often used at inappropriate acquisition intervals.
そこで、この発明は、かかる問題を解決するためになされたものであり、その目的は、三次元画像の生成精度および生成に要する時間を最適化できる拡大観察装置を提供することである。 Accordingly, the present invention has been made to solve such a problem, and an object of the present invention is to provide a magnifying observation apparatus that can optimize the generation accuracy and time required for generation of a three-dimensional image.
この発明によれば、対象物を異なる被写体距離で撮影した複数の画像におけるフォーカス領域に基づいて、対象物の三次元画像データを生成する拡大観察装置である。この発明に係る拡大観察装置は、対象物を撮影するための撮像部と、撮像部から対象物までの被写体距離を変更するための被写体距離変更手段と、被写体距離が所定の取得間隔で逐次的に変更されるように被写体距離変更手段を制御するとともに、変更される被写体距離の各々において撮像部によって撮影される画像を取得する制御部とを備える。そして、制御部は、撮像部における被写界深度を取得し、当該被写界深度に基づいて取得間隔を決定する。 According to the present invention, the magnification observation apparatus generates three-dimensional image data of an object based on focus areas in a plurality of images obtained by photographing the object at different subject distances. The magnification observation apparatus according to the present invention includes an imaging unit for photographing an object, subject distance changing means for changing a subject distance from the imaging unit to the object, and the subject distance sequentially at predetermined acquisition intervals. And a control unit that controls the subject distance changing means so as to be changed to an image and acquires an image photographed by the imaging unit at each changed subject distance. And a control part acquires the depth of field in an imaging part, and determines an acquisition space | interval based on the said depth of field.
この発明によれば、対象物の三次元画像データの生成に用いられる複数の画像を取得するための取得間隔の決定に際して、撮像部の被写界深度が考慮される。そのため、フォーカス領域を抽出するための複数の画像を、撮像部がフォーカスできる範囲に相応しい間隔で取得できるので、画像の取得枚数が過度に増大することなく、三次元画像の生成精度と生成に要する時間とバランスさせることができる。 According to the present invention, the depth of field of the imaging unit is taken into account when determining the acquisition interval for acquiring a plurality of images used for generating the three-dimensional image data of the object. Therefore, since a plurality of images for extracting the focus area can be acquired at intervals suitable for the range in which the imaging unit can focus, the generation accuracy and generation of the three-dimensional image are required without excessively increasing the number of acquired images. Can be balanced with time.
好ましくは、制御部は、取得間隔を撮像部における被写界深度、または撮像部における被写界深度の半値に一致させる。 Preferably, the control unit matches the acquisition interval with the half depth of field in the imaging unit or the depth of field in the imaging unit.
好ましくは、拡大観察装置は、撮像部として任意の被写界深度を有する撮像部を利用可能に構成される。 Preferably, the magnification observation apparatus is configured to be able to use an imaging unit having an arbitrary depth of field as the imaging unit.
さらに好ましくは、制御部は、撮像部の識別情報に基づいて、当該撮像部の被写界深度を取得する。 More preferably, the control unit acquires the depth of field of the imaging unit based on the identification information of the imaging unit.
また好ましくは、撮像部は、被写界深度を変更可能に構成される。
さらに好ましくは、撮像部は、変更される被写界深度に応じた状態信号を出力するように構成され、制御部は、撮像部から出力される状態信号に基づいて、当該撮像部の被写界深度を取得する。
Preferably, the imaging unit is configured to be able to change the depth of field.
More preferably, the imaging unit is configured to output a status signal corresponding to the changed depth of field, and the control unit is configured to output a subject image of the imaging unit based on the status signal output from the imaging unit. Get the depth of field.
また好ましくは、制御部は、三次元画像データを生成するための対象物の断面高さ範囲を取得し、撮像部の被写界深度と当該断面高さ範囲とに基づいて、画像の取得枚数を決定する。 Preferably, the control unit acquires the cross-sectional height range of the object for generating the three-dimensional image data, and acquires the number of images acquired based on the depth of field of the imaging unit and the cross-sectional height range. To decide.
さらに好ましくは、制御部は、撮像部により撮影される画像内において設定される2つの開始終了領域のそれぞれに対して、撮像部によってフォーカスされる被写体距離を検索し、当該検索された2つの被写体距離に基づいて、断面高さ範囲を決定する。 More preferably, the control unit searches the subject distance focused by the imaging unit for each of the two start / end regions set in the image captured by the imaging unit, and the two searched subjects Based on the distance, the cross-sectional height range is determined.
さらに好ましくは、拡大観察装置は、撮像部により撮影される画像を表示可能に構成された表示部をさらに備え、制御部は、取得枚数を表示部に表示可能に構成される。 More preferably, the magnifying observation apparatus further includes a display unit configured to be able to display an image captured by the imaging unit, and the control unit is configured to be able to display the obtained number on the display unit.
さらに好ましくは、制御部は、外部からの変更指令に応じて、取得枚数を変更可能に構成される。 More preferably, the control unit is configured to be able to change the number of acquired sheets in response to a change command from the outside.
また好ましくは、制御部は、被写体距離変更手段を制御して取得枚数の画像を取得した後、画像の各々におけるフォーカス領域を抽出し、当該抽出されるそれぞれのフォーカス領域を結合して全焦点画像を生成する。 Preferably, the control unit controls the subject distance changing unit to acquire the acquired number of images, then extracts a focus area in each of the images, and combines the extracted focus areas to combine the all-focus image. Is generated.
さらに好ましくは、制御部は、フォーカス領域の画素情報および対応の被写体距離に基づいて、対象物の高さ情報を取得し、全焦点画像および高さ情報から三次元画像データを生成する。 More preferably, the control unit acquires the height information of the target object based on the pixel information of the focus area and the corresponding subject distance, and generates three-dimensional image data from the omnifocal image and the height information.
この発明によれば、三次元画像の生成精度および生成に要する時間を最適化できる拡大観察装置を実現できる。 According to the present invention, it is possible to realize a magnifying observation apparatus that can optimize the generation accuracy and generation time of a three-dimensional image.
この発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.
図1は、この発明の実施の形態に従う拡大観察装置100の概略構成図である。
図1を参照して、拡大観察装置100は、撮影した対象物の画像を拡大表示する拡大観察装置であって、撮像機構2と、本体部4と、表示部6と、入力部8とからなる。
FIG. 1 is a schematic configuration diagram of a magnification observation apparatus 100 according to an embodiment of the present invention.
Referring to FIG. 1, a magnifying observation device 100 is a magnifying observation device that magnifies and displays an image of a captured object, and includes an imaging mechanism 2, a main body unit 4, a display unit 6, and an input unit 8. Become.
撮像機構2は、対象物を撮影するための撮像部12と、撮像部12から対象物までの被写体距離を変更するための撮像駆動部14とを含む。 The imaging mechanism 2 includes an imaging unit 12 for capturing an object and an imaging drive unit 14 for changing a subject distance from the imaging unit 12 to the object.
撮像部12は、レンズなどの光学系およびCCD(Charge Coupled Devices)などの撮像素子を含み、対象物から受ける光に応じた映像信号を本体部4へ出力する。また、撮像部12は、後述するように、被写界深度を変更可能に構成され、変更される被写界深度に応じた状態信号を本体部4へ出力する。 The imaging unit 12 includes an optical system such as a lens and an imaging device such as a CCD (Charge Coupled Devices), and outputs a video signal corresponding to light received from an object to the main body unit 4. Further, as will be described later, the imaging unit 12 is configured to be able to change the depth of field, and outputs a state signal corresponding to the changed depth of field to the main body unit 4.
撮像駆動部14は、撮像部12から対象物までの被写体距離を変更するための被写体変更手段に相当し、本体部4から受けた移動指令に応じて、撮像部12を所定の方向に沿って移動させる。 The imaging drive unit 14 corresponds to subject changing means for changing the subject distance from the imaging unit 12 to the object, and moves the imaging unit 12 along a predetermined direction in accordance with a movement command received from the main body unit 4. Move.
本体部4は、I/F部16と、制御部18と、メモリ20と、I/O制御部22とからなる。 The main body 4 includes an I / F unit 16, a control unit 18, a memory 20, and an I / O control unit 22.
I/F部16は、撮像機構2を構成する撮像部12および撮像駆動部14と電気的に接続され、撮像部12から受けた映像信号および状態信号を制御部18へ伝達するとともに、制御部18から受けた駆動指令などを撮像駆動部14へ伝達する。 The I / F unit 16 is electrically connected to the imaging unit 12 and the imaging driving unit 14 that constitute the imaging mechanism 2, and transmits the video signal and the state signal received from the imaging unit 12 to the control unit 18, and The drive command received from 18 is transmitted to the imaging drive unit 14.
制御部18は、CPU(Central Processing Unit)などの演算装置により構成される。そして、制御部18は、被写体距離が所定の取得間隔で逐次的に変更されるように、撮像駆動部14に移動指令を与えて制御するととともに、変更される被写体距離の各々において、撮像部12によって撮影される画像を取得して、メモリ20などに格納する。さらに、制御部18は、取得した複数の画像における焦点の合った(フォーカスされた)領域(フォーカス領域)に基づいて、三次元画像データを生成する。 The control unit 18 is configured by an arithmetic device such as a CPU (Central Processing Unit). Then, the control unit 18 gives a movement command to the imaging drive unit 14 so that the subject distance is sequentially changed at a predetermined acquisition interval, and controls the imaging unit 12 at each changed subject distance. The image photographed by is acquired and stored in the memory 20 or the like. Further, the control unit 18 generates 3D image data based on a focused (focused) area (focus area) in the plurality of acquired images.
また、制御部18は、入力部8を介して設定される撮像部12の識別情報および/または撮像部12から出力される状態信号に基づいて、撮像部12における被写界深度を取得し、取得された被写界深度に基づいて、最適な取得間隔を決定する。さらに、制御部18は、三次元画像データを生成するための対象物の断面高さ範囲を取得し、被写界深度と断面高さ範囲とに基づいて、画像の取得枚数を決定する。さらに、制御部18は、決定した取得枚数を表示部6に表示することが可能であり、入力部8を介して与えられる変更指令に応じて、当該取得枚数を変更することも可能である。 Further, the control unit 18 acquires the depth of field in the imaging unit 12 based on the identification information of the imaging unit 12 set via the input unit 8 and / or the state signal output from the imaging unit 12, Based on the acquired depth of field, an optimal acquisition interval is determined. Further, the control unit 18 acquires the cross-sectional height range of the object for generating the three-dimensional image data, and determines the number of images to be acquired based on the depth of field and the cross-sectional height range. Further, the control unit 18 can display the determined acquired number of sheets on the display unit 6, and can change the acquired number of sheets according to a change command given through the input unit 8.
メモリ20は、制御部18で実行されるプログラム、制御部18により格納される画像のデータ、制御部18のプログラム実行に伴うワークデータ、およびユーザなどから与えられる各種設定データなどを格納する。 The memory 20 stores a program executed by the control unit 18, image data stored by the control unit 18, work data associated with program execution of the control unit 18, various setting data given by a user and the like.
I/O制御部22は、表示部6および入力部8などと電気的に接続され、撮像部12により撮影される拡大画像、ならびに制御部18により生成される三次元画像およびGUI(Graphical User Interface)画面などを表示部6へ出力する。また、I/O制御部22は、入力部8からユーザの操作に従う指令を受けて、当該指令を制御部18へ伝達する。 The I / O control unit 22 is electrically connected to the display unit 6, the input unit 8, and the like, and an enlarged image captured by the imaging unit 12, a three-dimensional image generated by the control unit 18, and a GUI (Graphical User Interface). ) Output the screen or the like to the display unit 6. In addition, the I / O control unit 22 receives a command in accordance with a user operation from the input unit 8 and transmits the command to the control unit 18.
表示部6は、一例として液晶ディスプレイ(LCD:Liquid Crystal Display)、プラズマディスプレイおよび有機EL(Electro Luminescence)ディスプレイなどからなり、I/O制御部22を介して出力される画像をその表示面に表示する。なお、本実施の形態においては、表示部6は、本体部4と一体的に構成される。 The display unit 6 includes, for example, a liquid crystal display (LCD), a plasma display, and an organic EL (Electro Luminescence) display, and displays an image output via the I / O control unit 22 on its display surface. To do. In the present embodiment, the display unit 6 is configured integrally with the main body unit 4.
図2は、本実施の形態に従う本体部4および表示部6の外観の一例を示す図である。
図2を参照して、本体部4は箱型形状に形成される一方、表示部6は本体部4の上面をスライド可能に構成される。すなわち、表示部6は、拡大観察装置100の使用時において、本体部4の上面に対して任意の角度をもつように配置されるとともに、拡大観察装置100の不使用時において、本体部4の上面と平行になり、一体的に格納されるように配置される。このような構成により、本実施の形態に従う拡大観察装置100は、持ち運びの容易性および省スペース化を実現することができる。
FIG. 2 is a diagram showing an example of the appearance of main body 4 and display 6 according to the present embodiment.
Referring to FIG. 2, main body 4 is formed in a box shape, while display 6 is configured to be slidable on the upper surface of main body 4. That is, the display unit 6 is arranged so as to have an arbitrary angle with respect to the upper surface of the main body unit 4 when the magnification observation device 100 is used, and the main unit 4 is not used when the magnification observation device 100 is not used. It is arranged so as to be parallel to the upper surface and stored integrally. With such a configuration, the magnifying observation apparatus 100 according to the present embodiment can realize easy portability and space saving.
再度、図1を参照して、入力部8は、キーボードおよびマウスなどを含み、ユーザの操作による指令を受付けて本体部4へ出力する。さらに、入力部8の一例として、表示部6の表示面に形成されるタッチパネルなどを用いてもよい。 Referring to FIG. 1 again, input unit 8 includes a keyboard, a mouse, and the like, accepts a command by a user operation, and outputs the command to main unit 4. Furthermore, as an example of the input unit 8, a touch panel formed on the display surface of the display unit 6 may be used.
(撮像機構)
図3は、本実施の形態に従う撮像機構2の側面図の一例である。
(Imaging mechanism)
FIG. 3 is an example of a side view of imaging mechanism 2 according to the present embodiment.
図3を参照して、撮像機構2は、試料台32と、スタンド34と、スタンド係着部材36と、撮像部固定部材38とをさらに含む。試料台32上には対象物が配置され、対象物の垂直方向に移動可能に配置される撮像部12により対象物の撮影が行なわれる。スタンド34は、試料台32の垂直方向に延在するように配置され、撮像部12の移動方向を決定する。 With reference to FIG. 3, the imaging mechanism 2 further includes a sample stage 32, a stand 34, a stand engaging member 36, and an imaging unit fixing member 38. An object is arranged on the sample stage 32, and the object is photographed by the imaging unit 12 arranged to be movable in the vertical direction of the object. The stand 34 is arranged so as to extend in the vertical direction of the sample stage 32 and determines the moving direction of the imaging unit 12.
スタンド係着部材36は、スタンド34に沿って移動可能に構成され、かつユーザの所望する位置(高さ)で固定可能に構成される。具体的には、スタンド係着部材36を構成するダイヤルやレバーによって移動および固定が操作される。 The stand engaging member 36 is configured to be movable along the stand 34 and to be fixed at a position (height) desired by the user. Specifically, movement and fixation are operated by a dial and a lever constituting the stand engaging member 36.
撮像部固定部材38は、その側面において撮像部12と連結され、撮像部12を固定する。さらに、スタンド係着部材36および撮像部固定部材38は、たとえば送りネジを介して機械的に結合され、当該送りネジは、撮像駆動部14と機械的に結合される。そして、撮像駆動部14が出力する回転駆動力により、スタンド係着部材36と撮像部固定部材38との相対位置がスタンド34の軸方向に変化する。 The imaging unit fixing member 38 is connected to the imaging unit 12 on its side surface and fixes the imaging unit 12. Further, the stand engaging member 36 and the imaging unit fixing member 38 are mechanically coupled via, for example, a feed screw, and the feed screw is mechanically coupled to the imaging drive unit 14. The relative position of the stand engaging member 36 and the imaging unit fixing member 38 changes in the axial direction of the stand 34 by the rotational driving force output by the imaging drive unit 14.
この結果、撮像部固定部材38に連結された撮像部12は、試料台32の垂直方向に移動し、撮像部12から対象物までの被写体距離が変化する。 As a result, the imaging unit 12 connected to the imaging unit fixing member 38 moves in the vertical direction of the sample stage 32, and the subject distance from the imaging unit 12 to the object changes.
撮像駆動部14は、一例として、ステッピングモータ、および当該ステッピングモータを駆動するためのドライバ部などから構成され、本体部4から与えられる駆動指令に応じた回転量の発生が可能である。すなわち、ステッピングモータは、たとえば、1つの駆動パルスで120°(電気角)だけ回転するように構成できるので、所望する被写体距離の変化量に相当する数の駆動パルスをステッピングモータに与えるような制御系を構成すればよく、撮像部12の位置制御を比較的容易に実現できる。 As an example, the imaging drive unit 14 includes a stepping motor, a driver unit for driving the stepping motor, and the like, and can generate a rotation amount according to a drive command given from the main body unit 4. That is, since the stepping motor can be configured to rotate by 120 ° (electrical angle) with one drive pulse, for example, a control that gives the stepping motor a number of drive pulses corresponding to the desired amount of change in the subject distance. What is necessary is just to comprise a system | strain and the position control of the imaging part 12 is realizable comparatively easily.
本発明の実施の形態に従う拡大観察装置100は、任意の被写界振深度を有する撮像部を利用可能に構成されており、撮像部固定部材38は、共通の取付寸法を有するさまざまな撮像部の着脱が自在に構成される。 The magnification observation apparatus 100 according to the embodiment of the present invention is configured to be able to use an imaging unit having an arbitrary depth of field, and the imaging unit fixing member 38 includes various imaging units having a common mounting dimension. It can be freely attached and detached.
図4は、本実施の形態に従う撮像部12の側面図の一例である。
図4を参照して、撮像部12は、受像部40と、絞り部42と、ズームレンズ部44と、フォーカスレンズ部50と、対物レンズ部52とが直列的に配置された鏡筒からなる。そして、対象物の像は、対物レンズ部52、フォーカスレンズ部50、ズームレンズ部44および絞り部42を順に通過して、受像部40に入射する。そして、受像部40は、入射した像に応じた映像信号を生成する。一例として、受像部40は、CCDなどの撮像素子からなる。
FIG. 4 is an example of a side view of imaging unit 12 according to the present embodiment.
Referring to FIG. 4, the imaging unit 12 includes a lens barrel in which an image receiving unit 40, a diaphragm unit 42, a zoom lens unit 44, a focus lens unit 50, and an objective lens unit 52 are arranged in series. . Then, the image of the object passes through the objective lens unit 52, the focus lens unit 50, the zoom lens unit 44, and the diaphragm unit 42 in order, and enters the image receiving unit 40. The image receiving unit 40 generates a video signal corresponding to the incident image. As an example, the image receiving unit 40 includes an image sensor such as a CCD.
対物レンズ部52は、対象物の像を最初に受光するレンズであり、比較的広角かつ高光量を確保できるように構成される。 The objective lens unit 52 is a lens that first receives an image of an object, and is configured to ensure a relatively wide angle and a high amount of light.
フォーカスレンズ部50は、対象物の像が受像部40の位置で結像するように、焦点位置を調整する(フォーカス動作)。一例として、フォーカスレンズ部50は、その外周に回転可能に配置されたダイヤルを操作されることで、レンズ間の相対関係が変化し、焦点位置の調整が行なわれる。 The focus lens unit 50 adjusts the focal position so that the image of the object is formed at the position of the image receiving unit 40 (focus operation). As an example, when the focus lens unit 50 is operated with a dial that is rotatably disposed on the outer periphery thereof, the relative relationship between the lenses changes, and the focus position is adjusted.
ズームレンズ部44は、レンズ間の相対距離を変化可能に配置されたレンズ群により構成され、撮像部12の光学系に係る焦点距離を変化させて、受像部40に入射する対象物の像を拡大または縮小する(ズーム動作)。一例として、ズームレンズ部44は、その外周に回転可能に配置されたダイヤルを操作されることで、ズーム動作を行なう。さらに、ズームレンズ部44は、そのダイヤルの回転方向に沿って、予め定められたズーム倍率となる位置にラッチされるように構成される。なお、図4においては、「50倍」、「100倍」および「150倍」などの位置にラッチ可能な構成を例示している。そして、ズームレンズ部44には、各ラッチ位置に対応して所定の状態信号を出力するように構成された状態検出部46が配置される。 The zoom lens unit 44 is configured by a lens group arranged so that the relative distance between the lenses can be changed. The zoom lens unit 44 changes the focal length related to the optical system of the imaging unit 12 to change the image of the object incident on the image receiving unit 40. Enlarge or reduce (zoom operation). As an example, the zoom lens unit 44 performs a zoom operation by operating a dial disposed rotatably on the outer periphery thereof. Further, the zoom lens unit 44 is configured to be latched at a position where a predetermined zoom magnification is obtained along the rotation direction of the dial. FIG. 4 illustrates a configuration that can be latched at positions such as “50 times”, “100 times”, and “150 times”. The zoom lens unit 44 is provided with a state detection unit 46 configured to output a predetermined state signal corresponding to each latch position.
状態検出部46は、一例としてマイクロスイッチなどの接点リレーからなり、各ラッチ位置に対応する接点リレーがラッチ動作に応じてオンまたはオフすることで、状態信号(ビット信号)を出力する。 The state detection unit 46 includes, for example, a contact relay such as a micro switch, and outputs a state signal (bit signal) when the contact relay corresponding to each latch position is turned on or off according to the latch operation.
ここで、撮像部12の被写界深度は、ズームレンズ部44のズーム倍率に応じて動的に変化する。すなわち、ズーム動作が可能であることは、撮像部12における被写界深度が動的に変更可能であることを意味し、状態検出部46から出力される状態信号は、変更される被写界深度に応じた値を示すことになる。 Here, the depth of field of the imaging unit 12 dynamically changes according to the zoom magnification of the zoom lens unit 44. In other words, the fact that the zoom operation is possible means that the depth of field in the imaging unit 12 can be dynamically changed, and the state signal output from the state detection unit 46 indicates that the object field to be changed is changed. A value corresponding to the depth will be shown.
絞り部42は、ズームレンズ部44を通過して受像部40に入射する像を所定の光量まで減衰させて、ハレーションなどの発生を抑制する。なお、一例として、絞り部42は、その外周に回転可能に配置されたダイヤルを操作されることで、鏡筒内に配置されたアイリス機構の開度が変化し、絞り量(減衰量)の調整が行なわれる。 The diaphragm unit 42 attenuates an image that passes through the zoom lens unit 44 and enters the image receiving unit 40 to a predetermined light amount, thereby suppressing the occurrence of halation and the like. As an example, the aperture of the iris mechanism disposed in the lens barrel changes by operating a dial that is rotatably arranged on the outer periphery of the aperture 42, and the aperture (attenuation) is reduced. Adjustments are made.
上述したように、拡大観察装置100は、任意の被写界深度を有する撮像部12を利用可能であり、かつ撮像部12は、ズームレンズ部44のズーム倍率に応じて被写界深度が変更可能である。すなわち、利用される撮像部12の種類(静的変更)および撮像部12の状態(動的変更)に応じて、被写界深度はさまざまに変化する。そのため、このような被写界深度の変化に対応して、取得間隔を最適化する必要がある。 As described above, the magnification observation apparatus 100 can use the imaging unit 12 having an arbitrary depth of field, and the imaging unit 12 changes the depth of field according to the zoom magnification of the zoom lens unit 44. Is possible. That is, the depth of field varies depending on the type of the imaging unit 12 (static change) and the state of the imaging unit 12 (dynamic change). Therefore, it is necessary to optimize the acquisition interval corresponding to such a change in the depth of field.
そこで、本体部4における制御部18は、撮像部12の識別情報および状態信号に基づいて、撮像部12における被写界深度を取得し、最適な取得間隔を決定する。 Therefore, the control unit 18 in the main body unit 4 acquires the depth of field in the imaging unit 12 based on the identification information and the state signal of the imaging unit 12, and determines an optimal acquisition interval.
(合焦点法)
図5は、合焦点法に係る三次元画像データ生成時の外観を示す図である。
(Focus method)
FIG. 5 is a diagram illustrating an appearance when generating three-dimensional image data according to the focusing method.
図5を参照して、一例として、半球状の対象物OBJについての三次元画像データを生成する場合について説明する。対象物OBJは、撮像部12の鉛直下方の試料台32上に配置され、画像の撮影が実行される。 With reference to FIG. 5, the case where the three-dimensional image data about hemispherical object OBJ is produced | generated as an example is demonstrated. The object OBJ is disposed on the sample table 32 vertically below the imaging unit 12 and an image is captured.
図6は、合焦点法に係る三次元画像データの生成原理を説明するための図である。
図6を参照して、制御部18(図1)は、被写体距離が所定の取得間隔で逐次的に変更されるように、撮像駆動部14に移動指令を与えて制御するととともに、変更される被写体距離の各々において、撮像部12によって撮影される画像を取得する。
FIG. 6 is a diagram for explaining the principle of generating three-dimensional image data according to the focusing method.
Referring to FIG. 6, control unit 18 (FIG. 1) gives and controls a movement command to imaging drive unit 14 so that the subject distance is sequentially changed at a predetermined acquisition interval. Images captured by the imaging unit 12 are acquired at each subject distance.
ここで、三次元画像データの生成精度を向上させるためには、対象物OBJの各領域がいずれかの画像中のフォーカス領域として抽出される必要がある。すなわち、取得される画像から抽出されるそれぞれのフォーカス領域を結合した場合において、対象物OBJの全領域が含まれていなければならない。このような条件を満足する最大の取得間隔(すなわち、最低の取得枚数)は、取得間隔が撮像部12の被写界深度DOFと一致する場合である。 Here, in order to improve the generation accuracy of the three-dimensional image data, each area of the object OBJ needs to be extracted as a focus area in one of the images. That is, when the respective focus areas extracted from the acquired image are combined, the entire area of the object OBJ must be included. The maximum acquisition interval (that is, the minimum acquisition number) that satisfies such a condition is a case where the acquisition interval matches the depth of field DOF of the imaging unit 12.
すなわち、撮像部12は、被写体距離が被写界深度DOFの範囲内である領域に対して、フォーカスすることができるので、被写体距離を被写界深度DOF単位で変化させることにより、対象物OBJのすべての領域をフォーカス領域として抽出できる。したがって、三次元画像データの生成精度および生成に要する時間の最適化とは、その一局面として、取得間隔を被写界深度DOFと一致させることを意味する。 In other words, the imaging unit 12 can focus on a region where the subject distance is within the range of the depth of field DOF. Therefore, by changing the subject distance in units of the depth of field DOF, the object OBJ Can be extracted as the focus area. Therefore, optimization of the generation accuracy of 3D image data and the time required for generation means, as one aspect thereof, matching the acquisition interval with the depth of field DOF.
たとえば、試料台32(図3)の上面を鉛直方向における基準位置BLとすると、制御部18は、基準位置BLから被写界深度DOFの1/2だけ上側の撮影位置P1において、1番目の画像を取得する。なお、撮影位置とは、撮像部12における狭義の焦点位置、すなわち撮像部12によるフォーカスの度合が最大となる位置(最も焦点が合う位置)を示す。 For example, if the upper surface of the sample stage 32 (FIG. 3) is the reference position BL in the vertical direction, the control unit 18 is the first at the shooting position P1 that is ½ of the depth of field DOF above the reference position BL. Get an image. Note that the shooting position indicates a narrowly defined focal position in the imaging unit 12, that is, a position where the degree of focus by the imaging unit 12 is maximized (a position where the focus is most focused).
以後、制御部18は、撮像部12を被写界深度DOFずつ鉛直上側に移動させるための移動指令を撮像駆動部14に与えるととともに、各撮影位置P2〜P6において対象物OBJの画像をそれぞれ取得する。 Thereafter, the control unit 18 gives a movement command for moving the imaging unit 12 vertically upward by the depth of field DOF to the imaging driving unit 14 and displays the image of the object OBJ at each of the imaging positions P2 to P6. get.
なお、制御部18は、後述する方法により対象物の断面高さ範囲Hを予め取得しており、被写界深度DOFに基づいて必要な取得枚数(整数値)を決定する。 In addition, the control part 18 acquires the cross-sectional height range H of a target object previously by the method mentioned later, and determines the required number of acquisition (integer value) based on depth of field DOF.
続いて、制御部18は、取得した画像の各々におけるフォーカス領域を抽出する。なお、取得した画像からフォーカス領域、すなわち焦点の合う領域を抽出するにはさまざまな方法が採用可能である。一例として、画像を構成する画素に対して、隣接する画素の明度差(コントラスト)が所定値を超過する領域をフォーカス領域として抽出するような方法が採用される。このようなフォーカス領域の抽出については、公知技術であるので、さらなる詳細な説明は行なわない。 Subsequently, the control unit 18 extracts a focus area in each acquired image. Various methods can be employed to extract a focus area, that is, a focused area from the acquired image. As an example, a method of extracting, as a focus area, an area where the brightness difference (contrast) of adjacent pixels exceeds a predetermined value with respect to the pixels constituting the image is adopted. Such extraction of the focus area is a known technique and will not be described in further detail.
図7は、抽出されるフォーカス領域を説明するための図である。
図7(a)は、図6の撮影位置P1における画像から抽出されるフォーカス領域FP1を示す。
FIG. 7 is a diagram for explaining the focus area to be extracted.
FIG. 7A shows the focus area FP1 extracted from the image at the photographing position P1 in FIG.
図7(b)は、図6の撮影位置P2における画像から抽出されるフォーカス領域FP2を示す。 FIG. 7B shows a focus area FP2 extracted from the image at the photographing position P2 in FIG.
撮影位置P1では、図6に示すように撮影位置P1を中心とする被写界深度DOFの範囲に相当する領域に対してフォーカス可能である。そのため、図7(a)に示すように、撮影位置P1において取得される画像では、対象物OBJの一部および試料台32を含むフォーカス領域FP1が抽出される。 At the photographing position P1, as shown in FIG. 6, it is possible to focus on a region corresponding to the range of the depth of field DOF centered on the photographing position P1. Therefore, as shown in FIG. 7A, a focus area FP1 including a part of the object OBJ and the sample stage 32 is extracted from the image acquired at the photographing position P1.
また、撮影位置P2では、撮影位置P2を中心とする被写界深度DOFの範囲に相当する領域に対してフォーカス可能である。そのため、図7(b)に示すように、撮影位置P2において取得される画像では、対象物OBJの一部を含むフォーカス領域FP2が抽出される。 Further, at the photographing position P2, it is possible to focus on an area corresponding to the range of the depth of field DOF centered on the photographing position P2. Therefore, as shown in FIG. 7B, a focus area FP2 including a part of the object OBJ is extracted from the image acquired at the photographing position P2.
以下同様にして、撮影位置P1〜P6において取得される画像からフォーカス領域FP1〜FP6がそれぞれ抽出される。制御部18は、このように抽出したフォーカス領域FP1〜FP6を結合して全焦点画像を生成する。 Similarly, focus areas FP1 to FP6 are extracted from images acquired at the photographing positions P1 to P6, respectively. The control unit 18 combines the focus areas FP1 to FP6 thus extracted to generate an omnifocal image.
図8は、フォーカス領域FP1〜FP6の結合により生成される全焦点画像の模式図である。 FIG. 8 is a schematic diagram of an omnifocal image generated by combining the focus areas FP1 to FP6.
図8を参照して、全焦点画像は、フォーカス領域FP1〜FP6を結合して生成される画像である。ここで、取得間隔が撮像部12の被写界深度DOFと一致しているので、抽出されるフォーカス領域FP1〜FP6が互いに重複することはなく、効率的なフォーカス領域の抽出が行なわれていることがわかる。すなわち、取得間隔について最適化されているといえる。 Referring to FIG. 8, the omnifocal image is an image generated by combining focus areas FP1 to FP6. Here, since the acquisition interval coincides with the depth of field DOF of the imaging unit 12, the extracted focus areas FP1 to FP6 do not overlap each other, and the effective focus area extraction is performed. I understand that. That is, it can be said that the acquisition interval is optimized.
このような全焦点画像は、対象物OBJの撮像部12の撮影面(試料台32に相当)への写像を意味し、いわば、被写界深度の深い(フォーカスできる範囲の広い)撮像部で対象物OBJを撮影して得られる画像と等価である。 Such an omnifocal image means a mapping of the object OBJ onto the imaging surface of the imaging unit 12 (corresponding to the sample table 32). In other words, it is an imaging unit with a deep depth of field (a wide focusable range). This is equivalent to an image obtained by photographing the object OBJ.
上述の全焦点画像の生成に加えて、制御部18は、フォーカス領域の画素情報および対応の被写体距離に基づいて、対象物OBJの高さ情報を取得する。ここで、高さ情報は、対象物OBJの各領域における撮像方向の位置を示すデータ群であり、通常は、撮像部12によって撮影される画像の画素配置(たとえば、1600×1200ドット)と対応付けて構成される。すなわち、高さ情報は、撮像部12によって撮影される画像の画素行列に対応するように配置された行列で表される。 In addition to the generation of the omnifocal image described above, the control unit 18 acquires the height information of the object OBJ based on the pixel information of the focus area and the corresponding subject distance. Here, the height information is a data group indicating the position in the imaging direction in each region of the object OBJ, and usually corresponds to the pixel arrangement (for example, 1600 × 1200 dots) of the image captured by the imaging unit 12. It is configured with. That is, the height information is represented by a matrix arranged so as to correspond to the pixel matrix of the image captured by the imaging unit 12.
再度、図7(a)を参照して、制御部18は、抽出されたフォーカス領域FP1を構成する各画素の高さとして、対応する被写体位置(撮影位置P1)を示す値に決定する。具体的には、行列状に配置される高さ情報のうち、フォーカス領域FP1を構成する画素に対応する各要素に対して、撮影位置P1の位置データ(たとえば、基準位置BLからの相対値)を代入する。 Referring to FIG. 7A again, the control unit 18 determines a value indicating the corresponding subject position (shooting position P1) as the height of each pixel constituting the extracted focus area FP1. Specifically, of the height information arranged in a matrix, position data of the shooting position P1 (for example, a relative value from the reference position BL) with respect to each element corresponding to the pixels constituting the focus area FP1. Is assigned.
以下同様にして、制御部18は、フォーカス領域FP2〜FP6を構成する各画素の高さとして、それぞれ対応する被写体位置(撮影位置P2〜P6)を示す値に決定する。このような処理により、画像の各画素位置と高さデータとを対応付けた高さ情報が生成される。なお、高さ情報に格納される高さデータの各々は、断面高さ範囲Hを基準として規格化(0〜255デジット)されてもよい。 Similarly, the control unit 18 determines values indicating the corresponding subject positions (shooting positions P2 to P6) as the heights of the pixels constituting the focus areas FP2 to FP6. Through such processing, height information in which each pixel position of the image is associated with height data is generated. Each of the height data stored in the height information may be normalized (0 to 255 digits) with the cross-sectional height range H as a reference.
さらに、制御部18は、フォーカス領域毎に画一的に決定される高さ情報を数値補間処理により、平滑化してもよい。すなわち、上述の方法によれば、画像の各画素位置の高さデータは、撮影位置P1〜P6のいずれかを示す値に決定されるので、6段階のレベルの高さ情報が生成されることになる。そのため、対象物OBJの形状をより正確に取得するためには、数値補間処理などを実行して、より平滑化することが望ましい。 Furthermore, the control unit 18 may smooth the height information uniformly determined for each focus area by numerical interpolation processing. That is, according to the above-described method, the height data at each pixel position of the image is determined to be a value indicating one of the shooting positions P1 to P6, so that six levels of height information are generated. become. Therefore, in order to obtain the shape of the object OBJ more accurately, it is desirable to perform smoothing by executing a numerical interpolation process or the like.
図9は、高さ情報を濃淡画像としてイメージ化した図の一例である。なお、図9においては、より高い位置にある画素(撮像部12により近い画素)ほど高い濃度(黒色)をもつようにしてある。 FIG. 9 is an example of a diagram in which height information is imaged as a grayscale image. In FIG. 9, the higher the pixel (the pixel closer to the imaging unit 12) is, the higher the density (black) is.
図9を参照して、高さ情報は、撮影される画像の画素位置と対応付けて構成されるため、同一の大きさを有する濃淡画像として表現することができる。 Referring to FIG. 9, since the height information is configured in association with the pixel position of the image to be captured, it can be expressed as a grayscale image having the same size.
上述のように、制御部18は、全焦点画像および高さ情報を取得する。上述したように、全焦点画像は、対象物OBJの撮像部12の撮影面への写像であり、高さ情報は、対象物OBJの各画素の断面高さ位置を示すデータである。したがって、全焦点画像の各画素に対して、高さ情報を付加することで三次元画像データを生成することができる。いわば、高さ情報に基づいて生成される形状に対して、全焦点画像を投射することで、三次元画像データが生成される。 As described above, the control unit 18 acquires an omnifocal image and height information. As described above, the omnifocal image is a mapping of the object OBJ onto the imaging surface of the imaging unit 12, and the height information is data indicating the cross-sectional height position of each pixel of the object OBJ. Therefore, three-dimensional image data can be generated by adding height information to each pixel of the omnifocal image. In other words, three-dimensional image data is generated by projecting an omnifocal image onto a shape generated based on height information.
(取得間隔の決定)
制御部18は、撮像部12における被写界深度を取得し、取得される被写界深度に基づいて最適な取得間隔を決定する。一方、拡大観察装置100は、任意の被写界深度を有する撮像部12を利用可能であり、かつ撮像部12は、ズームレンズ部44のズーム倍率に応じて被写界深度を変更可能である。
(Determining the acquisition interval)
The control unit 18 acquires the depth of field in the imaging unit 12, and determines an optimal acquisition interval based on the acquired depth of field. On the other hand, the magnification observation apparatus 100 can use the imaging unit 12 having an arbitrary depth of field, and the imaging unit 12 can change the depth of field according to the zoom magnification of the zoom lens unit 44. .
そこで、制御部18は、撮像部12の識別情報の識別情報に基づいて、撮像部12の種類に応じて「静的に変更」される被写界深度を取得するとともに、撮像部12からの状態信号に基づいて、撮像部12のズーム倍率などに応じて「動的に変更」される被写界深度を取得する。 Therefore, the control unit 18 acquires the depth of field that is “statically changed” according to the type of the imaging unit 12 based on the identification information of the identification information of the imaging unit 12, and Based on the state signal, the depth of field that is “dynamically changed” according to the zoom magnification of the imaging unit 12 or the like is acquired.
図10は、メモリ20に格納される被写界深度決定テーブルの一例を示す図である。
図10を参照して、被写界深度決定テーブルは、識別情報ID(ID1,ID2,・・・,IDn)と、状態情報ST(ST1,ST2,・・・,STn)とによって規定される二次元のテーブルであり、識別情報IDおよび状態情報STに対応付けて被写界深度DOFが規定される。被写界深度DOFの各々の値は、予め実験的または理論的に求められる。
FIG. 10 is a diagram illustrating an example of the depth of field determination table stored in the memory 20.
Referring to FIG. 10, the depth of field determination table is defined by identification information ID (ID1, ID2,..., IDn) and state information ST (ST1, ST2,..., STn). This is a two-dimensional table, and the depth of field DOF is defined in association with the identification information ID and the state information ST. Each value of the depth of field DOF is obtained experimentally or theoretically in advance.
本実施の形態においては、一例として、識別情報IDは、ユーザにより設定されて、メモリ20に格納される。具体的には、撮像部12の交換時などにおいて、ユーザが対応の識別情報IDを入力部8の操作により設定する。識別情報IDは、たとえば、絞り部42、ズームレンズ部44、フォーカスレンズ部50および対物レンズ部52などの撮像部12における光学系の構成を特定可能な形式が望ましい。なお、当然のことながら、撮像部12から出力される状態信号に識別情報IDを含ませるように構成し、制御部18が接続される撮像部12の識別情報IDを自動的に取得するように構成してもよい。さらに、識別情報IDを格納する無線タグなどを撮像部12に内蔵させ、制御部18が当該無線タグから識別情報IDを取得するように構成してもよい。 In the present embodiment, as an example, the identification information ID is set by the user and stored in the memory 20. Specifically, when the imaging unit 12 is replaced, the user sets the corresponding identification information ID by operating the input unit 8. The identification information ID is preferably in a format that can specify the configuration of the optical system in the imaging unit 12 such as the diaphragm unit 42, the zoom lens unit 44, the focus lens unit 50, and the objective lens unit 52, for example. As a matter of course, the state signal output from the imaging unit 12 is configured to include the identification information ID, and the control unit 18 automatically acquires the identification information ID of the imaging unit 12 connected thereto. It may be configured. Furthermore, a wireless tag or the like that stores the identification information ID may be built in the imaging unit 12, and the control unit 18 may acquire the identification information ID from the wireless tag.
一方、状態情報STは、撮像部12から取得される状態信号に基づいて生成される。すなわち、状態信号により示されるズームレンズ部44のズーム倍率に対応して状態情報STの値が決定される。 On the other hand, the state information ST is generated based on the state signal acquired from the imaging unit 12. That is, the value of the status information ST is determined in accordance with the zoom magnification of the zoom lens unit 44 indicated by the status signal.
(断面高さ範囲)
図6に示すように、三次元画像データの生成にあたっては、断面高さ範囲H、すなわち三次元画像データの高さ方向の範囲を予め決定しておく必要がある。そこで、本実施の形態に従う拡大観察装置100は、ユーザが断面高さ範囲を直接設定するセミオートモードと、制御部18により断面高さ範囲が設定されるフルオートモードとを備える。
(Cross section height range)
As shown in FIG. 6, when generating the three-dimensional image data, it is necessary to determine in advance the cross-sectional height range H, that is, the range in the height direction of the three-dimensional image data. Therefore, the magnification observation apparatus 100 according to the present embodiment includes a semi-auto mode in which the user directly sets the cross-section height range, and a full-auto mode in which the cross-section height range is set by the control unit 18.
(i)セミオートモード
表示部6には、撮像部12により撮影された画像が表示される。制御部18は、入力部8を介して入力される撮像部12に対する移動指令に応じて、撮像駆動部14に駆動指令を与え、撮像部12から対象物OBJまでの被写体距離を変更する。そのため、表示部6に表示される画像は、被写体距離に応じて変化する。
(I) Semi-auto mode The display unit 6 displays an image captured by the imaging unit 12. The control unit 18 gives a drive command to the imaging drive unit 14 in accordance with a movement command for the imaging unit 12 input via the input unit 8, and changes the subject distance from the imaging unit 12 to the object OBJ. Therefore, the image displayed on the display unit 6 changes according to the subject distance.
一方、ユーザは、入力部8を操作して、三次元画像データを生成するための開始位置および終了位置に相当する画像が表示されるまで、撮像部12を移動させる。そして、撮像部12がそれぞれ開始位置または終了位置まで移動した時点で、ユーザは、入力部8を操作して、それぞれ開始位置または終了位置を示す指令を与える。すると、制御部18は、それぞれ開始位置または終了位置を示す指令が与えられた時点における被写体距離をメモリ20に格納し、当該格納した2つの被写体距離間を断面高さ範囲に設定する。 On the other hand, the user operates the input unit 8 to move the imaging unit 12 until images corresponding to the start position and the end position for generating the three-dimensional image data are displayed. Then, when the imaging unit 12 moves to the start position or the end position, the user operates the input unit 8 to give a command indicating the start position or the end position, respectively. Then, the control unit 18 stores the subject distance at the time when the command indicating the start position or the end position is given in the memory 20, and sets the distance between the two stored subject distances as the cross-sectional height range.
(ii)フルオートモード
三次元画像データを生成しようとする場合において、対象物OBJの底面および頂上面は、予めユーザに知られていることが多い。このような場合には、開始位置および終了位置を直接的に設定する構成に代えて、対象物OBJの底面および頂上面となる領域を設定する構成とする方がよりユーザフレンドリとなる。
(Ii) Full Auto Mode When generating three-dimensional image data, the bottom surface and top surface of the object OBJ are often known to the user in advance. In such a case, instead of the configuration in which the start position and the end position are directly set, it is more user-friendly to have a configuration in which regions that are the bottom surface and the top surface of the object OBJ are set.
そこで、フルオートモードでは、撮像部12で撮影される画像内において2つの開始終了領域を設定されると、制御部18が断面高さ範囲を決定する。 Therefore, in the full auto mode, when two start / end regions are set in the image captured by the imaging unit 12, the control unit 18 determines the cross-sectional height range.
図11は、フルオートモードにおける表示画面の一例である。
図11を参照して、表示部6に表示される画像内において、2つの開始終了領域LA1,LA2が設定可能に構成される。ユーザは、入力部8(たとえば、マウス)を操作して、開始終了領域LA1,LA2を設定する。
FIG. 11 is an example of a display screen in the full auto mode.
Referring to FIG. 11, in the image displayed on display unit 6, two start / end regions LA1 and LA2 are configured to be settable. The user operates the input unit 8 (for example, a mouse) to set the start / end areas LA1 and LA2.
開始終了領域LA1,LA2の設定後、制御部18は、開始終了領域LA1,LA2のそれぞれについてフォーカスされる被写体距離を検索する。具体的には、制御部18は、撮像駆動部14に駆動指令を与え、撮像部12から対象物OBJまでの被写体距離を順次変更する。同時に、制御部18は、開始終了領域LA1,LA2のそれぞれについてフォーカスされるか否かの判断を繰返す。そして、開始終了領域LA1,LA2についてフォーカスされたと判断すると、当該時点の被写体距離をそれぞれメモリ20に格納し、当該格納した2つの被写体距離間を断面高さ範囲に設定する。 After setting the start / end areas LA1 and LA2, the control unit 18 searches the subject distance to be focused on each of the start / end areas LA1 and LA2. Specifically, the control unit 18 gives a drive command to the imaging drive unit 14 and sequentially changes the subject distance from the imaging unit 12 to the object OBJ. At the same time, the control unit 18 repeatedly determines whether or not each of the start / end areas LA1 and LA2 is focused. When it is determined that the start / end regions LA1 and LA2 are focused, the subject distances at the time are stored in the memory 20, and the section height range is set between the two stored subject distances.
そして、制御部18は、取得される被写界深度DOFと、セミオートモードまたはフルオートモードに従って設定される断面高さ範囲Hとに基づいて、必要な取得枚数(整数値)を決定する。 Then, the control unit 18 determines the necessary number of images to be acquired (integer value) based on the acquired depth of field DOF and the cross-sectional height range H set according to the semi-auto mode or the full-auto mode.
(GUI画面)
図12は、決定される取得枚数を表示するためのGUI画面の一例を示す図である。
(GUI screen)
FIG. 12 is a diagram illustrating an example of a GUI screen for displaying the determined number of acquired images.
図12を参照して、制御部18は、ユーザからの指令に応答して、上述した手順に従って取得枚数を決定し、決定した取得枚数をGUI画面の枚数表示領域62に表示させる。 Referring to FIG. 12, in response to a command from the user, control unit 18 determines the number of acquired sheets in accordance with the above-described procedure, and displays the determined acquired number of sheets in number display area 62 of the GUI screen.
具体的には、GUI画面内には、標準ボタン64および高品質ボタン66が配置される。そして、ポインタ70などの操作により標準ボタン64が選択(クリック)されると、制御部18は、識別情報IDおよび状態情報STに基づいて、撮像部12における被写界深度DOFを取得し、当該被写界深度DOFと一致するように取得間隔を決定する。さらに、制御部18は、上述のセミオートモードまたはフルオートモードに従って設定される断面高さ範囲Hを被写界深度DOFで除算して、取得枚数を決定する。 Specifically, a standard button 64 and a high quality button 66 are arranged in the GUI screen. When the standard button 64 is selected (clicked) by operating the pointer 70 or the like, the control unit 18 acquires the depth of field DOF in the imaging unit 12 based on the identification information ID and the state information ST, and The acquisition interval is determined so as to coincide with the depth of field DOF. Furthermore, the control unit 18 divides the cross-sectional height range H set according to the above-described semi-auto mode or full-auto mode by the depth of field DOF, and determines the number of acquired images.
一方、高品質ボタン66が選択(クリック)されると、制御部18は、識別情報IDおよび状態情報STに基づいて、撮像部12における被写界深度DOFを取得し、当該被写界深度DOFの1/2値(半値)と一致するように取得間隔を決定する。さらに、制御部18は、上述のセミオートモードまたはフルオートモードに従って設定される断面高さ範囲Hを被写界深度DOFで除算して、取得枚数を決定する。すなわち、「高品質」モードでは、三次元画像データの生成精度をより向上させるために、取得枚数を「通常」モードの2倍に相当する値に決定する。 On the other hand, when the high quality button 66 is selected (clicked), the control unit 18 acquires the depth of field DOF in the imaging unit 12 based on the identification information ID and the state information ST, and the depth of field DOF. The acquisition interval is determined so as to be equal to a half value (half value) of. Furthermore, the control unit 18 divides the cross-sectional height range H set according to the above-described semi-auto mode or full-auto mode by the depth of field DOF, and determines the number of acquired images. That is, in the “high quality” mode, in order to further improve the generation accuracy of the three-dimensional image data, the number of acquired images is determined to be a value corresponding to twice the “normal” mode.
また、このGUI画面においては、枚数表示領域62に表示される取得枚数は、ポインタ70などの操作により変更可能に構成される。すなわち、ユーザは、ポインタ70を操作して枚数表示領域62を選択(クリック)するとともに、入力部8(たとえば、キーボードなど)を操作して、所望の取得枚数を入力することもできる。 In the GUI screen, the number of acquired images displayed in the number display area 62 can be changed by operating the pointer 70 or the like. That is, the user can select (click) the number display area 62 by operating the pointer 70, and can also input a desired number of images by operating the input unit 8 (for example, a keyboard).
さらに、GUI画面内の取得開始ボタン68が選択(クリック)されると、制御部18は、撮像駆動部14に駆動指令を与えて、当該時点における取得枚数の画像の取得を開始する。そして、制御部18は、上述した手順に従って、取得した画像から全焦点画像および高さ情報を生成し、三次元画像データを生成する。 Further, when the acquisition start button 68 in the GUI screen is selected (clicked), the control unit 18 gives a drive command to the imaging drive unit 14 and starts acquiring the number of images acquired at that time. And the control part 18 produces | generates an omnifocal image and height information from the acquired image according to the procedure mentioned above, and produces | generates three-dimensional image data.
図13は、本実施の形態に従う処理の概略を示すフローチャートである。
図13を参照して、制御部18は、断面高さ範囲Hを取得するために、断面高さ範囲取得サブルーチンを実行する(ステップS100)。続いて、制御部18は、現時点の被写界深度DOFを取得するために、被写界深度取得サブルーチンを実行する(ステップS102)。
FIG. 13 is a flowchart showing an outline of processing according to the present embodiment.
Referring to FIG. 13, control unit 18 executes a cross-section height range acquisition subroutine in order to acquire cross-section height range H (step S <b> 100). Subsequently, the control unit 18 executes a depth of field acquisition subroutine in order to acquire the current depth of field DOF (step S102).
その後、制御部18は、GUI画面(図12)を表示部6に表示する(ステップS104)。そして、制御部18は、取得枚数の前回値をメモリ20から読出し、初期値としてGUI画面の枚数表示領域62に表示する(ステップS106)。 Thereafter, the control unit 18 displays a GUI screen (FIG. 12) on the display unit 6 (step S104). Then, the control unit 18 reads the previous value of the acquired number from the memory 20 and displays it as an initial value in the number display area 62 of the GUI screen (step S106).
制御部18は、GUI画面の標準ボタン64または高品質ボタン66が選択されたか否かを判断する(ステップS108)。 The control unit 18 determines whether the standard button 64 or the high quality button 66 on the GUI screen has been selected (step S108).
標準ボタン64が選択された場合(ステップS108において「標準」の場合)には、制御部18は、「取得枚数=断面高さ範囲H/被写界深度DOF(但し、小数点以下は切上げ)」の演算を実行して取得枚数を更新する(ステップS110)。 When the standard button 64 is selected (in the case of “standard” in step S108), the control unit 18 determines that “the number of acquired images = section height range H / depth of field DOF (however, rounded up after the decimal point)”. The obtained number is updated by executing the above calculation (step S110).
一方、高品質ボタン66が選択された場合(ステップS108において「高品質」の場合)には、制御部18は、「取得枚数=2×断面高さ範囲H/被写界深度DOF(但し、小数点以下は切上げ)」の演算を実行して取得枚数を更新する(ステップS112)。 On the other hand, when the high quality button 66 is selected (in the case of “high quality” in step S108), the control unit 18 determines that “number of acquired images = 2 × section height range H / depth of field DOF (however, The obtained number is updated by executing a calculation of “rounded up after the decimal point” (step S112).
GUI画面の標準ボタン64および高品質ボタン66のいずれも選択されていない場合(ステップS108においてNOの場合)には、制御部18は、GUI画面の枚数表示領域62が選択されたか否かを判断する(ステップS114)。枚数表示領域62が選択された場合(ステップS112においてYESの場合)には、制御部18は、枚数表示領域62に入力される数値に従って取得枚数を更新する(ステップS116)。 If neither the standard button 64 nor the high quality button 66 on the GUI screen is selected (NO in step S108), the control unit 18 determines whether or not the number display area 62 on the GUI screen has been selected. (Step S114). When the number display area 62 is selected (YES in step S112), the control unit 18 updates the acquired number according to the numerical value input to the number display area 62 (step S116).
取得枚数を更新した場合(ステップS110、S112およびS116を実行した場合)には、制御部18は、更新後の取得枚数をGUI画面の枚数表示領域62に表示する(ステップS118)。そして、制御部18は、ステップS108以下の処理を繰返し実行する。 When the acquired number is updated (when steps S110, S112, and S116 are executed), the control unit 18 displays the updated acquired number in the number display area 62 of the GUI screen (step S118). And the control part 18 repeatedly performs the process after step S108.
枚数表示領域62が選択されていない場合(ステップS114においてNOの場合)には、制御部18は、取得開始ボタン68が選択されたか否かを判断する(ステップS120)。 If the number display area 62 is not selected (NO in step S114), the control unit 18 determines whether or not the acquisition start button 68 has been selected (step S120).
取得開始ボタン68が選択されていない場合(ステップS120においてNOの場合)には、制御部18は、ステップS108以下の処理を繰返し実行する。 If the acquisition start button 68 has not been selected (NO in step S120), the control unit 18 repeatedly executes the processing from step S108.
一方、取得開始ボタン68が選択された場合(ステップS120においてYESの場合)には、制御部18は、当該時点における取得枚数をメモリ20に格納する(ステップS122)。さらに、制御部18は、撮像駆動部14に駆動指令を与えて、当該時点における取得枚数の画像を取得する(ステップS124)。 On the other hand, when the acquisition start button 68 is selected (YES in step S120), the control unit 18 stores the number of acquisitions at that time in the memory 20 (step S122). Further, the control unit 18 gives a drive command to the imaging drive unit 14 and acquires the number of images acquired at that time (step S124).
具体的には、制御部18は、まず、撮像部12の撮影位置が断面高さ範囲の開始位置に一致するように、撮像駆動部14に駆動指令を与える。撮像部12の撮影位置が開始位置に一致すると、制御部18は、当該時点における画像を取得する。続いて、制御部18は、撮像部12の撮影位置が取得間隔に相当する距離だけ変化するように、撮像駆動部14に駆動指令を与える。取得間隔に相当する距離の変化が完了すると、制御部18は、当該時点における画像を取得する。以下同様にして、制御部18は、画像取得および撮像部12の移動を取得枚数分だけ繰返す。 Specifically, the control unit 18 first gives a drive command to the imaging drive unit 14 so that the imaging position of the imaging unit 12 matches the start position of the cross-sectional height range. When the shooting position of the imaging unit 12 coincides with the start position, the control unit 18 acquires an image at that time. Subsequently, the control unit 18 gives a drive command to the imaging drive unit 14 so that the shooting position of the imaging unit 12 changes by a distance corresponding to the acquisition interval. When the change in the distance corresponding to the acquisition interval is completed, the control unit 18 acquires an image at the time point. Similarly, the control unit 18 repeats the image acquisition and the movement of the imaging unit 12 by the number of acquired sheets.
そして、制御部18は、取得した画像から全焦点画像および高さ情報を生成し、三次元画像データを生成する(ステップS126)。その後、制御部18は、生成した三次元画像データなどを他の表示アプリケーションなどに渡して処理を終了する。 And the control part 18 produces | generates an omnifocal image and height information from the acquired image, and produces | generates three-dimensional image data (step S126). Thereafter, the control unit 18 passes the generated three-dimensional image data or the like to another display application or the like, and ends the process.
図14は、断面高さ範囲取得サブルーチンの処理の概略を示すフローチャートである。
図14を参照して、制御部18は、いずれのモードが選択されるかを判断する(ステップS200)。
FIG. 14 is a flowchart showing an outline of the processing of the section height range acquisition subroutine.
Referring to FIG. 14, control unit 18 determines which mode is selected (step S200).
セミオートモードが選択される場合(ステップS200において「セミオート」の場合)には、制御部18は、入力部8を介して与えられる移動指令に応じて、撮像部12から対象物OBJまでの被写体距離を変更する(ステップS202)。そして、制御部18は、開始位置または終了位置を示す指令を受けたか否かを判断する(ステップS204)。 When the semi-auto mode is selected (in the case of “semi-auto” in step S200), the control unit 18 determines the subject distance from the imaging unit 12 to the object OBJ according to the movement command given through the input unit 8. Is changed (step S202). And the control part 18 judges whether the command which shows a start position or an end position was received (step S204).
開始位置または終了位置を示す指令を受けた場合(ステップS204においてYESの場合)には、制御部18は、当該時点における被写体距離をメモリ20に格納する(ステップS206)。そして、制御部18は、開始位置および終了位置に対応する被写体距離が共に格納されているか否かを判断する(ステップS208)。 When receiving a command indicating the start position or the end position (YES in step S204), the control unit 18 stores the subject distance at the time in the memory 20 (step S206). Then, the control unit 18 determines whether or not subject distances corresponding to the start position and the end position are stored (step S208).
開始位置および終了位置に対応する被写体距離が共に格納されている場合(ステップS208においてYESの場合)には、制御部18は、格納された2つの被写体距離により規定される範囲を断面高さ範囲に設定し(ステップS210)、元の処理に戻る。 When the subject distances corresponding to the start position and the end position are stored together (in the case of YES in step S208), the control unit 18 sets the range defined by the stored two subject distances as the cross-sectional height range. (Step S210), and the process returns to the original process.
開始位置または終了位置を示す指令を受けていない場合(ステップS204においてNOの場合)、もしくは開始位置または終了位置に対応する被写体距離のいずれかが格納されていない場合(ステップS208においてNOの場合)には、制御部18は、ステップS202以下の処理を繰返し実行する。 When the command indicating the start position or the end position has not been received (NO in step S204), or when any of the subject distances corresponding to the start position or the end position is not stored (NO in step S208) The control unit 18 repeatedly executes the processing from step S202 onward.
フルオートモードが選択される場合(ステップS200において「フルオート」の場合)には、制御部18は、入力部8を介して与えられる指令に応じて、撮像部12で撮影される画像内において2つの開始終了領域を設定する(ステップS212)。そして、制御部18は、撮像駆動部14に駆動指令を与え被写体距離を順次変更する(ステップS214)。並行して、制御部18は、開始終了領域の各々についてフォーカスされるか否かを判断する(ステップS216)。 When the full auto mode is selected (in the case of “full auto” in step S <b> 200), the control unit 18 responds to a command given via the input unit 8 in the image captured by the imaging unit 12. Two start / end regions are set (step S212). And the control part 18 gives a drive command to the imaging drive part 14, and changes a to-be-photographed object distance sequentially (step S214). In parallel, the control unit 18 determines whether or not each of the start / end regions is focused (step S216).
いずれの開始終了領域についてもフォーカスされない場合(ステップS216においてNOの場合)には、制御部18は、ステップS214以下の処理を繰返し実行する。 If any start / end region is not focused (NO in step S216), control unit 18 repeatedly executes the processing in step S214 and subsequent steps.
いずれかの開始終了領域についてフォーカスされる場合(ステップS216においてYESの場合)には、制御部18は、当該時点における被写体距離をメモリ20に格納する(ステップS218)。そして、制御部18は、開始位置および終了位置に対応する被写体距離が共に格納されているか否かを判断する(ステップS220)。 When any of the start / end areas is focused (YES in step S216), the control unit 18 stores the subject distance at the time in the memory 20 (step S218). Then, the control unit 18 determines whether or not both subject distances corresponding to the start position and the end position are stored (step S220).
開始位置および終了位置に対応する被写体距離が共に格納されている場合(ステップS220においてYESの場合)には、制御部18は、格納された2つの被写体距離により規定される範囲を断面高さ範囲に設定し(ステップS222)、元の処理に戻る。 When the subject distances corresponding to the start position and the end position are stored together (in the case of YES in step S220), the control unit 18 sets the range defined by the stored two subject distances as the cross-sectional height range. (Step S222), and the process returns to the original process.
開始位置または終了位置に対応する被写体距離のいずれかが格納されていない場合(ステップS220においてNOの場合)には、制御部18は、ステップS214以下の処理を繰返し実行する。 If any of the subject distances corresponding to the start position or the end position is not stored (NO in step S220), the control unit 18 repeatedly executes the processes in and after step S214.
図15は、被写界深度取得サブルーチンの処理の概略を示すフローチャートである。
図15を参照して、制御部18は、撮像部12の識別情報IDがメモリ20に格納されているか否かを判断する(ステップS300)。
FIG. 15 is a flowchart showing an outline of the processing of the depth of field acquisition subroutine.
Referring to FIG. 15, control unit 18 determines whether or not the identification information ID of imaging unit 12 is stored in memory 20 (step S300).
撮像部12の識別情報IDがメモリ20に格納されている場合(ステップS300においてYESの場合)には、制御部18は、メモリ20から識別情報IDを取得する(ステップS302)。そして、制御部18は、撮像部12から状態信号を取得できるか否かを判断する(ステップS304)。 When the identification information ID of the imaging unit 12 is stored in the memory 20 (YES in step S300), the control unit 18 acquires the identification information ID from the memory 20 (step S302). And the control part 18 judges whether a status signal can be acquired from the imaging part 12 (step S304).
撮像部12から状態信号を取得できる場合(ステップS304においてYESの場合)には、制御部18は、取得した状態信号に基づいて状態情報STの値を決定する(ステップS306)。 If the state signal can be acquired from the imaging unit 12 (YES in step S304), the control unit 18 determines the value of the state information ST based on the acquired state signal (step S306).
一方、撮像部12の識別情報IDがメモリ20に格納されていない場合(ステップS300においてNOの場合)、もしくは撮像部12から状態信号を取得できない場合(ステップS304においてNOの場合)には、制御部18は、識別情報IDおよび状態情報STをそれぞれ予め定められた所定値(デフォルト値)に決定する(ステップS308)。 On the other hand, when the identification information ID of the imaging unit 12 is not stored in the memory 20 (NO in step S300), or when the status signal cannot be acquired from the imaging unit 12 (NO in step S304), control is performed. The unit 18 determines the identification information ID and the state information ST as predetermined values (default values) that are set in advance (step S308).
そして、制御部18は、現時点の識別情報IDおよび状態情報STをパラメータとして、被写界深度決定テーブル(図10)から被写界深度DOFを取得し(ステップS310)、元の処理に戻る。 Then, the control unit 18 acquires the depth of field DOF from the depth of field determination table (FIG. 10) using the current identification information ID and the state information ST as parameters (step S310), and returns to the original process.
なお、本実施の形態においては、撮像部12のズームレンズ部44におけるズーム倍率を示す状態信号を用いる構成について例示したが、被写界深度を変更する他の光学要素(たとえば、フォーカスレンズ部など)をさらに示す状態信号を用いてもよい。 In the present embodiment, the configuration using the state signal indicating the zoom magnification in the zoom lens unit 44 of the imaging unit 12 is exemplified, but other optical elements that change the depth of field (for example, the focus lens unit, etc.) ) May be used.
また、本実施の形態においては、「被写体変更手段」の一例として撮像駆動部14を用いて撮像部12を移動させる構成について説明したが、撮像部12の移動に加えて、もしくは単独で試料台32を移動させるように構成してもよい。 In the present embodiment, the configuration in which the imaging unit 12 is moved using the imaging drive unit 14 as an example of the “subject changing unit” has been described. However, in addition to the movement of the imaging unit 12, or the sample table alone. You may comprise so that 32 may be moved.
この発明の実施の形態によれば、対象物OBJの三次元画像データの生成に用いられる複数の画像を取得するための取得間隔の決定に際して、撮像部12の被写界深度が考慮される。このため、フォーカス領域を抽出するための複数の画像を、撮像部12がフォーカスできる範囲に相応しい間隔で取得できるので、画像の取得枚数が過度に増大することなく、三次元画像の生成精度と生成に要する時間とをバランスさせることができる。よって、三次元画像の生成精度および生成に要する時間を最適化した拡大観察装置を実現できる。 According to the embodiment of the present invention, the depth of field of the imaging unit 12 is taken into account when determining the acquisition interval for acquiring a plurality of images used for generating the three-dimensional image data of the object OBJ. For this reason, since a plurality of images for extracting the focus area can be acquired at intervals suitable for the range in which the imaging unit 12 can focus, the generation accuracy and generation of the three-dimensional image can be achieved without excessively increasing the number of acquired images. It is possible to balance the time required for this. Therefore, it is possible to realize a magnifying observation apparatus that optimizes the generation accuracy and time required for generation of a three-dimensional image.
また、この発明の実施の形態によれば、使用される撮像部12の種類および撮像部12における状態(たとえば、ズーム倍率など)などに応じて、各時点における被写界深度を取得し、取得間隔を自動的に更新する。このため、ユーザは、たとえば撮像部12のズーム倍率を変える毎に、取得間隔または取得枚数を変更する必要がなく、より作業効率を向上させることができる。 In addition, according to the embodiment of the present invention, the depth of field at each time point is acquired and acquired according to the type of the imaging unit 12 used and the state (for example, zoom magnification) in the imaging unit 12. Update the interval automatically. For this reason, the user does not need to change the acquisition interval or the number of acquired images every time the zoom magnification of the imaging unit 12 is changed, for example, and the working efficiency can be further improved.
また、この発明の実施の形態によれば、決定される取得間隔に基づいて決定される取得枚数がユーザに対して表示される。さらに、表示される取得枚数は、ユーザによって変更可能に構成される。そのため、ユーザは、三次元画像の生成処理の程度を直感的に知ることができ、よりユーザフレンドリな拡大観察装置を実現できる。 According to the embodiment of the present invention, the number of acquisitions determined based on the determined acquisition interval is displayed to the user. Furthermore, the acquired number of displayed images can be changed by the user. Therefore, the user can intuitively know the degree of the 3D image generation process, and a more user-friendly magnification observation apparatus can be realized.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
2 撮像機構、4 本体部、6 表示部、8 入力部、12 撮像部、14 撮像駆動部、16 I/F部、18 制御部、20 メモリ、22 I/O制御部、32 試料台、34 スタンド、36 スタンド係着部材、38 撮像部固定部材、40 受像部、42 絞り部、44 ズームレンズ部、46 状態検出部、50 フォーカスレンズ部、52 対物レンズ部、62 枚数表示領域、64 標準ボタン、66 高品質ボタン、68 取得開始ボタン、70 ポインタ、100 拡大観察装置、BL 基準位置、DOF 被写界深度、FP1〜FP6 フォーカス領域、H 断面高さ範囲、ID 識別情報、LA1,LA2 開始終了領域、OBJ 対象物、ST 状態情報。 2 imaging mechanism, 4 body unit, 6 display unit, 8 input unit, 12 imaging unit, 14 imaging drive unit, 16 I / F unit, 18 control unit, 20 memory, 22 I / O control unit, 32 sample stage, 34 Stand, 36 Stand engaging member, 38 Imaging section fixing member, 40 Image receiving section, 42 Diaphragm section, 44 Zoom lens section, 46 State detection section, 50 Focus lens section, 52 Objective lens section, 62 Number display area, 64 Standard buttons , 66 High quality button, 68 Acquisition start button, 70 pointer, 100 magnification observation device, BL reference position, DOF depth of field, FP1 to FP6 focus area, H section height range, ID identification information, LA1, LA2 start end Area, OBJ object, ST status information.
Claims (12)
前記対象物を撮影するための撮像部と、
前記撮像部から前記対象物までの被写体距離を変更するための被写体距離変更手段と、
前記被写体距離が所定の取得間隔で逐次的に変更されるように前記被写体距離変更手段を制御するとともに、変更される前記被写体距離の各々において前記撮像部によって撮影される画像を取得する制御部とを備え、
前記制御部は、前記撮像部における被写界深度を取得し、当該被写界深度に基づいて前記取得間隔を決定する、拡大観察装置。 A magnification observation device that generates three-dimensional image data of an object based on focus areas in a plurality of images obtained by photographing the object at different object distances,
An imaging unit for photographing the object;
Subject distance changing means for changing the subject distance from the imaging unit to the object;
A control unit that controls the subject distance changing means so that the subject distance is sequentially changed at predetermined acquisition intervals, and that acquires an image photographed by the imaging unit at each of the changed subject distances; With
The magnifying observation apparatus, wherein the control unit acquires a depth of field in the imaging unit and determines the acquisition interval based on the depth of field.
前記制御部は、前記撮像部から出力される前記状態信号に基づいて、当該撮像部の被写界深度を取得する、請求項5に記載の拡大観察装置。 The imaging unit is configured to output a state signal corresponding to the depth of field to be changed,
The magnification observation apparatus according to claim 5, wherein the control unit acquires a depth of field of the imaging unit based on the state signal output from the imaging unit.
前記撮像部により撮影される画像内において設定される2つの開始終了領域のそれぞれに対して、前記撮像部によってフォーカスされる前記被写体距離を検索し、
当該検索された2つの前記被写体距離に基づいて、前記断面高さ範囲を決定する、請求項7に記載の拡大観察装置。 The controller is
Searching for the subject distance focused by the imaging unit for each of the two start / end regions set in the image captured by the imaging unit;
The magnification observation apparatus according to claim 7, wherein the cross-sectional height range is determined based on the searched two subject distances.
前記制御部は、前記取得枚数を前記表示部に表示可能に構成される、請求項7または8に記載の拡大観察装置。 The magnification observation apparatus further includes a display unit configured to be able to display an image captured by the imaging unit,
The magnification observation apparatus according to claim 7, wherein the control unit is configured to be able to display the acquired number of sheets on the display unit.
前記被写体距離変更手段を制御して前記取得枚数の画像を取得した後、前記画像の各々における前記フォーカス領域を抽出し、
当該抽出されるそれぞれの前記フォーカス領域を結合して全焦点画像を生成する、請求項7〜10のいずれか1項に記載の拡大観察装置。 The controller is
Controlling the subject distance changing means to acquire the acquired number of images, and then extracting the focus area in each of the images;
The magnification observation apparatus according to any one of claims 7 to 10, wherein the extracted focus areas are combined to generate an omnifocal image.
前記フォーカス領域の画素情報および対応の前記被写体距離に基づいて、前記対象物の高さ情報を取得し、
前記全焦点画像および前記高さ情報から前記三次元画像データを生成する、請求項11に記載の拡大観察装置。 The controller is
Based on the pixel information of the focus area and the corresponding subject distance, obtain height information of the object,
The magnification observation apparatus according to claim 11, wherein the three-dimensional image data is generated from the omnifocal image and the height information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006147069A JP2007316433A (en) | 2006-05-26 | 2006-05-26 | Enlarging observation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006147069A JP2007316433A (en) | 2006-05-26 | 2006-05-26 | Enlarging observation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007316433A true JP2007316433A (en) | 2007-12-06 |
Family
ID=38850331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006147069A Withdrawn JP2007316433A (en) | 2006-05-26 | 2006-05-26 | Enlarging observation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007316433A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010139890A (en) * | 2008-12-12 | 2010-06-24 | Keyence Corp | Imaging apparatus |
JP2011259502A (en) * | 2011-09-16 | 2011-12-22 | Keyence Corp | Imaging apparatus |
JP2013034208A (en) * | 2012-09-05 | 2013-02-14 | Keyence Corp | Imaging apparatus |
JP2019194680A (en) * | 2018-05-03 | 2019-11-07 | カール・ツアイス・メディテック・アーゲー | Microscopy for imaging object and microscope |
CN118628369A (en) * | 2024-08-08 | 2024-09-10 | 深圳市生强科技有限公司 | Method and application based on multi-layer fusion of fluorescent glass slides and AI multi-layer fusion processing |
-
2006
- 2006-05-26 JP JP2006147069A patent/JP2007316433A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010139890A (en) * | 2008-12-12 | 2010-06-24 | Keyence Corp | Imaging apparatus |
JP2011259502A (en) * | 2011-09-16 | 2011-12-22 | Keyence Corp | Imaging apparatus |
JP2013034208A (en) * | 2012-09-05 | 2013-02-14 | Keyence Corp | Imaging apparatus |
JP2019194680A (en) * | 2018-05-03 | 2019-11-07 | カール・ツアイス・メディテック・アーゲー | Microscopy for imaging object and microscope |
JP7201505B2 (en) | 2018-05-03 | 2023-01-10 | カール・ツアイス・メディテック・アーゲー | Microscopy and Microscopy for Imaging Objects |
CN118628369A (en) * | 2024-08-08 | 2024-09-10 | 深圳市生强科技有限公司 | Method and application based on multi-layer fusion of fluorescent glass slides and AI multi-layer fusion processing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101802705B (en) | Camera body and photographic device | |
JP4457358B2 (en) | Display method of face detection frame, display method of character information, and imaging apparatus | |
JP5846844B2 (en) | Magnifying observation device | |
JP2010093422A (en) | Imaging apparatus | |
US20060044399A1 (en) | Control system for an image capture device | |
JP6006024B2 (en) | Imaging apparatus, imaging method, and program | |
EP2804039B1 (en) | Microscope system and method for deciding stitched area | |
JP2011248161A (en) | Focus control device, focus control method, lens device, focus lens drive method and program | |
JP4873729B2 (en) | Optical equipment | |
US10429632B2 (en) | Microscopy system, microscopy method, and computer-readable recording medium | |
KR102593303B1 (en) | Electronic device and methof to control auto focus of camera | |
JP2007316433A (en) | Enlarging observation device | |
CN109983766A (en) | Image processing apparatus, microscopic system, image processing method and program | |
JP2010112969A (en) | Confocal microscope | |
CN104052924B (en) | Filming apparatus, camera system and image pickup method | |
JP2012190184A (en) | Image processing device, method, and program | |
JP2006338001A (en) | Microscope system and image forming method | |
JP2007316432A (en) | Enlarging observation device | |
JP2014219473A (en) | Interchangeable lens | |
JP6534456B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP2010170025A (en) | Image output system, image output method, and image output program | |
JP5730696B2 (en) | Image processing apparatus and image display system | |
JP2010079035A (en) | Microscope system, control program, and control method thereof | |
JP2017126078A (en) | microscope | |
JP6025954B2 (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090804 |