[go: up one dir, main page]

JP7229439B1 - 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム - Google Patents

傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム Download PDF

Info

Publication number
JP7229439B1
JP7229439B1 JP2022564614A JP2022564614A JP7229439B1 JP 7229439 B1 JP7229439 B1 JP 7229439B1 JP 2022564614 A JP2022564614 A JP 2022564614A JP 2022564614 A JP2022564614 A JP 2022564614A JP 7229439 B1 JP7229439 B1 JP 7229439B1
Authority
JP
Japan
Prior art keywords
estimation
image
tilt
focus
focus position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022564614A
Other languages
English (en)
Other versions
JPWO2023002677A1 (ja
Inventor
朱里 伊藤
智親 竹嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Publication of JPWO2023002677A1 publication Critical patent/JPWO2023002677A1/ja
Priority to JP2023020763A priority Critical patent/JP2023057119A/ja
Application granted granted Critical
Publication of JP7229439B1 publication Critical patent/JP7229439B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0016Technical microscopes, e.g. for inspection or measuring in industrial production processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

撮像対象物の傾斜の推定を簡易な構成かつ短時間で行う。
傾斜推定システム30は、画像に写った撮像対象物の傾斜を推定するシステムであって、画像から複数の部分画像である推定対象画像を取得する推定対象画像取得部31と、特徴量出力モデルを用いて推定対象画像から特徴量を出力して、複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定する焦点位置推定部32と、それらの合焦時の焦点位置から撮像対象物の傾斜を推定する傾斜推定部33とを備え、特徴量出力モデルは、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像から、機械学習によって生成され、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像の特徴量が比較されて、比較結果に基づいて機械学習が行われる。

Description

本発明は、画像に写った撮像対象物の傾斜を推定する傾斜推定システム、傾斜推定方法及び傾斜推定プログラム、並びに半導体検査システム及び生体観察システムに関する。
従来、撮像対象物の撮像を行う際に撮像対象物の傾斜、例えば、撮像方向に対する傾斜を推定することが提案されている。例えば、特許文献1には、半導体デバイスの検査を行うために半導体デバイスを撮像する際、半導体デバイスの傾斜を推定することが示されている。推定された傾斜は、半導体デバイスの姿勢を調整するために用いられる。特許文献1では、専用のレンズ(例えば、リレーレンズ系)及びスキャナ等を含むの光学系によって撮像対象物の傾斜を推定している。
国際公開第2017/154895号
特許文献1に示されたように特別な光学系によって撮像対象物の傾斜を推定する場合、装置内に特別な光学系を設けるための構成(例えば、レンズターレット)及び空間が必要となる。また、特別な光学系を用意するためのコストが必要となる。また、特許文献1に示された方法では、ターレットの切替、レーザスキャン及び位置合わせ等の処理が必要となり、傾斜の推定に長時間を要していた。
本発明の一実施形態は、上記に鑑みてなされたものであり、撮像対象物の傾斜の推定を簡易な構成かつ短時間で行うことができる傾斜推定システム、傾斜推定方法及び傾斜推定プログラム、並びにそれらに関連する半導体検査システム及び生体観察システムを提供することを目的とする。
上記の目的を達成するために、本発明の一実施形態に係る傾斜推定システムは、画像に写った撮像対象物の傾斜を推定する傾斜推定システムであって、撮像対象物が写った画像を取得して、当該画像から複数の部分画像である推定対象画像を取得する推定対象画像取得手段と、画像に基づく情報を入力して当該画像の特徴量を出力する特徴量出力モデルを用いて、推定対象画像取得手段によって取得された複数の推定対象画像それぞれから複数の推定対象画像それぞれの特徴量を出力して、出力された特徴量から複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定する焦点位置推定手段と、焦点位置推定手段によって推定された複数の推定対象画像それぞれに対応する合焦時の焦点位置から、画像に写った撮像対象物の傾斜を推定する傾斜推定手段と、を備え、特徴量出力モデルは、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像から、機械学習によって生成され、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像の特徴量が比較されて、比較結果に基づいて機械学習が行われる。
本発明の一実施形態に係る傾斜推定システムでは、画像の複数の部分画像である推定対象画像それぞれから、複数の推定対象画像それぞれに対応する合焦時の焦点位置が推定されて、撮像対象物の傾斜が推定される。従って、撮像対象物が写った画像が得られれば、撮像対象物の傾斜を短時間で推定することができる。また、焦点位置の推定に用いられる特徴量出力モデルは、焦点位置の推定に適切な特徴量を出力することができ、これを用いることで適切に撮像対象物の傾斜を推定することができる。従って、本発明の一実施形態に係る傾斜推定システムによれば、撮像対象物の傾斜の推定を簡易な構成かつ短時間で行うことができる。
焦点位置推定手段は、特徴量出力モデルから出力される特徴量を入力して、当該特徴量に係る画像に対応する合焦時の焦点位置を推定する焦点位置推定モデルを用いて複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定し、焦点位置推定モデルは、学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報から、機械学習によって生成されることとしてもよい。この構成によれば、焦点位置推定モデルを用いることで、確実かつ適切に焦点位置を推定することができる。その結果、確実かつ適切に撮像対象物の傾斜を推定することができる。
傾斜推定システムでは、傾斜推定手段によって推定された撮像対象物の傾斜に基づいて、撮像対象物の撮像時の傾斜を制御する制御手段を更に備えることとしてもよい。この構成によれば、適切な傾斜での撮像対象物の撮像を行うことができる。
本発明の一実施形態に係る半導体検査システム及び生体観察システムは、上述した傾斜推定システムを備える構成することができる。即ち、本発明の一実施形態に係る半導体検査システムは、上記の傾斜推定システムと、傾斜推定システムに係る撮像対象物として半導体デバイスが載置される載置部と、半導体デバイスを検査する検査部と、を備える。また、本発明の一実施形態に係る生体観察システムは、上記の傾斜推定システムと、傾斜推定システムに係る撮像対象物として生体サンプルが載置される載置部と、生体サンプルを観察する観察部と、を備える。
ところで、本発明の一実施形態は、上記のように傾斜推定システムの発明として記述できる他に、以下のように傾斜推定方法及び傾斜推定プログラムの発明としても記述することができる。
即ち、本発明の一実施形態に係る傾斜推定方法は、画像に写った撮像対象物の傾斜を推定する傾斜推定方法であって、撮像対象物が写った画像を取得して、当該画像から複数の部分画像である推定対象画像を取得する推定対象画像取得ステップと、画像に基づく情報を入力して当該画像の特徴量を出力する特徴量出力モデルを用いて、推定対象画像取得ステップにおいて取得された複数の推定対象画像それぞれから複数の推定対象画像それぞれの特徴量を出力して、出力された特徴量から複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定する焦点位置推定ステップと、焦点位置推定ステップにおいて推定された複数の推定対象画像それぞれに対応する合焦時の焦点位置から、画像に写った撮像対象物の傾斜を推定する傾斜推定ステップと、を含み、特徴量出力モデルは、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像から、機械学習によって生成され、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像の特徴量が比較されて、比較結果に基づいて機械学習が行われる。
焦点位置推定ステップにおいて、特徴量出力モデルから出力される特徴量を入力して、当該特徴量に係る画像に対応する合焦時の焦点位置を推定する焦点位置推定モデルを用いて複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定し、焦点位置推定モデルは、学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報から、機械学習によって生成されることとしてもよい。
傾斜推定方法は、傾斜推定ステップにおいて推定された撮像対象物の傾斜に基づいて、撮像対象物の撮像時の傾斜を制御する制御ステップを更に含むこととしてもよい。
また、本発明の一実施形態に係る傾斜推定プログラムは、コンピュータを、画像に写った撮像対象物の傾斜を推定する傾斜推定システムとして動作させる傾斜推定プログラムであって、当該コンピュータを、撮像対象物が写った画像を取得して、当該画像から複数の部分画像である推定対象画像を取得する推定対象画像取得手段と、画像に基づく情報を入力して当該画像の特徴量を出力する特徴量出力モデルを用いて、推定対象画像取得手段によって取得された複数の推定対象画像それぞれから複数の推定対象画像それぞれの特徴量を出力して、出力された特徴量から複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定する焦点位置推定手段と、焦点位置推定手段によって推定された複数の推定対象画像それぞれに対応する合焦時の焦点位置から、画像に写った撮像対象物の傾斜を推定する傾斜推定手段と、として機能させ、特徴量出力モデルは、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像から、機械学習によって生成され、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像の特徴量が比較されて、比較結果に基づいて機械学習が行われる。
焦点位置推定手段は、特徴量出力モデルから出力される特徴量を入力して、当該特徴量に係る画像に対応する合焦時の焦点位置を推定する焦点位置推定モデルを用いて複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定し、焦点位置推定モデルは、学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報から、機械学習によって生成されることとしてもよい。
傾斜推定プログラムは、コンピュータを、傾斜推定手段によって推定された撮像対象物の傾斜に基づいて、撮像対象物の撮像時の傾斜を制御する制御手段としても機能させることとしてもよい。
本発明の一実施形態によれば、撮像対象物の傾斜の推定を簡易な構成かつ短時間で行うことができる。
本発明の実施形態に係る特徴量出力モデル生成システム及び傾斜推定システムの構成を示す図である。 検査装置の一部の構成の例を示す図である。 焦点位置毎の撮像される画像の例である。 機械学習による特徴量出力モデルの生成を説明するための図である。 特徴量出力モデルの生成の生成に用いられる既存の学習済モデルを示す図である。 デフォーカス画像及びフォーカス画像の例を示す図である。 画像に対する推定対象画像の例を示す図である。 撮像対象物の傾斜の推定を説明するための図である。 本発明の実施形態に係る特徴量出力モデル生成システムで実行される処理である特徴量出力モデル生成方法を示すフローチャートである。 本発明の実施形態に係る傾斜推定システムで実行される処理である傾斜推定方法を示すフローチャートである。 本発明の実施形態に係る特徴量出力モデル生成プログラムの構成を、記録媒体と共に示す図である。 本発明の実施形態に係る傾斜推定プログラムの構成を、記録媒体と共に示す図である。
以下、図面と共に本発明に係る傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システムの実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
図1に本実施形態に係る傾斜推定システムであるコンピュータ10を示す。コンピュータ10は、画像に対する情報処理を行う装置(システム)である。具体的には、コンピュータ10は、検査装置40及び観察装置50の少なくとも何れかによって撮像される画像に対する情報処理を行う。なお、コンピュータ10は、検査装置40及び観察装置50以外の装置によって撮像された画像に対する情報処理を行ってもよい。即ち、コンピュータ10は、検査装置40及び観察装置50以外の撮像を行う装置に対して適用されてもよい。
検査装置40は、半導体デバイスを撮像して、撮像した画像に基づいて半導体デバイスを検査する装置である。例えば、検査装置40は、半導体デバイスの故障解析を行う。検査対象の半導体デバイスは、例えば、μLED(Light Emitting Diode)が敷き詰められたウエハである。故障解析は、例えば、発光解析、発熱解析、パターン画像を用いた解析又はレーザによる解析(OBIRCH、OBIC又はDALS等)によって行われる。検査装置40は、従来の検査装置であってもよい。以下に説明する構成も全て従来の検査装置が備えるものでよい。
図2に、例えば、発光解析を行う検査装置40の一部の構成を示す。図2に示すように検査装置40は、カメラ41と、載置部42と、光源43と、光学系44と、対物レンズ45と、ステージ46とを備えている。カメラ41は、撮像対象物である半導体デバイスを撮像する撮像装置である。カメラ41は、例えば、InGaAsカメラである。載置部42は、撮像対象物である半導体デバイスを載置するための構成である。図2において、載置部42に載置されている標準サンプル60は、検査対象物ではなく、後述する焦点位置に応じた画像に対応するものである。標準サンプル60は、人工的な模様(例えば、図2に示すように放射状の縞模様)が施されたサンプルである。
載置部42は、載置されている撮像対象物の撮像方向に対する傾斜(姿勢)を制御可能に構成されている。例えば、載置部42は、撮像対象物を載置する載置面の撮像方向に対する傾斜が可変であるように構成されている。このように載置部42は、撮像対象物のチルト補正を行うことができる。載置部42としては、撮像対象物の傾斜を制御可能な従来のものを用いることができる。撮像対象物の撮像時の傾斜は、後述するようにコンピュータ10によって制御される。
光源43は、撮像対象物に照射される照射光を出力する装置である。光源43は、特定の波長(例えば、標準波長である1100nm、並びに標準波長とは異なる波長である900nm及び1300nm)の照射光を出力するものであってもよい。また、複数の光源43を用意しておく等、照射光の波長を切り替えられるようになっていてもよい。光学系44は、光源43から出力された照射光を、撮像対象物である半導体デバイスに照射するための光学系である。対物レンズ45は、カメラ41による撮像に用いられる対物レンズであり、例えば、固浸レンズ(SIL)である。ステージ46は、カメラ41による撮像時の焦点位置を調整するための部材である。ステージ46は、撮像方向(焦点位置方向、Z軸方向)だけでなく三次元の何れの方向に移動できるもの(即ち、XYZステージ)であってもよい。検査装置40における撮像時の焦点位置は、後述するようにコンピュータ10によって制御される。検査装置40は、上述した構成によって得られた画像を用いて、半導体デバイスの検査部を行う検査部を備えている。
なお、検査装置40の構成は、上述したものである必要はなく、解析方法によっては、異なるものが用いられてもよい。例えば、発熱解析では、照明(光源43)を不要として、撮像装置(カメラ41)としてInSbカメラを用いてもよい。また、パターン画像を用いた解析を行う場合には、照明(光源43)として、インコヒーレント光源又はコヒーレント光源を用い、撮像装置として、二次元検出器、若しくは光走査を行う装置及びフォトダイオードを用いてもよい。レーザ解析を行う場合には、照明(光源43)として、インコヒーレント光源又はコヒーレント光源を用い、撮像装置として、半導体デバイスの電気特性取得装置を用いてもよい。
観察装置50は、スライドガラスに載せられた生体サンプルを撮像して、撮像した生体サンプルの画像を観察する装置である。観察装置50は、従来の観察装置であってもよい。例えば、観察装置50は、上述した従来のバーチャルスライドスキャナである。観察装置50は、撮像対象物である生体サンプルを撮像する撮像装置と、撮像対象物である生体サンプルを載置する載置部と、撮像された画像によって生体サンプルを観察する観察部とを備えている。観察装置50における撮像時の焦点位置は、後述するようにコンピュータ10によって制御される。観察装置50の載置部も、上述した検査装置40の載置部42と同様に載置されている撮像対象物の撮像方向に対する傾斜(姿勢)を制御可能に構成されている。
検査装置40及び観察装置50による撮像は、撮像対象物の傾斜が適切な状態で行われる必要がある。撮像対象物の傾斜が適切な状態とは、例えば、撮像対象物の撮像対象となる面が撮像方向に対して垂直となっている状態、即ち、撮像対象物が撮像方向に対して傾いていない状態である。撮像対象物の検査又は観察を適切に行うためである。例えば、故障解析の対象である半導体デバイスは、プロセスの処理で裏面を研磨される。研磨時の歪み及びプロセス起因の応力によってサンプルである半導体デバイスの表面には、反り及び歪みが発生している。半導体デバイスが傾いていると、例えば、固浸レンズの接触で問題があるため、撮像時における傾斜を補正すること、即ち、チルト補正が必要となる。なお、撮像対象物の傾斜は、上記以外の原因で生じるものであってもよい。
検査装置40及び観察装置50による撮像は、撮像対象物に焦点があった状態で行われる必要がある。撮像対象物の検査又は観察を適切に行うためである。図3に、焦点位置に応じた撮像された画像の例を示す。この画像は、図2に示す標準サンプル60を撮像したものである。図3(a)は、合焦時の焦点位置で撮像した画像である。図3(b)は、焦点位置が、合焦時の焦点位置から100μm離れた場合の画像である。図3(c)は、焦点位置が、図3(b)の場合よりも更に離れた場合の画像である。図3(d)は、焦点位置が、図3(c)の場合よりも更に離れて合焦時の焦点位置から500μm離れた場合の画像である。即ち、図3(a)は、フォーカス画像の例であり、図3(b)~(d)はデフォーカス画像の例である。
コンピュータ10は、検査装置40及び観察装置50による撮像が、撮像対象物の傾斜が適切な状態で行われるようにするための情報処理を行う。コンピュータ10は、検査装置40及び観察装置50による撮像が、撮像対象物に焦点があった状態で行われるようにするための情報処理を行ってもよい。コンピュータ10は、機能的な構成として、機械学習によって学習済モデルを生成する特徴量出力モデル生成システム20と、特徴量出力モデル生成システム20によって生成された学習済モデルを用いて上記の撮像を可能にするための情報処理を行う傾斜推定システム30とを含む。特徴量出力モデル生成システム20は、詳細には後述するように、画像に基づく情報を入力して当該画像の特徴量を出力する特徴量出力モデルを生成するシステム(装置)である。傾斜推定システム30は、詳細には後述するように、画像に写った撮像対象物の傾斜を推定するシステム(装置)である。なお、本実施形態では、撮像を行う装置として、検査装置40及び観察装置50を示すが、撮像対象物の撮像を行う装置(システム)であれば上記以外のものが用いられてもよい。
コンピュータ10は、例えば、CPU(Central Processing Unit)、メモリ、通信モジュール等のハードウェアを含む従来のコンピュータである。また、コンピュータ10は、複数のコンピュータを含むコンピュータシステムであってもよい。また、コンピュータ10は、クラウドコンピューティングで構成されていてもよい。コンピュータ10の後述する各機能は、これらの構成要素がプログラム等により動作することによって発揮される。コンピュータ10と検査装置40及び観察装置50とは、情報の送受信が可能なように互いに接続されている。
引き続いて、本実施形態に係るコンピュータ10に含まれる特徴量出力モデル生成システム20と傾斜推定システム30との機能を説明する。図1に示すように特徴量出力モデル生成システム20は、学習用画像取得部21と、特徴量出力モデル生成部22と、焦点位置推定モデル生成部23とを備えて構成される。
特徴量出力モデル生成システム20の各機能を説明する前に特徴量出力モデル生成システム20によって生成される学習済モデルを説明する。特徴量出力モデル生成システム20によって生成される学習済モデルは、特徴量出力モデル及び焦点位置推定モデルの2つである。
特徴量出力モデルは、画像に基づく情報を入力して当該画像の特徴量を出力するモデルである。特徴量出力モデルへの入力に用いられる画像は、検査装置40及び観察装置50によって撮像された画像の部分画像である。特徴量出力モデルからの出力である特徴量は、入力に係る画像の特徴を示す情報である。本実施形態では、当該特徴は、画像が撮像された際の焦点位置を反映したものである。即ち、特徴量出力モデルは、光学的な特徴に係る光学モデルである。当該特徴量は、例えば、予め設定された次元数(例えば、1024次元)のベクトルである。当該特徴量は、後述するように焦点位置推定モデルへの入力に用いられる。
特徴量出力モデルは、例えば、ニューラルネットワークを含んで構成される。ニューラルネットワークは、多層のものであってもよい。即ち、特徴量出力モデルは、深層学習(ディープラーニング)によって生成されてもよい。また、ニューラルネットワークは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)であってもよい。
特徴量出力モデルには、入力層に画像に基づく情報を入力するためのニューロンが設けられる。例えば、特徴量出力モデルに入力される情報は、画像の各画素の画素値である。この場合、入力層には、画像の画素の数のニューロンが設けられ、それぞれのニューロンには対応する画素の画素値が入力される。後述するように特徴量出力モデルに入力される情報に係る画像は、予め設定されたサイズの画像(例えば、224×224画素の画像)とされる。
なお、特徴量出力モデルに入力される情報は、画像に基づくものであれば各画素の画素値以外であってもよい。例えば、当該情報は、撮像環境による影響を軽減するために画像に対して従来の画像処理等の前処理を行って得られる、特徴量出力モデルへの入力用の特徴量としてもよい。このような前処理を行うことで、機械学習の効率及び生成される特徴量出力モデルの精度の向上等を図ることができる。
特徴量出力モデルには、出力層に特徴量を出力するためのニューロンが設けられる。例えば、特徴量のベクトルの次元数のニューロンが設けられる。
焦点位置推定モデルは、特徴量出力モデルから出力される特徴量を入力して、当該特徴量に係る画像に対応する合焦時の焦点位置を推定するモデルである。焦点位置推定モデルは、例えば、入力される特徴量に係る画像が撮像された際の焦点位置と、合焦時の焦点位置との差分を示す情報を、合焦時の焦点位置の推定結果として出力する。差分は、例えば、合焦時の焦点位置に対応する焦点距離から、特徴量に係る画像が撮像された際の焦点位置に対応する焦点距離を引いた値である。即ち、この場合、合焦時の焦点位置の位置を0とした座標系における画像が撮像された際の焦点位置を示す値が出力値となる。合焦時の焦点位置とは、入力される特徴量に係る画像に写った撮像対象物に焦点をあわせて撮像するための焦点位置である。入力される特徴量に係るデフォーカス画像を撮像した際の焦点位置から、上記の差分だけ焦点位置を変更して撮像することでフォーカス画像を撮像することができる。
この場合、上記の差分の候補を予め設定しておき、焦点位置推定モデルは、それらの候補について候補が妥当である度合いを示す値を出力してもよい。例えば、差分の候補を+50μm、0μm、-50μm、-100μm、…として、焦点位置推定モデルは、それぞれの候補に対して妥当である度合いを示す値を出力する。例えば、当該値が最も高い候補を上記の差分とする。あるいは、焦点位置推定モデルは、上記の差分の値自体を出力するものであってもよい。
あるいは、焦点位置推定モデルは、合焦時の焦点位置自体を示す情報(例えば、合焦時の焦点位置に対応する焦点距離)を出力してもよい。この場合、合焦時の焦点位置自体の候補を予め設定しておき、焦点位置推定モデルは、それらの候補について候補が妥当である度合いを示す値を出力してもよい。あるいは、焦点位置推定モデルは、上記の合焦時の焦点位置の値自体を出力するものであってもよい。
焦点位置推定モデルは、例えば、ニューラルネットワークを含んで構成される。ニューラルネットワークは、多層のものであってもよい。即ち、焦点位置推定モデルは、深層学習(ディープラーニング)によって生成されてもよい。また、ニューラルネットワークは、畳み込みニューラルネットワーク(CNN)であってもよい。
焦点位置推定モデルには、入力層に特徴量を入力するためのニューロンが設けられる。例えば、入力層には、特徴量出力モデルの出力層に設けられたニューロンに対応するニューロンが設けられる。即ち、入力層には、特徴量出力モデルの出力層に設けられた数のニューロンが設けられる。焦点位置推定モデルには、上述した合焦時の焦点位置の推定結果を出力するためのニューロンが設けられる。例えば、候補の数のニューロン(候補毎の値を出力する場合)又は1つのニューロン(上記の差分又は合焦時の焦点位置自体を出力する場合)が設けられる。
なお、特徴量出力モデル及び焦点位置推定モデルは、ニューラルネットワーク以外によって構成されていてもよい。
特徴量出力モデル及び焦点位置推定モデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定される。特徴量出力モデル及び焦点位置推定モデルは、例えば、CPU及びメモリを備えるコンピュータにて用いられ、コンピュータのCPUが、メモリに記憶されたモデルからの指令に従って動作する。例えば、コンピュータのCPUが、当該指令に従って、モデルに対して情報を入力して、モデルに応じた演算を行って、モデルから結果を出力するように動作する。具体的には、コンピュータのCPUが、当該指令に従って、ニューラルネットワークの入力層に情報を入力して、ニューラルネットワークにおける学習済の重み付け係数等のパラメータに基づく演算を行って、ニューラルネットワークの出力層から結果を出力するように動作する。
学習用画像取得部21は、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像を取得する学習用画像取得手段である。学習用画像取得部21は、撮像対象物からの放射を検出した画像、撮像対象物に光を照射した際の撮像対象物からの光を検出した画像、又は撮像対象物に光を照射した際の撮像対象物の電気特性を検出した画像を、学習用画像として取得してもよい。学習用画像取得部21は、特定の波長の光を撮像対象物に照射した際の画像を、学習用画像として取得してもよい。学習用画像取得部21は、取得する学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報を取得する。
例えば、学習用画像取得部21は、検査装置40又は観察装置50によって撮像された画像を取得する。この画像は、学習用画像用の撮像対象物が写っているものである。学習用画像用の撮像対象物は、例えば、図2に示す標準サンプル60であってもよい。あるいは、学習用画像用の撮像対象物は、その他のもの(例えば、検査装置40又は観察装置50によって撮像するもの)であってもよい。例えば、図4に示すように、学習用画像取得部21は、取得した画像70から部分画像を切り出して学習用画像71とする。学習用画像71は、上述した2つの学習済モデルを生成するための機械学習に用いられる画像である。そのため、学習用画像取得部21は、適切に学習済モデルを生成できる程度の数の複数の学習用画像71を取得する。
本実施形態は、デフォーカス画像から合焦時の焦点位置を推定するものであるため、複数の学習用画像71には、デフォーカス画像が含まれるようにする。また、当該デフォーカス画像は、複数であり、それらに係る焦点位置は、様々な位置であってもよい。即ち、それらに係る焦点位置に対応する焦点距離は、様々な距離であってもよい。また、複数の学習用画像71には、フォーカス画像が含まれていてもよい。図4では、取得した画像70が3つである例を示している。図4の画像70を示した部分の縦方向は、撮像方向(焦点位置方向、Z軸方向)である。
学習用画像71は、特徴量出力モデルへの入力に用いられる画像に対応する。この場合、特徴量出力モデルは、検査装置40又は観察装置50によって撮像された画像全体ではなく、当該画像の、学習用画像71と同じサイズである部分画像に基づく情報を入力する。従って、学習用画像取得部21は、特徴量出力モデルの入力に用いられる、予め設定されたサイズの部分画像である学習用画像71を取得した画像70から切り出す。画像70における、学習用画像71が切り出される位置は、撮像対象物が写っている部分である。但し、学習用画像71には、撮像対象物が写っていない学習用画像71が含まれていてもよい。画像70における学習用画像71が切り出される位置は、予め設定されていてもよい。また、画像70に対して画像認識を行って撮像対象物が写っていると推定される位置を学習用画像71が切り出される位置としてもよい。
図4に示すように、学習用画像取得部21は、1つの画像70から複数の学習用画像71を切り出してもよい。画像70から複数の学習用画像71を切り出す場合、学習用画像71の位置が重複していてもよい。
検査装置40又は観察装置50では、撮像が行われて学習用画像71の元となる画像が生成される。その際、例えば、検査装置40又は観察装置50では、撮像方向(Z軸方向)以外の撮像時の位置(XY)を固定して、焦点位置が異なる複数回の連続した撮像が行われる。その際、図4に示すように、一定の間隔(ステップ)(ΔZ)で焦点位置が異なるようにされる。検査装置40又は観察装置50における学習用画像71のための撮像は、上記以外の方法で行われてもよい。
また、学習用画像取得部21は、検査装置40又は観察装置50以外から画像70を取得してもよい。
また、上記の通り、学習用画像71は、撮像対象物からの放射を検出した画像(発光・発熱解析に用いられる画像)、撮像対象物に光を照射した際の撮像対象物からの光を検出した画像(パターン解析に用いられる画像)、又は撮像対象物に光を照射した際の撮像対象物の電気特性を検出した画像(レーザ解析に用いられる画像)であってもよい。また、学習用画像71は、特定の波長の光(例えば、検査に用いる特定の波長の光)を撮像対象物に照射した際の画像であってもよい。これらは、検査装置40又は観察装置50で通常用いられる画像の種別である。但し、1組の特徴量出力モデル及び焦点位置推定モデルを生成する場合には、何れかの種別の画像のみを学習用画像71としてもよい。この場合、生成される1組の特徴量出力モデル及び焦点位置推定モデルは、特定の画像の種別に対応したものとなる。
発光解析で用いられる光の波長は、検査装置40の駆動電圧及び設計ルールによって異なる。また、実際の光学系では、調整及び光学素子の特性に起因した波長毎の焦点ずれが生じる。また、パターン像(画像)を観察する焦点位置と異なる位置で検出感度が最大になる場合がある。これらを考慮して、上記のように特定の波長毎の画像を用いて、波長毎の特徴量出力モデルを生成してもよい。例えば、標準波長(1100nm)及び標準波長とは異なる波長(900nm、1300nm)毎の画像を用いて、波長毎の特徴量出力モデルを生成してもよい。
また、1組の特徴量出力モデル及び焦点位置推定モデルを生成する場合には、検査装置40又は観察装置50の何れかの機種(種別)によって撮像された画像(部分画像も含む)のみを学習用画像71としてもよい。この場合、生成される1組の特徴量出力モデル及び焦点位置推定モデルは、特定の機種の検査装置40又は観察装置50に対応したものとなる。即ち、特徴量出力モデル及び焦点位置推定モデルは、検査装置40又は観察装置50の特徴を反映したものとなる。このように学習用画像を、特定の種別の画像又は特定の機種の検査装置40又は観察装置50に対応するものにすることで、より精度の高い学習済モデルとすることができる。あるいは、焦点位置推定モデルについては、複数の画像の種別又は機種で共通したものとしてもよい。
各学習用画像71には、学習用画像71の撮像時の焦点位置に係る焦点位置情報が対応付けられている。焦点位置情報は、例えば、上記の焦点位置を示す情報である。但し、焦点位置情報は、焦点位置に係る情報であり、上述した学習済モデルの生成に用いることができるものであれば上記以外のものであってもよい。焦点位置情報は、例えば、検査装置40又は観察装置50における画像の撮像時の情報として得られる。例えば、学習用画像取得部21は、焦点位置情報が対応付けられた画像を検査装置40又は観察装置50から受信して取得する。
また、学習用画像取得部21は、取得する学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報を取得する。合焦位置情報は、例えば、合焦時の焦点位置を示す情報である。但し、合焦位置情報は、合焦時の焦点位置に係る情報であり、上述した学習済モデルの生成に用いることができるものであれば上記以外のものであってもよい。合焦位置情報は、従来の合焦時の焦点位置を測定する方法等で得られる。例えば、学習用画像取得部21は、測定によって得られた合焦位置情報のユーザによるコンピュータ10に対する入力操作を受け付けることで合焦位置情報を取得する。
学習用画像取得部21は、取得した各情報を特徴量出力モデル生成部22及び焦点位置推定モデル生成部23に出力する。
特徴量出力モデル生成部22は、学習用画像取得部21によって取得された学習用画像71から、機械学習によって特徴量出力モデルを生成する特徴量出力モデル生成手段である。特徴量出力モデル生成部22は、互いに異なる2つの学習用画像71に対応付けられた焦点位置情報に応じて当該2つの学習用画像71の特徴量を比較して、比較結果に基づいて機械学習を行う。特徴量出力モデル生成部22は、互いに異なる2つの学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの学習用画像71の特徴量の差分が小さくなるように、かつ、互いに異なる2つの学習用画像71が互いに異なる焦点位置に係るものである場合、当該2つの学習用画像71の特徴量の差分が大きくなるように機械学習を行ってもよい。
特徴量出力モデル生成部22は、以下のように特徴量出力モデルを生成する。特徴量出力モデル生成部22は、学習用画像取得部21から学習用画像71、及び当該学習用画像71に係る焦点位置情報を入力する。特徴量出力モデル生成部22は、入力した複数の学習用画像71から選択した2つの学習用画像71を1つのセットとして用いて、特徴量出力モデル生成のための機械学習を行う。機械学習に用いられるセットには、互いに同一の焦点位置に係る学習用画像71のセットと、互いに異なる焦点位置に係る学習用画像71のセットとの両方が含まれるようにする。例えば、同一の焦点位置に係る学習用画像71のセットは、例えば図4に示すように同一の画像70から切り出された学習用画像71であってもよい。学習用画像71のセットの選択は、上記の条件を満たすように予め設定された方法で行われればよい。また、学習用画像71のセットは、撮像方向(Z軸方向)以外の撮像時の位置(XY)が同一の画像70から選択されてもよい。
特徴量出力モデル生成部22は、選択したセットの学習用画像71に基づく情報を、特徴量出力モデルへの入力として機械学習を行う。図4に示すように1つのセットの学習用画像71それぞれを特徴量出力モデル80に入力すると、学習用画像71それぞれについて特徴量が出力として得られる。図4では、特徴量であるベクトルの各要素の値を棒グラフで示している。この際、一方の学習用画像71を入力する特徴量出力モデル80を学習対象として、もう一方の学習用画像71を入力する特徴量出力モデル80を比較対象とする。但し、これらの特徴量出力モデル80は、学習途中の同一のものである。
特徴量出力モデル生成部22は、焦点位置情報を参照して、出力される2つの特徴量を比較して比較結果に基づいて機械学習を行う。特徴量出力モデル生成部22は、焦点位置情報によって示される2つの学習用画像71の焦点位置が互いに同一の焦点位置である(即ち、同一平面である)場合、当該2つの学習用画像71の特徴量の差分が小さくなるように機械学習を行う。特徴量出力モデル生成部22は、焦点位置情報によって示される2つの学習用画像の焦点位置が互いに異なる焦点位置である(即ち、Z位置が異なる)場合、当該2つの学習用画像71の特徴量の差分が大きくなるように機械学習を行う。なお、同一の画像から切り出された2つの学習用画像71である場合、2つの学習用画像71の焦点位置は互いに同一の焦点位置となる。また、2つの学習用画像71の焦点位置が互いに同一であるとみなせる程近接している場合も、2つの学習用画像71の焦点位置は互いに同一の焦点位置であるとみなしてもよい。
即ち、同一の焦点面にある画像から切り出された部分画像同士の特徴量は、切り出し位置によらず相関が大きくなるようにされる。一方で、異なる焦点面にある画像から切り出された部分画像同士の特徴量は、相関が小さくなるようにされる。このように機械学習されることで、特徴量出力モデルから出力される特徴量は、焦点位置に応じた特徴を反映したものとなる。
具体的には、2つの学習用画像71の焦点位置が互いに同一の焦点位置である場合、特徴量出力モデル生成部22は、以下のloss_xyを損失関数として機械学習を行う。
Figure 0007229439000001
ここで、i(0~n)は、特徴量のベクトルの要素を示すサフィックス(添え字)である。特徴量のベクトルのチャンネル数(次元数)は、n+1である。Ft0~Ftnは、学習対象の特徴量出力モデル80から出力される特徴量のベクトルの各要素の値である。Fc0~Fcnは、比較対象の特徴量出力モデル80から出力される特徴量のベクトルの各要素の値である。SDは、各特徴量の要素iについての標準偏差である。上記のように差分を標準偏差で割ってerrorを算出することで、チャンネル毎の差分のばらつきを揃えている。損出は、各チャンネルの誤差の平均(の正の平方根)である。
2つの学習用画像71の焦点位置が互いに異なる焦点位置である場合、特徴量出力モデル生成部22は、以下のloss_zを損失関数として機械学習を行う。
Figure 0007229439000002
即ち、この場合の損出関数は、2つの学習用画像71の焦点位置が互いに同一の焦点位置である場合の損失関数の逆数である。損失関数に基づく機械学習自体、即ち、特徴量出力モデルのパラメータの更新は、従来と同様に行われればよい。なお、損出関数は、必ずしも上記である必要はなく、上述した基準に沿ったものであればよい。
特徴量出力モデル生成部22は、学習用画像71のセットの選択と機械学習とを繰り返し行って特徴量出力モデルを生成する。例えば、特徴量出力モデル生成部22は、従来と同様に特徴量出力モデルの生成が予め設定した条件に基づいて収束するまで、あるいは予め設定された規定回数、上記の繰り返しを行って特徴量出力モデルを生成する。
特徴量出力モデル生成部22は、機械学習で生成された既存の学習済モデルを利用して特徴量出力モデルを生成してもよい。既存の学習済モデルとしては、本実施形態に係る特徴量出力モデルと同様に、画像に基づく情報を入力するモデルが用いられる。即ち、本実施形態に係る特徴量出力モデルと入力が共通である既存の学習済モデルを利用してもよい。既存の学習済モデルは、例えば、画像認識を行うためのモデルであり、具体的には、ResNet、VGG、Mobile Net等である。特徴量出力モデルの生成には、既存の学習済モデルの一部が用いられる。図5に示すように、既存の学習済モデル81の出力側の層を削除して、既存の学習済モデル81の中間層までの部分を特徴量出力モデルの生成に用いる。特徴量出力モデルの生成に用いられる既存の学習済モデル81には、中間層の全てが含まれていてもよいし、中間層の一部のみが含まれていてもよい。
特徴量出力モデル生成部22は、既存の学習済モデルの上記の一部を入力して、機械学習の開始時点での特徴量出力モデルとする。即ち、特徴量出力モデル生成部22は、既存の学習済モデルの上記の一部を、特徴量出力モデルの初期パラメータとして用いてファインチューニングを行う。また、学習済モデルの上記の一部の出力側に、新たな出力層を加えたものを機械学習の開始時点での特徴量出力モデルとしてもよい。また、新たな出力層を加える場合、学習済モデルの上記の一部の出力側と新たな出力層との間に、新たな中間層を加えたものを機械学習の開始時点での特徴量出力モデルとしてもよい。
なお、特徴量出力モデル生成部22は、既存の学習済モデルを利用せずに特徴量出力モデルを生成してもよい。例えば、従来の機械学習と同様にランダムの値を初期パラメータとしたモデルを機械学習の開始時点での特徴量出力モデルとしてもよい。
既存の学習済モデルを特徴量出力モデルの生成に用いることで、以下の利点がある。学習時間を大幅に短縮することができる。少ない学習用画像71でも精度の高い特徴量出力モデル、即ち、より適切な特徴量を出力することができる特徴量出力モデルを生成することができる。上述した既存の学習済モデルは、既に抽象度の低い特徴を分離する能力を獲得している。従って、新たな学習用画像71を用いた抽象度の高い特徴を中心とした学習するだけよいためである。
特徴量出力モデル生成部22は、生成した特徴量出力モデルを焦点位置推定モデル生成部23及び傾斜推定システム30に出力する。なお、生成した特徴量出力モデルは、本実施形態での用途以外に用いられてもよい。その場合、例えば、特徴量出力モデル生成部22は、特徴量出力モデルを用いる他の装置又はモジュールに特徴量出力モデルを送信又は出力する。あるいは、特徴量出力モデル生成部22は、コンピュータ10又はその他の装置に生成した特徴量出力モデルを記憶させて、特徴量出力モデルを用いる他の装置又はモジュールに利用できるようにしてもよい。
焦点位置推定モデル生成部23は、学習用画像取得部21によって取得された合焦位置情報から、機械学習によって、焦点位置推定モデルを生成する焦点位置推定モデル生成手段である。焦点位置推定モデルは、上述したように特徴量出力モデル生成部22によって生成される特徴量出力モデルから出力される特徴量を入力して、当該特徴量に係る画像に対応する合焦時の焦点位置を推定するものである。
焦点位置推定モデル生成部23は、以下のように焦点位置推定モデルを生成する。焦点位置推定モデル生成部23は、学習用画像取得部21から学習用画像71、及び当該学習用画像71に係る合焦位置情報を入力する。焦点位置推定モデル生成部23は、特徴量出力モデル生成部22から特徴量出力モデルを入力する。
焦点位置推定モデル生成部23は、学習用画像71に基づく情報を特徴量出力モデルに入力して、特徴量出力モデルからの出力である当該学習用画像71の特徴量を取得する。焦点位置推定モデル生成部23は、取得した特徴量を焦点位置推定モデルへの入力として、入力した特徴量に係る学習用画像71の合焦位置情報に基づく情報を焦点位置推定モデルの出力として機械学習を行う。合焦位置情報に基づく情報は、焦点位置推定モデルの出力に対応する情報とされる。焦点位置推定モデルが、上述した候補毎の値を出力するものであった場合、合焦位置情報に基づく情報は、例えば、合焦位置情報に該当する候補の値を1として、合焦位置情報に該当しない候補の値を0とした候補毎の値(ワンホットベクトル)である。焦点位置推定モデルが、上述した差分又は焦点位置自体の値を出力するものであった場合、合焦位置情報に基づく情報は、合焦位置情報自体又は合焦位置情報から算出される当該値である。焦点位置推定モデル生成部23は、機械学習を行う前に焦点位置推定モデルの出力に相当する合焦位置情報に基づく情報を生成する。
機械学習自体、即ち、焦点位置推定モデルのパラメータの更新は、従来と同様に行われればよい。焦点位置推定モデル生成部23は、従来と同様に焦点位置推定モデルの生成が予め設定した条件に基づいて収束するまで、あるいは予め設定された規定回数、機械学習の処理の繰り返しを行って焦点位置推定モデルを生成する。
焦点位置推定モデル生成部23は、生成した焦点位置推定モデルを傾斜推定システム30に出力する。なお、生成した焦点位置推定モデルは、本実施形態での用途以外に用いられてもよい。その場合、例えば、焦点位置推定モデル生成部23は、焦点位置推定モデルを用いる他の装置又はモジュールに焦点位置推定モデルを送信又は出力する。あるいは、焦点位置推定モデル生成部23は、コンピュータ10又はその他の装置に生成した焦点位置推定モデルを記憶させて、焦点位置推定モデルを用いる他の装置又はモジュールに利用できるようにしてもよい。以上が、特徴量出力モデル生成システム20の機能である。
引き続いて、本実施形態に係る傾斜推定システム30の機能を説明する。図1に示すように傾斜推定システム30は、推定対象画像取得部31と、焦点位置推定部32と、傾斜推定部33と、制御部34とを備えて構成される。
傾斜推定システム30は、検査装置40又は観察装置50において撮像された画像に写った撮像対象物の傾斜を推定する。そのために、傾斜推定システム30は、検査装置40又は観察装置50において撮像対象物の撮像が行われる際に合焦時の焦点位置を推定する。この推定は、まず、検査装置40又は観察装置50において撮像対象物の撮像(傾斜推定用の撮像)が行われる。この撮像では、焦点位置は、必ずしも撮像対象物に焦点があったもの、即ち、合焦時の焦点位置である必要はない。従って、この撮像で得られる画像はデフォーカス画像であってもよい。例えばこの画像は、図6(a)に示すようなデフォーカス画像であってもよい。図6は、半導体デバイスの画像である。図6(a)に示すデフォーカス画像は、撮像時の焦点位置が合焦時の焦点位置から+5nmである場合の画像である。
傾斜推定システム30は、この画像から、画像の複数の位置における合焦時の焦点位置を推定する。傾斜推定システム30は、推定された、画像の複数の位置における合焦時の焦点位置から、画像に写った撮像対象物の傾斜を推定する。また、推定された合焦時の焦点位置を用いて、検査装置40又は観察装置50において撮像が行われることで、撮像対象物に焦点があった画像、即ち、フォーカス画像を得ることができる。例えば図6(b)に示すようなフォーカス画像が得られる。図6(b)に示すフォーカス画像は、図6(a)のデフォーカス画像に対応するものである。
推定対象画像取得部31は、撮像対象物が写った画像を取得して、当該画像から複数の部分画像である推定対象画像を取得する推定対象画像取得手段である。推定対象画像は、傾斜推定システム30において合焦時の焦点位置の推定に用いられる画像である。また、推定対象画像は、特徴量出力モデルへの入力に用いられる画像である。即ち、推定対象画像は、上述した学習用画像71に対応する。
推定対象画像取得部31は、検査装置40又は観察装置50によって撮像された画像を取得する。この際の検査装置40又は観察装置50による撮像は、上記の傾斜推定用の撮像である。例えば、推定対象画像取得部31は、取得した画像から複数の部分画像を切り出して推定対象画像とする。
推定対象画像取得部31は、特徴量出力モデルの入力に用いられる、予め設定されたサイズの部分画像である推定対象画像を取得した画像から切り出す。画像における、推定対象画像が切り出される位置は、撮像対象物が写っている部分である。画像における推定対象画像が切り出される位置は、予め設定されていてもよい。例えば、図7に示すように、推定対象画像取得部31は、画像90を、予め設定されたサイズに区切った複数の部分画像を推定対象画像91としてもよい。図7に示す例では、3×3の9つの推定対象画像91が、画像から切り出されて取得される。上記のように推定対象画像91が切り出される場合、画像90全体に撮像対象物が写っていれば、画像90全体から推定対象画像91が切り出されればよいし、画像90の一部に撮像対象物が写っていれば、その一部から推定対象画像91が切り出されればよい。また、画像に対して画像認識を行って撮像対象物が写っていると推定される位置を推定対象画像が切り出される位置としてもよい。傾斜推定システム30は、画像における推定対象画像が切り出された位置が、後述の機能でも用いられるように構成されている。
また、推定対象画像の種別は、上述した学習用画像と同様の種別である。例えば、推定対象画像は、撮像対象物からの放射を検出した画像、撮像対象物に光を照射した際の撮像対象物からの光を検出した画像、又は撮像対象物に光を照射した際の撮像対象物の電気特性を検出した画像であってよい。また、推定対象画像は、特定の波長の光(例えば、検査に用いる特定の波長の光)を撮像対象物に照射した際の画像であってもよい。
推定対象画像取得部31は、取得した複数の推定対象画像を焦点位置推定部32に出力する。
焦点位置推定部32は、特徴量出力モデルを用いて、推定対象画像取得部31によって取得された複数の推定対象画像それぞれから複数の推定対象画像それぞれの特徴量を出力して、出力された特徴量から複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定する焦点位置推定手段である。焦点位置推定部32は、焦点位置推定モデルを用いて、特徴量出力モデルから出力される特徴量から推定対象画像に対応する合焦時の焦点位置を推定してもよい。
焦点位置推定部32は、特徴量出力モデル生成システム20によって生成された特徴量出力モデル及び焦点位置推定モデルを入力して記憶しておき、推定に利用する。焦点位置推定部32は、推定対象画像取得部31から複数の推定対象画像を入力する。
焦点位置推定部32は、推定対象画像に基づく情報を特徴量出力モデルへ入力し、特徴量出力モデルからの出力である推定対象画像の特徴量を取得する。焦点位置推定部32は、取得した特徴量を焦点位置推定モデルへ入力し、焦点位置推定モデルからの出力である、推定対象画像に対応する合焦時の焦点位置を示す情報を当該焦点位置の推定結果として取得する。焦点位置推定部32は、複数の推定対象画像毎に、推定対象画像に対応する合焦時の焦点位置を示す情報を取得する。焦点位置推定部32は、取得した複数の推定対象画像に対応する合焦時の焦点位置を示す情報を傾斜推定部33に出力する。
傾斜推定部33は、焦点位置推定部32によって推定された複数の推定対象画像それぞれに対応する合焦時の焦点位置から、画像に写った撮像対象物の傾斜を推定する傾斜推定手段である。傾斜推定部33は、例えば、検査装置40又は観察装置50における撮像方向に対する撮像対象物の傾斜を推定する。傾斜推定部33は、以下のように撮像対象物の傾斜を推定する。
傾斜推定部33は、焦点位置推定部32から、複数の推定対象画像それぞれに対応する合焦時の焦点位置を示す情報を入力する。本実施形態では、推定対象画像に対応する合焦時の焦点位置に対応する撮像方向における位置が、撮像対象物の位置であるものとされる。推定対象画像は、画像における複数の位置から切り出されているため、画像における推定対象画像の各位置での撮像方向における撮像対象物の位置を得ることができる。それら複数の撮像対象物の位置から、撮像対象物の傾きを推定する。
例えば、傾斜推定部33は、撮像方向と垂直な面における座標軸毎の撮像対象物の傾きを推定する。傾斜推定部33は、図7に示すような画像90の推定対象画像91の各辺と平行な2つの座標軸であるX軸及びY軸毎に撮像対象物の傾きを推定する。例えば、傾斜推定部33は、図8(a)に示すような、撮像方向(Z軸方向)と垂直な面(図中のハッチングした面)に対するX軸における撮像対象物の傾斜の角度θ、及び図8(b)に示すような、撮像方向(Z軸方向)と垂直な面(図中のハッチングした面)に対するY軸における撮像対象物の傾斜の角度θを推定する。
図8には、各推定対象画像91から推定された合焦時の焦点位置を示す情報(具体的には、画像が撮像された際の焦点位置と、合焦時の焦点位置との差分)を示す(+2、0、-2、+3、0及び-3等の値である)。図8(a)は、撮像対象物が、X軸方向に傾斜している場合、具体的には、右側が下がっている場合の例を示している。図8(b)は、撮像対象物が、Y軸方向に傾斜している場合、具体的には、手前側が下がっている場合の例を示している。
傾斜推定部33は、角度θ及び角度θを以下の式によって算出する。
Figure 0007229439000003
ここで、xは、画像における推定対象画像の位置に応じた角度θの算出に用いるX軸方向の長さである。zは、xに対応する撮像方向(Z軸方向)の合焦時の焦点位置のずれの大きさである。yは、画像における推定対象画像の位置に応じた角度θの算出に用いるY軸方向の長さである。zは、yに対応する撮像方向(Z軸方向)の合焦時の焦点位置のずれの大きさである。
x及びyは、図7に示すように推定対象画像の位置に基づいて定まる。例えば、xは、傾斜の推定に用いられるX軸方向に互いに離れた、予め設定された2つの推定対象画像P,Pの位置(例えば、推定対象画像の中心座標Pcenter)のX軸方向の差である。即ち、x=|P-P|(X軸成分のみ)である。yは、傾斜の推定に用いられるY軸方向に互いに離れた、予め設定された2つの推定対象画像P,Pの位置(例えば、推定対象画像の中心座標Pcenter)のY軸方向の差である。即ち、y=|P-P|(X軸成分のみ)である。なお、画像における推定対象画像の位置が、予め設定されている場合には、上記のx及びyは、一定値となるため、予め傾斜推定部33に記憶されていてもよい。
及びzは、図8に示すように推定対象画像それぞれに対応する合焦時の焦点位置によって算出される。例えば、zは、上記の2つの推定対象画像P,Pに対応する合焦時の焦点位置Z,Zの差である。即ち、z=|Z-Z|である。zは、上記の2つの推定対象画像P,Pに対応する合焦時の焦点位置Z,Zの差である。即ち、z=|Z-Z|である。
撮像対象物の傾斜に用いる推定対象画像は、上記以外であってもよい。例えば、撮像対象物の傾斜に用いる推定対象画像は、以下のようにされて、傾斜が推定されてもよい。撮像対象物が写った画像を、それぞれが複数の推定対象画像を含むように複数の領域に分割する。例えば、画像を3×3の矩形の領域に分割する。領域(P)毎の複数の推定対象画像(Pa1,Pa2,Pa3,…)それぞれに対応する合焦時の焦点位置(Za1,Za2,Za3,…)から外れ値を除去する。外れ値を除去した後の合焦時の焦点位置のうちの中央値(Zmedian)を取る。当該中央値(Zmedian)及び当該中央値(Zmedian)に対応する推定対象画像(Pamedian)を、領域(P)を代表する合焦時の焦点位置及び推定対象画像として傾斜を推定する。
傾斜推定部33は、焦点位置推定部32によって推定された複数の推定対象画像それぞれに対応する合焦時の焦点位置から、画像に写った撮像対象物の傾斜を推定するのであれば、上記以外の方法で傾斜を推定してもよい。また、傾斜推定部33は、上述した角度θ及び角度θ以外を撮像対象物の傾斜として推定してもよい。傾斜推定部33は、推定した撮像対象物の傾斜を示す情報を制御部34に出力する。また、傾斜推定部33は、撮像対象物の傾斜の推定に用いた推定対象画像に対応する合焦時の焦点位置を示す情報も制御部34に出力してもよい。
制御部34は、傾斜推定部33によって推定された撮像対象物の傾斜に基づいて、撮像対象物の撮像時の傾斜を制御する制御手段である。制御部34は、焦点位置推定部32によって推定された焦点位置に基づいて、撮像対象物の撮像時の焦点位置を制御してもよい。
制御部34は、傾斜推定部33から、撮像対象物の傾斜を示す情報を入力する。また、制御部34は、傾斜推定部33から、推定対象画像に対応する合焦時の焦点位置を示す情報を入力してもよい。制御部34は、検査装置40又は観察装置50に対して、入力した情報によって示される撮像対象物の傾斜が撮像の際に解消されるように制御する。具体的には、制御部34は、入力した情報によって示される撮像対象物の傾斜と逆に撮像対象物を傾斜させるように検査装置40又は観察装置50を制御する。制御を受けた検査装置40又は観察装置50は、例えば、載置部を動作させて撮像の際の撮像対象物の傾斜を調整する。このように制御部34は、検査装置40又は観察装置50におけるチルト補正の制御を行う。これによって、検査装置40又は観察装置50によって撮像される画像は、撮像対象物の傾斜が適切な状態での画像となる。
また、制御部34は、検査装置40又は観察装置50に対して、撮像の際の焦点位置が、入力した情報によって示される合焦時の焦点位置となるように制御する。例えば、制御部34は、複数の推定対象画像のうち、予め設定された推定対象画像に対応する合焦時の焦点位置となるように制御する。制御を受けた検査装置40又は観察装置50は、例えば、ステージ46を動作させて撮像の際の焦点位置を調整する。これによって、検査装置40又は観察装置50によって撮像される画像はフォーカス画像となる。このように制御部34は、検査装置40又は観察装置50におけるオートフォーカスの制御を行う。以上が、傾斜推定システム30の構成である。
引き続いて、図9及び図10のフローチャートを用いて、本実施形態に係るコンピュータ10で実行される処理(コンピュータ10が行う動作方法)を説明する。まず、図9のフローチャートを用いて、特徴量出力モデル及び焦点位置推定モデルを生成する際に実行される処理、即ち、本実施形態に係る特徴量出力モデル生成システム20で実行される処理である特徴量出力モデル生成方法を説明する。
本処理では、まず、学習用画像取得部21によって、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像が取得される(S01、学習用画像取得ステップ)。また、学習用画像取得部21によって、学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報が取得される。続いて、特徴量出力モデル生成部22によって、学習用画像から機械学習によって特徴量出力モデルが生成される(S02、特徴量出力モデル生成ステップ)。この際、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像71の特徴量が比較されて、比較結果に基づいて機械学習が行われる。続いて、焦点位置推定モデル生成部23によって、合焦位置情報から、機械学習によって、焦点位置推定モデルが生成される(S03、焦点位置推定モデル生成ステップ)。
生成された特徴量出力モデル及び焦点位置推定モデルは、特徴量出力モデル生成システム20から傾斜推定システム30に出力される。傾斜推定システム30では、特徴量出力モデル及び焦点位置推定モデルが記憶されて、以下の処理で用いられる。以上が、本実施形態に係る特徴量出力モデル生成システム20で実行される処理である特徴量出力モデル生成方法である。
続いて、図10のフローチャートを用いて、推定対象画像に対応する合焦時の焦点位置を推定する際に実行される処理、即ち、本実施形態に係る傾斜推定システム30で実行される処理である傾斜推定方法を説明する。
本処理では、まず、推定対象画像取得部31によって、撮像対象物が写った画像が取得されて、当該画像から複数の部分画像である推定対象画像が取得される(S11、推定対象画像取得ステップ)。推定対象画像は、検査装置40又は観察装置50の傾斜推定用の撮像によって得られた画像に基づくものである。続いて、焦点位置推定部32によって、特徴量出力モデルが用いられて、複数の推定対象画像それぞれから複数の推定対象画像それぞれの特徴量が出力される。続いて、焦点位置推定部32によって、焦点位置推定モデルが用いられて、複数の推定対象画像それぞれの特徴量から推定対象画像それぞれに対応する合焦時の焦点位置が推定される(S12、焦点位置推定ステップ)。
続いて、傾斜推定部33によって、複数の推定対象画像それぞれに対応する合焦時の焦点位置から、画像に写った撮像対象物の傾斜が推定される(S13、傾斜推定ステップ)。続いて、制御部34によって、推定された上記の撮像対象物の傾斜に基づいて、検査装置40又は観察装置50による撮像対象物の新たな撮像時の傾斜が制御される(S14、制御ステップ)。これによって、検査装置40又は観察装置50によって撮像される画像は、撮像対象物の傾斜が適切な状態での画像となる。また、この際、制御部34によって、推定された上記の焦点位置に基づいて、検査装置40又は観察装置50による撮像対象物の撮像時の焦点位置が制御されてもよい。これによって、検査装置40又は観察装置50によって撮像される画像はフォーカス画像となる。以上が、本実施形態に係る傾斜推定システム30で実行される処理である傾斜推定方法である。
本実施形態では、機械学習によって、画像の特徴量を出力する特徴量出力モデルが生成される。この際、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像の特徴量が比較されて、機械学習は比較結果に基づいて行われる。当該生成によれば、例えば、画像に基づく情報を入力する既存の学習済モデルを利用することで、短時間で特徴量出力モデルを生成することができる。即ち、本実施形態によれば、焦点位置の推定等の画像に基づく推定に用いる学習済モデルである特徴量出力モデルを短時間の学習で生成可能とすることができる。
但し、上述したように特徴量出力モデルの生成には、必ずしも既存の学習済モデルが利用される必要はない。その場合でも、焦点位置に応じた適切な特徴量を出力することができる特徴量出力モデルを生成することができる。
また、上述したように、特徴量出力モデル生成のための機械学習は、互いに異なる2つの学習用画像が互いに同一の焦点位置に係るものである場合、当該2つの学習用画像の特徴量の差分が小さくなるように、かつ、互いに異なる2つの学習用画像が互いに異なる焦点位置に係るものである場合、当該2つの学習用画像の特徴量の差分が大きくなるように行われてもよい。この構成によれば、確実かつ適切に特徴量出力モデルを生成することができる。但し、機械学習は、必ずしも上記のように行われる必要はなく、2つの学習用画像の特徴量の比較結果に基づいて行われればよい。
また、上述したように、学習用画像及び推定対象画像は、撮像対象物からの放射を検出した画像、撮像対象物に光を照射した際の撮像対象物からの光を検出した画像、又は撮像対象物に光を照射した際の撮像対象物の電気特性を検出した画像であってもよい。更には、学習用画像及び推定対象画像は、特定の波長の光を撮像対象物に照射した際の画像であってもよい。これらの構成によれば、用いられる画像に種類に応じた適切な特徴量出力モデルの生成、及び特徴量出力モデルの利用を行うことができる。但し、学習用画像及び推定対象画像は、上記のものに限られず、焦点位置に応じた画像であればよい。
また、本実施形態のように、特徴量出力モデル生成システム20は、焦点位置推定モデルを生成する焦点位置推定モデル生成部23を更に備えていてもよい。この構成によれば、画像から合焦時の焦点位置を推定する焦点位置推定モデルを生成することができる。即ち、この構成によれば、特徴量出力モデルとあわせて、画像に基づく焦点位置の推定に用いる学習済モデルを短時間の学習で生成可能とすることができる。
但し、特徴量出力モデル生成システム20は、焦点位置推定モデル生成部23を備えていなくてもよい。即ち、特徴量出力モデル生成システム20は、特徴量出力モデルのみを生成する構成であってもよい。また、生成される特徴量出力モデルは、合焦時の焦点位置の推定以外の用途に用いられてもよい。
本発明に係る傾斜推定システム30では、画像の複数の部分画像である推定対象画像それぞれから、複数の推定対象画像それぞれに対応する合焦時の焦点位置が推定されて、撮像対象物の傾斜が推定される。従って、撮像対象物が写った画像が得られれば、撮像対象物の傾斜を短時間で推定することができる。特別な光学系によって撮像対象物の傾斜を推定する場合に必要であった、装置内に特別な光学系を設けるための構成(例えば、レンズターレット)及び空間が不要となる。また、特別な光学系を用意するコストも不要となる。また、ターレットの切替、レーザスキャン及び位置合わせ等の処理も不要となる。その場合と比べて撮像対象物の傾斜の推定時間を大幅に短縮することができる。
また、焦点位置の推定に用いられる特徴量出力モデルは、焦点位置の推定に適切な特徴量を出力することができ、これを用いることで適切に撮像対象物の傾斜を推定することができる。従って、本発明に係る傾斜推定システムによれば、撮像対象物の傾斜の推定を簡易な構成かつ短時間で行うことができる。
本実施形態に係る傾斜推定システム30では、合焦時の焦点位置の推定に上述した特徴量出力モデルが利用される。従って、本実施形態によれば、画像に基づく合焦時の焦点位置の推定を短時間の準備時間で行うことができる。また、本実施形態に係る傾斜推定システム30によれば、1回の傾斜推定用の撮像によって合焦時の焦点位置を推定することができる。そのため、焦点位置を変えながら複数回の撮像を行って合焦時の焦点位置を探索する場合と比べて、迅速に合焦時の焦点位置を推定することができる。その結果、迅速に撮像対象物の傾斜を推定することができる。
また、合焦時の焦点位置の推定には、上述した焦点位置推定モデルが用いられてもよい。この構成によれば、確実かつ適切に合焦時の焦点位置を推定することができる。その結果、確実かつ適切に撮像対象物の傾斜を推定することができる。但し、合焦時の焦点位置の推定には、上述した焦点位置推定モデルが用いられる必要はなく、特徴量出力モデルから出力される特徴量から推定が行われればよい。
また、本実施形態のように、傾斜推定システム30は、推定された撮像対象物の傾斜に基づいて、検査装置40又は観察装置50における撮像対象物の撮像時の傾斜を制御する制御部34を更に備えていてもよい。この構成によれば、検査装置40又は観察装置50において適切な傾斜での撮像対象物の撮像を行うことができる。。但し、傾斜推定システム30は、制御部34を備えていなくてもよい。即ち、傾斜推定システム30は、撮像対象物の傾斜を推定するものであればよい。
また、本実施形態に係る傾斜推定システム30と、上述した検査装置40又は観察装置50とを含めて一連のシステムとして構成することができる。即ち、本実施形態に係る半導体検査システムは、傾斜推定システム30と、検査装置40とを含むシステムとしてもよい。また、本実施形態に係る生体観察システムは、傾斜推定システム30と、観察装置50とを含むシステムとしてもよい。
なお、本実施形態では、コンピュータ10は、特徴量出力モデル生成システム20と、傾斜推定システム30とを含むこととしたが、特徴量出力モデル生成システム20と、傾斜推定システム30とが独立してそれぞれ実施されてもよい。
引き続いて、上述した一連の特徴量出力モデル生成システム20及び傾斜推定システム30による処理を実行させるための特徴量出力モデル生成プログラム及び傾斜推定プログラムを説明する。図11に示すように、特徴量出力モデル生成プログラム200は、コンピュータに挿入されてアクセスされる、あるいはコンピュータが備える、コンピュータ読み取り可能な記録媒体210に形成されたプログラム格納領域211内に格納される。記録媒体210は、非一時的な記録媒体であってもよい。
特徴量出力モデル生成プログラム200は、学習用画像取得モジュール201と、特徴量出力モデル生成モジュール202と、焦点位置推定モデル生成モジュール203とを備えて構成される。学習用画像取得モジュール201と、特徴量出力モデル生成モジュール202と、焦点位置推定モデル生成モジュール203とを実行させることにより実現される機能は、上述した特徴量出力モデル生成システム20の学習用画像取得部21と、特徴量出力モデル生成部22と、焦点位置推定モデル生成部23との機能とそれぞれ同様である。
図12に示すように、傾斜推定プログラム300は、コンピュータに挿入されてアクセスされる、あるいはコンピュータが備える、コンピュータ読み取り可能な記録媒体310に形成されたプログラム格納領域311内に格納される。記録媒体310は、非一時的な記録媒体であってもよい。なお、記録媒体310は、記録媒体210と同一であってもよい。
傾斜推定プログラム300は、推定対象画像取得モジュール301と、焦点位置推定モジュール302と、傾斜推定モジュール303と、制御モジュール304とを備えて構成される。焦点位置推定モジュール302と、傾斜推定モジュール303と、制御モジュール304とを実行させることにより実現される機能は、上述した傾斜推定システム30の推定対象画像取得部31と、焦点位置推定部32と、傾斜推定部33と、制御部34との機能とそれぞれ同様である。
なお、特徴量出力モデル生成プログラム200及び傾斜推定プログラム300は、その一部又は全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。また、特徴量出力モデル生成プログラム200及び傾斜推定プログラム300の各モジュールは、1つのコンピュータでなく、複数のコンピュータのいずれかにインストールされてもよい。その場合、当該複数のコンピュータによるコンピュータシステムよって上述した一連の処理が行われる。
10…コンピュータ、20…特徴量出力モデル生成システム、21…学習用画像取得部、22…特徴量出力モデル生成部、23…焦点位置推定モデル生成部、30…傾斜推定システム、31…推定対象画像取得部、32…焦点位置推定部、33…傾斜推定部、34…制御部、40…検査装置、41…カメラ、42…載置部、43…光源、44…光学系、45…対物レンズ、46…ステージ、50…観察装置、200…特徴量出力モデル生成プログラム、201…学習用画像取得モジュール、202…特徴量出力モデル生成モジュール、203…焦点位置推定モデル生成モジュール、210…記録媒体、211…プログラム格納領域、300…傾斜推定プログラム、301…推定対象画像取得モジュール、302…焦点位置推定モジュール、303…傾斜推定モジュール、304…制御モジュール、310…記録媒体、311…プログラム格納領域。

Claims (11)

  1. 画像に写った撮像対象物の傾斜を推定する傾斜推定システムであって、
    撮像対象物が写った画像を取得して、当該画像から複数の部分画像である推定対象画像を取得する推定対象画像取得手段と、
    画像に基づく情報を入力して当該画像の特徴量を出力する特徴量出力モデルを用いて、前記推定対象画像取得手段によって取得された複数の推定対象画像それぞれから複数の推定対象画像それぞれの特徴量を出力して、出力された特徴量から複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定する焦点位置推定手段と、
    前記焦点位置推定手段によって推定された複数の推定対象画像それぞれに対応する合焦時の焦点位置から、前記画像に写った撮像対象物の傾斜を推定する傾斜推定手段と、を備え、
    前記特徴量出力モデルは、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像から、機械学習によって生成され、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像の特徴量が比較されて、比較結果に基づいて機械学習が行われる傾斜推定システム。
  2. 前記焦点位置推定手段は、前記特徴量出力モデルから出力される特徴量を入力して、当該特徴量に係る画像に対応する合焦時の焦点位置を推定する焦点位置推定モデルを用いて複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定し、
    前記焦点位置推定モデルは、前記学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報から、機械学習によって生成される請求項1に記載の傾斜推定システム。
  3. 前記傾斜推定手段によって推定された撮像対象物の傾斜に基づいて、撮像対象物の撮像時の傾斜を制御する制御手段を更に備える請求項1又は2に記載の傾斜推定システム。
  4. 請求項1~3の何れか一項に記載の傾斜推定システムと、
    前記傾斜推定システムに係る撮像対象物として半導体デバイスが載置される載置部と、
    前記半導体デバイスを検査する検査部と、
    を備える半導体検査システム。
  5. 請求項1~3の何れか一項に記載の傾斜推定システムと、
    前記傾斜推定システムに係る撮像対象物として生体サンプルが載置される載置部と、
    前記生体サンプルを観察する観察部と、
    を備える生体観察システム。
  6. 画像に写った撮像対象物の傾斜を推定する傾斜推定方法であって、
    撮像対象物が写った画像を取得して、当該画像から複数の部分画像である推定対象画像を取得する推定対象画像取得ステップと、
    画像に基づく情報を入力して当該画像の特徴量を出力する特徴量出力モデルを用いて、前記推定対象画像取得ステップにおいて取得された複数の推定対象画像それぞれから複数の推定対象画像それぞれの特徴量を出力して、出力された特徴量から複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定する焦点位置推定ステップと、
    前記焦点位置推定ステップにおいて推定された複数の推定対象画像それぞれに対応する合焦時の焦点位置から、前記画像に写った撮像対象物の傾斜を推定する傾斜推定ステップと、を含み、
    前記特徴量出力モデルは、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像から、機械学習によって生成され、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像の特徴量が比較されて、比較結果に基づいて機械学習が行われる傾斜推定方法。
  7. 前記焦点位置推定ステップにおいて、前記特徴量出力モデルから出力される特徴量を入力して、当該特徴量に係る画像に対応する合焦時の焦点位置を推定する焦点位置推定モデルを用いて複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定し、
    前記焦点位置推定モデルは、前記学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報から、機械学習によって生成される請求項6に記載の傾斜推定方法。
  8. 前記傾斜推定ステップにおいて推定された撮像対象物の傾斜に基づいて、撮像対象物の撮像時の傾斜を制御する制御ステップを更に含む請求項6又は7に記載の傾斜推定方法。
  9. コンピュータを、画像に写った撮像対象物の傾斜を推定する傾斜推定システムとして動作させる傾斜推定プログラムであって、
    当該コンピュータを、
    撮像対象物が写った画像を取得して、当該画像から複数の部分画像である推定対象画像を取得する推定対象画像取得手段と、
    画像に基づく情報を入力して当該画像の特徴量を出力する特徴量出力モデルを用いて、前記推定対象画像取得手段によって取得された複数の推定対象画像それぞれから複数の推定対象画像それぞれの特徴量を出力して、出力された特徴量から複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定する焦点位置推定手段と、
    前記焦点位置推定手段によって推定された複数の推定対象画像それぞれに対応する合焦時の焦点位置から、前記画像に写った撮像対象物の傾斜を推定する傾斜推定手段と、として機能させ、
    前記特徴量出力モデルは、撮像時の焦点位置に係る焦点位置情報が対応付けられた複数の学習用画像から、機械学習によって生成され、互いに異なる2つの学習用画像に対応付けられた焦点位置情報に応じて当該2つの学習用画像の特徴量が比較されて、比較結果に基づいて機械学習が行われる傾斜推定プログラム。
  10. 前記焦点位置推定手段は、前記特徴量出力モデルから出力される特徴量を入力して、当該特徴量に係る画像に対応する合焦時の焦点位置を推定する焦点位置推定モデルを用いて複数の推定対象画像それぞれに対応する合焦時の焦点位置を推定し、
    前記焦点位置推定モデルは、前記学習用画像それぞれに対応する合焦時の焦点位置に係る合焦位置情報から、機械学習によって生成される請求項9に記載の傾斜推定プログラム。
  11. 前記コンピュータを、
    前記傾斜推定手段によって推定された撮像対象物の傾斜に基づいて、撮像対象物の撮像時の傾斜を制御する制御手段としても機能させる請求項9又は10に記載の傾斜推定プログラム。
JP2022564614A 2021-07-19 2022-03-10 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム Active JP7229439B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023020763A JP2023057119A (ja) 2021-07-19 2023-02-14 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021118847 2021-07-19
JP2021118847 2021-07-19
PCT/JP2022/010674 WO2023002677A1 (ja) 2021-07-19 2022-03-10 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023020763A Division JP2023057119A (ja) 2021-07-19 2023-02-14 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム

Publications (2)

Publication Number Publication Date
JPWO2023002677A1 JPWO2023002677A1 (ja) 2023-01-26
JP7229439B1 true JP7229439B1 (ja) 2023-02-27

Family

ID=84979881

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022564614A Active JP7229439B1 (ja) 2021-07-19 2022-03-10 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム
JP2023020763A Pending JP2023057119A (ja) 2021-07-19 2023-02-14 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023020763A Pending JP2023057119A (ja) 2021-07-19 2023-02-14 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム

Country Status (7)

Country Link
US (1) US20240282000A1 (ja)
EP (1) EP4336255A1 (ja)
JP (2) JP7229439B1 (ja)
KR (1) KR20240035945A (ja)
CN (1) CN117677818A (ja)
TW (1) TW202305659A (ja)
WO (1) WO2023002677A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7426575B1 (ja) 2023-07-13 2024-02-02 ダイトロン株式会社 外観検査装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328408A (ja) * 1998-05-12 1999-11-30 Advantest Corp データ処理装置および方法、情報記憶媒体
JP2012068188A (ja) * 2010-09-27 2012-04-05 Seiko Epson Corp 調整方法
JP2021021637A (ja) * 2019-07-29 2021-02-18 コベルコ建機株式会社 建設機械の位置特定システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108700411B (zh) 2016-03-09 2023-04-21 浜松光子学株式会社 测定装置、观察装置、及测定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328408A (ja) * 1998-05-12 1999-11-30 Advantest Corp データ処理装置および方法、情報記憶媒体
JP2012068188A (ja) * 2010-09-27 2012-04-05 Seiko Epson Corp 調整方法
JP2021021637A (ja) * 2019-07-29 2021-02-18 コベルコ建機株式会社 建設機械の位置特定システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7426575B1 (ja) 2023-07-13 2024-02-02 ダイトロン株式会社 外観検査装置

Also Published As

Publication number Publication date
US20240282000A1 (en) 2024-08-22
TW202305659A (zh) 2023-02-01
JP2023057119A (ja) 2023-04-20
WO2023002677A1 (ja) 2023-01-26
EP4336255A1 (en) 2024-03-13
CN117677818A (zh) 2024-03-08
JPWO2023002677A1 (ja) 2023-01-26
KR20240035945A (ko) 2024-03-19

Similar Documents

Publication Publication Date Title
CN110270769B (zh) 非破坏检测方法
TWI575625B (zh) 檢測晶圓之系統及方法
JP2012515434A (ja) ウェーハを検査するためのシステム及び方法
JP7229439B1 (ja) 傾斜推定システム、傾斜推定方法、傾斜推定プログラム、半導体検査システム及び生体観察システム
CN110121629B (zh) 借助角度选择的照射确定样本对象的布置
JP7056131B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7205013B1 (ja) 特徴量出力モデル生成システム、特徴量出力モデル生成方法、特徴量出力モデル生成プログラム及び特徴量出力モデル
KR102129069B1 (ko) 스캐닝 홀로그램 기반 자동광학검사 장치 및 방법
US20240257490A1 (en) Focal position estimation method, focal position estimation system, model generation method, model generation system, focal position estimation model, and non-transitory computer-readable storage medium
JP7291303B1 (ja) 焦点位置推定システム、焦点位置推定方法、焦点位置推定プログラム、半導体検査システム及び生体観察システム
KR102303073B1 (ko) 다면 비전 검사 알고리즘 및 이를 이용한 시스템
JP6802636B2 (ja) 顕微鏡システムおよび標本観察方法
JP2022152480A (ja) 3次元計測装置、3次元計測方法、プログラム、システム、及び物品の製造方法
CN108663370A (zh) 端面检查装置及其聚焦图像数据获取方法
WO2023002678A1 (ja) 特徴量出力モデル生成システム、特徴量出力モデル生成方法、特徴量出力モデル生成プログラム及び特徴量出力モデル
US20150168705A1 (en) Autofocus system and autofocus method for focusing on a surface
KR102191743B1 (ko) 거리 측정 장치
JP2013088570A (ja) 顕微鏡装置
JP6939501B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
US6449388B1 (en) Method for aligning an object with an image capture apparatus and a coupling eyepiece
WO2016204062A1 (ja) 形状測定装置およびそれを搭載した塗布装置
JP4874863B2 (ja) Temのデフォーカス量測定方法
Alaniz-Plata et al. Extrinsic calibration of complex machine vision system for mobile robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221024

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230214

R150 Certificate of patent or registration of utility model

Ref document number: 7229439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150